JP2023015654A - 画像処理システム、方法、及びプログラム - Google Patents
画像処理システム、方法、及びプログラム Download PDFInfo
- Publication number
- JP2023015654A JP2023015654A JP2021119564A JP2021119564A JP2023015654A JP 2023015654 A JP2023015654 A JP 2023015654A JP 2021119564 A JP2021119564 A JP 2021119564A JP 2021119564 A JP2021119564 A JP 2021119564A JP 2023015654 A JP2023015654 A JP 2023015654A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- hash
- tile
- screen frame
- hash value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Generation (AREA)
Abstract
Description
はじめに、本実施例で使用される用語の定義を行う。
[ラスタライズ]
一般的には、画像処理においてラスタ形式以外のデータ(例えば、ベクタ形式のデータなど)をラスタ形式に変換して画像化することをいうが、3次元コンピュータグラフィックスにおいては、ポリゴン等の形状データをピクセルデータ(フラグメントとも呼ばれる)に変換する処理をいう。本実施例においては、3次元コンピュータグラフィックスの処理に関し、各ピクセルの中間状態をG-Bufferのようなバッファに保存することをいう。本発明はこれらに限定されるものではないが、本発明の一実施形態におけるラスタライズの出力例は、ピクセルごとの物体表面の2次元位置(または、UV)、同表面の種類のID(分類ID)、同表面の光の量(光度)である。なお、UVは、テクスチャ毎の座標系(UV座標系)における値(UV値)である。
[タイル]
1画素(1ピクセル)をある程度まとめて取り扱う場合の単位である。一例として、16×16ピクセルを1タイルとすることができる。また、それぞれのピクセルは、UV値、分類ID、光度量といったデータセットで構成されることができる。
[世界規模]
ワールド(グローバル)座標系のスケールでのスコープをいう。
[タイル規模]
ローカル座標系(その1)のスケールでのスコープをいう。ここでのローカル座標系は、ピクセル規模へ落とし込む余地を残したローカル座標である。
[ピクセル規模]
ローカル座標系(その2)のスケールでのスコープをいう。ここでのローカル座標系は、本実施形態のおける最小のローカル座標である。
[SM(Streaming Multiprocessor)]
GPUのプロセッサ単位である。一例として、エヌビディアコーポレイション(NVIDIA Corporation)のGPUアーキテクチャについて、[https://images.nvidia.com/aem-dam/en-zz/Solutions/geforce/ampere/pdf/NVIDIA-ampere-GA102-GPU-Architecture-Whitepaper-V1.pdf]を参照されたい。
[ハッシュ分業]
本発明で採用される新規のアーキテクチャである。このアプローチによって、従来のニューラルネットワークを使ったCG処理における非効率を軽減または解消させることができる。ハッシュ分業は、概略的に、画面フレーム中のタイルごとにその内容(数値)をハッシュ化する(ハッシュ値を計算する)工程と、ハッシュ値をキーとして使用し、ルックアップテーブルから対応するタイルのニューラルネットワーク(モデル)における重みを選択して読み込む工程とを含む。ハッシュ分業は、ニューラルネットワークのサブドメインを切り離して実行する処理ということができる。
(本発明の特徴)
次に、本発明の特徴を説明する。本発明の新規な特徴は、ニューラルネットワークを使って、CGのリアルタイム描画処理を直接描画するように構成したことにある。
(本発明の基本概念)
本発明の基本概念は、リアルタイム描画に特化した非効率さを解決するためのプロセス群である。一例として、本発明の一実施形態においては、メッシュ情報及び/またはライティング情報をニューラルネットワークに適応できるように、メッシュ情報及び/またはライティング情報は、高度に構造化した入力フォーマットに変換される。
(1)メッシュ情報及び/またはライティング情報は、ニューラルネットワークのために高度に構造化した入力フォーマットに変換される。
(2)特定の描画に特化したニューラルネットワークを多数学習させ、タイルごとにハッシュによって使い分けるハッシュ分業プロセスが採用される。
(本発明の適用場面例 ~人の顔を描画する場合)
次に、本発明の理解の容易のために、本発明の適用場面の一例を挙げる。一般に、人間は、顔については非常に高い感受性をもって認知することができる。例えば、人間は、同じ人の表情が少しでも不自然だとそのことにすぐに気づくことができる。この事実は、もし、コンピュータが人間の顔の微妙な変化を正しく描画することができれば、人間にとっての映像の魅力を大きく増大させることができるということを意味する。近年、ハードウェアによるリアルタイム・レイトレーシングが実現されつつあり、例えば、物体の鏡面反射などは正確に計算できるようになってきているが、人間の肌の表面化散乱などを正確に計算することは未だに困難である。
(1)ラスタライズ
一実施形態において、ラスタライズ処理は、APIサーバ23で稼働しているAPIからのリクエストによって開始される。このラスタライズ処理の入力は、3Dグラフィックスデータの原型であり、一実施形態において、三角形メッシュ等のポリゴン情報(世界規模)、景色内の光源(世界規模)、カメラ情報(世界規模)が挙げられる。
(2)ハッシュ分業
一実施形態において、ハッシュ分業における入力は、UV(ピクセル当たり)、分類情報(ピクセル当たり)、及び世界規模における回路重み配列である。
(3)ニューラルネットワークの実行処理
一実施形態において、ニューラルネットワークの実行処理おける入力は、UV(ピクセル当たり)、光度情報(ピクセル当たり)、重み情報(画面フレーム中のタイル当たり)である。
(トレーニング工程及び前処理工程)
なお、図5に示した処理を実行する前に、本発明の一実施形態においても、ニューラルネットワークのトレーニング工程を有する。本発明の一実施形態においては、このトレーニング工程の前処理として種々の最適化を行うことも特徴の一つとなっている。これらの前処理工程については、図10~図12を参照して後述する。
(A)同じハッシュ値を持つタイルは、全体として取得されるすべてのタイプのタイルよりも狭い入力ドメイン(入力領域)を構成すること。
(B)ハッシュ値の計算は、高速であること(本出願時点におけるコンピュータのハードウェアスペックは十分にこれを満たす)。
(C)本発明はこれに限定されるものではないが、ハッシュ分業においては、ターゲットタイルのみが入力として使用されること。
図10~図12に示されるフローでは、図6や図9を参照して説明した処理を実行するためのニューラルネットワークのトレーニングのための前処理とトレーニングのフローが示されている。
そして、図11のステップS1101において処理を開始すると、ステップS1102へ進み、アバター生成器の出力ファイルが入力される。次に、S1103へ進み、メモリに記憶されている全処理対象のfbxファイルが読み出され、リスト化される。
(binary_file.name.u & hash.u)>0
であるかどうかが判断され、Yesの場合はステップS1207へ進み、Noの場合はステップS1204へ復帰する。
(binary_file.name.v & hash.v)>0
であるかどうかが判断され、Yesの場合はステップS1208へ進み、Noの場合はステップS1204へ復帰する。
本発明はこれに制限されるものではないが、本発明の一実施形態にかかる画像処理システム等においては、上述したような1×1の畳み込みカーネルが採用されることで、データ依存性の問題を一層解決することができる。また、本発明の他の実施形態においては、1×1の畳み込みカーネル以外の簡素な構成の畳み込みカーネルによっても、同様の効果を奏することができる。
(従来の畳み込みニューラルネットワーク)
従来の畳み込みニューラルネットワークの設計方法は、本願の出願時点において最新のGPUに実装した場合には、ハードウェアの利用効率が低下してしまうという問題がある。一方で、リアルタイム・レンダリングという特殊なケースでは、通常とは異なる有利なデータ依存特性により、これらの非効率性を改善できることは上述したとおりであり、そのためのアルゴリズムが「ハッシュ分業」である(「ハッシュ分業」の具体例については、図14~図16を参照してさらに詳細に説明する)。
(0×0)+(1×0)+(1×0)+
(0×0)+(1×0)+(2×(-4))
=-8
図18には、図17に示される計算が入力チャンネル数に応じてどのように変化するかが示されており、チャンネル数が3であった場合の計算例である。図18に示されるように、入力画像領域1810a~1810c内の畳み込みカーネル対象領域1811a~1811cと、畳み込みカーネル1820a~1820cとの演算による出力層1830上の出力は、以下のように求められる。
(0×1)+(0×0)+(0×0)+
(1×0)+(0×4)+(0×0)+
(1×0)+(0×0)+(0×0)+
(1×0)+(1×1)+(1×0)+
(2×1)+(1×1)+(1×0)+
(0×0)+(0×0)+(0×0)+
(0×0)+(1×0)+(1×0)+
(0×1)+(0×0)+(2×(-4))
=-4
このように、図17及び図18に示される、コンボリューショナルカーネルの計算コストは、入力ピクセル数と出力チャンネル数を掛け合わせて算出される。
(A)レイヤー数が多くなり、各レイヤーが複数のシェーダの呼び出しで構成されるようになると、小さなシェーダを大量に起動して終了させることによるオーバーヘッドが増大する。
(B)適度なチャンネル数の畳み込みニューラルネットワークは、メモリ命令に対する演算命令の不足が問題となる場合がある。チャンネル数が多ければ、特定の演算ではバランスは良くなるものの、最終的にはランタイムが長くなる。ニューラルネットワークは、ハードウェア利用の観点からは効率的といえるが、リアルタイム性の観点からは、従来のやり方では不十分なものとなる。したがって、チャンネル数が増えても、一部の演算は不均衡なままとなる。
(C)レイヤー内の演算及びレイヤー間の演算は、データに依存するシェーダ呼び出しとして実装されているため、中間出力をオフチップ・メモリに書き込んでから、別のシェーダ呼び出しに含まれる次の演算の入力として再読込する必要があるという改善すべき冗長性がある。
for(pixel in tile){hash_v|=(1<<pixel.v)}
3DモデルのもつテクスチャUVは、本発明の一実施形態におけるハッシュ分業を適用するには理想的であり、基本的には、初期ビットが0であるものを出力ビットとして1を立てる。また、望ましくは、さらに8倍するなどのスケーリングが採用される。
1<<((static_cast<int>(0.8f*8.0f))%8)
また、図15におけるハッシュ分業では、入力画像領域1510のピクセル1511内の値0.2が、以下の式に基づいて出力されている様子が示されている。
1<<((static_cast<int>(0.2f*8.0f))%8)
また、図16におけるハッシュ分業では、入力画像領域1610のピクセル1611内の値1.0が、以下の式に基づいて出力されている様子が示されている。
1<<((static_cast<int>(1.0f*8.0f))%8)
以下、同様に、入力画像領域内のピクセル内の値に対して、次々とハッシュ分業処理が実施されていくことになる。
[理論的効果]
以上述べた実施例から導かれる本発明の一実施形態における理論的効果は、次のとおりである。
(理論的効果1:ニューロン数の低減)
制約の多い入力領域では、より少ない数のニューロンで十分なパフォーマンスが得られる。このことは、パフォーマンス面にも顕著に反映される。さらに、理論的には、本発明が取り扱う十分に小さいニューラルネットワークは、1つの命令スケジューラ(またはスケジューラのクラスタ)のレジスタ内で、そのライフタイムの間生存することができるため、このことによる効果も期待できる(後述の理論的効果2~4を参照)。
(理論的効果2:シェーダの使用回数の低減)
すべてのニューラルネットワークを1回のシェーダ呼び出しで同時に解決することができるため、プラットフォームに起因する無数のオーバーヘッドを回避することができる。
(理論的効果3:ALUの使用率向上)
入力及び出力の両方がレジスタに格納されているため、ALUはメモリ依存によるレイテンシの制約を受けることがない。ALUを自身のペースで動作させることは、あらゆる面での性能向上につながる。
(理論的効果4:メモリトラフィックの削減)
外部メモリとの間で中間値を書き込んだり、それを読み返したりする必要がないため、メモリトラフィックは減少する。これにより、メモリサブシステムの負担が軽減され、パフォーマンスが向上する。
(理論的効果5:大容量システムのスケーラビリティ向上)
ニューラルネットワークが生成するレンダリング出力の幅や質が向上すると、ニューラルネットワークのサイズも大きくなり、ニューラルネットワークのサイズが大きくなると、パフォーマンスが低下する。本発明の一実施形態におけるハッシュ分業は、構造化されたサブドメインの切り離しにより、この問題を回避することができる。
(理論的効果6:ストリーミング・フレンドリー・アセット)
アートアセットとして展開する場合、ニューラルネットワークはSSDからリアルタイムにストリーミングされる必要がある。そこで、各ニューラルネットワークを小さくし、構造化された方法でラベル付けすることで、現在のスクリーンコンテンツに基づいて、必要に応じてメモリに出し入れすることができる。
(理論的効果7:制御性と安定性の向上)
メモリの依存関係が制限されることで、特定の結論に到達するために使用された入力を推測することが容易になる。これにより、ニューラルネットワークが、十分に異なる状況下で失敗してしまうリスクを低減させることができる。
(理論的効果8:ラスタ耐性のあるズーミング)
低解像度の出力に必要なロジックは、高解像度の出力に必要なロジックとは大きく異なる場合があり、本発明を適用しない場合には、入力ドメインのズームレベルが広いほどラスタアーティファクトが発生する。そこで、本発明の一実施形態にかかるハッシュアルゴリズムを採用したことで、ズームレベルに応じて異なるニューラルネットワークが学習され、このプロセスが自動的に行われるという利点がある。
(理論的効果9:レンダーエンジンの互換性)
本発明の一実施形態にかかるハッシュ分業は、他のエンジンと同じ3Dモデル、アニメーション、光源を使用しており、いくつかの(またはすべての)シーンオブジェクトのシェーダとして追加されることもできる。
(理論的効果10:ニューラルネットワークの画質)
オフラインでのGANベースのニューラルネットワークは、すでに現在のリアルタイムレンダリングシステムよりも高品質な出力を実現している。これを迅速かつ安定的に行うことにより、多くの種類のリアルタイムエンジンや製品にとって魅力的な選択肢を与えることができる。
(理論的効果11:資産形成)
ニューラルネットワークのトレーニングは、静的なアセットの3Dスキャンや、シェーダで使用されるPBR定数よりも、多くの点で寛容的である。シーン全体で一貫してフォトリアリスティックな品質レベルを維持するための現実的な選択肢を提供することができる。
11 情報処理サーバ群
111 リアルタイムクラスタ
112 ロードバランサ
12、13 PC(情報処理装置の一形態)
14 携帯電話(情報処理装置の一形態)
15、15a~15c タブレット端末(情報処理装置の一形態)
19 公衆回線(専用線、インターネット等)
23 APIサーバ
Claims (14)
- 画面フレーム中のメッシュ情報及びライティング情報をニューラルネットワークに適応できるように構造化された入力フォーマットに変換するための変換ステップと、
タイル毎に学習させた前記ニューラルネットワークを使い分けるためのハッシュ分業を行わせるステップとを含み、
前記ハッシュ分業には、
前記画面フレーム中のピクセル値をハッシュ化してハッシュ値を計算する工程と、
前記ハッシュ値をキーとして使用し、ルックアップテーブルから対応するタイルの前記ニューラルネットワークにおける重みを選択して読み込む工程とが含まれ、
前記ハッシュ分業による出力は、前記画面フレーム中のタイルに対応する前記ニューラルネットワークの重みによって推定される推定値である
ことを特徴とするコンピュータによる画像処理方法。 - 前記コンピュータは、処理ユニットにおいて互いに効率的に同期できる複数の部分プロセッサ(以下、「同期グループ」という。)と、前記同期グループが共有できるオンチップメモリとを有しており、
前記ハッシュ分業は、前記画面フレーム中のタイル毎に、前記同期グループを割り当て、前記ニューラルネットワークの重みを前記オンチップメモリ上に読み込む
請求項1に記載の方法。 - 前記コンピュータは、処理ユニットにおいて互いに効率的に同期できる複数の部分プロセッサ(以下、「同期グループ」という。)と、レジスタとを有しており、
前記ハッシュ分業は、前記画面フレーム中のタイル毎に、前記同期グループを割り当て、前記ニューラルネットワークの中間レイヤーの出力を前記レジスタに格納する
請求項1に記載の方法。 - 前記タイル毎のニューラルネットワークを学習させる工程において、前記画面フレーム中のピクセル値をハッシュ化してハッシュ値を計算し、前記ハッシュ値に対応するタイルの教師データのみを使い、前記ハッシュ値専用のニューラルネットワークの重みを学習させる
請求項1に記載の方法。 - 前記ハッシュ値に対応する前記タイルの前記教師データは、前記ハッシュ値によって、入力領域として近い他の複数のタイルの教師データを含む
請求項4に記載の方法。 - CPUとGPUとを備え、ニューラルネットワークを使ってレンダリング処理を行う画像処理システムであって、
画面フレーム中のメッシュ情報及びライティング情報をニューラルネットワークに適応できるように構造化された入力フォーマットに変換するための変換部と、
タイル毎に学習させた前記ニューラルネットワークを使い分けるためのハッシュ分業を行わせる処理部とを含み、
前記ハッシュ分業には、
前記画面フレーム中のピクセル値をハッシュ化してハッシュ値を計算する計算部と、
前記ハッシュ値をキーとして使用し、ルックアップテーブルから対応するタイルの前記ニューラルネットワークにおける重みを選択して読み込む読み込み部とが含まれ、
前記ハッシュ分業による出力は、前記画面フレーム中のタイルに対応する前記ニューラルネットワークの重みによって推定される推定値である
ことを特徴とする画像処理システム。 - 前記コンピュータは、処理ユニットにおいて互いに効率的に同期できる複数の部分プロセッサ(以下、「同期グループ」という。)と、前記同期グループが共有できるオンチップメモリとを有しており、
前記ハッシュ分業は、前記画面フレーム中のタイル毎に、前記同期グループを割り当て、前記ニューラルネットワークの重みを前記オンチップメモリ上に読み込む
請求項6に記載のシステム。 - 前記コンピュータは、処理ユニットにおいて互いに効率的に同期できる複数の部分プロセッサ(以下、「同期グループ」という。)と、レジスタとを有しており、
前記ハッシュ分業は、前記画面フレーム中のタイル毎に、前記同期グループを割り当て、前記ニューラルネットワークの中間レイヤーの出力を前記レジスタに格納する
請求項6に記載のシステム。 - 前記タイル毎のニューラルネットワークを学習させる工程において、前記画面フレーム中のピクセル値をハッシュ化してハッシュ値を計算し、前記ハッシュ値に対応するタイルの教師データのみを使い、前記ハッシュ値専用のニューラルネットワークの重みを学習させる
請求項6に記載のシステム。 - CPUとGPUとを備え、ニューラルネットワークを使ってレンダリング処理を行う画像処理システム上で実行されるプログラムであって、前記システムで実行されたとき、
前記CPUまたは前記GPUに、
画面フレーム中のメッシュ情報及びライティング情報をニューラルネットワークに適応できるように構造化された入力フォーマットに変換させるステップと、
タイル毎に学習させた前記ニューラルネットワークを使い分けるためのハッシュ分業を行わせるステップとを含み、
前記ハッシュ分業には、
前記画面フレーム中のピクセル値をハッシュ化してハッシュ値を計算させるステップと、
前記ハッシュ値をキーとして使用し、ルックアップテーブルから対応するタイルの前記ニューラルネットワークにおける重みを選択して読み込ませるステップとが含まれるものであって、
前記ハッシュ分業による出力は、前記画面フレーム中のタイルに対応する前記ニューラルネットワークの重みによって推定される推定値である
ことを特徴とするプログラム。 - 前記システムは、処理ユニットにおいて互いに効率的に同期できる複数の部分プロセッサ(以下、「同期グループ」という。)と、前記同期グループが共有できるオンチップメモリとを有しており、
前記ハッシュ分業は、前記画面フレーム中のタイル毎に、前記同期グループを割り当て、前記ニューラルネットワークの重みを前記オンチップメモリ上に読み込むステップを含む
請求項10に記載のプログラム。 - 前記システムは、処理ユニットにおいて互いに効率的に同期できる複数の部分プロセッサ(以下、「同期グループ」という。)と、レジスタとを有しており、
前記ハッシュ分業は、前記画面フレーム中のタイル毎に、前記同期グループを割り当て、前記ニューラルネットワークの中間レイヤーの出力を前記レジスタに格納するステップを含む
請求項10に記載のプログラム。 - 前記タイル毎のニューラルネットワークを学習させる工程において、前記画面フレーム中のピクセル値をハッシュ化してハッシュ値を計算し、前記ハッシュ値に対応するタイルの教師データのみを使い、前記ハッシュ値専用のニューラルネットワークの重みを学習させる
請求項10に記載のプログラム。 - 前記ハッシュ値に対応する前記タイルの前記教師データは、前記ハッシュ値によって、入力領域として近い他の複数のタイルの教師データを含む
請求項13に記載のプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021119564A JP7325775B2 (ja) | 2021-07-20 | 2021-07-20 | 画像処理システム、方法、及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021119564A JP7325775B2 (ja) | 2021-07-20 | 2021-07-20 | 画像処理システム、方法、及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023015654A true JP2023015654A (ja) | 2023-02-01 |
| JP7325775B2 JP7325775B2 (ja) | 2023-08-15 |
Family
ID=85131213
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021119564A Active JP7325775B2 (ja) | 2021-07-20 | 2021-07-20 | 画像処理システム、方法、及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7325775B2 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117274473A (zh) * | 2023-11-21 | 2023-12-22 | 北京渲光科技有限公司 | 一种多重散射实时渲染的方法、装置及电子设备 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020172043A2 (en) * | 2019-02-21 | 2020-08-27 | Facebook Technologies, Llc | Graphics processing chip with machine-learning based shader |
| WO2020231005A1 (ko) * | 2019-05-14 | 2020-11-19 | 삼성전자 주식회사 | 영상 처리 장치 및 그 동작방법 |
| JP2020537271A (ja) * | 2017-10-16 | 2020-12-17 | モビディウス リミテッド | ボリュームデータの密度座標ハッシュ化 |
| JP6833150B1 (ja) * | 2020-06-30 | 2021-02-24 | 三菱電機株式会社 | 加工プログラム検索装置および加工プログラム検索方法 |
-
2021
- 2021-07-20 JP JP2021119564A patent/JP7325775B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020537271A (ja) * | 2017-10-16 | 2020-12-17 | モビディウス リミテッド | ボリュームデータの密度座標ハッシュ化 |
| WO2020172043A2 (en) * | 2019-02-21 | 2020-08-27 | Facebook Technologies, Llc | Graphics processing chip with machine-learning based shader |
| WO2020231005A1 (ko) * | 2019-05-14 | 2020-11-19 | 삼성전자 주식회사 | 영상 처리 장치 및 그 동작방법 |
| JP6833150B1 (ja) * | 2020-06-30 | 2021-02-24 | 三菱電機株式会社 | 加工プログラム検索装置および加工プログラム検索方法 |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117274473A (zh) * | 2023-11-21 | 2023-12-22 | 北京渲光科技有限公司 | 一种多重散射实时渲染的方法、装置及电子设备 |
| CN117274473B (zh) * | 2023-11-21 | 2024-02-02 | 北京渲光科技有限公司 | 一种多重散射实时渲染的方法、装置及电子设备 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7325775B2 (ja) | 2023-08-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP4198909B1 (en) | IMAGE RENDERING METHOD, COMPUTER DEVICE, STORAGE MEDIA AND COMPUTER PROGRAM PRODUCT | |
| US12347016B2 (en) | Image rendering method and apparatus, device, medium, and computer program product | |
| US9928637B1 (en) | Managing rendering targets for graphics processing units | |
| JP4766906B2 (ja) | 拡張グラフィックスパイプラインを提供するシステムおよび方法 | |
| CN107251098B (zh) | 使用动态三维形状促进真实对象的真三维虚拟表示 | |
| US8111260B2 (en) | Fast reconfiguration of graphics pipeline state | |
| CN109478310A (zh) | 在计算环境中使用纹素着色器的多分辨率延迟着色 | |
| JP5320334B2 (ja) | 画像処理装置及びプログラム | |
| CN114028804A (zh) | 流式传输压缩光场 | |
| CN109643463A (zh) | 预设图形处理器内的分级式深度逻辑 | |
| US11094036B2 (en) | Task execution on a graphics processor using indirect argument buffers | |
| CN117953092A (zh) | 利用表示不同种类像素的映射创建图像 | |
| US20250182387A1 (en) | Reservoir-based spatiotemporal importance resampling utilizing a global illumination data structure | |
| CN116051713A (zh) | 渲染方法、电子设备和计算机可读存储介质 | |
| CN113822975B (zh) | 用于对图像进行有效采样的技术 | |
| JP7325775B2 (ja) | 画像処理システム、方法、及びプログラム | |
| JP2023525725A (ja) | データ圧縮の方法及び装置 | |
| CN119169175A (zh) | 一种模型渲染方法、装置、设备及介质 | |
| CN120318369A (zh) | 渲染方法、装置、计算机设备、存储介质 | |
| CN117745962A (zh) | 一种地质模型三维可视化方法 | |
| Kavalans | Exploring Modern Shader Technologies and Their Capabilities with WebGPU | |
| Patney | Programmable Graphics Pipelines | |
| CN120372883A (zh) | 数字孪生体的显示方法、训练方法及计算设备 | |
| CN115982485A (zh) | 一种页面渲染方法、装置、计算机设备及存储介质 | |
| HK40038691B (zh) | 图像渲染方法、装置、计算机设备和存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210818 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230130 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230130 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230406 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230411 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230417 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230725 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7325775 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |