[go: up one dir, main page]

JP2022034640A - Method and system for drawing virtual environment - Google Patents

Method and system for drawing virtual environment Download PDF

Info

Publication number
JP2022034640A
JP2022034640A JP2020138430A JP2020138430A JP2022034640A JP 2022034640 A JP2022034640 A JP 2022034640A JP 2020138430 A JP2020138430 A JP 2020138430A JP 2020138430 A JP2020138430 A JP 2020138430A JP 2022034640 A JP2022034640 A JP 2022034640A
Authority
JP
Japan
Prior art keywords
content
virtual environment
image frame
access control
control protection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020138430A
Other languages
Japanese (ja)
Inventor
敏哲 ▲ファン▼
Min-Che Huang
惟民 王
Weimin Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Priority to JP2020138430A priority Critical patent/JP2022034640A/en
Publication of JP2022034640A publication Critical patent/JP2022034640A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide a method and a system for drawing a virtual environment for drawing a plurality of contents in a virtual environment separately.SOLUTION: A method of drawing a virtual environment includes: acquiring multiple different digital contents in the same three-dimensional virtual environment; and drawing the digital contents in the three-dimensional virtual environment in each of multiple image frames based on position information of the digital contents. The position information includes a position of one of the digital contents in the three-dimensional virtual environment with respect to others, and is used to display the image frames and a blended result of the image frames.SELECTED DRAWING: Figure 2

Description

本発明は、仮想環境シミュレーションに関するものであり、特に、仮想環境を描画する方法及びシステムに関するものである。 The present invention relates to a virtual environment simulation, and more particularly to a method and a system for drawing a virtual environment.

仮想現実(VR)、拡張現実(AR)、複合現実(MR)、XR(Extended Reality)といった、感覚、知覚、及び/又は環境のシミュレーションのための技術は、最近人気が高まっている。前記技術は、ゲーム、軍事訓練、医療、遠隔操作等といった、複数の分野に応用することができる。 Techniques for sensation, perception, and / or environment simulation, such as virtual reality (VR), augmented reality (AR), mixed reality (MR), and XR (Extended Reality), have become increasingly popular these days. The technique can be applied to a plurality of fields such as games, military training, medical treatment, remote control, and the like.

仮想環境におけるアバター、メディアコンテンツ、その他の仮想物体といった、多くのデジタルコンテンツが存在することに注意されたい。しかし、コンテンツによっては著作権を有するか、又は機密である可能性がある。これらコンテンツは他人と共有できない可能性がある。例えば、デジタル著作権管理(DRM)で暗号化された映像は、許可のうえディスプレイで再生できるのみである。従来のアプローチでは、DRMで暗号化された映像がそこで再生される3次元シーンは、DRMで暗号化された画像フレームに直接描画され、これによりディスプレイがDRMで暗号化された画像フレームを表示しようと試みるとき、許可なしでは空白のフレームがディスプレイ上に表示される。ライブブロードキャストやコンテンツ共有には好都合でない可能性がある。 Note that there is a lot of digital content, such as avatars, media content, and other virtual objects in virtual environments. However, some content may be copyrighted or confidential. These contents may not be shared with others. For example, digital rights management (DRM) encrypted video can only be played on a display with permission. In the conventional approach, the 3D scene in which the DRM-encrypted video is played is drawn directly to the DRM-encrypted image frame, which causes the display to display the DRM-encrypted image frame. When trying, a blank frame will appear on the display without permission. It may not be convenient for live broadcasting or content sharing.

DRMで暗号化された映像を有する3次元シーンは共有することができない。従って、本発明は、仮想環境における複数のコンテンツを別々に描画するための、仮想環境を描画する方法及びシステムを対象とする。 3D scenes with DRM-encrypted video cannot be shared. Therefore, the present invention is directed to a method and system for drawing a virtual environment for separately drawing a plurality of contents in the virtual environment.

例示的な実施形態の1つにおいて、仮想環境を描画する方法は、次のステップを含むが、これに限定されない。複数のデジタルコンテンツが取得される。これらデジタルコンテンツは、同一の3次元仮想環境における異なるコンテンツである。デジタルコンテンツの位置情報に応じて、デジタルコンテンツが複数の画像フレームにそれぞれ描画される。位置情報は、3次元仮想環境におけるデジタルコンテンツのうちの1つの、他に対する位置を含む。画像フレームと、画像フレームのブレンド結果は、表示されるために用いられる画像フレームである。 In one of the exemplary embodiments, the method of drawing the virtual environment includes, but is not limited to, the following steps. Multiple digital contents are acquired. These digital contents are different contents in the same three-dimensional virtual environment. The digital content is drawn in each of a plurality of image frames according to the position information of the digital content. The location information includes the location of one of the digital contents in the three-dimensional virtual environment with respect to the other. The image frame and the blended result of the image frame are the image frames used to be displayed.

例示的な実施形態の1つにおいて、仮想環境を描画するシステムは、ホストディスプレイと、メモリと、プロセッサとを含むが、これに限定されない。メモリはプログラムコードを格納する。プロセッサはホストディスプレイとメモリとに連接され、次のステップを実行するためプログラムコードをロードする。プロセッサは複数のデジタルコンテンツを取得し、デジタルコンテンツの位置情報に応じて、デジタルコンテンツをそれぞれ複数の画像フレームに描画する。これらデジタルコンテンツは、同一の3次元仮想環境における異なるコンテンツである。位置情報は、3次元仮想環境における1つの3次元コンテンツの、他に対する位置を含む。画像フレームと、画像フレームのブレンド結果は、ホストディスプレイ上に表示されるために用いられる画像フレームである。 In one of the exemplary embodiments, the system that renders the virtual environment includes, but is not limited to, a host display, memory, and a processor. The memory stores the program code. The processor is connected to the host display and memory and loads the program code to perform the next step. The processor acquires a plurality of digital contents and draws the digital contents in a plurality of image frames according to the position information of the digital contents. These digital contents are different contents in the same three-dimensional virtual environment. The position information includes the position of one 3D content in the 3D virtual environment with respect to the other. The image frame and the blended result of the image frame are the image frames used to be displayed on the host display.

上記を鑑み、1以上の実施形態において提供される仮想環境を描画する方法及びシステムによると、1つの3次元仮想環境における複数のデジタルコンテンツが別々に描画される。従って、描画されたフレーム又はブレンド結果は、異なる要件のため、別々に表示されることができる。 In view of the above, according to the method and system for drawing the virtual environment provided in one or more embodiments, a plurality of digital contents in one three-dimensional virtual environment are drawn separately. Therefore, the drawn frames or blend results can be displayed separately due to different requirements.

ただし、この概要は本発明の全ての様態と実施形態を含むものではなく、如何なる方法でも限定又は制限を意図するものではないことを理解されたい。そして、ここで開示される発明は、その明らかな改善と改変を含むと当業者により理解される。 However, it should be understood that this overview does not include all aspects and embodiments of the invention and is not intended to be limiting or limiting in any way. The inventions disclosed herein are then understood by those of skill in the art to include their apparent improvements and modifications.

本発明の更なる理解のため添付図面が含まれ、本明細書に包含され、本明細書の一部を構成する。図面は本発明の実施形態を表し、明細書と共に、本発明の原理を説明する役割を果たす。
本発明の例示的な実施形態の1つによるシステムを表すブロック図である。 本発明の例示的な実施形態の1つによるソフトウェア構造を表すブロック図である。 本発明の例示的な実施形態の1つによる仮想環境を描画する方法を表すフロー図である。 本発明の例示的な実施形態の1つによるエンジン構造を表す概略図である。 本発明の例示的な実施形態の1つによる、もう1つのエンジン構造を表す概略図である。 本発明の例示的な実施形態の1つによるコンテンツを共有する方法を表すフロー図である。
Attachments are included for further understanding of the invention, are incorporated herein and constitute part of this specification. The drawings represent embodiments of the invention and, together with the specification, serve to explain the principles of the invention.
It is a block diagram which shows the system by one of the exemplary embodiments of this invention. It is a block diagram which shows the software structure by one of the exemplary embodiments of this invention. It is a flow diagram which shows the method of drawing the virtual environment by one of the exemplary embodiments of this invention. It is a schematic diagram which shows the engine structure by one of the exemplary embodiments of this invention. It is a schematic diagram which shows the other engine structure by one of the exemplary embodiments of this invention. It is a flow diagram which shows the method of sharing the content by one of the exemplary embodiments of this invention.

本発明の好ましい実施形態の詳細を述べる。実施例は添付の図面に表される。可能な限り、図面と明細書において同一の符号が同一又は類似の部材に対し用いられる。 Details of preferred embodiments of the present invention will be described. Examples are shown in the accompanying drawings. Wherever possible, the same reference numerals are used for the same or similar members in the drawings and the specification.

図1Aは、本発明の例示的な実施形態の1つによるシステム1を表すブロック図である。図1Aを参照し、システム1は、1以上のクライアントデバイス10と、サーバ30と、ホスト装置100とを含むが、これに限定されない。システム1は、VR、AR、MR、XR又は他の現実シミュレーション関連技術に適合される。 FIG. 1A is a block diagram showing a system 1 according to one of the exemplary embodiments of the present invention. With reference to FIG. 1A, system 1 includes, but is not limited to, one or more client devices 10, a server 30, and a host device 100. System 1 is adapted for VR, AR, MR, XR or other reality simulation related techniques.

クライアントデバイス10は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、又は他のディスプレイを有する、携帯電話、スクリーン、テレビ、モニタ、又は他の電子デバイスであってよいが、これに限定されない。いくつかの実施形態において、クライアントデバイス10は、例えば、仮想環境における画像、クラウドからロードされた映像、又はサーバ30により送信された写真である、マルチメディアデータ画像を処理するために用いられる。 The client device 10 is a mobile phone, screen, television, monitor, or other electronic device having a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or another display. Good, but not limited to this. In some embodiments, the client device 10 is used to process a multimedia data image, for example, an image in a virtual environment, a video loaded from the cloud, or a photo transmitted by a server 30.

サーバ30は、クラウドサーバ、ストリーミングサーバ、パーソナルコンピュータ等であってよい。いくつかの実施形態において、サーバ30は映像ストリームを提供するために用いられ、これにより映像はクライアントデバイス10上で再生できる。 The server 30 may be a cloud server, a streaming server, a personal computer, or the like. In some embodiments, the server 30 is used to provide a video stream, which allows the video to be played back on the client device 10.

ホスト装置100は、ホストディスプレイ110と、モーションセンサ130と、メモリ150と、プロセッサ170とを含むが、これに限定されない。ホスト装置100は、VR、AR、MR、XR応用に適合可能なヘッドマウントディスプレイ(HMD)又はデジタル眼鏡であることができるが、これに限定されない。 The host device 100 includes, but is not limited to, a host display 110, a motion sensor 130, a memory 150, and a processor 170. The host device 100 can be, but is not limited to, a head mounted display (HMD) or digital eyeglasses compatible with VR, AR, MR, XR applications.

ホストディスプレイ110は、LCD、LEDディスプレイ、OLEDディスプレイ、又は他のディスプレイであってよい。1つの実施形態において、ホストディスプレイ110は、例えば、プロセッサ170から送信された画像、仮想現実画像、映像、又は写真である、データを表示するために用いられる。1つの実施形態において、ホストディスプレイ110は主装置に組み込まれてよい。いくつかの実施形態において、ホストディスプレイ110は(スマートフォン、タブレット等といった)外部装置のディスプレイであってよく、外部装置はHMDの本体に置かれることができる。 The host display 110 may be an LCD, an LED display, an OLED display, or another display. In one embodiment, the host display 110 is used to display data, for example, an image, a virtual reality image, a video, or a photograph transmitted from a processor 170. In one embodiment, the host display 110 may be incorporated into the main unit. In some embodiments, the host display 110 may be the display of an external device (such as a smartphone, tablet, etc.), which can be placed on the body of the HMD.

モーションセンサ130は、加速度計、ジャイロスコープ、磁力計、レーザセンサ、慣性測定ユニット(IMU)、赤外線(IR)センサ、画像センサ、深度カメラ、又は上記のセンサの任意の組合せであってよい。1つの実施形態において、モーションセンサ130は、モーションセンサ130の感知結果(例えば、カメラ画像、感知強度値等)からモーション感知データを生成するため、ホスト装置100又はシステム1の動きを感知するために用いられる。1つの例として、モーション感知データは、3-DoF(Degree of Freedom:自由度)データを含み、3-DoFデータは、ヨー、ロール、ピッチの加速度といった、3次元(3D)空間におけるユーザの頭部の回転データに関連する。もう1つの例として、モーション感知データは、6-DoFデータを含む。3-DoFデータと比較し、6-DoFデータは、サージ、ヒーブ、スウェイの加速度といった、3つの垂直軸におけるユーザの頭部の変位に更に関連する。もう1つの例として、モーション感知データは、2次元/3次元空間におけるユーザの頭部の相対位置及び/又は変位を含む。いくつかの実施形態において、モーションセンサ130はホスト装置100と接続される手持ち型コントローラ又は装着型装置に組み込まれるか、又は、ホスト装置100に組み込まれることができる。 The motion sensor 130 may be an accelerometer, a gyroscope, a magnetic field meter, a laser sensor, an inertial measurement unit (IMU), an infrared (IR) sensor, an image sensor, a depth camera, or any combination of the above sensors. In one embodiment, the motion sensor 130 generates motion sensing data from the sensing results (eg, camera image, sensing intensity value, etc.) of the motion sensor 130, and thus senses the movement of the host device 100 or the system 1. Used. As an example, motion sensing data includes 3-DoF (Degree of Freedom) data, and 3-DoF data is the user's head in three-dimensional (3D) space such as yaw, roll, and pitch acceleration. It is related to the rotation data of the part. As another example, motion sensing data includes 6-DoF data. Compared to 3-DoF data, 6-DoF data is further related to the displacement of the user's head in three vertical axes: surge, heave, and sway acceleration. As another example, the motion sensing data includes the relative position and / or displacement of the user's head in 2D / 3D space. In some embodiments, the motion sensor 130 can be integrated into a handheld controller or wearable device connected to the host device 100, or can be integrated into the host device 100.

メモリ150は、固定又は取り外し可能なランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリ、類似のデバイス、又は上記デバイスの組合せの如何なる類別であってもよい。メモリ150は、プログラムコード、デバイス構成、バッファデータ、又は、(モーション感知データ、3次元コンテンツ、又は画像フレームといった)永続的データを記録し、これらデータについては後に紹介する。 The memory 150 may be of any sort of fixed or removable random access memory (RAM), read-only memory (ROM), flash memory, similar devices, or a combination of the above devices. The memory 150 records program code, device configurations, buffer data, or persistent data (such as motion-sensing data, 3D content, or image frames), which will be introduced later.

プロセッサ170は、ホストディスプレイ110と、モーションセンサ130と、メモリ150とに連接される。プロセッサ170は、本発明の例示的な実施形態の手順を実行するため、メモリ150に格納されたプログラムコードをロードするよう構成される。 The processor 170 is connected to the host display 110, the motion sensor 130, and the memory 150. The processor 170 is configured to load the program code stored in the memory 150 in order to perform the procedure of the exemplary embodiment of the invention.

いくつかの実施形態において、プロセッサ170は、中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、画像処理装置(GPU)、デジタル信号処理(DSP)チップ、フィールドプログラマブルゲートアレイ(FPGA)であってよい。プロセッサ170の機能は、独立した電子デバイス又は集積回路(IC)により実装されてもよく、プロセッサ170の動作はソフトウェアにより実装されてもよい。 In some embodiments, the processor 170 may be a central processing unit (CPU), a microprocessor, a microcontroller, an image processing unit (GPU), a digital signal processing (DSP) chip, a field programmable gate array (FPGA). .. The function of the processor 170 may be implemented by an independent electronic device or an integrated circuit (IC), and the operation of the processor 170 may be implemented by software.

図1Bは、本発明の例示的な実施形態の1つによるソフトウェア構造を表すブロック図である。プロセッサ170は、対応するプログラムコードをロードし、1以上の描画エンジン171と合成プラグイン173とを実行する。描画エンジン171は、3次元モデルを2次元画像に変換する3次元コンピュータグラフィックス処理である、3次元描画処理を実行する。いくつかの実施形態において、描画エンジン171により変換された2次元画像は、3次元仮想環境における位置情報を含む。合成プラグイン173は、描画エンジン171から出力された2以上の画像フレームをブレンド又は組み合わせる。 FIG. 1B is a block diagram showing a software structure according to one of the exemplary embodiments of the present invention. The processor 170 loads the corresponding program code and executes one or more drawing engines 171 and the synthesis plug-in 173. The drawing engine 171 executes a three-dimensional drawing process, which is a three-dimensional computer graphics process for converting a three-dimensional model into a two-dimensional image. In some embodiments, the 2D image transformed by the drawing engine 171 includes location information in a 3D virtual environment. The compositing plug-in 173 blends or combines two or more image frames output from the drawing engine 171.

1つの実施形態において、ホスト装置100は、ホストディスプレイ110と、モーションセンサ130と、メモリ150と、プロセッサ170とを含み、有線接続、無線接続、又はデータを送信できる任意の通信の種類を介し、サーバ30又はクライアントデバイス10と通信する。いくつかの実施形態において、プロセッサ170は、ホストディスプレイ110とモーションセンサ130と共に同一の装置に設けられなくてもよい。ただし、ホストディスプレイ110、モーションセンサ130、プロセッサ170をそれぞれ搭載する装置は、互いにデータを送受信するため、Bluetooth、Wi-Fi、赤外線無線通信といった、互換性のある通信技術を有する通信トランシーバ、又は物理的な伝送路を更に含んでよい。例えば、モーションセンサ130がホスト装置100の外部に設けられるのに対し、ホストディスプレイ110とプロセッサ170とはホスト装置100に設けられてよい。もう1つの例として、ホストディスプレイ110とモーションセンサ130が演算装置の外部に設けられるのに対し、プロセッサ170は演算装置内に設けられてよい。 In one embodiment, the host device 100 includes a host display 110, a motion sensor 130, a memory 150, and a processor 170, via a wired connection, a wireless connection, or any type of communication capable of transmitting data. Communicates with the server 30 or the client device 10. In some embodiments, the processor 170 may not be provided in the same device along with the host display 110 and the motion sensor 130. However, since the devices equipped with the host display 110, the motion sensor 130, and the processor 170 each transmit and receive data to and from each other, they are communication transceivers or physical devices having compatible communication technologies such as Bluetooth, Wi-Fi, and infrared wireless communication. Transmission line may be further included. For example, the motion sensor 130 may be provided outside the host device 100, whereas the host display 110 and the processor 170 may be provided in the host device 100. As another example, the host display 110 and the motion sensor 130 may be provided outside the arithmetic unit, whereas the processor 170 may be provided inside the arithmetic unit.

本発明の1以上の実施形態において提供される動作処理をより理解し易くするよう、システム1の動作処理を詳述するため、いくつかの実施形態を以下に例示する。システム1内のデバイスとモジュールは、ここで提供される仮想環境を描画する方法を説明するため、次の実施形態において応用される。該方法の各ステップは、実際の実装状況に応じて調整でき、ここで説明されるものに限定されるべきではない。 In order to make it easier to understand the operation processing provided in one or more embodiments of the present invention, some embodiments are illustrated below in order to detail the operation processing of the system 1. The devices and modules in the system 1 are applied in the following embodiments to illustrate how to render the virtual environment provided herein. Each step of the method can be adjusted according to the actual mounting situation and should not be limited to those described herein.

図2は、本発明の例示的な実施形態の1つによる仮想環境を描画する方法を表すフロー図である。図2を参照し、プロセッサ170は、複数のデジタルコンテンツを取得してよい(ステップS210)。具体的には、該デジタルコンテンツは、3次元仮想環境における現実の又は仮想の3次元シーン、アバター、映像、写真、又は他の仮想オブジェクトであってよい。映像又は写真ファイルは、3次元仮想環境における対応する表面テクスチャを生成するため、デコーダによりデコードされてよい。3次元仮想環境は、ゲーム環境、仮想社会環境、又は仮想会議であってよい。1つの実施形態において、デジタルコンテンツは、アクセス制御保護のない第1のコンテンツと、アクセス制御保護を有する第2のコンテンツとを含む。アクセス制御保護は、デジタル著作権管理(DRM)又は他の著作権関連管理技術といった、デジタルコンテンツのアクセス制御に関連する。デジタルコンテンツのアクセス制御は、年齢分類、メンバー等級分類、管理分類、またはその他のアクセス制御管理の種類に関連してよい。いくつかの実施形態において、アクセス制御保護を有する第2のコンテンツは、ホストディスプレイ110上には提示されるが、クライアントデバイス10には提示されない。例えば、第2のコンテンツがクライアントデバイス10上で表示されることが許可されていない場合、クライアントデバイス10上には空白又は全黒色フレームが提示される。1つの実施形態において、第1のコンテンツは3次元シーンであり、第2のコンテンツはアクセス制御保護を有する映像である。いくつかの実施形態において、第1のコンテンツと第2のコンテンツは、同一の3次元仮想環境における如何なるオブジェクト又は3次元モデルであってもよい。 FIG. 2 is a flow chart showing a method of drawing a virtual environment according to one of the exemplary embodiments of the present invention. With reference to FIG. 2, the processor 170 may acquire a plurality of digital contents (step S210). Specifically, the digital content may be a real or virtual 3D scene, avatar, video, photo, or other virtual object in a 3D virtual environment. The video or photographic file may be decoded by a decoder to generate the corresponding surface texture in a 3D virtual environment. The three-dimensional virtual environment may be a game environment, a virtual social environment, or a virtual conference. In one embodiment, the digital content includes a first content without access control protection and a second content with access control protection. Access control protection relates to access control of digital content, such as digital rights management (DRM) or other copyright related management techniques. Access control of digital content may be related to age classification, member classification, management classification, or other type of access control management. In some embodiments, the second content with access control protection is presented on the host display 110 but not on the client device 10. For example, if the second content is not allowed to be displayed on the client device 10, a blank or all black frame is presented on the client device 10. In one embodiment, the first content is a three-dimensional scene and the second content is a video with access control protection. In some embodiments, the first content and the second content may be any object or 3D model in the same 3D virtual environment.

プロセッサ170は、デジタルコンテンツを複数の画像フレームにそれぞれ描画してよい(ステップS230)。具体的には、クライアントデバイス10又はホストディスプレイ110上に3次元仮想環境を提示するため、プロセッサ170は3次元描画処理を実行してよい。3次元描画処理は、3次元モデルを2次元画像に変換する3次元コンピュータグラフィックス処理である。3次元描画処理は、例えば、アプリケーションステージ、ジオメトリ処理ステージ、およびラスタライゼーションステージを含んでよい。アプリケーションステージにおいて、例えば、入力デバイスを介した又はアニメーションの間のユーザインタラクションにより、必要に応じてシーンに改変を加えられる。ジオメトリ変換ステージにおいて、ポリゴンとそれらの頂点の処理が実行される。ジオメトリ処理ステージは、例えば、頂点シェーディング、プロジェクション、クリッピング、スクリーンマッピングである。ラスタライゼーションステージにおいて、グリッドポイントである離散フラグメントは、ジオメトリ処理ステージから出力された連続プリミティブから作成される。 The processor 170 may draw the digital content in each of a plurality of image frames (step S230). Specifically, in order to present the three-dimensional virtual environment on the client device 10 or the host display 110, the processor 170 may execute the three-dimensional drawing process. The 3D drawing process is a 3D computer graphics process that converts a 3D model into a 2D image. The 3D drawing process may include, for example, an application stage, a geometry processing stage, and a rasterization stage. At the application stage, the scene can be modified as needed, for example through user interaction through input devices or between animations. In the geometry transformation stage, processing of polygons and their vertices is performed. Geometry processing stages are, for example, vertex shading, projection, clipping, screen mapping. In the rasterization stage, the discrete fragments that are grid points are created from the continuous primitives output from the geometry processing stage.

1つの実施形態において、プロセッサ170は、モーションセンサ130から取得されたホスト装置100又はシステム1のモーション感知データに応じて、画像フレームを生成してよい。ジオメトリ処理ステージにおいて、3次元仮想環境における、ユーザを代表する、ビューワーが定義される。プロセッサ170は、そこからシーンが描画される、ビューワーの視界の位置と方向を判定するため、ホスト装置100のモーション感知データを用いる。例えば、ユーザの頭部が動いた又は回転した場合、視界の3次元シーンも変化してよく、描画処理から出力された画像フレームも、ホスト装置100又はシステム1の動き又は回転に伴い変化してよい。 In one embodiment, the processor 170 may generate an image frame according to the motion sensing data of the host device 100 or the system 1 acquired from the motion sensor 130. In the geometry processing stage, a viewer representing the user in the 3D virtual environment is defined. The processor 170 uses the motion sensing data of the host device 100 to determine the position and direction of the viewer's field of view from which the scene is drawn. For example, when the user's head moves or rotates, the three-dimensional scene of the field of view may change, and the image frame output from the drawing process also changes with the movement or rotation of the host device 100 or the system 1. good.

1つの実施形態において、デジタルコンテンツを描画するため、1以上の3次元描画エンジンがプロセッサ170により提供される。いくつかの実施形態において、1つのマスタ3次元描画エンジンと、1以上のスレーブ3次元描画エンジンとが提供される。マスタ3次元描画エンジンは、アクセス制御保護のない第1のコンテンツを描画するために用いられ、スレーブ3次元描画エンジンは、アクセス制御保護を有する第2のコンテンツを描画するために用いられる。例えば、マスタ3次元描画エンジンは3次元シーンを画像フレームに描画し、スレーブ3次元描画エンジンはアクセス制御保護を有する映像を画像フレームに描画する。 In one embodiment, one or more 3D drawing engines are provided by the processor 170 to draw digital content. In some embodiments, one master 3D drawing engine and one or more slave 3D drawing engines are provided. The master 3D drawing engine is used to draw the first content without access control protection, and the slave 3D drawing engine is used to draw the second content with access control protection. For example, the master 3D drawing engine draws a 3D scene in an image frame, and the slave 3D drawing engine draws an image having access control protection in the image frame.

図3は、本発明の例示的な実施形態の1つによるエンジン構造3を表す概略図である。図3を参照し、エンジン構造3は、マスタ3次元描画エンジン31と、1以上のスレーブ3次元描画エンジン331~33nとを含み、nは正の数であり、スレーブ3次元描画エンジン331~33nの数量である。アクセス制御保護を有する第2のコンテンツが3次元仮想環境に存在しない場合、マスタ3次元描画エンジンがアクセス制御保護のない第1のコンテンツを画像フレームに描画するのみであり、出力された画像フレームはフレームバッファ35に格納される。アクセス制御保護を有する第2のコンテンツが3次元仮想環境に存在する場合、マスタ3次元描画エンジン31は、第2のコンテンツをスレーブ3次元描画エンジン331に送信してよい。マスタ3次元描画エンジン31と複数のスレーブ3次元描画エンジン331~33nは、それぞれデジタルコンテンツを描画してよい。いくつかの実施形態において、異なる3次元描画エンジン331~33nは、異なるフォーマット、異なる保護プロトコル、又は異なる解像度で、デジタルコンテンツを描画してよい。3次元描画エンジン331~33nの性能と機能とに基づき、1以上の第2のコンテンツが対応する3次元描画エンジンに順に送信されてよく、これにより各3次元描画エンジン331~33nは、3次元描画エンジン331~33nの性能と機能とによって、対応する第2のコンテンツを描画する。即ち、第2のコンテンツは3次元描画エンジン331から3次元描画エンジン332へと送信されてよい。次いで、最後の3次元描画エンジン33nが全ての第2のコンテンツの画像フレームをフレームバッファ35へ出力する。 FIG. 3 is a schematic diagram showing an engine structure 3 according to one of the exemplary embodiments of the present invention. Referring to FIG. 3, the engine structure 3 includes a master 3D drawing engine 31 and one or more slave 3D drawing engines 331 to 33n, where n is a positive number and the slave 3D drawing engines 331 to 33n. Is the quantity of. If the second content with access control protection does not exist in the 3D virtual environment, the master 3D drawing engine only draws the first content without access control protection in the image frame, and the output image frame is It is stored in the frame buffer 35. When the second content having access control protection exists in the three-dimensional virtual environment, the master three-dimensional drawing engine 31 may transmit the second content to the slave three-dimensional drawing engine 331. The master 3D drawing engine 31 and the plurality of slave 3D drawing engines 331 to 33n may draw digital contents, respectively. In some embodiments, different 3D drawing engines 331-33n may draw digital content in different formats, different protection protocols, or different resolutions. Based on the performance and functionality of the 3D drawing engines 331-33n, one or more second contents may be sequentially transmitted to the corresponding 3D drawing engine, whereby each 3D drawing engine 331-33n is 3D. The corresponding second content is drawn according to the performance and function of the drawing engines 331 to 33n. That is, the second content may be transmitted from the three-dimensional drawing engine 331 to the three-dimensional drawing engine 332. Next, the final 3D drawing engine 33n outputs the image frames of all the second contents to the frame buffer 35.

図4は、本発明の例示的な実施形態の1つによる、もう1つのエンジン構造4を表す概略図である。図4を参照し、エンジン構造4は、マスタ3次元描画エンジン41と、複数のスレーブ3次元描画エンジン431~43mと、複数のフレームバッファ45とを含み、mは正の数であり、スレーブ3次元描画エンジン431~43mの数量である。エンジン構造3と4との差異は、各スレーブ3次元描画エンジン431~43mがそれに対応するフレームバッファ45に画像フレームを出力する点である。 FIG. 4 is a schematic diagram showing another engine structure 4 according to one of the exemplary embodiments of the present invention. Referring to FIG. 4, the engine structure 4 includes a master 3D drawing engine 41, a plurality of slave 3D drawing engines 431 to 43m, and a plurality of frame buffers 45, where m is a positive number and the slave 3 It is a quantity of the dimension drawing engine 431 to 43 m. The difference between the engine structures 3 and 4 is that each slave 3D drawing engine 431 to 43m outputs an image frame to the corresponding frame buffer 45.

1つの実施形態において、フレームバッファ45から出力された異なるデジタルコンテンツに対応する画像フレームは、クライアントデバイス10又はホストディスプレイ110上に表示されてよい。プロセッサ170は、クライアントデバイス10に映像ストリーミングを提供するため、サーバ30に画像フレームをアップロードしてよい。HMDについては、プロセッサ170はユーザの両目のための画像フレームをそれぞれ更に生成し、両目のための画像フレームをワープしてよい。 In one embodiment, the image frames corresponding to the different digital contents output from the frame buffer 45 may be displayed on the client device 10 or the host display 110. The processor 170 may upload an image frame to the server 30 to provide video streaming to the client device 10. For the HMD, the processor 170 may further generate image frames for both eyes of the user and warp the image frames for both eyes.

同一の3次元仮想環境内の複数のデジタルコンテンツが別々に描画されるため、プロセッサ170は、特定のディスプレイに共有される又は表示される特定のデジタルコンテンツのための画像フレームを判定できる。いくつかの実施形態において、プロセッサ170は、デジタルコンテンツの種類、コンテンツ共有要件、又は他の設計要件に基づき、複数のデジタルコンテンツを別々に描画するか否かを判定してよい。例えば、1つのデジタルコンテンツがDRMで暗号化されたタイプの場合、プロセッサ170は同一の3次元仮想環境内の複数のデジタルコンテンツを別々に描画すると判定してよい。もう1つの例において、1つのデジタルコンテンツがクライアントデバイス10と共有されるよう要求された場合、プロセッサ170は同一の3次元仮想環境内の複数のデジタルコンテンツを別々に描画すると判定してよい。ただし、プロセッサ170は同一の3次元仮想環境内の複数のデジタルコンテンツを1つのコンテンツとして考慮することもでき、全てのデジタルコンテンツを一緒に画像フレームに描画できる。 Since the plurality of digital contents in the same 3D virtual environment are drawn separately, the processor 170 can determine the image frame for the specific digital content shared or displayed on the specific display. In some embodiments, the processor 170 may determine whether to draw the plurality of digital contents separately based on the type of digital content, content sharing requirements, or other design requirements. For example, when one digital content is of the type encrypted by DRM, the processor 170 may determine that a plurality of digital contents in the same three-dimensional virtual environment are drawn separately. In another example, if one digital content is requested to be shared with the client device 10, the processor 170 may determine to draw a plurality of digital contents separately in the same 3D virtual environment. However, the processor 170 can also consider a plurality of digital contents in the same three-dimensional virtual environment as one content, and can draw all the digital contents together in the image frame.

複数のデジタルコンテンツに対応する画像フレームを別々に提示することに加え、プロセッサ170は、3次元仮想環境におけるデジタルコンテンツの位置情報に応じて、複数のデジタルコンテンツにそれぞれ対応する画像フレームをブレンドしてよい(ステップS250)。具体的には、位置情報は、3次元仮想環境における他に対するデジタルコンテンツの絶対位置又はデジタルコンテンツの相対位置を含む。ジオメトリ処理ステージの投射影において、複数の3次元オブジェクトが2次元平面に射影される。デジタルコンテンツの位置情報に含まれる、3次元仮想環境におけるビューワーに対するこれら3次元オブジェクトの深度情報が、射影には必要である。2つのデジタルコンテンツが画像フレームにおいて重なる場合、プロセッサ170は、デジタルコンテンツのどの部分が画像フレームに提示されるべきかを判定するため、合成プラグイン173を介し、これらデジタルコンテンツの深度情報を用いてよい。デジタルコンテンツが画像フレーム内で重ならない場合、プロセッサ170は、合成プラグイン173を介し、デジタルコンテンツの位置情報に含まれる、ビューワーに対するこれらのデジタルコンテンツの左右の関係に基づき、全てのデジタルコンテンツに対応する画像フレームを直接組み合わせてよい。いくつかの実施形態において、メッシュ、シェーダー、変換、及びデジタルコンテンツを描画するために必要なその他のデータが、複数のデジタルコンテンツに対応する画像フレームの組合せに用いられてよい。同様に、複数のデジタルコンテンツに対応する画像フレームのブレンド結果は、クライアントデバイス10及び/又はホストディスプレイ110上に表示されてよい。加えて、プロセッサ170は、ユーザの両眼のためのブレンド結果の画像フレームを更に生成し、両目のための画像フレームをワープしてよい。 In addition to presenting image frames corresponding to a plurality of digital contents separately, the processor 170 blends the image frames corresponding to the plurality of digital contents according to the position information of the digital contents in the three-dimensional virtual environment. Good (step S250). Specifically, the position information includes the absolute position of the digital content or the relative position of the digital content with respect to others in the three-dimensional virtual environment. In the projection shadow of the geometry processing stage, a plurality of 3D objects are projected onto a 2D plane. The depth information of these three-dimensional objects with respect to the viewer in the three-dimensional virtual environment included in the position information of the digital contents is necessary for projection. When two digital contents overlap in an image frame, the processor 170 uses the depth information of these digital contents via a synthesis plug-in 173 to determine which part of the digital content should be presented in the image frame. good. When the digital contents do not overlap in the image frame, the processor 170 supports all the digital contents based on the left-right relationship of these digital contents to the viewer contained in the position information of the digital contents via the synthesis plug-in 173. You may directly combine the image frames to be used. In some embodiments, meshes, shaders, transformations, and other data needed to draw the digital content may be used in the combination of image frames corresponding to the plurality of digital contents. Similarly, the blending result of the image frames corresponding to the plurality of digital contents may be displayed on the client device 10 and / or the host display 110. In addition, the processor 170 may further generate a blended image frame for both eyes of the user and warp the image frame for both eyes.

以下に、デジタルコンテンツを共有するシナリオを紹介する。図5は、本発明の例示的な実施形態の1つによるコンテンツを共有する方法を表すフロー図である。図5を参照し、プロセッサ170は、クライアントデバイス10にデジタルコンテンツを共有するか否かを判定する(ステップS510)。例えば、デジタルコンテンツを共有するには、プレゼンテーション又はライブブロードキャスト要件を要する。加えて、デジタルコンテンツには、アクセス制御保護のない第1のコンテンツと、アクセス制御保護を有する第2のコンテンツを含む。デジタルコンテンツが共有されない場合、プロセッサ170は全てのデジタルコンテンツを1つのコンテンツと見なし、ステップS250のブレンド処理なしに、全てのデジタルコンテンツを画像フレームに直接描画してよく(ステップS520)、描画結果がホストディスプレイ110上に表示されることができる(ステップS560)。ユーチューバーがホストディスプレイ110を保持し、他のクライアントがクライアントデバイス10を見ると仮定する。いくつかの実施形態において、アクセス制御保護を有する第2のコンテンツが存在しない場合、プロセッサ170は、画像フレームをブレンドすることなく、単に第1のコンテンツのみをホストディスプレイ110上に表示されるために用いられる画像フレームに描画してよい。 Below are scenarios for sharing digital content. FIG. 5 is a flow chart showing a method of sharing content according to one of the exemplary embodiments of the present invention. With reference to FIG. 5, the processor 170 determines whether or not to share digital content with the client device 10 (step S510). For example, sharing digital content requires presentation or live broadcast requirements. In addition, the digital content includes a first content without access control protection and a second content with access control protection. If the digital content is not shared, the processor 170 may consider all the digital content as one content and draw all the digital content directly into the image frame without the blending process in step S250 (step S520) and the drawing result will be. It can be displayed on the host display 110 (step S560). It is assumed that YouTuber holds the host display 110 and another client sees the client device 10. In some embodiments, in the absence of a second content with access control protection, the processor 170 simply displays only the first content on the host display 110 without blending image frames. It may be drawn in the image frame used.

一方、デジタルコンテンツが共有される予定である場合、プロセッサ170は、アクセス制御保護のない第1のコンテンツに対応する画像フレームの第1のフレーム(即ち、非保護フレーム)と、アクセス制御保護を有する第2のコンテンツに対応する画像フレームの第2のフレーム(即ち、保護フレーム)を生成するため、第1と第2のコンテンツをそれぞれ描画してよい(ステップS530)。プロセッサ170は、アクセス制御保護を有する第2のコンテンツに対応する画像フレームの第2のフレームを送信することなく、アクセス制御保護のない第1のコンテンツに対応する画像フレームの第1のフレーム(即ち、非保護フレーム)をクライアントデバイス10に送信してよい。この実施形態において、第1のコンテンツに対応する非保護フレームはサーバ30にアップロードされ(ステップS540)、次いで、非保護フレームはストリーミングによりクライアントデバイス10上に提示されることができる(ステップS550)。一方、プロセッサ170は、合成プラグイン173を介し、ステップS250のように第1と第2のコンテンツに対応する画像フレームをブレンドする(ステップS545)。次いで、非保護フレームと保護フレームのブレンド結果がホストディスプレイ110上に表示されることができる(ステップS560)。 On the other hand, if the digital content is to be shared, the processor 170 has access control protection with the first frame (ie, unprotected frame) of the image frame corresponding to the first content without access control protection. In order to generate the second frame (that is, the protection frame) of the image frame corresponding to the second content, the first and second contents may be drawn respectively (step S530). The processor 170 does not transmit the second frame of the image frame corresponding to the second content having access control protection, but rather the first frame of the image frame corresponding to the first content without access control protection (i.e., , Unprotected frame) may be transmitted to the client device 10. In this embodiment, the unprotected frame corresponding to the first content is uploaded to the server 30 (step S540), and then the unprotected frame can be presented on the client device 10 by streaming (step S550). On the other hand, the processor 170 blends the image frames corresponding to the first and second contents as in step S250 via the synthesis plug-in 173 (step S545). The blended result of the unprotected frame and the protected frame can then be displayed on the host display 110 (step S560).

まとめると、上記の例示的な実施形態は、仮想環境を描画する方法及びシステムを描写している。同一の仮想環境における複数のデジタルコンテンツは、別々に描画されることができる。加えて、複数のデジタルコンテンツに対応する画像フレームは、仮想環境におけるデジタルコンテンツの位置情報に基づき組み合わされることができる。従って、異なるデジタルコンテンツの描画結果が、異なるディスプレイ上で提示されることができる。アクセス制御の保護を有する1つのデジタルコンテンツが存在する場合、保護のない他のデジタルコンテンツが他のディスプレイと共有されることができる。 In summary, the above exemplary embodiments depict methods and systems for drawing virtual environments. Multiple digital contents in the same virtual environment can be drawn separately. In addition, image frames corresponding to a plurality of digital contents can be combined based on the position information of the digital contents in the virtual environment. Therefore, drawing results of different digital contents can be presented on different displays. If one digital content has access control protection, the other unprotected digital content can be shared with other displays.

当業者にとって、本発明の範囲又は精神から逸脱することなく、本発明の構造に様々な改変と変形を行うことができることは明らかであろう。上記を鑑み、本発明は、以下の特許請求の範囲及びそれらの均等物の範囲内にあるという条件で、本発明の改変及び変形を網羅することを意図している。 It will be apparent to those skilled in the art that various modifications and variations can be made to the structure of the invention without departing from the scope or spirit of the invention. In view of the above, the present invention is intended to cover modifications and variations of the present invention, provided that they are within the scope of the following claims and their equivalents.

本発明の仮想環境を描画する方法及びシステムは、デジタルコンテンツ管理に応用することができる。 The method and system for drawing a virtual environment of the present invention can be applied to digital content management.

1:システム
10:クライアントデバイス
30:サーバ
100:ホスト装置
110:ホストディスプレイ
130:モーションセンサ
150:メモリ
170:プロセッサ
171:描画エンジン
173:合成プラグイン
S210~S250、S510~S560:ステップ
3、4:エンジン構造
31、41:マスタ3次元描画エンジン
311~31n、431~43m:スレーブ3次元描画エンジン
35、45:フレームバッファ
1: System 10: Client device 30: Server 100: Host device 110: Host display 130: Motion sensor 150: Memory 170: Processor 171: Drawing engine 173: Synthetic plug-ins S210 to S250, S510 to S560: Steps 3, 4: Engine structure 31, 41: Master 3D drawing engine 311 to 31n, 431 to 43m: Slave 3D drawing engine 35, 45: Frame buffer

Claims (9)

複数のデジタルコンテンツを取得することであって、前記デジタルコンテンツが同一の3次元仮想環境における異なるデジタルコンテンツであることと、
前記デジタルコンテンツの位置情報に基づき、前記3次元仮想環境における前記デジタルコンテンツをそれぞれ複数の画像フレームに描画することであって、前記位置情報が、前記3次元仮想環境における前記デジタルコンテンツのうちの1つの他に対する位置を含み、前記画像フレームと、前記画像フレームのブレンド結果とが、表示されるために用いられることと
を含む、
仮想環境を描画する方法。
Acquiring a plurality of digital contents, that the digital contents are different digital contents in the same three-dimensional virtual environment.
Based on the position information of the digital content, the digital content in the three-dimensional virtual environment is drawn in a plurality of image frames, and the position information is one of the digital contents in the three-dimensional virtual environment. Includes a position relative to one other, including that the image frame and the blended result of the image frame are used to be displayed.
How to draw a virtual environment.
ホストディスプレイと、
プログラムコードを格納するメモリと、
前記ホストディスプレイと前記メモリとに連接され、
複数のデジタルコンテンツを取得することであって、前記デジタルコンテンツが同一の3次元仮想環境における異なるデジタルコンテンツであることと、
前記デジタルコンテンツの位置情報に基づき、前記3次元仮想環境における前記デジタルコンテンツをそれぞれ複数の画像フレームに描画することであって、前記位置情報が、前記3次元仮想環境における前記デジタルコンテンツのうちの1つの他に対する位置を含み、前記画像フレームと、前記画像フレームのブレンド結果とが、前記ホストディスプレイ上に表示されるために用いられることと
を実行するため前記プログラムコードをロードする、プロセッサと、
を含む、
仮想環境を描画するシステム。
With the host display
Memory for storing program code and
Connected to the host display and the memory,
Acquiring a plurality of digital contents, that the digital contents are different digital contents in the same three-dimensional virtual environment.
Based on the position information of the digital content, the digital content in the three-dimensional virtual environment is drawn in a plurality of image frames, and the position information is one of the digital contents in the three-dimensional virtual environment. A processor that loads the program code to execute that the image frame and the blended result of the image frame are used to be displayed on the host display, including the position relative to the other.
including,
A system that draws a virtual environment.
前記デジタルコンテンツが、アクセス制御保護のない第1のコンテンツと、前記アクセス制御保護を有する第2のコンテンツとを含む、
請求項1に記載の仮想環境を描画する方法、又は、請求項2に記載の仮想環境を描画するシステム。
The digital content includes a first content without access control protection and a second content with access control protection.
The method for drawing a virtual environment according to claim 1, or a system for drawing a virtual environment according to claim 2.
前記デジタルコンテンツを前記画像フレームに描画するステップが、
前記アクセス制御保護を有する前記第2のコンテンツが存在することに対応して、前記デジタルコンテンツをそれぞれ前記画像フレームに描画することと、
前記デジタルコンテンツを前記画像フレームに描画する前記ステップの後、前記3次元仮想環境における前記デジタルコンテンツの前記位置情報に応じて、前記画像フレームをブレンドすることと
を更に含む、
請求項3に記載の仮想環境を描画する方法、又は、
前記プロセッサが、
前記アクセス制御保護を有する前記第2のコンテンツが存在することに対応して、前記デジタルコンテンツをそれぞれ前記画像フレームに描画することと、
前記デジタルコンテンツを前記画像フレームに描画する前記ステップの後、前記3次元仮想環境における前記デジタルコンテンツの前記位置情報に応じて、前記画像フレームをブレンドすることと
を更に実行する、
請求項3に記載の仮想環境を描画するシステム。
The step of drawing the digital content in the image frame is
In response to the existence of the second content having the access control protection, drawing the digital content in the image frame and drawing the digital content in the image frame, respectively.
After the step of drawing the digital content in the image frame, further comprising blending the image frame according to the position information of the digital content in the three-dimensional virtual environment.
The method for drawing the virtual environment according to claim 3, or
The processor
In response to the existence of the second content having the access control protection, drawing the digital content in the image frame and drawing the digital content in the image frame, respectively.
After the step of drawing the digital content in the image frame, further performing blending of the image frame according to the position information of the digital content in the three-dimensional virtual environment.
A system for drawing the virtual environment according to claim 3.
前記デジタルコンテンツを前記画像フレームに描画するステップが、
前記アクセス制御保護を有する前記第2のコンテンツが存在しないことに対応して、前記画像フレームをブレンドすることなく、前記第1のコンテンツを、表示されるために用いられる前記画像フレームに描画するのみであること
を含む、
請求項3に記載の仮想環境を描画する方法、又は、
前記プロセッサが、
前記アクセス制御保護を有する前記第2のコンテンツが存在しないことに対応して、前記画像フレームをブレンドすることなく、前記第1のコンテンツを、前記ホストディスプレイに表示されるために用いられる前記画像フレームに描画するのみであること
を更に実行する、
請求項3に記載の仮想環境を描画するシステム。
The step of drawing the digital content in the image frame is
In response to the absence of the second content having access control protection, the first content is only drawn in the image frame used to be displayed without blending the image frames. Including being
The method for drawing the virtual environment according to claim 3, or
The processor
The image frame used to display the first content on the host display without blending the image frames in response to the absence of the second content having access control protection. Do more than just draw to,
A system for drawing the virtual environment according to claim 3.
前記デジタルコンテンツを前記画像フレームに描画する前記ステップの後、
前記画像フレームの第2のフレームを送信することなく、前記画像フレームの第1のフレームを送信することであって、前記第1のフレームが前記アクセス制御保護のない前記第1のコンテンツに対応し、前記第2のフレームが前記アクセス制御保護を有する前記第2のコンテンツに対応すること
を更に含む、
請求項4に記載の仮想環境を描画する方法、又は、
クライアントデバイスを更に含み、
前記プロセッサが、
前記画像フレームの第2のフレームを送信することなく、前記画像フレームの第1のフレームを前記クライアントデバイスに送信することであって、前記第1のフレームが前記アクセス制御保護のない前記第1のコンテンツに対応し、前記第2のフレームが前記アクセス制御保護を有する前記第2のコンテンツに対応すること
を更に実行する、
請求項4に記載の仮想環境を描画するシステム。
After the step of drawing the digital content in the image frame
By transmitting the first frame of the image frame without transmitting the second frame of the image frame, the first frame corresponds to the first content without the access control protection. The second frame further comprises corresponding to the second content having the access control protection.
The method for drawing the virtual environment according to claim 4, or
Including more client devices
The processor
By transmitting the first frame of the image frame to the client device without transmitting the second frame of the image frame, the first frame is the first frame without the access control protection. Corresponding to the content and further performing that the second frame corresponds to the second content having the access control protection.
A system for drawing the virtual environment according to claim 4.
前記デジタルコンテンツを前記画像フレームに描画する前記ステップが、
マスタ3次元描画エンジンと、少なくとも1つのスレーブ3次元描画エンジンとを提供することであって、前記マスタ3次元描画エンジンが前記アクセス制御保護のない前記第1のコンテンツを描画するために用いられ、前記少なくとも1つのスレーブ3次元描画エンジンが前記アクセス制御保護を有する前記第2のコンテンツを描画するために用いられること
を含む、
請求項4に記載の仮想環境を描画する方法、又は、
前記プロセッサが、
マスタ3次元描画エンジンと、少なくとも1つのスレーブ3次元描画エンジンとを提供することであって、前記マスタ3次元描画エンジンが前記アクセス制御保護のない前記第1のコンテンツを描画するために用いられ、前記少なくとも1つのスレーブ3次元描画エンジンが前記アクセス制御保護を有する前記第2のコンテンツを描画するために用いられること
を更に実行する、
請求項4に記載の仮想環境を描画するシステム。
The step of drawing the digital content in the image frame is
To provide a master 3D drawing engine and at least one slave 3D drawing engine, the master 3D drawing engine is used to draw the first content without the access control protection. The inclusion that the at least one slave 3D drawing engine is used to draw the second content having the access control protection.
The method for drawing the virtual environment according to claim 4, or
The processor
To provide a master 3D drawing engine and at least one slave 3D drawing engine, the master 3D drawing engine is used to draw the first content without the access control protection. Further performing that the at least one slave 3D drawing engine is used to draw the second content having the access control protection.
A system for drawing the virtual environment according to claim 4.
前記マスタ3次元描画エンジンにより、前記アクセス制御保護を有する前記第2のコンテンツを、前記少なくとも1つのスレーブ3次元描画エンジンに送信することと、
前記マスタ3次元描画エンジンと前記少なくとも1つのスレーブ3次元描画エンジンから出力された前記画像フレームをブレンドすることと
を更に含む、
請求項7に記載の仮想環境を描画する方法、又は、
前記プロセッサが、
前記マスタ3次元描画エンジンにより、前記アクセス制御保護を有する前記第2のコンテンツを、前記少なくとも1つのスレーブ3次元描画エンジンに送信することと、
前記マスタ3次元描画エンジンと前記少なくとも1つのスレーブ3次元描画エンジンから出力された前記画像フレームをブレンドすることと
を更に実行する、
請求項7に記載の仮想環境を描画するシステム。
The master 3D drawing engine transmits the second content having the access control protection to the at least one slave 3D drawing engine.
Further comprising blending the image frame output from the master 3D drawing engine and the at least one slave 3D drawing engine.
The method for drawing the virtual environment according to claim 7, or
The processor
The master 3D drawing engine transmits the second content having the access control protection to the at least one slave 3D drawing engine.
Further performing blending of the image frame output from the master 3D drawing engine and the at least one slave 3D drawing engine.
A system for drawing the virtual environment according to claim 7.
前記デジタルコンテンツを前記画像フレームに描画するステップが、
ユーザの頭部のモーション感知データを取得することと、
前記ユーザの頭部の前記モーション感知データに応じて前記画像フレームを生成することと
を含む、
請求項1に記載の仮想環境を描画する方法、又は、
ユーザの頭部と共に動作し、前記ユーザの頭部のモーション感知データを取得する、モーションセンサ
を更に含み、
前記プロセッサが、
前記ユーザの頭部の前記モーション感知データに応じて前記画像フレームを生成すること
を更に実行する、
請求項2に記載の仮想環境を描画するシステム。
The step of drawing the digital content in the image frame is
Acquiring motion detection data of the user's head and
Including generating the image frame in response to the motion sensing data of the user's head.
The method of drawing the virtual environment according to claim 1, or
It also includes a motion sensor that works with the user's head and acquires motion sensing data for the user's head.
The processor
Further performing the generation of the image frame according to the motion sensing data of the user's head.
A system for drawing the virtual environment according to claim 2.
JP2020138430A 2020-08-19 2020-08-19 Method and system for drawing virtual environment Pending JP2022034640A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020138430A JP2022034640A (en) 2020-08-19 2020-08-19 Method and system for drawing virtual environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020138430A JP2022034640A (en) 2020-08-19 2020-08-19 Method and system for drawing virtual environment

Publications (1)

Publication Number Publication Date
JP2022034640A true JP2022034640A (en) 2022-03-04

Family

ID=80442959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020138430A Pending JP2022034640A (en) 2020-08-19 2020-08-19 Method and system for drawing virtual environment

Country Status (1)

Country Link
JP (1) JP2022034640A (en)

Similar Documents

Publication Publication Date Title
US12106416B2 (en) Artificial reality system architecture for concurrent application execution and collaborative 3D scene rendering
US10636220B2 (en) Methods and systems for generating a merged reality scene based on a real-world object and a virtual object
CN113661471B (en) Mixed rendering
US10891781B2 (en) Methods and systems for rendering frames based on virtual entity description frames
CN107852573B (en) Mixed reality social interactions
CN107590771B (en) 2D video with options for projection viewing in modeled 3D space
US9262950B2 (en) Augmented reality extrapolation techniques
TW202240542A (en) Generating and modifying representations of dynamic objects in an artificial reality environment
CN116917842A (en) Systems and methods for generating stable images of real environments in artificial reality
US12212705B2 (en) Controlling an augmented call based on user gaze
US20190295324A1 (en) Optimized content sharing interaction using a mixed reality environment
CN113678173A (en) Method and apparatus for drawing-based placement of virtual objects
JP2022034640A (en) Method and system for drawing virtual environment
EP3958574A1 (en) Method and system for rendering virtual environment
CN114092612A (en) Method and system for rendering a virtual environment
US8531453B2 (en) Augmenting virtual worlds simulation with enhanced assets
US11282171B1 (en) Generating a computer graphic for a video frame
HK40013955A (en) Methods and systems for rendering frames of a virtual scene from different vantage points based on a virtual entity description frame of the virtual scene
HK40013955B (en) Methods and systems for rendering frames of a virtual scene from different vantage points based on a virtual entity description frame of the virtual scene
FR2889758A1 (en) Three dimensional virtual object e.g. digital model of vehicle, visualizing method for e.g. showroom, involves inserting two dimensional representation of object in real time in video flow, and transmitting created enriched video flow