JP2017098921A - Transmission device, transmission method, and program - Google Patents
Transmission device, transmission method, and program Download PDFInfo
- Publication number
- JP2017098921A JP2017098921A JP2015232529A JP2015232529A JP2017098921A JP 2017098921 A JP2017098921 A JP 2017098921A JP 2015232529 A JP2015232529 A JP 2015232529A JP 2015232529 A JP2015232529 A JP 2015232529A JP 2017098921 A JP2017098921 A JP 2017098921A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- partial image
- data
- display
- display image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 観察者の動きに応じて転送する表示用画像のためのデータ量を削減する。【解決手段】 観察者の視線方向に応じた画像データを、表示部を有する受信装置に送信する送信装置であって、観察者の視線方向を取得する取得手段と、全周囲方向からの輝度情報からなる環境マップを保持する保持手段と、視線方向に応じた視野範囲を参照して、前記環境マップから前記視野範囲の部分画像データを抽出する抽出手段と、前記部分画像データに対して前記表示部に応じた射影変換を行い、表示用画像データを生成する生成手段と、前記部分画像データのデータ量と前記表示用画像データのデータ量とを比較し、前記部分画像データと前記表示用画像データのうちいずれを前記受信装置に送信するかを判定する判定手段と、前記判定手段により判定された結果に基づいて、前記部分画像データと前記表示用画像データの一方を送信する送信手段とを有する。【選択図】 図6PROBLEM TO BE SOLVED: To reduce the amount of data for a display image to be transferred according to the movement of an observer. SOLUTION: A transmitting device for transmitting image data according to a line of sight of an observer to a receiving device having a display unit, an acquiring unit for acquiring a line of sight of the observer, and luminance information from all directions. Holding means for holding an environment map consisting of: extracting means for extracting partial image data of the visual field range from the environment map with reference to a visual field range corresponding to a line-of-sight direction; A projecting unit that performs projective transformation according to the unit and generates display image data, and compares a data amount of the partial image data with a data amount of the display image data, and compares the partial image data with the display image data. Determining means for determining which of the data is to be transmitted to the receiving device; and one of the partial image data and the display image data based on a result determined by the determining means. And transmitting means for transmitting. [Selection] Fig. 6
Description
本発明は、ヘッドマウントディスプレイなどに表示する画像データを効率的に転送する技術に関する。 The present invention relates to a technique for efficiently transferring image data to be displayed on a head mounted display or the like.
観察者の頭部に固定するヘッドマウントディスプレイ(以降、HMD)を用いて、観察者の視線方向に合わせて画像を表示する技術が知られている。HMDに表示される画像データは、全周囲方向の映像をその都度切り出した領域の画像であり、元となる画像は環境マップとも呼ばれる。環境マップは例えば、魚眼レンズを用いた撮影やミラーボールに反射した光をカメラで撮像する手法により取得できる。高解像度の環境マップを取得した場合は、データ量が多くなる。 A technique for displaying an image in accordance with the viewing direction of the observer using a head-mounted display (hereinafter, HMD) fixed to the observer's head is known. The image data displayed on the HMD is an image of an area obtained by cutting out the video in the entire peripheral direction each time, and the original image is also called an environment map. The environment map can be acquired by, for example, photographing using a fisheye lens or a method of capturing light reflected by a mirror ball with a camera. When a high-resolution environment map is acquired, the amount of data increases.
環境マップをサーバ端末に保持しておき、ユーザーの要望を受けた環境マップの必要な領域のみを切り出し、HMDが接続されたクライアント端末に送信することが知られている。観察者の視線方向に合わせて表示画像を自然に表示するためには、データを転送する遅延を防ぐことが望まれる。 It is known that an environment map is held in a server terminal, and only a necessary area of the environment map requested by a user is cut out and transmitted to a client terminal to which an HMD is connected. In order to display a display image naturally in accordance with the viewing direction of the observer, it is desired to prevent a delay in transferring data.
特許文献1には、環境マップを取得した魚眼レンズ特有のカメラ特性を考慮し、環境マップを取得する際の歪みの程度に応じてデータを圧縮する圧縮率を変化させる方法を開示している。これにより環境マップのデータ量を高画質に圧縮できる。 Patent Document 1 discloses a method of changing the compression rate for compressing data in accordance with the degree of distortion when acquiring an environment map in consideration of the camera characteristics specific to the fisheye lens that acquired the environment map. Thereby, the data amount of the environment map can be compressed with high image quality.
しかしながら、特許文献1の方法では、歪みの大きな領域には高い圧縮率で圧縮するのに対し、歪みの少ない領域やレンズ性能の良い歪みの少ないカメラで撮影した環境マップでは、データ量の削減はできない。 However, in the method of Patent Document 1, compression is performed at a high compression ratio in a region with a large distortion, whereas in an environment map taken with a camera with a small distortion and a lens with good lens performance, the data amount is reduced. Can not.
そこで本発明では、観察者の動きに応じて転送する表示用画像のためのデータ量を削減することを目的とする。 Therefore, an object of the present invention is to reduce the amount of data for a display image to be transferred according to the movement of an observer.
上記課題を解決するため本発明は、観察者の視線方向に応じた画像データを、表示部を有する受信装置に送信する送信装置であって、観察者の視線方向を取得する取得手段と、
全周囲方向からの輝度情報からなる環境マップを保持する保持手段と、視線方向に応じた視野範囲を参照して、前記環境マップから前記視野範囲の部分画像データを抽出する抽出手段と、前記部分画像データに対して前記表示部に応じた射影変換を行い、表示用画像データを生成する生成手段と、前記部分画像データのデータ量と前記表示用画像データのデータ量とを比較し、前記部分画像データと前記表示用画像データのうちいずれを前記受信装置に送信するかを判定する判定手段と、前記判定手段により判定された結果に基づいて、前記部分画像データと前記表示用画像データの一方を送信する送信手段とを有する。
In order to solve the above problems, the present invention is a transmission device that transmits image data corresponding to the line-of-sight direction of an observer to a reception device having a display unit, and an acquisition unit that acquires the line-of-sight direction of the observer;
A holding means for holding an environment map composed of luminance information from all directions, an extraction means for extracting partial image data of the visual field range from the environmental map with reference to a visual field range corresponding to the line-of-sight direction, and the part The image data is subjected to projective transformation in accordance with the display unit to generate display image data, the data amount of the partial image data is compared with the data amount of the display image data, and the partial data A determination unit that determines which of image data and display image data is to be transmitted to the receiving device, and one of the partial image data and the display image data based on a result determined by the determination unit Transmitting means for transmitting.
本発明では、観察者の動きに応じて転送する表示用画像のためのデータ量を削減することができる。 In the present invention, it is possible to reduce the amount of data for a display image to be transferred according to the movement of the observer.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
<第1実施形態>
本実施形態では、環境マップを保存し画像を送信する送信側であるサーバ端末と、視線方向に応じて環境マップの一部を受信し、表示するクライアント端末との間で効率的に画像データを配信する方法について説明する。図1は、第1実施形態に適用可能な画像処理装置のシステム構成を示すブロック図である。環境マップから切り出した部分画像データを送信するサーバ端末(送信装置)は、CPU101、メインメモリ102、記憶装置103、GPU104、通信装置105、バス106を備える。まず、CPU101は、演算処理や各種プログラムの実行を行う。メインメモリ102は、処理に必要なプログラム、データ、作業領域などをCPU101に提供する。記憶装置103は、画像処理プログラムや複数枚画像データを蓄積する装置で、例えばハードディスクが用いられる。GPU104は、画像データやGUIを表示するための装置であり、通常ディスプレイが接続されている。通信装置105は、各種ネットワークと接続する装置であり、通信装置105を経由して、クライアント端末に環境マップから切り出して生成した部分画像データを配信する。バス106は上述の各部をつなぐバスである。
<First Embodiment>
In this embodiment, image data is efficiently transferred between a server terminal that is a transmission side that stores an environment map and transmits an image, and a client terminal that receives and displays a part of the environment map according to the line-of-sight direction. A distribution method will be described. FIG. 1 is a block diagram showing a system configuration of an image processing apparatus applicable to the first embodiment. A server terminal (transmission device) that transmits partial image data cut out from the environment map includes a
サーバ端末から環境マップの一部データを受信するクライアント端末(受信装置)は、基本構成はサーバ端末と同等であるが、画像の表示手段としてHMD(ヘッドマウントディスプレイ)107が接続されている。クライアント端末は、HMDにおいて検出した観察者の視線方向をサーバ端末に送信し、サーバ端末から、視線方向に応じた環境マップの部分画像データを受信する。クライアント端末は、受信した部分画像データに対して必要に応じて画像処理を実行し、表示用画像を表示する。 A client terminal (receiving device) that receives part of the environment map data from the server terminal has the same basic configuration as the server terminal, but an HMD (head mounted display) 107 is connected as an image display means. The client terminal transmits the line-of-sight direction of the observer detected by the HMD to the server terminal, and receives partial image data of the environment map corresponding to the line-of-sight direction from the server terminal. The client terminal performs image processing on the received partial image data as necessary, and displays a display image.
図2は、環境マップを説明する図である。図2(a)に示すように、観察者の視点位置201からの視線方向は、極座標(θ、φ)を用いて表すことができる。この極座標を量子化し、各極座標における輝度をマップにした画像データが環境マップである。環境マップを構成する各画素は、輝度ベクトルを保持し、輝度ベクトルの大きさが輝度値を表し、輝度ベクトルの向きは常に視点位置201を向いている。すなわち、環境マップは観察者に入射する全周囲からの輝度情報である。環境マップの保持方法は、図2(b)に示す正距円筒マップ方式と、図2(c)に示す球状マップ方式などが存在する。正距円筒マップ方式は、θを横軸、φを縦軸として平面に展開した方式であるが、球状のデータを平面に投射するため歪みを生じる。球状マップ方式は、円の中心から円弧に向けた軸をφ、円の中心からの回転方向をθとして展開したデータであるが、この場合も球状を2次元に投影するため歪みを生じる。そのため、双方の方式ともHMDで表示する際には、切り出した領域の部分画像を射影変換する必要がある。 FIG. 2 is a diagram for explaining the environment map. As shown in FIG. 2A, the line-of-sight direction from the observer's viewpoint position 201 can be expressed using polar coordinates (θ, φ). Image data obtained by quantizing the polar coordinates and mapping the luminance at each polar coordinate is an environment map. Each pixel constituting the environment map holds a luminance vector, the magnitude of the luminance vector represents a luminance value, and the direction of the luminance vector always faces the viewpoint position 201. In other words, the environment map is luminance information from the entire periphery that enters the observer. The environmental map holding method includes an equirectangular cylinder map method shown in FIG. 2B and a spherical map method shown in FIG. The equirectangular map method is a method in which θ is a horizontal axis and φ is a vertical axis and is developed on a plane. However, distortion occurs because spherical data is projected onto the plane. The spherical map method is data in which the axis extending from the center of the circle to the arc is φ and the rotation direction from the center of the circle is θ, but in this case as well, distortion occurs because the sphere is projected in two dimensions. For this reason, in both methods, when the HMD is displayed, it is necessary to perform projective conversion on the partial image of the cut-out area.
図3は、HMD107の構成を説明する図である。図3(a)に示すようにHMD107は、画像を表示する表示部301と、観察者の視線方向を検出するための3軸加速度センサ303が搭載されている。また、頭部に固定するための固定部302があり、観察者は固定部302を耳にかけることで、HMD107を頭部に装着することができる。表示部301は、図3(b)に示すように、観察者の眼304から仮想視野307を見た映像を、表示部301が有する液晶ディスプレイ306に表示する。その際、レンズ305を通すことで、焦点位置を調整する。液晶ディスプレイ306に環境マップから切り出した領域の部分画像に基づいて生成される表示用画像を表示することによって、環境マップの視点位置201に居るような臨場感のある映像再現が可能となる。
FIG. 3 is a diagram for explaining the configuration of the
図4は、仮想視野と環境マップとの関係を説明する図である。図4(a)のように、視点位置401から見た視線方向を視線ベクトルV(θ、φ)とする。このとき視線ベクトルV(θ、φ)を中心に観察者が視点位置401から見えていると想定される仮想視野307を覆う領域(視野範囲402)を4つのベクトルV0(θ、φ)、V1(θ、φ)、V2(θ、φ)、V3(θ、φ)で定義する。図4(b)は、環境マップと視野範囲を規定する4つのベクトルとの関係を表す。図4(b)には、2つの異なる視線方向の場合を例示している。視線ベクトルV(θ、φ)を中心とし4つのベクトルにより規定される視野範囲は、ここでは図4(b)に示す通り矩形領域であるとする。この視野範囲が、視線方向に応じてHMD107の表示部301に表示すべき領域となる。さらに、視野範囲となる矩形領域は視線ベクトルV(θ、φ)の方向によって異なる。環境マップにおける原点を(θ、φ)=(0、0)としたとき、視野範囲の大きさは、角度情報φ=0で最小となり、φが大きくなるにつれて矩形領域も増大する。矩形領域のサイズSenvは、図4(c)で表す式を用いて算出することができる。ここで、Bitは環境マップにおける各画素のビット数である。この矩形領域に対して、接眼レンズの光学特性を考慮した射影変換処理を実行することで、表示用画像を得ることができる。表示用画像のサイズは、図4(d)に示す式によって表される。表示用画像のサイズは、液晶ディスプレイ306の画素数(WLCD×HLCD)と表示可能なビット数Bitを掛け合わせたSdisplayとなり、常に一定である。そこでサーバ端末は、クライアント端末に部分画像データを配信する際には、環境マップにおける部分画像データと表示画像データのうち、データ量が小さい方を配信することにより、データの転送量を出来る限り小さくできる。
FIG. 4 is a diagram for explaining the relationship between the virtual visual field and the environment map. As shown in FIG. 4A, the line-of-sight direction viewed from the viewpoint position 401 is defined as a line-of-sight vector V (θ, φ). At this time, an area (field range 402) covering the virtual visual field 307 that is assumed to be viewed from the viewpoint position 401 around the line-of-sight vector V (θ, φ) is represented by four vectors V 0 (θ, φ), It is defined by V 1 (θ, φ), V 2 (θ, φ), and V 3 (θ, φ). FIG. 4B shows the relationship between the environment map and the four vectors that define the field-of-view range. FIG. 4B illustrates the case of two different viewing directions. Assume that the visual field range defined by the four vectors centered on the line-of-sight vector V (θ, φ) is a rectangular region as shown in FIG. 4B. This field-of-view range is an area to be displayed on the display unit 301 of the
図5は、HMDを用いて環境マップを表示する流れを説明する図である。サーバ端末は、環境マップを記憶装置103から読み出す。クライアント端末はHMD107に内蔵された加速度センサから角度情報(θ、φ)520を取得する。この角度情報は、図4を用いて説明した視線ベクトルV(θ、φ)である。クライアント端末は、角度情報520と角度情報に応じた視野範囲(4つのベクトルV0(θ、φ)、V1(θ、φ)、V2(θ、φ)、V3(θ、φ)を規定する情報)をサーバ端末に送信する。サーバ端末は、クライアント端末から受信した情報に基づいて、メインメモリ102に展開した環境マップから表示に必要なデータを抽出し、クライアント端末に転送する。
FIG. 5 is a diagram for explaining a flow of displaying an environment map using the HMD. The server terminal reads the environment map from the
図8は、サーバ端末とクライアント端末それぞれの詳細な論理構成を示すブロック図である。サーバ端末は、環境マップを保持する保持部901から、画像切り出し部802は、取得した角度情報および視野範囲に応じた領域の部分画像データを切り出す。判定部803は、切り出した部分画像データをそのままクライアント端末に転送するか、表示用画像に変換してからクライアント端末に転送するかを判定する。部分画像出力804は、切り出した部分画像データをそのままクライアント端末に出力する。一方射影変換部805は、HMD107の液晶ディスプレイ306に合わせて、切り出した部分画像データを射影変換する。射影変換に必要な情報は予めクライアント端末から取得しておく。
FIG. 8 is a block diagram showing a detailed logical configuration of each of the server terminal and the client terminal. In the server terminal, from the holding
ここで、クライアント端末も射影変換部809を有する。この遮蔽変換部809は、射影変換部805と同様に、HMD107の液晶でスプレイ306に合わせた射影変換を実行する。射影変換部809は、サーバ端末から切り出した部分画像データをそのまま受け取った場合にのみ、射影変換を実行する。表示制御部810は、クライアント端末内の射影変換部809が変換して得られた表示用画像か、サーバ端末から取得した表示用画像を、HMD107の液晶ディスプレイ306に出力し、表示させる。
Here, the client terminal also has a
図6は、第1実施形態におけるサーバ端末とクライアント端末間におけるデータ転送の流れを示すフローチャート図である。サーバ端末およびクライアント端末は、それぞれの端末内のCPUが、フローチャートに示す処理を実現するコンピュータプログラムを実行することにより、各処理を実現する。 FIG. 6 is a flowchart showing a flow of data transfer between the server terminal and the client terminal in the first embodiment. The server terminal and the client terminal implement each process by the CPU in each terminal executing a computer program that implements the process shown in the flowchart.
ステップS601において画像保持部801は、観察者が視聴する環境マップを記憶装置103から読み出し、メインメモリ102に展開する。ここで複数の環境マップが記憶装置103に保持されている場合は、観察者が環境マップに対応づけられたモードのうち、視聴したいモードを選択するように構成してもよい。
In step S <b> 601, the
ステップS602において角度情報取得部807は、HMD107に内蔵された加速度センサ303は、観察者の頭部がどの方向を向いているかを検出した情報を取得し、観察者の視線方向を角度情報(θ、φ)として算出する。
In step S <b> 602, the angle
ステップS603においてクライアント端末の視野範囲算出部808は、取得した角度情報に基づいて、視野範囲を特定する。ここで視野範囲は、図4(b)に示したように角度情報が示す位置を中心とする矩形領域であり。また、視野範囲として特定される矩形領域は、φの大きさに応じてサイズが異なる。このように視野範囲を特定する4つのベクトルV0(θ、φ)、V1(θ、φ)、V2(θ、φ)、V3(θ、φ)をサーバ端末に転送する。
In step S603, the visual field
ステップS604において判定部803は、クライアント端末から視線ベクトルである角度情報と4つのベクトルにより特定される視野範囲に基づいて、環境マップから切り出す部分画像データのデータ量Senvを、図4(c)に示す式に従って算出する。
In step S604, the
ステップS605において画像切り出し部802は、視野範囲を特定する4つのベクトルに基づいて、環境マップから視野範囲の部分画像データを抽出する。ステップS606において判定部803は、切り出した部分画像データのデータ量SenvとHMD107の液晶ディスプレイ306に表示する表示用画像のデータ量Sdisplayを比較する。なお判定部803は、予めクライアント端末から液晶ディスプレイ306の表示画像の画素数および各画素が表示可能なビット数を取得している。表示用画像のデータ量Sdisplayを、図4(d)に示す式に従って算出しておく。切り出した部分画像データのデータ量Senvが大きい場合は、ステップS607に進み、小さい場合はステップS608に進む。
In step S605, the
ステップS607において射影変換部805は、切り出した部分画像データに対して、HMDで表示するための射影変換を実施し、表示用画像データを生成する。ステップS610において表示用画像出力部806は、表示用画像データをクライアント端末に転送する。このとき、転送するデータのデータ量Sdisplayは、切り出した部分画像データのデータ量Senvよりも小さい。そのため、サーバ端末からクライアント端末に転送するデータのデータ量をより抑えることができる。
In step S <b> 607, the
一方ステップS608において部分画像出力部804は、視野範囲に対応する切り出した部分画像データを、射影変換することなくそのままクライアント端末に転送する。これにより、表示用画像に射影変換してからデータを転送するよりも転送するデータ量を抑えることができる。
On the other hand, in step S608, the partial
ステップS609において、クライアント端末の射影変換部809は、サーバ装置から受信した部分画像データに対して、射影変換を実施する。ステップS611において表示制御部810は、表示用画像データをHMD107の液晶ディスプレイ306に表示させる。
In step S609, the
以上のように本実施形態では、観察者の視線方向に応じてサーバ端末からクライアント端末に画像データを転送するデータ形式が異なる。射影変換せずに環境マップから切り出した部分画像データと、切り出した部分画像データに射影変換して得られる表示画像データのうち、データ量の小さい方をクライアント端末に転送する。これにより、サーバ端末からクライアント端末へのデータ通信量を削減でき、データ量が多いための発生する画像表示の遅延を抑制することができる。 As described above, in the present embodiment, the data format for transferring image data from the server terminal to the client terminal differs according to the viewing direction of the observer. Of the partial image data cut out from the environment map without projective conversion and the display image data obtained by projective conversion into the cut out partial image data, the smaller data amount is transferred to the client terminal. As a result, the amount of data communication from the server terminal to the client terminal can be reduced, and the delay in image display that occurs due to the large amount of data can be suppressed.
<第2実施形態>
第2実施形態ではさらに、サーバ端末がクライアント端末に転送するデータを圧縮する圧縮工程を追加する場合の好適な形態を説明する。なお、第2実施形態におけるシステム構成は、第1実施形態と同一であるため説明を省略する。
Second Embodiment
In the second embodiment, a preferred embodiment in which a compression process for compressing data transferred from the server terminal to the client terminal is added will be described. Note that the system configuration in the second embodiment is the same as that in the first embodiment, and a description thereof will be omitted.
図9は、第2実施形態におけるサーバ端末およびクライアント端末それぞれの詳細な論理構成を示すブロック図である。処理部901〜910は、図8における801〜810それぞれと同様である。可逆圧縮部911は、環境マップを切り出した部分画像データに対して所定の可逆圧縮を実行する。可逆圧縮を用いるのは、表示用画像を生成する射影変換が未実施であり、圧縮によるデータの欠損が生じると、射影変換により画質の劣化が生じてしまう場合があるためである。一方非可逆圧縮部912は、射影変換部905から得られる表示用画像データに対して、所定の非可逆圧縮を実行する。非可逆圧縮は一般に、可逆圧縮方式よりも圧縮率が高い。表示用画像データは、射影変換済なので、圧縮効率を優先して非可逆圧縮を実行する。
FIG. 9 is a block diagram showing a detailed logical configuration of each of the server terminal and the client terminal in the second embodiment. The
図7は、第2実施形態に適用可能なサーバ端末とクライアント端末間におけるデータ転送と処理の流れを示すフローチャートである。サーバ端末およびクライアント端末は、それぞれの端末内のCPUが、フローチャートに示す処理を実現するコンピュータプログラムを実行することにより、各処理を実現する。 FIG. 7 is a flowchart showing a flow of data transfer and processing between a server terminal and a client terminal applicable to the second embodiment. The server terminal and the client terminal implement each process by the CPU in each terminal executing a computer program that implements the process shown in the flowchart.
ステップS701〜ステップS705までは、第1実施形態におけるステップS601〜ステップS605までの処理と同様である。S706において判定部903は、環境マップから切り出した部分画像データに対して所定の可逆圧縮方式により圧縮した際のデータ量SLを算出する。可逆圧縮部911が実行する圧縮アルゴリズムによって、大まかなデータはあらかじめ予測できるので、予測値をデータ量SLとして用いる。なお判定部903は、可逆圧縮後のデータ量は、実際に可逆圧縮部911が可逆圧縮を実行した後、可逆圧縮部911が算出したデータ量を取得する構成としてもよい。
Steps S701 to S705 are the same as the processes from step S601 to step S605 in the first embodiment.
ステップS707において判定部903は、表示用画像データに対して非可逆圧縮部912が非可逆圧縮した際のデータ量SCを算出する。可逆圧縮の場合と同様、非可逆圧縮部912が実行する圧縮アルゴリズムによって、大まかなサイズはあらかじめ予測できる。判定部903は、予め非可逆圧縮部912が実行する非可逆圧縮のパラメータを保持し、データ量を予測する。なおここでも、判定部903は、実際に非可逆圧縮部912が非可逆圧縮を実行した後、非可逆圧縮911が算出したデータ量を取得する構成としてもよい。
ステップS708において判定部903は、データ量SLとデータ量SCを比較する。部分画像データを可逆圧縮した際のデータ量SLの方が大きい場合はS709に進み、小さい場合はS712に進む。ステップS709において射影変換部905は、切り出した部分画像データに対して、HMD107で表示するための射影変換を実施する。これにより、HMDでの表示用画像データを生成する。ステップS710において非可逆圧縮部912は、表示用画像データに対して非可逆圧縮を適用する。ステップS711において表示用画像出力部906は、非可逆圧縮した表示用画像データをクライアント端末に送信する。
ステップS712において可逆圧縮部911は、切り出した部分画像データに対して可逆圧縮を適用する。ステップS713において部分画像出力部904は、可逆圧縮した部分画像データをクライアント端末に送信する。S714においてクライアント端末の復号部913は、受信した圧縮データを復号する。さらに射影変換部909は、復号して得られる部分画像データに対して、表示用の射影変換を実施する。
In step S712, the
ステップS715において表示制御部910は、表示用画像データをHMD107に出力し、液晶ディスプレイ306に表示させる。このとき、表示用画像データをサーバ端末から受信した場合は、復号部914が圧縮データを復号する。
In step S <b> 715, the
以上第2実施形態では、サーバ端末からクライアント端末に転送するデータの通信量を削減できる。 As described above, in the second embodiment, it is possible to reduce the communication amount of data transferred from the server terminal to the client terminal.
<その他の実施形態>
なお、前述の実施形態では、転送するデータのデータ量をその都度、計算式に従って算出したが、画像のデータ量をその都度算出せず、あらかじめ入力値と算出結果の組み合わせで構成されるルックアップテーブルを利用しておいてもよい。視野範囲に対応する部分画像データのサイズは、φ方向に依存しているため、φ方向毎の部分画像データのデータ量と表示用画像データのデータ量とを比較した結果に基づきルックアップテーブルを作成する。角度情報としてクライアント端末から角度情報φを受信すると、ルックアップテーブルを参照することにより、切り出した部分画像データと射影変換済の画像データのうちいずれを転送すべきか判定することができる。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
In the above-described embodiment, the data amount of data to be transferred is calculated according to the calculation formula each time. However, the data amount of the image is not calculated each time, and the lookup is configured by a combination of the input value and the calculation result in advance. You may use a table. Since the size of the partial image data corresponding to the visual field range depends on the φ direction, a lookup table is created based on the result of comparing the data amount of the partial image data for each φ direction with the data amount of the display image data. create. When the angle information φ is received from the client terminal as the angle information, it is possible to determine which of the cut partial image data and the projective transformed image data should be transferred by referring to the lookup table. The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
802 画像切り出し部
803 判定部
804 部分画像出力部
805 射影変換部
806 表示用画像出力部
802
Claims (7)
観察者の視線方向を取得する取得手段と、
全周囲方向からの輝度情報からなる環境マップを保持する保持手段と、
視線方向に応じた視野範囲を参照して、前記環境マップから前記視野範囲の部分画像データを抽出する抽出手段と、
前記部分画像データに対して前記表示部に応じた射影変換を行い、表示用画像データを生成する生成手段と、
前記部分画像データのデータ量と前記表示用画像データのデータ量とを比較し、前記部分画像データと前記表示用画像データのうちいずれを前記受信装置に送信するかを判定する判定手段と、
前記判定手段により判定された結果に基づいて、前記部分画像データと前記表示用画像データの一方を送信する送信手段とを有することを特徴とする送信装置。 A transmission device that transmits image data according to the line-of-sight direction of an observer to a reception device having a display unit,
An acquisition means for acquiring an observer's gaze direction;
Holding means for holding an environment map consisting of luminance information from all directions;
Extracting means for extracting partial image data of the visual field range from the environment map with reference to the visual field range according to the line-of-sight direction;
Generating means for performing projection conversion according to the display unit on the partial image data and generating display image data;
A determination unit that compares the data amount of the partial image data with the data amount of the display image data and determines which of the partial image data and the display image data is transmitted to the receiving device;
A transmission apparatus comprising: a transmission unit configured to transmit one of the partial image data and the display image data based on a result determined by the determination unit.
前記表示用画像データに対して非可逆圧縮を実行する第二の圧縮手段とを有し、
前記送信手段は、前記部分画像データを送信する場合は、前記第一の圧縮手段から得られる圧縮データを送信し、前記表示用画像データを送信する場合は、前記第二の圧縮手段から得られる圧縮データを送信することを特徴とする請求項1乃至3のいずれか一項に記載の送信装置。 A first compression means for performing lossless compression on the partial image data;
Second compression means for performing lossy compression on the display image data,
The transmission means transmits the compressed data obtained from the first compression means when transmitting the partial image data, and is obtained from the second compression means when transmitting the display image data. The transmission apparatus according to claim 1, wherein the transmission apparatus transmits compressed data.
観察者の視線方向を取得し、
全周囲方向からの輝度情報からなる環境マップを保持し、
視線方向に応じた視野範囲を参照して、前記環境マップから前記視野範囲の部分画像データを抽出し、
前記部分画像データに対して前記表示部に応じた射影変換を行い、表示用画像データを生成し、
前記部分画像データのデータ量と前記表示用画像データのデータ量とを比較し、前記部分画像データと前記表示用画像データの一方を前記受信装置に送信するかを判定し、
前記判定された結果に基づいて、前記部分画像データと前記表示用画像データのうちいずれかを送信することを特徴とする送信方法。 A transmission method for transmitting image data corresponding to a viewing direction of an observer to a receiving device having a display unit,
Get the observer ’s gaze direction,
Holds an environment map consisting of luminance information from all directions,
With reference to the visual field range according to the line-of-sight direction, the partial image data of the visual field range is extracted from the environment map,
Projective transformation according to the display unit is performed on the partial image data, and display image data is generated,
Compare the data amount of the partial image data and the data amount of the display image data, determine whether to transmit one of the partial image data and the display image data to the receiving device,
A transmission method characterized by transmitting either the partial image data or the display image data based on the determined result.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015232529A JP6639205B2 (en) | 2015-11-28 | 2015-11-28 | Transmission device, transmission method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015232529A JP6639205B2 (en) | 2015-11-28 | 2015-11-28 | Transmission device, transmission method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017098921A true JP2017098921A (en) | 2017-06-01 |
| JP6639205B2 JP6639205B2 (en) | 2020-02-05 |
Family
ID=58817507
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015232529A Active JP6639205B2 (en) | 2015-11-28 | 2015-11-28 | Transmission device, transmission method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6639205B2 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024004134A1 (en) * | 2022-06-30 | 2024-01-04 | 株式会社ソニー・インタラクティブエンタテインメント | Image transmission device and image transmission method |
| US12387289B2 (en) | 2022-01-24 | 2025-08-12 | Canon Kabushiki Kaisha | Apparatus, method, and storage medium |
| JP2025162493A (en) * | 2024-07-05 | 2025-10-27 | 任天堂株式会社 | Information processing system, information processing device, distribution method, and distribution program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003267295A (en) * | 2002-03-14 | 2003-09-25 | Foundation For Nara Institute Of Science & Technology | Remote control system |
| JP2008109486A (en) * | 2006-10-26 | 2008-05-08 | Auto Network Gijutsu Kenkyusho:Kk | In-vehicle imaging system and imaging apparatus |
| JP2010219581A (en) * | 2009-03-13 | 2010-09-30 | Panasonic Corp | Image communication system |
| JP2013093705A (en) * | 2011-10-25 | 2013-05-16 | Olympus Corp | Head-mounted type display device, program and image processing system |
-
2015
- 2015-11-28 JP JP2015232529A patent/JP6639205B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003267295A (en) * | 2002-03-14 | 2003-09-25 | Foundation For Nara Institute Of Science & Technology | Remote control system |
| JP2008109486A (en) * | 2006-10-26 | 2008-05-08 | Auto Network Gijutsu Kenkyusho:Kk | In-vehicle imaging system and imaging apparatus |
| JP2010219581A (en) * | 2009-03-13 | 2010-09-30 | Panasonic Corp | Image communication system |
| JP2013093705A (en) * | 2011-10-25 | 2013-05-16 | Olympus Corp | Head-mounted type display device, program and image processing system |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12387289B2 (en) | 2022-01-24 | 2025-08-12 | Canon Kabushiki Kaisha | Apparatus, method, and storage medium |
| WO2024004134A1 (en) * | 2022-06-30 | 2024-01-04 | 株式会社ソニー・インタラクティブエンタテインメント | Image transmission device and image transmission method |
| JPWO2024004134A1 (en) * | 2022-06-30 | 2024-01-04 | ||
| JP7698150B2 (en) | 2022-06-30 | 2025-06-24 | 株式会社ソニー・インタラクティブエンタテインメント | Image transmission device and image transmission method |
| JP2025162493A (en) * | 2024-07-05 | 2025-10-27 | 任天堂株式会社 | Information processing system, information processing device, distribution method, and distribution program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6639205B2 (en) | 2020-02-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11321906B2 (en) | Asynchronous time and space warp with determination of region of interest | |
| US12348730B2 (en) | Reprojecting holographic video to enhance streaming bandwidth/quality | |
| US20220174252A1 (en) | Selective culling of multi-dimensional data sets | |
| US9081181B2 (en) | Head mounted display device and image display control method therefor | |
| US10591731B2 (en) | Ocular video stabilization | |
| US10997943B2 (en) | Portable compute case for storing and wirelessly communicating with an eyewear device | |
| US20230111408A1 (en) | Techniques for capturing and rendering videos with simulated reality systems and for connecting services with service providers | |
| US10078367B2 (en) | Stabilization plane determination based on gaze location | |
| US10511823B2 (en) | Video display apparatus, video display system, and video display method | |
| CN106663336B (en) | Image generation device and image generation method | |
| US20160238852A1 (en) | Head mounted display performing post render processing | |
| US9965830B2 (en) | Image processing apparatus, image processing method, and program | |
| US12101561B2 (en) | Image display system, image processing device, and image display method | |
| US10572764B1 (en) | Adaptive stereo rendering to reduce motion sickness | |
| WO2020140758A1 (en) | Image display method, image processing method, and related devices | |
| KR102437276B1 (en) | Body movement based cloud vr device and method | |
| WO2022230253A1 (en) | Information processing device and information processing method | |
| US11126001B2 (en) | Image generating apparatus, head-mounted display, content processing system and image displaying method | |
| JP6639205B2 (en) | Transmission device, transmission method, and program | |
| US11928775B2 (en) | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image | |
| US11614627B2 (en) | Image processing apparatus, head-mounted display, and image displaying method | |
| JP2020167657A (en) | Image processing equipment, head-mounted display, and image display method | |
| WO2025218282A1 (en) | Display method, readable storage medium, and electronic device | |
| JP2017181605A (en) | Information processing apparatus, image display apparatus, image display system, and information processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181122 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190829 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190910 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191108 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191224 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6639205 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |