[go: up one dir, main page]

JP2017098921A - Transmission device, transmission method, and program - Google Patents

Transmission device, transmission method, and program Download PDF

Info

Publication number
JP2017098921A
JP2017098921A JP2015232529A JP2015232529A JP2017098921A JP 2017098921 A JP2017098921 A JP 2017098921A JP 2015232529 A JP2015232529 A JP 2015232529A JP 2015232529 A JP2015232529 A JP 2015232529A JP 2017098921 A JP2017098921 A JP 2017098921A
Authority
JP
Japan
Prior art keywords
image data
partial image
data
display
display image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015232529A
Other languages
Japanese (ja)
Other versions
JP6639205B2 (en
Inventor
花本 貴志
Takashi Hanamoto
貴志 花本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015232529A priority Critical patent/JP6639205B2/en
Publication of JP2017098921A publication Critical patent/JP2017098921A/en
Application granted granted Critical
Publication of JP6639205B2 publication Critical patent/JP6639205B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 観察者の動きに応じて転送する表示用画像のためのデータ量を削減する。【解決手段】 観察者の視線方向に応じた画像データを、表示部を有する受信装置に送信する送信装置であって、観察者の視線方向を取得する取得手段と、全周囲方向からの輝度情報からなる環境マップを保持する保持手段と、視線方向に応じた視野範囲を参照して、前記環境マップから前記視野範囲の部分画像データを抽出する抽出手段と、前記部分画像データに対して前記表示部に応じた射影変換を行い、表示用画像データを生成する生成手段と、前記部分画像データのデータ量と前記表示用画像データのデータ量とを比較し、前記部分画像データと前記表示用画像データのうちいずれを前記受信装置に送信するかを判定する判定手段と、前記判定手段により判定された結果に基づいて、前記部分画像データと前記表示用画像データの一方を送信する送信手段とを有する。【選択図】 図6PROBLEM TO BE SOLVED: To reduce the amount of data for a display image to be transferred according to the movement of an observer. SOLUTION: A transmitting device for transmitting image data according to a line of sight of an observer to a receiving device having a display unit, an acquiring unit for acquiring a line of sight of the observer, and luminance information from all directions. Holding means for holding an environment map consisting of: extracting means for extracting partial image data of the visual field range from the environment map with reference to a visual field range corresponding to a line-of-sight direction; A projecting unit that performs projective transformation according to the unit and generates display image data, and compares a data amount of the partial image data with a data amount of the display image data, and compares the partial image data with the display image data. Determining means for determining which of the data is to be transmitted to the receiving device; and one of the partial image data and the display image data based on a result determined by the determining means. And transmitting means for transmitting. [Selection] Fig. 6

Description

本発明は、ヘッドマウントディスプレイなどに表示する画像データを効率的に転送する技術に関する。   The present invention relates to a technique for efficiently transferring image data to be displayed on a head mounted display or the like.

観察者の頭部に固定するヘッドマウントディスプレイ(以降、HMD)を用いて、観察者の視線方向に合わせて画像を表示する技術が知られている。HMDに表示される画像データは、全周囲方向の映像をその都度切り出した領域の画像であり、元となる画像は環境マップとも呼ばれる。環境マップは例えば、魚眼レンズを用いた撮影やミラーボールに反射した光をカメラで撮像する手法により取得できる。高解像度の環境マップを取得した場合は、データ量が多くなる。   A technique for displaying an image in accordance with the viewing direction of the observer using a head-mounted display (hereinafter, HMD) fixed to the observer's head is known. The image data displayed on the HMD is an image of an area obtained by cutting out the video in the entire peripheral direction each time, and the original image is also called an environment map. The environment map can be acquired by, for example, photographing using a fisheye lens or a method of capturing light reflected by a mirror ball with a camera. When a high-resolution environment map is acquired, the amount of data increases.

環境マップをサーバ端末に保持しておき、ユーザーの要望を受けた環境マップの必要な領域のみを切り出し、HMDが接続されたクライアント端末に送信することが知られている。観察者の視線方向に合わせて表示画像を自然に表示するためには、データを転送する遅延を防ぐことが望まれる。   It is known that an environment map is held in a server terminal, and only a necessary area of the environment map requested by a user is cut out and transmitted to a client terminal to which an HMD is connected. In order to display a display image naturally in accordance with the viewing direction of the observer, it is desired to prevent a delay in transferring data.

特許文献1には、環境マップを取得した魚眼レンズ特有のカメラ特性を考慮し、環境マップを取得する際の歪みの程度に応じてデータを圧縮する圧縮率を変化させる方法を開示している。これにより環境マップのデータ量を高画質に圧縮できる。   Patent Document 1 discloses a method of changing the compression rate for compressing data in accordance with the degree of distortion when acquiring an environment map in consideration of the camera characteristics specific to the fisheye lens that acquired the environment map. Thereby, the data amount of the environment map can be compressed with high image quality.

特開2011−55366号公報JP 2011-55366 A

しかしながら、特許文献1の方法では、歪みの大きな領域には高い圧縮率で圧縮するのに対し、歪みの少ない領域やレンズ性能の良い歪みの少ないカメラで撮影した環境マップでは、データ量の削減はできない。   However, in the method of Patent Document 1, compression is performed at a high compression ratio in a region with a large distortion, whereas in an environment map taken with a camera with a small distortion and a lens with good lens performance, the data amount is reduced. Can not.

そこで本発明では、観察者の動きに応じて転送する表示用画像のためのデータ量を削減することを目的とする。   Therefore, an object of the present invention is to reduce the amount of data for a display image to be transferred according to the movement of an observer.

上記課題を解決するため本発明は、観察者の視線方向に応じた画像データを、表示部を有する受信装置に送信する送信装置であって、観察者の視線方向を取得する取得手段と、
全周囲方向からの輝度情報からなる環境マップを保持する保持手段と、視線方向に応じた視野範囲を参照して、前記環境マップから前記視野範囲の部分画像データを抽出する抽出手段と、前記部分画像データに対して前記表示部に応じた射影変換を行い、表示用画像データを生成する生成手段と、前記部分画像データのデータ量と前記表示用画像データのデータ量とを比較し、前記部分画像データと前記表示用画像データのうちいずれを前記受信装置に送信するかを判定する判定手段と、前記判定手段により判定された結果に基づいて、前記部分画像データと前記表示用画像データの一方を送信する送信手段とを有する。
In order to solve the above problems, the present invention is a transmission device that transmits image data corresponding to the line-of-sight direction of an observer to a reception device having a display unit, and an acquisition unit that acquires the line-of-sight direction of the observer;
A holding means for holding an environment map composed of luminance information from all directions, an extraction means for extracting partial image data of the visual field range from the environmental map with reference to a visual field range corresponding to the line-of-sight direction, and the part The image data is subjected to projective transformation in accordance with the display unit to generate display image data, the data amount of the partial image data is compared with the data amount of the display image data, and the partial data A determination unit that determines which of image data and display image data is to be transmitted to the receiving device, and one of the partial image data and the display image data based on a result determined by the determination unit Transmitting means for transmitting.

本発明では、観察者の動きに応じて転送する表示用画像のためのデータ量を削減することができる。   In the present invention, it is possible to reduce the amount of data for a display image to be transferred according to the movement of the observer.

HMDに画像を表示する画像処理システムの構成を示すブロック図。The block diagram which shows the structure of the image processing system which displays an image on HMD. 環境マップの構成を示す図。The figure which shows the structure of an environment map. HMDの構成を示す図。The figure which shows the structure of HMD. 環境マップと視野との関連を説明する図。The figure explaining the relationship between an environmental map and a visual field. HMDに画像を表示する週報を概念的に示す図。The figure which shows notionally the weekly report which displays an image on HMD. 環境マップの配信処理を示すフローチャート。The flowchart which shows the delivery process of an environment map. 環境マップの配信処理を示すフローチャート。The flowchart which shows the delivery process of an environment map. サーバ端末およびクライアント端末の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of a server terminal and a client terminal. サーバ端末およびクライアント端末の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of a server terminal and a client terminal.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<第1実施形態>
本実施形態では、環境マップを保存し画像を送信する送信側であるサーバ端末と、視線方向に応じて環境マップの一部を受信し、表示するクライアント端末との間で効率的に画像データを配信する方法について説明する。図1は、第1実施形態に適用可能な画像処理装置のシステム構成を示すブロック図である。環境マップから切り出した部分画像データを送信するサーバ端末(送信装置)は、CPU101、メインメモリ102、記憶装置103、GPU104、通信装置105、バス106を備える。まず、CPU101は、演算処理や各種プログラムの実行を行う。メインメモリ102は、処理に必要なプログラム、データ、作業領域などをCPU101に提供する。記憶装置103は、画像処理プログラムや複数枚画像データを蓄積する装置で、例えばハードディスクが用いられる。GPU104は、画像データやGUIを表示するための装置であり、通常ディスプレイが接続されている。通信装置105は、各種ネットワークと接続する装置であり、通信装置105を経由して、クライアント端末に環境マップから切り出して生成した部分画像データを配信する。バス106は上述の各部をつなぐバスである。
<First Embodiment>
In this embodiment, image data is efficiently transferred between a server terminal that is a transmission side that stores an environment map and transmits an image, and a client terminal that receives and displays a part of the environment map according to the line-of-sight direction. A distribution method will be described. FIG. 1 is a block diagram showing a system configuration of an image processing apparatus applicable to the first embodiment. A server terminal (transmission device) that transmits partial image data cut out from the environment map includes a CPU 101, a main memory 102, a storage device 103, a GPU 104, a communication device 105, and a bus 106. First, the CPU 101 executes arithmetic processing and various programs. The main memory 102 provides the CPU 101 with programs, data, work areas, and the like necessary for processing. The storage device 103 is a device that stores an image processing program and a plurality of pieces of image data. For example, a hard disk is used. The GPU 104 is a device for displaying image data and a GUI, and is normally connected to a display. The communication device 105 is a device connected to various networks, and distributes partial image data generated by cutting out from the environment map to the client terminal via the communication device 105. The bus 106 is a bus that connects the above-described units.

サーバ端末から環境マップの一部データを受信するクライアント端末(受信装置)は、基本構成はサーバ端末と同等であるが、画像の表示手段としてHMD(ヘッドマウントディスプレイ)107が接続されている。クライアント端末は、HMDにおいて検出した観察者の視線方向をサーバ端末に送信し、サーバ端末から、視線方向に応じた環境マップの部分画像データを受信する。クライアント端末は、受信した部分画像データに対して必要に応じて画像処理を実行し、表示用画像を表示する。   A client terminal (receiving device) that receives part of the environment map data from the server terminal has the same basic configuration as the server terminal, but an HMD (head mounted display) 107 is connected as an image display means. The client terminal transmits the line-of-sight direction of the observer detected by the HMD to the server terminal, and receives partial image data of the environment map corresponding to the line-of-sight direction from the server terminal. The client terminal performs image processing on the received partial image data as necessary, and displays a display image.

図2は、環境マップを説明する図である。図2(a)に示すように、観察者の視点位置201からの視線方向は、極座標(θ、φ)を用いて表すことができる。この極座標を量子化し、各極座標における輝度をマップにした画像データが環境マップである。環境マップを構成する各画素は、輝度ベクトルを保持し、輝度ベクトルの大きさが輝度値を表し、輝度ベクトルの向きは常に視点位置201を向いている。すなわち、環境マップは観察者に入射する全周囲からの輝度情報である。環境マップの保持方法は、図2(b)に示す正距円筒マップ方式と、図2(c)に示す球状マップ方式などが存在する。正距円筒マップ方式は、θを横軸、φを縦軸として平面に展開した方式であるが、球状のデータを平面に投射するため歪みを生じる。球状マップ方式は、円の中心から円弧に向けた軸をφ、円の中心からの回転方向をθとして展開したデータであるが、この場合も球状を2次元に投影するため歪みを生じる。そのため、双方の方式ともHMDで表示する際には、切り出した領域の部分画像を射影変換する必要がある。   FIG. 2 is a diagram for explaining the environment map. As shown in FIG. 2A, the line-of-sight direction from the observer's viewpoint position 201 can be expressed using polar coordinates (θ, φ). Image data obtained by quantizing the polar coordinates and mapping the luminance at each polar coordinate is an environment map. Each pixel constituting the environment map holds a luminance vector, the magnitude of the luminance vector represents a luminance value, and the direction of the luminance vector always faces the viewpoint position 201. In other words, the environment map is luminance information from the entire periphery that enters the observer. The environmental map holding method includes an equirectangular cylinder map method shown in FIG. 2B and a spherical map method shown in FIG. The equirectangular map method is a method in which θ is a horizontal axis and φ is a vertical axis and is developed on a plane. However, distortion occurs because spherical data is projected onto the plane. The spherical map method is data in which the axis extending from the center of the circle to the arc is φ and the rotation direction from the center of the circle is θ, but in this case as well, distortion occurs because the sphere is projected in two dimensions. For this reason, in both methods, when the HMD is displayed, it is necessary to perform projective conversion on the partial image of the cut-out area.

図3は、HMD107の構成を説明する図である。図3(a)に示すようにHMD107は、画像を表示する表示部301と、観察者の視線方向を検出するための3軸加速度センサ303が搭載されている。また、頭部に固定するための固定部302があり、観察者は固定部302を耳にかけることで、HMD107を頭部に装着することができる。表示部301は、図3(b)に示すように、観察者の眼304から仮想視野307を見た映像を、表示部301が有する液晶ディスプレイ306に表示する。その際、レンズ305を通すことで、焦点位置を調整する。液晶ディスプレイ306に環境マップから切り出した領域の部分画像に基づいて生成される表示用画像を表示することによって、環境マップの視点位置201に居るような臨場感のある映像再現が可能となる。   FIG. 3 is a diagram for explaining the configuration of the HMD 107. As shown in FIG. 3A, the HMD 107 is equipped with a display unit 301 for displaying an image and a three-axis acceleration sensor 303 for detecting the viewing direction of the observer. In addition, there is a fixing portion 302 for fixing to the head, and the observer can attach the HMD 107 to the head by putting the fixing portion 302 on the ear. As shown in FIG. 3B, the display unit 301 displays an image obtained by viewing the virtual visual field 307 from the observer's eye 304 on the liquid crystal display 306 included in the display unit 301. At this time, the focal position is adjusted by passing the lens 305. By displaying the display image generated based on the partial image of the region cut out from the environment map on the liquid crystal display 306, it is possible to reproduce the video with a sense of presence as if it were at the viewpoint position 201 of the environment map.

図4は、仮想視野と環境マップとの関係を説明する図である。図4(a)のように、視点位置401から見た視線方向を視線ベクトルV(θ、φ)とする。このとき視線ベクトルV(θ、φ)を中心に観察者が視点位置401から見えていると想定される仮想視野307を覆う領域(視野範囲402)を4つのベクトルV(θ、φ)、V(θ、φ)、V(θ、φ)、V(θ、φ)で定義する。図4(b)は、環境マップと視野範囲を規定する4つのベクトルとの関係を表す。図4(b)には、2つの異なる視線方向の場合を例示している。視線ベクトルV(θ、φ)を中心とし4つのベクトルにより規定される視野範囲は、ここでは図4(b)に示す通り矩形領域であるとする。この視野範囲が、視線方向に応じてHMD107の表示部301に表示すべき領域となる。さらに、視野範囲となる矩形領域は視線ベクトルV(θ、φ)の方向によって異なる。環境マップにおける原点を(θ、φ)=(0、0)としたとき、視野範囲の大きさは、角度情報φ=0で最小となり、φが大きくなるにつれて矩形領域も増大する。矩形領域のサイズSenvは、図4(c)で表す式を用いて算出することができる。ここで、Bitは環境マップにおける各画素のビット数である。この矩形領域に対して、接眼レンズの光学特性を考慮した射影変換処理を実行することで、表示用画像を得ることができる。表示用画像のサイズは、図4(d)に示す式によって表される。表示用画像のサイズは、液晶ディスプレイ306の画素数(WLCD×HLCD)と表示可能なビット数Bitを掛け合わせたSdisplayとなり、常に一定である。そこでサーバ端末は、クライアント端末に部分画像データを配信する際には、環境マップにおける部分画像データと表示画像データのうち、データ量が小さい方を配信することにより、データの転送量を出来る限り小さくできる。 FIG. 4 is a diagram for explaining the relationship between the virtual visual field and the environment map. As shown in FIG. 4A, the line-of-sight direction viewed from the viewpoint position 401 is defined as a line-of-sight vector V (θ, φ). At this time, an area (field range 402) covering the virtual visual field 307 that is assumed to be viewed from the viewpoint position 401 around the line-of-sight vector V (θ, φ) is represented by four vectors V 0 (θ, φ), It is defined by V 1 (θ, φ), V 2 (θ, φ), and V 3 (θ, φ). FIG. 4B shows the relationship between the environment map and the four vectors that define the field-of-view range. FIG. 4B illustrates the case of two different viewing directions. Assume that the visual field range defined by the four vectors centered on the line-of-sight vector V (θ, φ) is a rectangular region as shown in FIG. 4B. This field-of-view range is an area to be displayed on the display unit 301 of the HMD 107 according to the line-of-sight direction. Further, the rectangular area that becomes the visual field range varies depending on the direction of the line-of-sight vector V (θ, φ). When the origin in the environment map is (θ, φ) = (0, 0), the size of the visual field range is minimized when the angle information φ = 0, and the rectangular area increases as φ increases. The size S env of the rectangular area can be calculated using the formula shown in FIG. Here, Bit is the number of bits of each pixel in the environment map. A display image can be obtained by executing projective transformation processing in consideration of the optical characteristics of the eyepiece on the rectangular area. The size of the display image is represented by the formula shown in FIG. The size of the display image is S display obtained by multiplying the number of pixels of the liquid crystal display 306 (W LCD × H LCD ) by the number of bits that can be displayed, and is always constant. Therefore, when distributing the partial image data to the client terminal, the server terminal distributes the smaller amount of the partial image data and the display image data in the environment map, thereby reducing the data transfer amount as much as possible. it can.

図5は、HMDを用いて環境マップを表示する流れを説明する図である。サーバ端末は、環境マップを記憶装置103から読み出す。クライアント端末はHMD107に内蔵された加速度センサから角度情報(θ、φ)520を取得する。この角度情報は、図4を用いて説明した視線ベクトルV(θ、φ)である。クライアント端末は、角度情報520と角度情報に応じた視野範囲(4つのベクトルV(θ、φ)、V(θ、φ)、V(θ、φ)、V(θ、φ)を規定する情報)をサーバ端末に送信する。サーバ端末は、クライアント端末から受信した情報に基づいて、メインメモリ102に展開した環境マップから表示に必要なデータを抽出し、クライアント端末に転送する。 FIG. 5 is a diagram for explaining a flow of displaying an environment map using the HMD. The server terminal reads the environment map from the storage device 103. The client terminal acquires angle information (θ, φ) 520 from an acceleration sensor built in the HMD 107. This angle information is the line-of-sight vector V (θ, φ) described with reference to FIG. The client terminal uses the angle information 520 and a field of view range corresponding to the angle information (four vectors V 0 (θ, φ), V 1 (θ, φ), V 2 (θ, φ), V 3 (θ, φ)). Is transmitted to the server terminal. Based on the information received from the client terminal, the server terminal extracts data necessary for display from the environment map developed in the main memory 102 and transfers the data to the client terminal.

図8は、サーバ端末とクライアント端末それぞれの詳細な論理構成を示すブロック図である。サーバ端末は、環境マップを保持する保持部901から、画像切り出し部802は、取得した角度情報および視野範囲に応じた領域の部分画像データを切り出す。判定部803は、切り出した部分画像データをそのままクライアント端末に転送するか、表示用画像に変換してからクライアント端末に転送するかを判定する。部分画像出力804は、切り出した部分画像データをそのままクライアント端末に出力する。一方射影変換部805は、HMD107の液晶ディスプレイ306に合わせて、切り出した部分画像データを射影変換する。射影変換に必要な情報は予めクライアント端末から取得しておく。   FIG. 8 is a block diagram showing a detailed logical configuration of each of the server terminal and the client terminal. In the server terminal, from the holding unit 901 that holds the environment map, the image cutout unit 802 cuts out partial image data of an area corresponding to the acquired angle information and field-of-view range. The determination unit 803 determines whether the cut partial image data is transferred to the client terminal as it is, or is converted into a display image and then transferred to the client terminal. The partial image output 804 outputs the cut partial image data to the client terminal as it is. On the other hand, the projective conversion unit 805 performs projective conversion on the extracted partial image data in accordance with the liquid crystal display 306 of the HMD 107. Information necessary for projective transformation is acquired from the client terminal in advance.

ここで、クライアント端末も射影変換部809を有する。この遮蔽変換部809は、射影変換部805と同様に、HMD107の液晶でスプレイ306に合わせた射影変換を実行する。射影変換部809は、サーバ端末から切り出した部分画像データをそのまま受け取った場合にのみ、射影変換を実行する。表示制御部810は、クライアント端末内の射影変換部809が変換して得られた表示用画像か、サーバ端末から取得した表示用画像を、HMD107の液晶ディスプレイ306に出力し、表示させる。   Here, the client terminal also has a projective transformation unit 809. Similar to the projection conversion unit 805, the shielding conversion unit 809 performs projection conversion that matches the spray 306 with the liquid crystal of the HMD 107. The projective transformation unit 809 performs projective transformation only when the partial image data cut out from the server terminal is received as it is. The display control unit 810 outputs the display image obtained by the conversion by the projection conversion unit 809 in the client terminal or the display image acquired from the server terminal to the liquid crystal display 306 of the HMD 107 for display.

図6は、第1実施形態におけるサーバ端末とクライアント端末間におけるデータ転送の流れを示すフローチャート図である。サーバ端末およびクライアント端末は、それぞれの端末内のCPUが、フローチャートに示す処理を実現するコンピュータプログラムを実行することにより、各処理を実現する。   FIG. 6 is a flowchart showing a flow of data transfer between the server terminal and the client terminal in the first embodiment. The server terminal and the client terminal implement each process by the CPU in each terminal executing a computer program that implements the process shown in the flowchart.

ステップS601において画像保持部801は、観察者が視聴する環境マップを記憶装置103から読み出し、メインメモリ102に展開する。ここで複数の環境マップが記憶装置103に保持されている場合は、観察者が環境マップに対応づけられたモードのうち、視聴したいモードを選択するように構成してもよい。   In step S <b> 601, the image holding unit 801 reads the environment map viewed by the observer from the storage device 103 and develops it in the main memory 102. Here, when a plurality of environment maps are held in the storage device 103, the observer may select a mode he / she wants to view from among the modes associated with the environment map.

ステップS602において角度情報取得部807は、HMD107に内蔵された加速度センサ303は、観察者の頭部がどの方向を向いているかを検出した情報を取得し、観察者の視線方向を角度情報(θ、φ)として算出する。   In step S <b> 602, the angle information acquisition unit 807 acquires the information in which the acceleration sensor 303 built in the HMD 107 detects the direction in which the viewer's head is facing, and determines the viewer's line-of-sight direction as the angle information (θ , Φ).

ステップS603においてクライアント端末の視野範囲算出部808は、取得した角度情報に基づいて、視野範囲を特定する。ここで視野範囲は、図4(b)に示したように角度情報が示す位置を中心とする矩形領域であり。また、視野範囲として特定される矩形領域は、φの大きさに応じてサイズが異なる。このように視野範囲を特定する4つのベクトルV(θ、φ)、V(θ、φ)、V(θ、φ)、V(θ、φ)をサーバ端末に転送する。 In step S603, the visual field range calculation unit 808 of the client terminal specifies the visual field range based on the acquired angle information. Here, the visual field range is a rectangular area centered on the position indicated by the angle information as shown in FIG. Further, the rectangular area specified as the visual field range varies in size according to the size of φ. In this way, the four vectors V 0 (θ, φ), V 1 (θ, φ), V 2 (θ, φ), and V 3 (θ, φ) that specify the visual field range are transferred to the server terminal.

ステップS604において判定部803は、クライアント端末から視線ベクトルである角度情報と4つのベクトルにより特定される視野範囲に基づいて、環境マップから切り出す部分画像データのデータ量Senvを、図4(c)に示す式に従って算出する。 In step S604, the determination unit 803 determines the data amount S env of the partial image data cut out from the environment map based on the angle information that is the line-of-sight vector from the client terminal and the visual field range specified by the four vectors, as illustrated in FIG. It calculates according to the formula shown in.

ステップS605において画像切り出し部802は、視野範囲を特定する4つのベクトルに基づいて、環境マップから視野範囲の部分画像データを抽出する。ステップS606において判定部803は、切り出した部分画像データのデータ量SenvとHMD107の液晶ディスプレイ306に表示する表示用画像のデータ量Sdisplayを比較する。なお判定部803は、予めクライアント端末から液晶ディスプレイ306の表示画像の画素数および各画素が表示可能なビット数を取得している。表示用画像のデータ量Sdisplayを、図4(d)に示す式に従って算出しておく。切り出した部分画像データのデータ量Senvが大きい場合は、ステップS607に進み、小さい場合はステップS608に進む。 In step S605, the image cutout unit 802 extracts partial image data of the visual field range from the environment map based on the four vectors that specify the visual field range. Step decision unit 803 in S606 compares the data amount S display of the display image to be displayed on the liquid crystal display 306 of the data amount S env and HMD107 of clipped partial image data. Note that the determination unit 803 acquires the number of pixels of the display image on the liquid crystal display 306 and the number of bits that can be displayed by each pixel from the client terminal in advance. The data amount S display of the display image is calculated according to the formula shown in FIG. When the data amount S env of the cut out partial image data is large, the process proceeds to step S607, and when it is small, the process proceeds to step S608.

ステップS607において射影変換部805は、切り出した部分画像データに対して、HMDで表示するための射影変換を実施し、表示用画像データを生成する。ステップS610において表示用画像出力部806は、表示用画像データをクライアント端末に転送する。このとき、転送するデータのデータ量Sdisplayは、切り出した部分画像データのデータ量Senvよりも小さい。そのため、サーバ端末からクライアント端末に転送するデータのデータ量をより抑えることができる。 In step S <b> 607, the projection conversion unit 805 performs projection conversion for displaying the HMD on the extracted partial image data, and generates display image data. In step S610, the display image output unit 806 transfers the display image data to the client terminal. At this time, the data amount S display of the data to be transferred is smaller than the data amount S env of the cut out partial image data. As a result, the amount of data transferred from the server terminal to the client terminal can be further suppressed.

一方ステップS608において部分画像出力部804は、視野範囲に対応する切り出した部分画像データを、射影変換することなくそのままクライアント端末に転送する。これにより、表示用画像に射影変換してからデータを転送するよりも転送するデータ量を抑えることができる。   On the other hand, in step S608, the partial image output unit 804 transfers the cut partial image data corresponding to the visual field range to the client terminal as it is without performing projective conversion. As a result, the amount of data to be transferred can be suppressed rather than the data being transferred after projective conversion to the display image.

ステップS609において、クライアント端末の射影変換部809は、サーバ装置から受信した部分画像データに対して、射影変換を実施する。ステップS611において表示制御部810は、表示用画像データをHMD107の液晶ディスプレイ306に表示させる。   In step S609, the projective transformation unit 809 of the client terminal performs projective transformation on the partial image data received from the server device. In step S <b> 611, the display control unit 810 displays the display image data on the liquid crystal display 306 of the HMD 107.

以上のように本実施形態では、観察者の視線方向に応じてサーバ端末からクライアント端末に画像データを転送するデータ形式が異なる。射影変換せずに環境マップから切り出した部分画像データと、切り出した部分画像データに射影変換して得られる表示画像データのうち、データ量の小さい方をクライアント端末に転送する。これにより、サーバ端末からクライアント端末へのデータ通信量を削減でき、データ量が多いための発生する画像表示の遅延を抑制することができる。   As described above, in the present embodiment, the data format for transferring image data from the server terminal to the client terminal differs according to the viewing direction of the observer. Of the partial image data cut out from the environment map without projective conversion and the display image data obtained by projective conversion into the cut out partial image data, the smaller data amount is transferred to the client terminal. As a result, the amount of data communication from the server terminal to the client terminal can be reduced, and the delay in image display that occurs due to the large amount of data can be suppressed.

<第2実施形態>
第2実施形態ではさらに、サーバ端末がクライアント端末に転送するデータを圧縮する圧縮工程を追加する場合の好適な形態を説明する。なお、第2実施形態におけるシステム構成は、第1実施形態と同一であるため説明を省略する。
Second Embodiment
In the second embodiment, a preferred embodiment in which a compression process for compressing data transferred from the server terminal to the client terminal is added will be described. Note that the system configuration in the second embodiment is the same as that in the first embodiment, and a description thereof will be omitted.

図9は、第2実施形態におけるサーバ端末およびクライアント端末それぞれの詳細な論理構成を示すブロック図である。処理部901〜910は、図8における801〜810それぞれと同様である。可逆圧縮部911は、環境マップを切り出した部分画像データに対して所定の可逆圧縮を実行する。可逆圧縮を用いるのは、表示用画像を生成する射影変換が未実施であり、圧縮によるデータの欠損が生じると、射影変換により画質の劣化が生じてしまう場合があるためである。一方非可逆圧縮部912は、射影変換部905から得られる表示用画像データに対して、所定の非可逆圧縮を実行する。非可逆圧縮は一般に、可逆圧縮方式よりも圧縮率が高い。表示用画像データは、射影変換済なので、圧縮効率を優先して非可逆圧縮を実行する。   FIG. 9 is a block diagram showing a detailed logical configuration of each of the server terminal and the client terminal in the second embodiment. The processing units 901 to 910 are the same as 801 to 810 in FIG. The lossless compression unit 911 performs predetermined lossless compression on the partial image data obtained by cutting out the environment map. The lossless compression is used because the projective transformation for generating the display image has not been performed, and if data loss occurs due to the compression, the image quality may be deteriorated by the projective transformation. On the other hand, the irreversible compression unit 912 performs predetermined irreversible compression on the display image data obtained from the projective transformation unit 905. The lossy compression generally has a higher compression rate than the lossless compression method. Since the display image data has undergone projective transformation, lossy compression is executed with priority given to compression efficiency.

図7は、第2実施形態に適用可能なサーバ端末とクライアント端末間におけるデータ転送と処理の流れを示すフローチャートである。サーバ端末およびクライアント端末は、それぞれの端末内のCPUが、フローチャートに示す処理を実現するコンピュータプログラムを実行することにより、各処理を実現する。   FIG. 7 is a flowchart showing a flow of data transfer and processing between a server terminal and a client terminal applicable to the second embodiment. The server terminal and the client terminal implement each process by the CPU in each terminal executing a computer program that implements the process shown in the flowchart.

ステップS701〜ステップS705までは、第1実施形態におけるステップS601〜ステップS605までの処理と同様である。S706において判定部903は、環境マップから切り出した部分画像データに対して所定の可逆圧縮方式により圧縮した際のデータ量Sを算出する。可逆圧縮部911が実行する圧縮アルゴリズムによって、大まかなデータはあらかじめ予測できるので、予測値をデータ量Sとして用いる。なお判定部903は、可逆圧縮後のデータ量は、実際に可逆圧縮部911が可逆圧縮を実行した後、可逆圧縮部911が算出したデータ量を取得する構成としてもよい。 Steps S701 to S705 are the same as the processes from step S601 to step S605 in the first embodiment. Determination unit 903 in S706 calculates the data amount S L when compressed by a predetermined lossless compression method on the partial image data cut out from the environment map. By the compression algorithm lossless compression unit 911 performs, since rough data can be predicted beforehand, using the predicted value as the data amount S L. Note that the determination unit 903 may acquire the data amount calculated by the lossless compression unit 911 after the lossless compression unit 911 actually executes the lossless compression.

ステップS707において判定部903は、表示用画像データに対して非可逆圧縮部912が非可逆圧縮した際のデータ量Sを算出する。可逆圧縮の場合と同様、非可逆圧縮部912が実行する圧縮アルゴリズムによって、大まかなサイズはあらかじめ予測できる。判定部903は、予め非可逆圧縮部912が実行する非可逆圧縮のパラメータを保持し、データ量を予測する。なおここでも、判定部903は、実際に非可逆圧縮部912が非可逆圧縮を実行した後、非可逆圧縮911が算出したデータ量を取得する構成としてもよい。 Step decision unit 903 in S707 calculates the data amount S C when irreversible compression unit 912 with respect to the display image data is lossy compression. As in the case of lossless compression, the approximate size can be predicted in advance by the compression algorithm executed by the lossy compression unit 912. The determination unit 903 holds the parameters of the irreversible compression executed by the irreversible compression unit 912 in advance and predicts the data amount. Here, the determination unit 903 may acquire the data amount calculated by the lossy compression 911 after the lossy compression unit 912 actually executes the lossy compression.

ステップS708において判定部903は、データ量Sとデータ量Sを比較する。部分画像データを可逆圧縮した際のデータ量Sの方が大きい場合はS709に進み、小さい場合はS712に進む。ステップS709において射影変換部905は、切り出した部分画像データに対して、HMD107で表示するための射影変換を実施する。これにより、HMDでの表示用画像データを生成する。ステップS710において非可逆圧縮部912は、表示用画像データに対して非可逆圧縮を適用する。ステップS711において表示用画像出力部906は、非可逆圧縮した表示用画像データをクライアント端末に送信する。 Determination unit 903 in step S708 compares the data amount S L and the amount of data S C. If larger amount of data S L when the partial image data and lossless compression proceeds to S709, if it is smaller, the process proceeds to S712. In step S <b> 709, the projective conversion unit 905 performs projective conversion for displaying on the HMD 107 on the extracted partial image data. Thereby, image data for display in the HMD is generated. In step S710, the lossy compression unit 912 applies lossy compression to the display image data. In step S711, the display image output unit 906 transmits the display image data subjected to lossy compression to the client terminal.

ステップS712において可逆圧縮部911は、切り出した部分画像データに対して可逆圧縮を適用する。ステップS713において部分画像出力部904は、可逆圧縮した部分画像データをクライアント端末に送信する。S714においてクライアント端末の復号部913は、受信した圧縮データを復号する。さらに射影変換部909は、復号して得られる部分画像データに対して、表示用の射影変換を実施する。   In step S712, the lossless compression unit 911 applies lossless compression to the cut out partial image data. In step S713, the partial image output unit 904 transmits the reversibly compressed partial image data to the client terminal. In S714, the decoding unit 913 of the client terminal decodes the received compressed data. Further, the projective transformation unit 909 performs a projective transformation for display on the partial image data obtained by decoding.

ステップS715において表示制御部910は、表示用画像データをHMD107に出力し、液晶ディスプレイ306に表示させる。このとき、表示用画像データをサーバ端末から受信した場合は、復号部914が圧縮データを復号する。   In step S <b> 715, the display control unit 910 outputs the display image data to the HMD 107 and displays it on the liquid crystal display 306. At this time, when the display image data is received from the server terminal, the decoding unit 914 decodes the compressed data.

以上第2実施形態では、サーバ端末からクライアント端末に転送するデータの通信量を削減できる。   As described above, in the second embodiment, it is possible to reduce the communication amount of data transferred from the server terminal to the client terminal.

<その他の実施形態>
なお、前述の実施形態では、転送するデータのデータ量をその都度、計算式に従って算出したが、画像のデータ量をその都度算出せず、あらかじめ入力値と算出結果の組み合わせで構成されるルックアップテーブルを利用しておいてもよい。視野範囲に対応する部分画像データのサイズは、φ方向に依存しているため、φ方向毎の部分画像データのデータ量と表示用画像データのデータ量とを比較した結果に基づきルックアップテーブルを作成する。角度情報としてクライアント端末から角度情報φを受信すると、ルックアップテーブルを参照することにより、切り出した部分画像データと射影変換済の画像データのうちいずれを転送すべきか判定することができる。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
In the above-described embodiment, the data amount of data to be transferred is calculated according to the calculation formula each time. However, the data amount of the image is not calculated each time, and the lookup is configured by a combination of the input value and the calculation result in advance. You may use a table. Since the size of the partial image data corresponding to the visual field range depends on the φ direction, a lookup table is created based on the result of comparing the data amount of the partial image data for each φ direction with the data amount of the display image data. create. When the angle information φ is received from the client terminal as the angle information, it is possible to determine which of the cut partial image data and the projective transformed image data should be transferred by referring to the lookup table. The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

802 画像切り出し部
803 判定部
804 部分画像出力部
805 射影変換部
806 表示用画像出力部
802 Image cutout unit 803 Determination unit 804 Partial image output unit 805 Projection conversion unit 806 Display image output unit

Claims (7)

観察者の視線方向に応じた画像データを、表示部を有する受信装置に送信する送信装置であって、
観察者の視線方向を取得する取得手段と、
全周囲方向からの輝度情報からなる環境マップを保持する保持手段と、
視線方向に応じた視野範囲を参照して、前記環境マップから前記視野範囲の部分画像データを抽出する抽出手段と、
前記部分画像データに対して前記表示部に応じた射影変換を行い、表示用画像データを生成する生成手段と、
前記部分画像データのデータ量と前記表示用画像データのデータ量とを比較し、前記部分画像データと前記表示用画像データのうちいずれを前記受信装置に送信するかを判定する判定手段と、
前記判定手段により判定された結果に基づいて、前記部分画像データと前記表示用画像データの一方を送信する送信手段とを有することを特徴とする送信装置。
A transmission device that transmits image data according to the line-of-sight direction of an observer to a reception device having a display unit,
An acquisition means for acquiring an observer's gaze direction;
Holding means for holding an environment map consisting of luminance information from all directions;
Extracting means for extracting partial image data of the visual field range from the environment map with reference to the visual field range according to the line-of-sight direction;
Generating means for performing projection conversion according to the display unit on the partial image data and generating display image data;
A determination unit that compares the data amount of the partial image data with the data amount of the display image data and determines which of the partial image data and the display image data is transmitted to the receiving device;
A transmission apparatus comprising: a transmission unit configured to transmit one of the partial image data and the display image data based on a result determined by the determination unit.
前記判定手段は、前記視野範囲の大きさと、前記環境マップにおける各画素のビット数とに基づいて、前記部分画像データのデータ量を算出することを特徴とする請求項1に記載の送信装置。   The transmission device according to claim 1, wherein the determination unit calculates a data amount of the partial image data based on a size of the visual field range and a bit number of each pixel in the environment map. 前記判定手段は、前記表示部に表示される画像のサイズと、前記表示部が表示可能なビット数とに基づいて、前記表示用画像データのデータ量を算出することを特徴とする請求項1または2に記載の送信装置。   The determination unit calculates a data amount of the display image data based on a size of an image displayed on the display unit and a number of bits that can be displayed on the display unit. Or the transmission apparatus of 2. さらに、前記部分画像データに対して可逆圧縮を実行する第一の圧縮手段と、
前記表示用画像データに対して非可逆圧縮を実行する第二の圧縮手段とを有し、
前記送信手段は、前記部分画像データを送信する場合は、前記第一の圧縮手段から得られる圧縮データを送信し、前記表示用画像データを送信する場合は、前記第二の圧縮手段から得られる圧縮データを送信することを特徴とする請求項1乃至3のいずれか一項に記載の送信装置。
A first compression means for performing lossless compression on the partial image data;
Second compression means for performing lossy compression on the display image data,
The transmission means transmits the compressed data obtained from the first compression means when transmitting the partial image data, and is obtained from the second compression means when transmitting the display image data. The transmission apparatus according to claim 1, wherein the transmission apparatus transmits compressed data.
前記視野範囲は、前記環境マップにおける原点から前記視線方向が大きいほど、サイズが大きいことを特徴とする請求項1乃至4のいずれか一項に記載の送信装置。   5. The transmission device according to claim 1, wherein the field-of-view range is larger in size as the line-of-sight direction is larger from the origin in the environment map. コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1乃至5の何れか一項に記載された送信装置として機能させることを特徴とするコンピュータプログラム。   A computer program that causes a computer to function as the transmission device according to claim 1 by being read and executed by a computer. 観察者の視線方向に応じた画像データを、表示部を有する受信装置に送信する送信方法であって、
観察者の視線方向を取得し、
全周囲方向からの輝度情報からなる環境マップを保持し、
視線方向に応じた視野範囲を参照して、前記環境マップから前記視野範囲の部分画像データを抽出し、
前記部分画像データに対して前記表示部に応じた射影変換を行い、表示用画像データを生成し、
前記部分画像データのデータ量と前記表示用画像データのデータ量とを比較し、前記部分画像データと前記表示用画像データの一方を前記受信装置に送信するかを判定し、
前記判定された結果に基づいて、前記部分画像データと前記表示用画像データのうちいずれかを送信することを特徴とする送信方法。
A transmission method for transmitting image data corresponding to a viewing direction of an observer to a receiving device having a display unit,
Get the observer ’s gaze direction,
Holds an environment map consisting of luminance information from all directions,
With reference to the visual field range according to the line-of-sight direction, the partial image data of the visual field range is extracted from the environment map,
Projective transformation according to the display unit is performed on the partial image data, and display image data is generated,
Compare the data amount of the partial image data and the data amount of the display image data, determine whether to transmit one of the partial image data and the display image data to the receiving device,
A transmission method characterized by transmitting either the partial image data or the display image data based on the determined result.
JP2015232529A 2015-11-28 2015-11-28 Transmission device, transmission method, and program Active JP6639205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015232529A JP6639205B2 (en) 2015-11-28 2015-11-28 Transmission device, transmission method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015232529A JP6639205B2 (en) 2015-11-28 2015-11-28 Transmission device, transmission method, and program

Publications (2)

Publication Number Publication Date
JP2017098921A true JP2017098921A (en) 2017-06-01
JP6639205B2 JP6639205B2 (en) 2020-02-05

Family

ID=58817507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015232529A Active JP6639205B2 (en) 2015-11-28 2015-11-28 Transmission device, transmission method, and program

Country Status (1)

Country Link
JP (1) JP6639205B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004134A1 (en) * 2022-06-30 2024-01-04 株式会社ソニー・インタラクティブエンタテインメント Image transmission device and image transmission method
US12387289B2 (en) 2022-01-24 2025-08-12 Canon Kabushiki Kaisha Apparatus, method, and storage medium
JP2025162493A (en) * 2024-07-05 2025-10-27 任天堂株式会社 Information processing system, information processing device, distribution method, and distribution program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003267295A (en) * 2002-03-14 2003-09-25 Foundation For Nara Institute Of Science & Technology Remote control system
JP2008109486A (en) * 2006-10-26 2008-05-08 Auto Network Gijutsu Kenkyusho:Kk In-vehicle imaging system and imaging apparatus
JP2010219581A (en) * 2009-03-13 2010-09-30 Panasonic Corp Image communication system
JP2013093705A (en) * 2011-10-25 2013-05-16 Olympus Corp Head-mounted type display device, program and image processing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003267295A (en) * 2002-03-14 2003-09-25 Foundation For Nara Institute Of Science & Technology Remote control system
JP2008109486A (en) * 2006-10-26 2008-05-08 Auto Network Gijutsu Kenkyusho:Kk In-vehicle imaging system and imaging apparatus
JP2010219581A (en) * 2009-03-13 2010-09-30 Panasonic Corp Image communication system
JP2013093705A (en) * 2011-10-25 2013-05-16 Olympus Corp Head-mounted type display device, program and image processing system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12387289B2 (en) 2022-01-24 2025-08-12 Canon Kabushiki Kaisha Apparatus, method, and storage medium
WO2024004134A1 (en) * 2022-06-30 2024-01-04 株式会社ソニー・インタラクティブエンタテインメント Image transmission device and image transmission method
JPWO2024004134A1 (en) * 2022-06-30 2024-01-04
JP7698150B2 (en) 2022-06-30 2025-06-24 株式会社ソニー・インタラクティブエンタテインメント Image transmission device and image transmission method
JP2025162493A (en) * 2024-07-05 2025-10-27 任天堂株式会社 Information processing system, information processing device, distribution method, and distribution program

Also Published As

Publication number Publication date
JP6639205B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
US11321906B2 (en) Asynchronous time and space warp with determination of region of interest
US12348730B2 (en) Reprojecting holographic video to enhance streaming bandwidth/quality
US20220174252A1 (en) Selective culling of multi-dimensional data sets
US9081181B2 (en) Head mounted display device and image display control method therefor
US10591731B2 (en) Ocular video stabilization
US10997943B2 (en) Portable compute case for storing and wirelessly communicating with an eyewear device
US20230111408A1 (en) Techniques for capturing and rendering videos with simulated reality systems and for connecting services with service providers
US10078367B2 (en) Stabilization plane determination based on gaze location
US10511823B2 (en) Video display apparatus, video display system, and video display method
CN106663336B (en) Image generation device and image generation method
US20160238852A1 (en) Head mounted display performing post render processing
US9965830B2 (en) Image processing apparatus, image processing method, and program
US12101561B2 (en) Image display system, image processing device, and image display method
US10572764B1 (en) Adaptive stereo rendering to reduce motion sickness
WO2020140758A1 (en) Image display method, image processing method, and related devices
KR102437276B1 (en) Body movement based cloud vr device and method
WO2022230253A1 (en) Information processing device and information processing method
US11126001B2 (en) Image generating apparatus, head-mounted display, content processing system and image displaying method
JP6639205B2 (en) Transmission device, transmission method, and program
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
US11614627B2 (en) Image processing apparatus, head-mounted display, and image displaying method
JP2020167657A (en) Image processing equipment, head-mounted display, and image display method
WO2025218282A1 (en) Display method, readable storage medium, and electronic device
JP2017181605A (en) Information processing apparatus, image display apparatus, image display system, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191224

R151 Written notification of patent or utility model registration

Ref document number: 6639205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151