WO2018186169A1 - 映像生成装置、映像生成方法および映像生成プログラム - Google Patents
映像生成装置、映像生成方法および映像生成プログラム Download PDFInfo
- Publication number
- WO2018186169A1 WO2018186169A1 PCT/JP2018/011071 JP2018011071W WO2018186169A1 WO 2018186169 A1 WO2018186169 A1 WO 2018186169A1 JP 2018011071 W JP2018011071 W JP 2018011071W WO 2018186169 A1 WO2018186169 A1 WO 2018186169A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- video
- camera
- visual field
- interpupillary distance
- video generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
Definitions
- the present invention relates to a video generation device, a video generation method, and a video generation program.
- the present application claims priority on Japanese Patent Application No. 2017-075213 filed in Japan on April 5, 2017, the contents of which are incorporated herein by reference.
- Patent Documents 1 and 2 describe a display device that realizes a glasses-type terminal.
- AR and MR are realized by displaying different images on the left-eye display and right-eye display included in the glasses-type terminal to obtain the effects of convergence and binocular parallax.
- An aspect of the present invention has been made in view of such circumstances, and an object thereof is to provide a video generation method and a video generation program capable of realizing AR and MR while suppressing the load on the processor.
- a video generation method and a video generation program according to an aspect of the present invention are configured as follows.
- a video generation method is a video generation method in which an object in a 3D (Three Dimensions) pseudo space is projected by a camera in the 3D pseudo space to generate a video and displayed on a video display device.
- a visual field setting process for setting the visual field of the camera based on visual field information input from the video display device
- an interpupillary distance setting process for setting an interpupillary distance, the visual field, the object, and the camera.
- the video rendering process measures the load of the processor, and when the load falls below a threshold value, the camera is located at a position away from the camera by the interpupillary distance in the 3D pseudo space. Is added, and the video is generated by performing perspective projection with each of the cameras, and the video shift process is skipped.
- the video rendering process adds a camera at a location separated from the camera by the interpupillary distance in the 3D pseudo space. Then, the video is generated by performing perspective projection with each of the cameras, and the processing of the video shift process is skipped.
- the video generation program causes a computer to execute the above-described video generation method.
- An image generation apparatus is an image generation apparatus that generates an image by perspectively projecting an object in a 3D (Three) pseudo space by a camera in the 3D pseudo space, and displays the image on a video display device.
- a visual field setting unit that sets a visual field of the camera based on visual field information input from the video display device
- an interpupillary distance setting unit that sets an interpupillary distance, the visual field, the object, and the camera.
- a video rendering unit that renders a reference video based on a positional relationship; and, by shifting the reference video in the horizontal direction based on the visual field, the inter-pupil distance, and the positional relationship between the object and the camera,
- the video generation method can generate a video that can be AR displayed while reducing the load on the processor.
- FIG. 1 is a diagram illustrating an example of a video generation apparatus 10 according to the present embodiment.
- FIG. 1 also shows the video display unit 11.
- the video display unit 11 is provided in a video display device such as a glasses-type terminal, a smart glass, or a head-mounted display.
- the video generation device 10 may be provided in the video display device, or may be provided in a terminal device that can be connected to the video display device such as a smartphone. As shown in FIG.
- a video generation device 10 in this embodiment includes a visual field setting unit (visual field setting process) 101, an interpupillary distance setting unit (interpupillary distance setting process) 102, and a video rendering unit ( A video rendering process (103) 103 and a video shift unit (video shift process) 104 are included.
- the visual field setting unit 101 sets the size of the visual field (FoV: “Field Of View”) used in the video rendering unit 103 based on the visual field information input from the video display unit 11.
- the field of view is, for example, an angle in the vertical direction when the camera in the 3D pseudo space performs perspective projection.
- the visual field setting unit 101 outputs the set visual field value to the video rendering unit 103.
- the visual field information is, for example, the visual field value itself.
- the visual field value may be a vertical value, a diagonal value, or a horizontal value. Further, the visual field value may be one or more values among a vertical value, a diagonal value, and a horizontal value.
- the visual field information is, for example, an ID such as a vendor ID or a product ID of the video display device provided with the video display unit 11.
- the video generation apparatus 10 can store the ID and the field-of-view value in association with each other.
- the video generation apparatus 10 can have a table (database) that associates IDs and field-of-view values.
- the video generation visual field setting unit 101 can determine the visual field value based on this ID.
- the field-of-view setting unit 101 can determine the value of the field of view by, for example, comparing this ID with its own database.
- the field-of-view setting unit 101 can, for example, inquire a server on the Internet for this ID and receive a field-of-view value.
- the viewing angle setting unit 101 can use the table (database) on the server.
- the interpupillary distance setting unit 102 sets the interpupillary distance (PD) and outputs it to the video rendering unit 103 and the video shift unit 104.
- the interpupillary distance may be a fixed value or may be manually input by the user.
- the interpupillary distance setting unit 102 may set the interpupillary distance measured by a sensor provided in the video display unit 11 or a wearable sensor.
- the video rendering unit 103 renders video by the camera shooting an object in the 3D pseudo space.
- the visual field of the camera can be set to the visual field value input from the visual field setting unit 101.
- the video shift unit 104 receives display information from the video display unit 11. This display information may be obtained from the Internet.
- the video shift unit 104 shifts the video input from the video rendering unit 103 based on the interpupillary distance input from the interpupillary distance setting unit 102 and the display information, and converts the video into two videos.
- the video shift unit 104 outputs the two generated videos to the video display unit 11. Note that the video before the shift can be referred to as a reference video.
- FIG. 2 shows an example of the 3D pseudo space used by the video rendering unit 103.
- 20 is a view of the 3D pseudo space viewed from the height direction.
- 21 is a view of the 3D pseudo space as viewed from the side.
- the north direction of the 3D pseudo space can be the z axis
- the height direction can be the y axis
- the east direction can be the x axis.
- 20 is a diagram of the 3D pseudo space viewed from the plus direction of the y axis
- 21 is a diagram of the 3D pseudo space viewed from the plus direction of the x axis.
- the camera 201 can generate an image by perspective projection based on the positional relationship between itself and the object 202 in the 3D pseudo space and the field of view set in the field of view setting unit 101.
- the object 202 is a rectangular parallelepiped.
- This perspective projection can be performed based on the field of view 211.
- the visual field 211 can be the visual field set in the visual field setting unit 101.
- the vertical visual field is set, but the horizontal visual field can be set from the display size and the aspect ratio of the video display unit 11.
- Reference numeral 203 denotes the distance between the camera 201 and the object 202.
- FIG. 3 is a diagram illustrating an example in which the video shift unit 104 shifts the image generated by the video rendering unit 103.
- Reference numerals 301 and 311 denote displays of the video display unit 11.
- Reference numeral 302 denotes a horizontal center line of the display 301, and reference numeral 312 denotes a center line of the display 311.
- 303 represents the user's left eye and 313 represents the user's right eye.
- 304 represents the center line of the left eye 303, and 314 represents the center line of the right eye 313.
- Reference numeral 305 denotes an object corresponding to 202 in FIG. 2 rendered by the video rendering unit 103. In the case of 20 in FIG.
- an image in which the object 305 is displayed on the center line 302 is generated on the display 301, and the image shift unit 104 applies a rightward shift thereto.
- the video shift unit 104 adds a leftward shift to the video displayed on the display 311.
- the shift amount can be performed based on the visual field set by the visual field setting unit 101, the inter-pupil distance set by the inter-pupil distance setting unit 102, and the distance between the object in the 3D pseudo space rendered by the video rendering process 103 and the camera.
- FIG. 4 is a diagram in which the setting of the 3D pseudo space in FIG. 2 is changed.
- the object 402 is obtained by moving the object 202 in the horizontal direction.
- Reference numeral 403 denotes the distance between the camera 201 and the object 402.
- Reference numeral 404 denotes a line in the same direction as the horizontal direction of the camera 201 and passes through the object 402.
- a 1 (xx 0 ) + a 0 . x 0 and the coefficient a i is a value determined by the image display device 11 can be known from the output obtained by inputting the information of the image display device 11 in the database.
- the database may be in the video generation device 10.
- the database may be on the server.
- the video rendering unit 103 performs rendering once, and generates two videos that can obtain the effect of congestion based on the copy, thereby reducing the load on the processor. can do.
- the video shift performed by the video shift unit 104 may be performed when the processor load exceeds a threshold.
- the video rendering process 103 can prepare two cameras for the left eye and the right eye in the 3D pseudo space, and render two videos.
- An image generated by the left-eye camera can be displayed on the display 301 of FIG. 3, and an image generated by the right-eye camera can be displayed on the display 311 of FIG. In this case, the processing of the video shift unit 104 is skipped.
- the video rendering unit 103 may calculate the processor load.
- the video generation device 10 performs rendering using one camera in the 3D pseudo space, and generates a video with congestion by shifting the rendered video in the horizontal direction. In the present embodiment, a case will be described in which a plurality of target objects exist in the 3D pseudo space.
- FIG. 5 is an example in which an object 501 further exists in the 3D pseudo space of FIG.
- the sense of distance between the camera 201 and the object 501 is not correct.
- the video rendering unit 103 in FIG. 1 detects that the number of objects in the 3D pseudo space is two or more, it sets not the camera 201 but also a left eye camera and a right eye camera. Based on these, a left-eye video and a right-eye video can be generated. By doing so, the sense of distance of the object 501 can be correctly expressed.
- the object 202 and the object 501 can include depth on information.
- the video rendering unit 103 in FIG. 1 can determine whether to use the left-eye camera and the right-eye camera based on whether the number of objects for which depth-on information is set is one. For example, in FIG. 5, when depth on information is set for the object 202 and depth on information is not set for the object 501, the video rendering unit 103 renders a video based on the camera 201, and The shift unit 104 shifts the video, thereby generating a left-eye video and a right-eye video. By doing so, the load on the processor can be reduced.
- a program that operates in the video generation device, the video generation method, and the video generation program according to one aspect of the present invention is a program that controls a CPU or the like so as to realize the functions of the above-described embodiments according to one aspect of the present invention.
- a program that causes a computer to function Information handled by these devices is temporarily stored in the RAM at the time of processing, then stored in various ROMs and HDDs, read out by the CPU, and corrected and written as necessary.
- a semiconductor medium for example, ROM, nonvolatile memory card, etc.
- an optical recording medium for example, DVD, MO, MD, CD, BD, etc.
- a magnetic recording medium for example, magnetic tape, Any of a flexible disk etc.
- the program when distributing to the market, can be stored and distributed on a portable recording medium, or transferred to a server computer connected via a network such as the Internet.
- the storage device of the server computer is also included in one embodiment of the present invention.
- part or all of the video generation method and the video generation program in the above-described embodiments may be realized as an LSI that is typically an integrated circuit.
- Each functional block of the receiving apparatus may be individually formed as a chip, or a part or all of them may be integrated into a chip. When each functional block is integrated, an integrated circuit controller for controlling them is added.
- the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
- an integrated circuit based on the technology can also be used.
- the present invention is not limited to the above-described embodiment. It goes without saying that the video generation method of the present invention is not limited to application to eyeglass-type terminals, but can be applied to portable devices, wearable devices, and the like.
- One embodiment of the present invention is suitable for use in a video generation method and a video generation program.
- One embodiment of the present invention is used in, for example, a communication system, a communication device (for example, a mobile phone device, a base station device, a wireless LAN device, or a sensor device), an integrated circuit (for example, a communication chip), a program, or the like. be able to.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間におけるカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成方法であって、前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定過程と、瞳孔間距離を設定する瞳孔間距離設定過程と、前記視野および前記オブジェクトと前記カメラの位置関係に基づいて基準映像をレンダリングする映像レンダリング過程と、前記視野、前記瞳孔間距離、と前記オブジェクトと前記カメラの位置関係に基づいて、前記基準映像を横方向にシフトすることで、2つの前記映像を生成する映像シフト過程と、を備える。
Description
本発明は、映像生成装置、映像生成方法および映像生成プログラムに関する。
本願は、2017年4月5日に日本に出願された特願2017-075213号について優先権を主張し、その内容をここに援用する。
本願は、2017年4月5日に日本に出願された特願2017-075213号について優先権を主張し、その内容をここに援用する。
近年、拡張現実(AR; Augmented Reality)や複合現実(MR; Mixed Reality)を実現するため、メガネ型端末やスマートグラス等のウエアラブル機器が注目されている。特許文献1および2には、メガネ型端末を実現する表示装置が記載されている。メガネ型端末が備える左目用と右目用のディスプレイに、異なる映像を表示して輻輳や両眼視差の効果を得ることで、ARやMRを実現する。
しかしながら、左目用と右目用の2つの映像をリアルタイムに生成する場合、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、APU(Accelerated Processing Unit)、等のプロセッサの負荷が増加し、処理落ちが発生するという問題がある。
本発明の一態様はこのような事情を鑑みてなされたものであり、その目的は、プロセッサの負荷を抑制しながらARやMRを実現できる映像生成方法および映像生成プログラムを提供することにある。
上述した課題を解決するために本発明の一態様に係る映像生成方法および映像生成プログラムの構成は、次の通りである。
本発明の一態様による映像生成方法は、3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間におけるカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成方法であって、前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定過程と、瞳孔間距離を設定する瞳孔間距離設定過程と、前記視野および前記オブジェクトと前記カメラの位置関係に基づいて基準映像をレンダリングする映像レンダリング過程と、前記視野、前記瞳孔間距離、と前記オブジェクトと前記カメラの位置関係に基づいて、前記基準映像を横方向にシフトすることで、2つの前記映像を生成する映像シフト過程と、を備える。
また、本発明の映像生成方法において、前記映像レンダリング過程は、プロセッサの負荷を測定し、前記負荷が閾値を下回る場合、前記3D疑似空間において、前記カメラから前記瞳孔間距離だけ離れた場所にカメラを追加し、それぞれの前記カメラで透視投影を行うことで前記映像を生成し、前記映像シフト過程の処理をスキップする。
また、本発明の映像生成方法において、前記映像レンダリング過程は、前記3D擬似空間におけるオブジェクト数が2以上の場合、前記3D疑似空間において、前記カメラから前記瞳孔間距離だけ離れた場所にカメラを追加し、それぞれの前記カメラで透視投影を行うことで前記映像を生成し、前記映像シフト過程の処理をスキップする。
本発明の一態様による映像生成プログラムは、上述した映像生成方法をコンピュータに実行させる。
本発明の一態様による映像生成装置は、3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間におけるカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成装置であって、前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定部と、瞳孔間距離を設定する瞳孔間距離設定部と、前記視野および前記オブジェクトと前記カメラの位置関係に基づいて基準映像をレンダリングする映像レンダリング部と、前記視野、前記瞳孔間距離、と前記オブジェクトと前記カメラの位置関係に基づいて、前記基準映像を横方向にシフトすることで、2つの前記映像を生成する映像シフト部と、を備える。
本発明の一態様によれば、映像生成方法は、プロセッサの負荷を低減しながら、AR表示できる映像を生成することができる。
(第1の実施形態)
図1は、本実施形態に係る映像生成装置10の一例を示す図である。図1には、映像表示部11を併せて記す。映像表示部11は、例えばメガネ型端末、スマートグラス、またはヘッドマウントディスプレイなどの映像表示装置に具備される。映像生成装置10は、前記映像表示装置内に備えられてもよいし、スマホなどの前記映像表示装置と接続可能な端末装置に備えられてもよい。図1に示すように、本実施形態における映像生成装置10(映像生成方法)は、視野設定部(視野設定過程)101、瞳孔間距離設定部(瞳孔間距離設定過程)102、映像レンダリング部(映像レンダリング過程)103、および映像シフト部(映像シフト過程)104を含んで構成される。
図1は、本実施形態に係る映像生成装置10の一例を示す図である。図1には、映像表示部11を併せて記す。映像表示部11は、例えばメガネ型端末、スマートグラス、またはヘッドマウントディスプレイなどの映像表示装置に具備される。映像生成装置10は、前記映像表示装置内に備えられてもよいし、スマホなどの前記映像表示装置と接続可能な端末装置に備えられてもよい。図1に示すように、本実施形態における映像生成装置10(映像生成方法)は、視野設定部(視野設定過程)101、瞳孔間距離設定部(瞳孔間距離設定過程)102、映像レンダリング部(映像レンダリング過程)103、および映像シフト部(映像シフト過程)104を含んで構成される。
視野設定部101は、映像表示部11から入力される視野情報に基づいて、映像レンダリング部103で用いられる視野(FoV; Field of View)の大きさを設定する。視野とは、例えば、3D擬似空間におけるカメラが透視投影を行う際の、縦方向の角度である。視野設定部101は、設定された視野の値を映像レンダリング部103に出力する。視野情報は、例えば、視野の値そのものである。視野の値は、縦方向の値でも良いし、斜め方向の値や横方向の値でも良い。また、視野の値は、縦方向の値、斜め方向の値及び横方向の値のうち、1つ以上の値でもよい。視野情報は、例えば、映像表示部11が具備された映像表示装置のベンダーIDやプロダクトID等のIDである。映像生成装置10は、前記IDと、視野の値をと関連付けて格納することができる。映像生成装置10は、IDと視野の値を関連付けたテーブル(データベース)を有することができる。映像生成視野設定部101は、このIDに基づいて、視野の値を決定することができる。視野設定部101は、例えば、このIDと自身が持つデータベースを比較することで、視野の値を決定することができる。視野設定部101は、例えば、このIDをインターネット上のサーバに問い合わせ、視野の値を受信することができる。例えば、視野角設定部101は、サーバ上にある前記テーブル(データベース)を用いることができる。
瞳孔間距離設定部102は、瞳孔間距離(PD; Pupillary Distance)を設定し、映像レンダリング部103と映像シフト部104に出力する。瞳孔間距離は、固定値としても良いし、ユーザが値を手入力しても良い。あるいは、瞳孔間距離設定部102は、映像表示部11に備えられたセンサやウェアラブルセンサで測定された瞳孔間距離を設定しても良い。
映像レンダリング部103は、3D擬似空間においてカメラがオブジェクトを撮影することで、映像をレンダリングする。この際、カメラの視野は、視野設定部101から入力される視野の値に設定されることができる。
映像シフト部104は、映像表示部11からディスプレイ情報を受信する。このディスプレイ情報はインターネットから取得しても良い。映像シフト部104は、映像レンダリング部103から入力される映像を、瞳孔間距離設定部102から入力される瞳孔間距離とディスプレイ情報に基づいてシフトし、2つの映像に変換する。映像シフト部104は、生成した2つの映像を映像表示部11に出力する。なお、シフトを行う前の映像を基準映像と呼ぶことができる。
図2は、映像レンダリング部103が用いる3D擬似空間の一例を示す。20は3D擬似空間を高さ方向から見た図である。21は3D疑似空間を横から見た図である。例えば、3D擬似空間の北方向をz軸、高さ方向をy軸、東方向をx軸とすることができる。その場合、20は3D疑似空間をy軸のプラス方向から見た図であり、21は3D疑似空間をx軸のプラス方向から見た図である。カメラ201は、自身と3D擬似空間におけるオブジェクト202との位置関係と、視野設定部101に設定された視野に基づいて、透視投影で映像を生成することができる。なお、この例において、オブジェクト202は直方体である。この透視投影は、視野211に基づいて行われることができる。視野211は視野設定部101に設定された視野とすることができる。この例において、縦方向視野が設定されるが、横方向視野は映像表示部11の表示サイズやアスペクト比から設定されることができる。また、203はカメラ201とオブジェクト202との距離である。
図3は、映像シフト部104が、映像レンダリング部103によって生成された画像をシフトする一例を示した図である。301と311は、映像表示部11のディスプレイである。302はディスプレイ301の横方向の中心線であり、312はディスプレイ311の中心線である。303はユーザの左目を表し、313はユーザの右目を表す。304は左目303の中心線を表し、314は右目313の中心線を表す。305は、映像レンダリング部103がレンダリングした図2の202に対応するオブジェクトである。図2の20の場合、オブジェクト305がディスプレイ301においては中心線302の上に表示される映像が生成されるが、映像シフト部104はこれに右方向シフトを与える。同様に、映像シフト部104は、ディスプレイ311に表示される映像には左方向シフトを加える。これにより、ユーザは、自身から距離203だけ離れた位置にオブジェクト306が存在するように輻輳の効果を得ることができる。シフト量は、視野設定部101が設定する視野、瞳孔間距離設定部102が設定する瞳孔間距離、映像レンダリング過程103がレンダリングする3D疑似空間のオブジェクトとカメラの距離に基づいて行うことができる。
図4は、図2の3D擬似空間の設定を変更したものである。オブジェクト402は、オブジェクト202を横方向に動かしたものである。403はカメラ201とオブジェクト402の距離である。404は、カメラ201の横方向と同じ方向の線であり、オブジェクト402を通る。405は、カメラ201から線404におろした垂線の長さである。長さ405の値をxとすると、例えば、xに関する多項式を用いてシフト量を決定することができる。具体的に、シフト量yは、y=an(x-x0)n+・・・a1(x-x0)+a0とすることができる。x0と係数aiは映像表示装置11によって決まる値であり、データベースに映像表示装置11の情報を入力して得られる出力から知ることができる。データベースは映像生成装置10内にあってもよい。データベースはサーバ上にあってもよい。
このように、本実施形態によれば、映像レンダリング部103がレンダリングを行う回数が1回であり、そのコピーに基づいて輻輳の効果を得られる2つの映像を生成するため、プロセッサの負荷を軽減することができる。
なお、映像シフト部104が行う映像シフトは、プロセッサの負荷が閾値を超えた場合に行うようにしてもよい。負荷が閾値を超えない場合、映像レンダリング過程103は3D疑似空間に左目用と右目用の2つのカメラを用意し、2つの映像をレンダリングすることができる。左目用のカメラによって生成された映像は図3のディスプレイ301で表示されることができ、右目用のカメラによって生成された映像は図3のディスプレイ311で表示されることができる。この場合、映像シフト部104の処理はスキップされる。映像レンダリング部103が、プロセッサの負荷を算出するようにしてもよい。(第2の実施形態)
第1の実施形態では、映像生成装置10は、3D擬似空間において1つのカメラを用いてレンダリングを行い、レンダリングされた映像を横方向にシフトすることで、輻輳のある映像を生成する。本実施形態では、3D擬似空間において対象となるオブジェクトが複数存在する場合について説明する。
第1の実施形態では、映像生成装置10は、3D擬似空間において1つのカメラを用いてレンダリングを行い、レンダリングされた映像を横方向にシフトすることで、輻輳のある映像を生成する。本実施形態では、3D擬似空間において対象となるオブジェクトが複数存在する場合について説明する。
図5は、図2の3D擬似空間に、さらにオブジェクト501が存在する場合の一例である。このような場合、カメラ201とオブジェクト202の位置関係だけに基づく横方向シフトで映像を生成すると、カメラ201とオブジェクト501との距離感が正しくなくなる。これを避けるため、例えば、図1の映像レンダリング部103は、3D擬似空間内のオブジェクト数が2以上であることを検知した場合、カメラ201ではなく、さらに左目用カメラと右目用カメラを設定し、それらに基づいて左目用の映像と右目用の映像を生成することができる。このようにすることで、オブジェクト501の距離感を正しく表現することができる。
または、オブジェクト202やオブジェクト501は、奥行きオン情報を備えることができる。具体的に、図1の映像レンダリング部103は、左目用カメラと右目用カメラを使うか否かを、奥行きオン情報が設定されているオブジェクト数が1かどうかに基づいて決めることができる。例えば、図5において、オブジェクト202には奥行きオン情報が設定されており、オブジェクト501には奥行きオン情報が設定されていない場合、映像レンダリング部103は、カメラ201に基づいて映像をレンダリングし、映像シフト部104がその映像をシフトすることで、左目用映像と右目用映像を生成することができる。このようにすることで、プロセッサの負荷を低減することができる。
なお、本発明の一態様に係る映像生成装置、映像生成方法および映像生成プログラムで動作するプログラムは、本発明の一態様に関わる上記実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAMに蓄積され、その後、各種ROMやHDDに格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。プログラムを格納する記録媒体としては、半導体媒体(例えば、ROM、不揮発性メモリカード等)、光記録媒体(例えば、DVD、MO、MD、CD、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等のいずれであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。
また市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明の一態様に含まれる。また、上述した実施形態における映像生成方法および映像生成プログラムの一部、または全部を典型的には集積回路であるLSIとして実現してもよい。受信装置の各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。各機能ブロックを集積回路化した場合に、それらを制御する集積回路制御部が付加される。
また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。
なお、本願発明は上述の実施形態に限定されるものではない。本願発明の映像生成方法は、メガネ型端末への適用に限定されるものではなく、携帯型の機器や、ウエアラブル機器などに適用出来ることは言うまでもない。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
本発明の一態様は、映像生成方法および映像生成プログラムに用いて好適である。本発明の一態様は、例えば、通信システム、通信機器(例えば、携帯電話装置、基地局装置、無線LAN装置、或いはセンサーデバイス)、集積回路(例えば、通信チップ)、又はプログラム等において、利用することができる。
10 映像生成部
11 映像表示部
101 視野設定部
102 瞳孔間距離設定部
103 映像レンダリング部
104 映像シフト部
20 3D疑似空間(高さ方向)
21 3D疑似空間(横方向)
201 カメラ
202 オブジェクト
203 距離
301、311 ディスプレイ
302、312 ディスプレイの中心線
303、313 目
304、314 目の中心線
305、306 オブジェクト
402 オブジェクト
403 距離
404 カメラの横方向と同じ方向でオブジェクトを通る線
405 距離
501 オブジェクト
11 映像表示部
101 視野設定部
102 瞳孔間距離設定部
103 映像レンダリング部
104 映像シフト部
20 3D疑似空間(高さ方向)
21 3D疑似空間(横方向)
201 カメラ
202 オブジェクト
203 距離
301、311 ディスプレイ
302、312 ディスプレイの中心線
303、313 目
304、314 目の中心線
305、306 オブジェクト
402 オブジェクト
403 距離
404 カメラの横方向と同じ方向でオブジェクトを通る線
405 距離
501 オブジェクト
Claims (6)
- 3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間におけるカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成方法であって、
前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定過程と、
瞳孔間距離を設定する瞳孔間距離設定過程と、
前記視野および前記オブジェクトと前記カメラの位置関係に基づいて基準映像をレンダリングする映像レンダリング過程と、
前記視野、前記瞳孔間距離、と前記オブジェクトと前記カメラの位置関係に基づいて、前記基準映像を横方向にシフトすることで、2つの前記映像を生成する映像シフト過程と、
を備える映像生成方法。 - 前記映像レンダリング過程は、プロセッサの負荷を測定し、
前記負荷が閾値を下回る場合、前記3D疑似空間において、前記カメラから前記瞳孔間距離だけ離れた場所にカメラを追加し、
それぞれの前記カメラで透視投影を行うことで前記映像を生成し、
前記映像シフト過程の処理をスキップする、
請求項1に記載の映像生成方法。 - 前記映像レンダリング過程は、前記3D擬似空間におけるオブジェクト数が2以上の場合、前記3D疑似空間において、前記カメラから前記瞳孔間距離だけ離れた場所にカメラを追加し、
それぞれの前記カメラで透視投影を行うことで前記映像を生成し、
前記映像シフト過程の処理をスキップする、
請求項1に記載の映像生成方法。 - 前記映像レンダリング過程は、前記3D擬似空間におけるオブジェクトであって、奥行きオン情報が設定されているオブジェクトが2以上の場合、前記3D疑似空間において、前記カメラから前記瞳孔間距離だけ離れた場所にカメラを追加し、
それぞれの前記カメラで透視投影を行うことで前記映像を生成し、
前記映像シフト過程の処理をスキップする、
請求項1に記載の映像生成方法。 - 請求項1に記載の映像生成方法をコンピュータに実行させるための映像生成プログラム。
- 3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間におけるカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成装置であって、
前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定部と、
瞳孔間距離を設定する瞳孔間距離設定部と、
前記視野および前記オブジェクトと前記カメラの位置関係に基づいて基準映像をレンダリングする映像レンダリング部と、
前記視野、前記瞳孔間距離、と前記オブジェクトと前記カメラの位置関係に基づいて、前記基準映像を横方向にシフトすることで、2つの前記映像を生成する映像シフト部と、
を備える映像生成装置。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017075213A JP2020098945A (ja) | 2017-04-05 | 2017-04-05 | 映像生成装置、映像生成方法および映像生成プログラム |
| JP2017-075213 | 2017-04-05 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018186169A1 true WO2018186169A1 (ja) | 2018-10-11 |
Family
ID=63713220
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/011071 Ceased WO2018186169A1 (ja) | 2017-04-05 | 2018-03-20 | 映像生成装置、映像生成方法および映像生成プログラム |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2020098945A (ja) |
| WO (1) | WO2018186169A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN116076071A (zh) * | 2020-06-03 | 2023-05-05 | 杰瑞·尼姆斯 | 二维图像捕获系统和三维数字图像的显示 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11195131A (ja) * | 1997-12-26 | 1999-07-21 | Canon Inc | 仮想現実方法及び装置並びに記憶媒体 |
| JP2002073003A (ja) * | 2000-08-28 | 2002-03-12 | Namco Ltd | 立体視画像生成装置及び情報記憶媒体 |
| JP2014192550A (ja) * | 2013-03-26 | 2014-10-06 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
| JP2014199617A (ja) * | 2013-03-29 | 2014-10-23 | 株式会社バンダイナムコゲームス | 画像生成システム及びプログラム |
-
2017
- 2017-04-05 JP JP2017075213A patent/JP2020098945A/ja active Pending
-
2018
- 2018-03-20 WO PCT/JP2018/011071 patent/WO2018186169A1/ja not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11195131A (ja) * | 1997-12-26 | 1999-07-21 | Canon Inc | 仮想現実方法及び装置並びに記憶媒体 |
| JP2002073003A (ja) * | 2000-08-28 | 2002-03-12 | Namco Ltd | 立体視画像生成装置及び情報記憶媒体 |
| JP2014192550A (ja) * | 2013-03-26 | 2014-10-06 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
| JP2014199617A (ja) * | 2013-03-29 | 2014-10-23 | 株式会社バンダイナムコゲームス | 画像生成システム及びプログラム |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN116076071A (zh) * | 2020-06-03 | 2023-05-05 | 杰瑞·尼姆斯 | 二维图像捕获系统和三维数字图像的显示 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2020098945A (ja) | 2020-06-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20180192022A1 (en) | Method and System for Real-time Rendering Displaying Virtual Reality (VR) On Mobile Using Head-Up Display Devices | |
| CN107590771B (zh) | 具有用于在建模3d空间中投影观看的选项的2d视频 | |
| US9241155B2 (en) | 3-D rendering for a rotated viewer | |
| US20120044241A1 (en) | Three-dimensional on-screen display imaging system and method | |
| TW202332263A (zh) | 立體影像播放裝置及其立體影像產生方法 | |
| CN101180891A (zh) | 立体图像显示装置、立体图像显示方法及计算机程序 | |
| CN110892717A (zh) | 图像处理器和图像处理器的控制方法 | |
| CN106797462B (zh) | 多视图图像显示设备及其控制方法 | |
| US9167225B2 (en) | Information processing apparatus, program, and information processing method | |
| JP2022051978A (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
| CN111656409B (zh) | 信息处理装置和信息处理方法 | |
| KR20170065208A (ko) | 3d 이미지 처리 방법 및 장치, 및 그래픽 처리 장치 | |
| US9225968B2 (en) | Image producing apparatus, system and method for producing planar and stereoscopic images | |
| CN112752085A (zh) | 基于人眼跟踪的裸眼3d视频播放系统及方法 | |
| CN114513646B (zh) | 一种三维虚拟场景中全景视频的生成方法及设备 | |
| WO2018186169A1 (ja) | 映像生成装置、映像生成方法および映像生成プログラム | |
| US11477419B2 (en) | Apparatus and method for image display | |
| WO2012021129A1 (en) | 3d rendering for a rotated viewer | |
| KR102223339B1 (ko) | 증강 현실 비디오 게임을 제공하는 방법, 디바이스 및 시스템 | |
| WO2018186168A1 (ja) | 映像生成装置、映像生成方法および映像生成プログラム | |
| EP4328657B1 (en) | Method and computer device for 3d scene generation | |
| US10757401B2 (en) | Display system and method for display control of a video based on different view positions | |
| CN103313075A (zh) | 图像处理装置及方法以及记录图像处理程序的记录介质 | |
| TWI879032B (zh) | 立體顯示系統 | |
| JP2020167657A (ja) | 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18781423 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18781423 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |