[go: up one dir, main page]

JP2019062397A - IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD - Google Patents

IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD Download PDF

Info

Publication number
JP2019062397A
JP2019062397A JP2017185468A JP2017185468A JP2019062397A JP 2019062397 A JP2019062397 A JP 2019062397A JP 2017185468 A JP2017185468 A JP 2017185468A JP 2017185468 A JP2017185468 A JP 2017185468A JP 2019062397 A JP2019062397 A JP 2019062397A
Authority
JP
Japan
Prior art keywords
image processing
image data
moving image
frame
thinning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017185468A
Other languages
Japanese (ja)
Other versions
JP7091043B2 (en
Inventor
佳樹 梶田
Yoshiki Kajita
佳樹 梶田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017185468A priority Critical patent/JP7091043B2/en
Publication of JP2019062397A publication Critical patent/JP2019062397A/en
Application granted granted Critical
Publication of JP7091043B2 publication Critical patent/JP7091043B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

To achieve reduction in data volume without increasing a processing delay in various types of image processing by executing frame decimation processing of moving image data.SOLUTION: A plurality of moving image data with an optional frame rate are input, decimation processing of frame number is executed for each of the plurality of moving image data without changing a frame period, and decimation moving image data created by reducing data volume by means of the decimation processing is output. At that time, the frame decimation processing is controlled so that a total of the data volume of the moving image data subjected to decimation processing is accommodated within a range of data volume capable of being output.SELECTED DRAWING: Figure 3

Description

本発明は、動画像データの伝送量削減を行う技術に関する。   The present invention relates to a technology for reducing the amount of transmission of moving image data.

近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の一つに、ビデオシースルー型HMD(Head Mounted Display:以下、「HMD」と称する)を利用するものがある。このシステムでは、HMD装着者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、その撮像画像にCG(Computer Graphics)を重畳表示した画像をHMD装着者が観察できる。   In recent years, so-called MR (Mixed Reality) technology is known as a technology for seamlessly merging the real world and the virtual world in real time and seamlessly. One of the MR techniques is a video see-through HMD (Head Mounted Display: hereinafter referred to as "HMD"). In this system, an object substantially corresponding to the object observed from the pupil position of the HMD wearer is imaged by a video camera or the like, and the HMD wearer can observe an image in which CG (Computer Graphics) is superimposed and displayed on the imaged image.

図15は、ビデオシースルー型HMDを利用した一般的な複合現実感システム(以降、MRシステム)の機能ブロック図である。この図を使用して概要を説明する。   FIG. 15 is a functional block diagram of a general mixed reality system (hereinafter referred to as an MR system) using a video see-through HMD. The outline is explained using this figure.

ビデオシースルー型HMD1501は、撮像部1503、表示部1504、位置姿勢センサ1505、HMD側インタフェース1506から構成される。画像処理装置1502は、装置側インタフェース1507、位置姿勢情報生成部1508、コンテンツDB(データベース)1509、CG描画合成部1510から構成される。画像処理装置1502は、HMD1501から受け取った撮像画像及び三次元位置姿勢情報に基づきCGを描画し、撮像画像との合成処理を行う。一般にはパソコンやワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置を用いる。   The video see-through HMD 1501 includes an imaging unit 1503, a display unit 1504, a position and orientation sensor 1505, and an HMD side interface 1506. The image processing apparatus 1502 includes an apparatus-side interface 1507, a position and orientation information generation unit 1508, a content DB (database) 1509, and a CG rendering and combining unit 1510. The image processing apparatus 1502 draws CG based on the captured image and three-dimensional position and orientation information received from the HMD 1501, and performs composition processing with the captured image. In general, a device having a high performance arithmetic processing function and a graphic display function such as a personal computer and a work station is used.

HMD1501の撮像部1503は、HMD装着者の視線位置と略一致する外界の観察画像を撮像する。一般にはステレオ画像を生成するために右目用、左目用の二つの撮像素子と光学系及び後段の画像処理を行うためのDSP(Digital Signal Processor)から構成される。   The imaging unit 1503 of the HMD 1501 captures an observation image of the external world that substantially matches the gaze position of the HMD user. Generally, in order to generate a stereo image, it comprises two imaging elements for the right eye and for the left eye, an optical system, and a DSP (Digital Signal Processor) for performing image processing in the subsequent stage.

表示部1504は、合成されたMR画像の表示を行う。こちらも右目用、左目用の二つの表示デバイスと光学系から構成される。表示デバイスは小型の液晶ディスプレイやMEMSによる網膜スキャンタイプのデバイスが使用される。   The display unit 1504 displays the synthesized MR image. This also consists of two display devices for the right eye and for the left eye and an optical system. As a display device, a small liquid crystal display or a device of a retina scan type by MEMS is used.

位置姿勢センサ1505は、HMD装着者の位置姿勢情報を得るためのセンサ情報を取得する。位置姿勢センサとしては、磁気センサやジャイロセンサ(加速度、角速度)等が使用される。   The position and orientation sensor 1505 acquires sensor information for obtaining the position and orientation information of the HMD user. As the position and orientation sensor, a magnetic sensor, a gyro sensor (acceleration, angular velocity) or the like is used.

HMD側インタフェース1506は、撮像部1503で撮像された画像や位置姿勢センサ1505で取得された位置姿勢センサ情報の画像処理装置1502への伝送、及び合成されたMR画像のHMD1501への伝送を行う。   The HMD side interface 1506 transmits the image captured by the imaging unit 1503 and the position and orientation sensor information acquired by the position and orientation sensor 1505 to the image processing apparatus 1502, and transmits the synthesized MR image to the HMD 1501.

装置側インタフェース1507は、画像処理装置側のインタフェースであり、HMD側インタフェース1506とのデータ伝送を行う。   The apparatus side interface 1507 is an interface on the image processing apparatus side, and performs data transmission with the HMD side interface 1506.

位置姿勢情報生成部1508は、受け取った撮像画像や位置姿勢センサ情報をもとにHMD装着者の位置姿勢情報を生成する。   The position and orientation information generation unit 1508 generates position and orientation information of the HMD user based on the received captured image and the position and orientation sensor information.

コンテンツDB1509は、仮想画像のコンテンツを格納しているデータベースである。   The content DB 1509 is a database storing the content of the virtual image.

CG描画合成1510は、位置姿勢情報とコンテンツDBの情報によりCGを描画し、撮像画像と合成する。ここで得られたMR画像を装置側インタフェース1507、HMD側インタフェース1506を介してHMD1501に送り、表示部1504で表示させる。   The CG rendering composition 1510 renders CG based on the position and orientation information and the information of the content DB, and composes the CG with the captured image. The MR image obtained here is sent to the HMD 1501 via the apparatus side interface 1507 and the HMD side interface 1506, and is displayed on the display unit 1504.

一般的に、HMD側インタフェース1506、装置側インタフェース1507間の伝送には、MRシステムに求められるリアルタイム性、かつ大容量のデータ伝送を実現するため、メタル線や光ファイバ等を用いた多芯ケーブルによる有線接続が用いられる。HMD装着者がケーブルによる動きの制約を受けることなく、より自由にMR空間を体験できるようにするためは、HMD側インタフェース、装置側インタフェース間のデータ伝送に用いるケーブルの細線化や、伝送の無線化が望まれる。例えば、画像符号化やフレームレート変換等のデータ量削減手法を組み合わせることにより、ケーブルの細線化が可能であり、また、近年の無線伝送技術の向上もあって、同様の方法を用いることで無線伝送を行うことも可能となってきている。   Generally, for transmission between the HMD side interface 1506 and the device side interface 1507, a multi-core cable using metal wires, optical fibers, etc. in order to realize real-time performance required for the MR system and large-capacity data transmission. Wired connection is used. In order to allow the HMD wearer to experience the MR space more freely without being restricted by the movement by the cable, the thinning of the cable used for data transmission between the HMD side interface and the device side interface and wireless transmission Is desired. For example, by combining data amount reduction methods such as image coding and frame rate conversion, it is possible to thin cables, and there is also an improvement in wireless transmission technology in recent years. It has also become possible to carry out transmissions.

ディスプレイのフレームレートの1/2のフレームレートを有する動画像データから左目用画像データと右目用画像データとを生成し、左目用画像データと右目用画像データとを時分割に出力する手法が以下の特許文献1に開示されている。   The method for generating left-eye image data and right-eye image data from moving image data having a frame rate of 1/2 of the display frame rate, and outputting left-eye image data and right-eye image data in time division is as follows: Patent Document 1 discloses the following.

特開2015−39076号公報JP, 2015-39076, A

しかし、特許文献1の手法では、ディスプレイのフレームレートの1/2のフレームレートの動画像データを使用することにより、動画像データに対して複数の画像処理を実施する際の処理遅延の蓄積が膨大になる。例えば、ディスプレイのフレームレートを60fpsとした場合、1フレームあたりの伝送時間は1/60秒となるが、1/2のフレームレートである30fpsの動画像データでは、1フレームあたりの伝送時間が1/30秒となる。すなわち、フレームメモリを使用する画像処理を行う際に、1フレーム分のデータがフレームメモリにたまるまでの時間の差は1/60秒となり、これはそのまま最終的にディスプレイに表示されるまでの処理遅延として現れることとなる。したがって、フレームメモリ、ラインメモリ等を利用する画像処理を多用するほど、60fpsの動画像データと、30fpsの動画像データとの画像処理における処理遅延の差は大きくなる。   However, in the method of Patent Document 1, by using moving image data of a frame rate of 1/2 of the frame rate of the display, accumulation of processing delay when performing a plurality of image processing on the moving image data It will be huge. For example, when the frame rate of the display is 60 fps, the transmission time per frame is 1/60 seconds, but for 30 fps moving image data which is a half frame rate, the transmission time per frame is 1 It will be / 30 seconds. That is, when performing image processing using a frame memory, the difference in time until one frame's worth of data accumulates in the frame memory is 1/60 seconds, which is the process until it is finally displayed on the display It will appear as a delay. Therefore, the more the image processing using the frame memory, the line memory, etc., the larger the difference in processing delay in the image processing between the 60 fps moving image data and the 30 fps moving image data.

そこで、本発明は、動画像データのフレーム間引処理を行うことにより、各種画像処理における処理遅延を増加させることなく、データ量の削減を実現することを目的とする。   Therefore, an object of the present invention is to realize reduction of the data amount without increasing processing delay in various image processing by performing frame thinning processing of moving image data.

上記課題を解決するために、本発明は、任意のフレームレートを有する少なくとも2つ以上の複数の動画像データを入力するための第1の力手段と、前記複数の動画像データに対して、複数の画像処理回路によって画像処理を実行する画像処理手段と、前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うフレーム間引き手段と、前記画像処理手段、及び前記フレーム間引き手段を制御するための制御手段と、前記フレーム間引き手段によりデータ量が削減された間引き動画像データを出力するための第1の出力手段と、を有し、前記制御手段は、間引き処理された前記複数の動画像データのデータ量の合計が、前記第1の出力手段において出力が可能なデータ量の範囲に収まるように前記画像処理手段、及び前記フレーム間引き手段を制御し、前記第1の出力手段は、間引き処理された前記複数の動画像データの各フレームを時分割出力することを特徴とする。   In order to solve the above problems, according to the present invention, first force means for inputting at least two or more pieces of moving image data having an arbitrary frame rate, and the plurality of moving image data, Image processing means for performing image processing by a plurality of image processing circuits, frame thinning means for performing a thinning process on the number of frames without changing the frame period for each of the plurality of moving image data, and the image Processing means, control means for controlling the frame thinning-out means, and first output means for outputting thinned-out moving image data whose data amount has been reduced by the frame thinning-out means, the control The means is arranged such that the sum of the data amounts of the plurality of motion picture data subjected to thinning processing falls within the range of data amounts that can be output by the first output means. Controls image processing unit, and the frame thinning means, said first output means, characterized by time-division outputs each frame decimation processing said plurality of moving image data.

以上の構成によれば、本発明は、動画像データのフレーム間引処理を行うことにより、各種画像処理における処理遅延を増加させることなく、データ量の削減を実現することが可能となる。   According to the above configuration, by performing frame thinning processing of moving image data, the present invention can realize reduction of the data amount without increasing processing delay in various image processing.

撮像機能付表示装置を利用したMRシステムの装置構成を示す図である。It is a figure which shows the apparatus structure of MR system using the display apparatus with an imaging function. MRシステムにおける画像合成について説明する図である。It is a figure explaining the image composition in MR system. 本発明の第1の実施形態における画像処理システムの構成の一例を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows an example of a structure of the image processing system in the 1st Embodiment of this invention. フレームレートの異なる動画像データに対する画像処理における遅延の蓄積について説明する図である。It is a figure explaining accumulation of a delay in image processing to moving picture data in which frame rates differ. 本発明の第1の実施形態における画像処理システムの撮像部から位置姿勢情報生成部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。FIG. 6 is a diagram for explaining frame thinning processing and accumulation of delay in processing from the imaging unit to the position and orientation information generation unit of the image processing system according to the first embodiment of the present invention. 本発明の第1の実施形態における画像処理システムのCG描画合成部から表示部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。It is a figure explaining the frame thinning-out process in the process from the CG drawing synthetic | combination part of the image processing system in the 1st Embodiment of this invention to a display part, and accumulation of a delay. 本発明の第2の実施形態における画像処理システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image processing system in the 2nd Embodiment of this invention. 奥行情報を考慮した画像合成について説明する図である。It is a figure explaining the image composition which considered depth information. 左目用、右目用の撮像画像中に含まれる任意の被写体の奥行情報生成を説明する図である。It is a figure explaining depth information generation of the arbitrary subjects contained in the image pick-up picture for left eyes and right eyes. 本発明の第2の実施形態における画像処理システムの撮像部から奥行情報生成部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。It is a figure explaining accumulation of frame thinning-out processing and delay in processing from an imaging part of an image processing system to a depth information generation part in a 2nd embodiment of the present invention. 本発明の第2の実施形態における画像処理システムのCG描画合成部から表示部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。It is a figure explaining the frame thinning-out process in the process to the display part from the CG drawing synthetic | combination part of the image processing system in the 2nd Embodiment of this invention, and the accumulation | storage of a delay. 本発明の第3の実施形態における画像処理システムのHMDと画像処理装置間のデータ伝送をケーブルを用いた有線伝送で行う構成について説明する図である。It is a figure explaining the composition which performs data transmission between HMD of a graphics processing system in a 3rd embodiment of the present invention, and a graphics processing device by cable transmission using a cable. 本発明の第3の実施形態における画像処理システムのHMDと画像処理装置間のデータ伝送をHMD側無線ボックス、装置側無線ボックス介しての無線伝送で行う構成について説明する図である。It is a figure explaining the composition which performs data transmission between HMD of an image processing system in a 3rd embodiment of the present invention, and an image processing device by radio transmission via an HMD side radio box and an apparatus side radio box. 本発明の第4の実施形態における画像処理システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image processing system in the 4th Embodiment of this invention. ビデオシースルー型HMDを利用した一般的なMRシステムの機能ブロック図である。It is a functional block diagram of the common MR system using video see-through HMD.

[第1の実施形態]
以下、本発明の第1の実施形態について、図面を参照しながら説明する。図1は、撮像機能付表示装置を利用したMRシステムの装置構成を示す図である。
First Embodiment
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an apparatus configuration of an MR system using a display device with an imaging function.

撮像機能付表示装置を利用したMRシステムは、HMD(Head Mounted Display)101、コントローラ102、PC103から構成される。HMD101は、使用者の観察している視界の現実空間の撮像画像を取得するための撮像部を有する。また、撮像画像やPC103からの入力画像、または撮像画像にPC103で生成したCG画像を重畳した合成画像などの表示用画像を装着者に提供するための表示部を有する。図1では、HMD101とコントローラ102間を有線接続としているが、これは無線接続でもよい。HMD101は、コントローラ102からの電源供給を受けて駆動することも、バッテリーで駆動することも可能である。HMD101、コントローラ102、PC103のいずれかには、HMD装着者の三次元位置姿勢情報を生成するための位置姿勢情報生成部を有する。三次元位置姿勢情報は、HMDの撮像部、あるいは別途設置した客観カメラで取得した画像情報や、加速度センサやジャイロセンサ、磁気センサ等の各種センサ情報を用いて生成する。コントローラ102と接続されたPC103は、三次元位置姿勢情報に基づき、HMD装着者の視点から観察されるCG画像の描画、合成を行うCG描画合成部を有する。コントローラ102は、画像の解像度変換、色空間変換、光学系の歪み補正、画像符号化等の各種画像処理機能、及び伝送機能を備えている。図1では、コントローラ102とPC103を別々のハードウェア構成としているが、コントローラ102とPC103がそれぞれ有する機能を集め、専用の画像処理装置104として構成することも可能である。以降の説明では機能的な観点から、コントローラ102とPC103がそれぞれ有する機能を組み合わせたものを画像処理装置104として表記して説明する。   An MR system using a display device with an imaging function includes an HMD (Head Mounted Display) 101, a controller 102, and a PC 103. The HMD 101 includes an imaging unit for acquiring a captured image of a real space of a field of view observed by the user. The display unit also has a display unit for providing a display image such as a captured image, an input image from the PC 103, or a composite image obtained by superimposing a CG image generated by the PC 103 on the captured image. Although in FIG. 1 the HMD 101 and the controller 102 are connected by wire, they may be connected wirelessly. The HMD 101 can be driven by receiving power supply from the controller 102 or can be driven by a battery. One of the HMD 101, the controller 102, and the PC 103 includes a position and orientation information generation unit for generating three-dimensional position and orientation information of the HMD user. The three-dimensional position and orientation information is generated using image information acquired by an imaging unit of the HMD or an objective camera separately installed, and various sensor information such as an acceleration sensor, a gyro sensor, and a magnetic sensor. The PC 103 connected to the controller 102 has a CG drawing / synthesizing unit that draws and synthesizes a CG image observed from the viewpoint of the HMD user based on three-dimensional position and orientation information. The controller 102 has various image processing functions such as image resolution conversion, color space conversion, distortion correction of an optical system, and image coding, and a transmission function. Although the controller 102 and the PC 103 have different hardware configurations in FIG. 1, the functions of the controller 102 and the PC 103 can be collected and configured as a dedicated image processing apparatus 104. In the following description, a combination of functions of the controller 102 and the PC 103 will be described as the image processing apparatus 104 from the functional viewpoint.

図2は、MRシステムにおける画像合成について説明する図である。撮像画像201はHMDの撮像部で現実空間を撮像した画像である。MRシステム用のHMDにおいては、撮像部の撮像範囲の中心光軸が、HMD装着者の視線方向に略一致するように配置されることが好ましい。撮像画像中のマーカー202は、HMD装着者の位置姿勢を算出するために用いられる指標である。CG画像203は、画像処理装置内のCG描画合成部で位置姿勢情報に基づいて描画された画像であり、仮想空間のCGオブジェクト204が描画されている。CG描画合成部において、撮像画像201にCG画像203を重畳して、MR画像205を生成し、HMDの表示部で表示することにより、HMD装着者にMR空間を提供することができる。画像合成の際に、三次元空間上の奥行きに関する情報を利用することにより、CG画像を透過させた半透明合成画像を生成することも可能である。   FIG. 2 is a diagram for explaining image synthesis in the MR system. The captured image 201 is an image obtained by capturing an image of a physical space by an imaging unit of the HMD. In the HMD for the MR system, it is preferable that the central optical axis of the imaging range of the imaging unit be arranged so as to substantially coincide with the line of sight of the HMD user. The marker 202 in the captured image is an index used to calculate the position and orientation of the HMD user. The CG image 203 is an image drawn based on the position and orientation information by the CG drawing and combining unit in the image processing apparatus, and the CG object 204 in the virtual space is drawn. The CG image composition unit superimposes the CG image 203 on the captured image 201 to generate the MR image 205, and displays the image on the display unit of the HMD, thereby providing an MR space to the HMD user. It is also possible to generate a translucent composite image through which a CG image is transmitted by using information on depth in a three-dimensional space at the time of image composition.

図3は、本発明の第1の実施形態における画像処理システムの構成の一例を示す図である。本発明の第1の実施形態における画像処理システムは、以下の構成を有するHMD101、及び画像処理装置104で構成される。HMD101は、撮像部301、位置姿勢センサ302、HMD側撮像画像処理部303、HMD側間引処理部304、HMD側撮像画像制御部305、HMD側共通撮像画像処理部306を有する。また、HMD側I/F(インタフェース)307、HMD側共通表示画像処理部320、HMD側表示画像制御部321、表示フレームメモリ322、HMD側表示画像処理部323、表示部324を有する。   FIG. 3 is a diagram showing an example of the configuration of the image processing system according to the first embodiment of the present invention. The image processing system according to the first embodiment of the present invention includes an HMD 101 and an image processing apparatus 104 having the following configuration. The HMD 101 includes an imaging unit 301, a position and orientation sensor 302, an HMD side captured image processing unit 303, an HMD side decimation processing unit 304, an HMD side captured image control unit 305, and an HMD side common captured image processing unit 306. Further, it has an HMD side I / F (interface) 307, an HMD side common display image processing unit 320, an HMD side display image control unit 321, a display frame memory 322, an HMD side display image processing unit 323, and a display unit 324.

画像処理装置104は、装置側I/F308、装置側共有撮像画像処理部309、装置側撮像画像制御部310を有する。また、撮像フレームメモリ311、装置側撮像画像処理部312、位置姿勢情報生成部313、コンテンツDB(データベース)314、CG描画合成部315、装置側表示画像処理部316を有する。また、装置側間引処理部317、装置側表示画像制御部318、装置側共通表示画像処理部319を有する。   The image processing apparatus 104 includes an apparatus-side I / F 308, an apparatus-side shared captured image processing unit 309, and an apparatus-side captured image control unit 310. The imaging frame memory 311, the apparatus-side captured image processing unit 312, the position and orientation information generation unit 313, the content DB (database) 314, the CG rendering / composition unit 315, and the apparatus-side display image processing unit 316. Further, the apparatus-side thinning processing unit 317, the apparatus-side display image control unit 318, and the apparatus-side common display image processing unit 319 are included.

HMD側I/F307及び装置側I/F308は、それぞれ送信部と受信部を有する。また、各ブロック名の末尾のL、またはRの表記は、それぞれ左目用動画像データの処理、右目用動画像データの処理を行うことを意味する。   The HMD-side I / F 307 and the device-side I / F 308 each have a transmitter and a receiver. Further, the notation L or R at the end of each block name means that processing of left-eye moving image data and processing of right-eye moving image data are performed, respectively.

HMD101の撮像部301は、HMD装着者の左目、右目のそれぞれの視線位置と略一致した視差を有するステレオ画像として、現実空間の撮像画像を取得する。撮像部は撮像デバイスと撮像光学系から構成され、撮像デバイスとしては、例えば、CMOSイメージセンサ、CCDイメージセンサなどが使用される。   The imaging unit 301 of the HMD 101 acquires a captured image of the physical space as a stereo image having a parallax that substantially matches the viewing positions of the left eye and the right eye of the HMD user. The imaging unit includes an imaging device and an imaging optical system. As the imaging device, for example, a CMOS image sensor, a CCD image sensor, or the like is used.

位置姿勢センサ302は、HMD装着者の視点の位置、方向に関する三次元位置姿勢情報を算出するための情報を取得する。この位置姿勢センサ503としては、例えば、客観カメラや、磁気センサ、加速度センサ、角速度センサ等が使用される。位置姿勢センサ503は、必ずしもHMD101内に有している必要はなく、例えば、HMD装着者の周囲に設置した客観カメラの撮像画像から必要な情報を得る構成でもよい。   The position and orientation sensor 302 acquires information for calculating three-dimensional position and orientation information regarding the position and direction of the viewpoint of the HMD user. As the position and orientation sensor 503, for example, an objective camera, a magnetic sensor, an acceleration sensor, an angular velocity sensor, or the like is used. The position and orientation sensor 503 does not necessarily have to be provided in the HMD 101. For example, the necessary information may be obtained from a captured image of an objective camera installed around the HMD user.

HMD側撮像画像処理部303は、撮像部で取得された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。左目用撮像画像に対する画像処理と右目用撮像画像に対する画像処理は、別々の処理回路によって並列処理により実行される。ここで行われる画像処理としては、左目用撮像画像と右目用撮像画像で別々のパラメータを用いる処理が望ましい。例えば、画素欠陥補正やガンマ補正、あるいは撮像光学系の歪み補正といった撮像デバイスや撮像光学系の個体バラツキを補正する処理が挙げられる。   The HMD-side captured image processing unit 303 performs image processing on the left-eye captured image and the right-eye captured image acquired by the imaging unit using a plurality of image processing circuits. The image processing on the left-eye captured image and the image processing on the right-eye captured image are executed by parallel processing by separate processing circuits. As the image processing performed here, processing using different parameters for the left-eye captured image and the right-eye captured image is desirable. For example, processing for correcting individual variation of an imaging device or an imaging optical system such as pixel defect correction, gamma correction, or distortion correction of an imaging optical system may be mentioned.

HMD側間引処理部304は、左目用撮像画像、右目用撮像画像に対して、データ量を削減するためのフレーム間引処理を行う。フレーム間引処理は、いわゆるフレームレート変換のようなデータ量削減と同時にフレームの周期自体が変更されるものではなく、フレーム周期は入出力間で変更せずに、後段へ送るフレーム数を削減することにより動画像データ量を削減するものである。   The HMD-side decimation processing unit 304 performs frame decimation processing for reducing the amount of data on the left-eye captured image and the right-eye captured image. In the frame skipping process, the frame period itself is not changed simultaneously with the reduction of data amount as in the so-called frame rate conversion, and the frame period does not change between input and output, and reduces the number of frames sent to the latter stage. Thus, the amount of moving image data is reduced.

HMD側撮像画像制御部305は、HMD側間引処理部によるフレーム間引処理の間隔、タイミングの制御、及びフレーム間引処理後の左目用、右目用の撮像画像をフレーム単位での時分割で後段のHMD側共通撮像画像処理部306へ送る制御を行う。ここで、フレーム間引処理後の左目用、右目用の撮像画像のフレーム数の合計は、後段の画像処理部で処理可能なフレーム数、及びHMD側I/F307で送信可能なフレーム数に収まるように制御される。   The HMD-side captured image control unit 305 controls the intervals and timings of frame thinning processing by the HMD-side thinning processing unit, and performs time-division of the captured images for the left eye and the right eye after frame thinning processing in frame units. Control to send to the subsequent HMD side common captured image processing unit 306 is performed. Here, the total number of frames of the left-eye and right-eye captured images after frame thinning falls within the number of frames that can be processed by the image processing unit in the subsequent stage and the number of frames that can be transmitted by the HMD I / F 307 To be controlled.

HMD側共通撮像画像処理部306は、フレーム間引処理後の左目用、右目用の撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像符号化などのような左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。   The HMD-side common captured image processing unit 306 performs image processing in time division on the captured images for the left eye and the right eye after the frame thinning processing. As the image processing performed here, for example, processing that can use the same parameter for the left-eye captured image and the right-eye captured image, such as resolution conversion, color space conversion, or image coding, is desirable.

HMD側I/F307は、画像処理装置104の装置側I/F308との通信により、左目用撮像画像、右目用撮像画像、及び位置姿勢センサ302で取得したセンサ情報の送信を行う。また、表示部324で表示するための表示画像の受信、その他制御信号の送受信も行う。   The HMD I / F 307 communicates with the device I / F 308 of the image processing device 104 to transmit the left-eye captured image, the right-eye captured image, and sensor information acquired by the position and orientation sensor 302. The display unit 324 also receives a display image to be displayed, and transmits and receives other control signals.

HMD側共通表示画像処理部320は、フレーム間引処理後の左目用、右目用の表示画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像復号化などのような左目用表示画像と右目用表示画像で同一のパラメータを用いることのできる処理が望ましい。   The HMD-side common display image processing unit 320 performs image processing in time division on the display images for the left eye and the right eye after the frame thinning processing. As the image processing performed here, for example, processing capable of using the same parameter for the display image for the left eye and the display image for the right eye, such as resolution conversion, color space conversion, or image decoding, is desirable.

HMD側表示画像制御部321は、フレーム間引処理後の左目用、右目用の表示画像から、表示部324において表示可能なフレームレートを有する左目用、右目用の表示画像の再構成を行う。具体的には、フレーム間引処理後の左目用、右目用の表示画像を、それぞれ左目用、右目用の表示フレームメモリ322に分配、格納し、表示部324でのフレームレートに合わせて、最新の表示画像を表示フレームメモリから出力する制御を行う。   The HMD display image control unit 321 reconstructs display images for the left eye and the right eye having a frame rate that can be displayed on the display unit 324 from the display images for the left eye and the right eye after the frame thinning process. Specifically, the left-eye and right-eye display images after frame thinning processing are distributed and stored in the left-eye and right-eye display frame memories 322, respectively, and are updated according to the frame rate of the display unit 324. Control of outputting the display image of the display frame from the display frame memory.

表示フレームメモリ322は、左目用表示画像、右目用表示画像をそれぞれ格納し、HMD側表示画像制御部321の制御に基づき、HMD側表示画像処理部323に表示画像を出力する。   The display frame memory 322 stores the display image for the left eye and the display image for the right eye, and outputs the display image to the HMD display image processing unit 323 under the control of the HMD display image control unit 321.

HMD側表示画像処理部323は、左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。左目用表示画像に対する画像処理と右目用表示画像に対する画像処理は、別々の処理回路によって並列処理により実行される。ここで行われる画像処理としては、左目用表示画像と右目用表示画像で別々のパラメータを用いる処理が望ましい。例えば、オフセット調整やゲイン調整、あるいは表示光学系の歪み補正といった表示デバイスや表示光学系の個体バラツキを補正する処理が挙げられる。   The HMD-side display image processing unit 323 performs image processing on the display image for the left eye and the display image for the right eye by a plurality of image processing circuits. The image processing on the left-eye display image and the image processing on the right-eye display image are executed by parallel processing by separate processing circuits. As image processing performed here, processing using separate parameters for the display image for the left eye and the display image for the right eye is desirable. For example, processing for correcting individual variation of a display device or a display optical system such as offset adjustment, gain adjustment, or distortion correction of a display optical system can be mentioned.

表示部324は、CGが重畳されたMR画像をHMD装着者の左目、右目にそれぞれ表示するものである。図3では省略しているが、表示部324は、表示デバイスと表示光学系から構成される。この表示デバイスとしては、例えば、小型の液晶ディスプレイや有機ELディスプレイ、MEMSによる網膜スキャンタイプのデバイスなどが使用される。   The display unit 324 displays an MR image on which CG is superimposed on the left eye and the right eye of the HMD user. Although not shown in FIG. 3, the display unit 324 includes a display device and a display optical system. As this display device, for example, a small liquid crystal display, an organic EL display, a device of a retinal scan type by MEMS, or the like is used.

画像処理装置104の装置側I/F308は、HMD101のHMD側I/F307との通信により、左目用撮像画像、右目用撮像画像、及び位置姿勢センサ302で取得したセンサ情報の受信を行う。また、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。   The device-side I / F 308 of the image processing device 104 communicates with the HMD-side I / F 307 of the HMD 101 to receive the left-eye captured image, the right-eye captured image, and the sensor information acquired by the position and orientation sensor 302. Further, transmission of a display image to be displayed on the display unit 324 and transmission and reception of other control signals are performed.

装置側共通撮像画像処理部309は、フレーム間引処理後の左目用、右目用の撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像復号化などのような左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。   The device-side common captured image processing unit 309 performs image processing on the captured images for the left eye and the right eye after frame thinning processing in a time division manner. As the image processing performed here, for example, processing capable of using the same parameter in the captured image for the left eye and the captured image for the right eye, such as resolution conversion, color space conversion, or image decoding, is desirable.

装置側撮像画像制御部310は、フレーム間引処理後の左目用、右目用の撮像画像をそれぞれ左目用、右目用の撮像フレームメモリ311に分配する。そして、表示部324において表示可能なフレームレートに合わせて、撮像フレームメモリ311から撮像画像を出力する制御を行う。   The apparatus-side captured image control unit 310 distributes the left-eye and right-eye captured images after the frame thinning processing to the left-eye and right-eye imaging frame memories 311, respectively. Then, control is performed to output a captured image from the imaging frame memory 311 in accordance with a frame rate that can be displayed on the display unit 324.

撮像フレームメモリ311は、左目用撮像画像、右目用撮像画像をそれぞれ格納し、装置側撮像画像制御部310の制御に基づき、装置側撮像画像処理部312に撮像画像を出力する。   The imaging frame memory 311 stores the left-eye imaging image and the right-eye imaging image, and outputs the imaging image to the apparatus-side imaging image processing unit 312 based on the control of the apparatus-side imaging image control unit 310.

装置側撮像画像処理部312は、撮像フレームメモリ311から出力された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。左目用撮像画像に対する画像処理と右目用撮像画像に対する画像処理は、別々の処理回路によって並列処理により実行される。ここで行われる画像処理としては、HMD側撮像画像処理部303と同様に、左目用撮像画像と右目用撮像画像で別々のパラメータを用いる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側撮像画像処理部312と、HMD側撮像画像処理部303との間で実行する画像処理をそれぞれ分散させてもよい。   The device-side captured image processing unit 312 performs image processing on the left-eye captured image and the right-eye captured image output from the imaging frame memory 311 by a plurality of image processing circuits. The image processing on the left-eye captured image and the image processing on the right-eye captured image are executed by parallel processing by separate processing circuits. As the image processing performed here, similarly to the HMD-side captured image processing unit 303, a process using separate parameters for the left-eye captured image and the right-eye captured image is desirable. Further, in consideration of the processing load and the processing order, the image processing to be executed between the apparatus-side captured image processing unit 312 and the HMD-side captured image processing unit 303 may be dispersed.

位置姿勢情報生成部313は、位置姿勢センサ302で取得したセンサ情報や、撮像部301で取得した撮像画像情報、あるいはその両方の情報からHMD101の三次元位置姿勢情報を算出する。   The position and orientation information generation unit 313 calculates three-dimensional position and orientation information of the HMD 101 from the sensor information acquired by the position and orientation sensor 302, the captured image information acquired by the imaging unit 301, or both information.

コンテンツDB314は、CG描画用のコンテンツを格納するデータベースである。CG描画合成部315は、三次元位置姿勢情報に基づいて、CG画像の描画、及び撮像画像とCG画像の合成を実行し、MR体験用の表示画像を生成する。   The content DB 314 is a database that stores content for CG drawing. The CG rendering / synthesizing unit 315 renders a CG image and synthesizes a captured image and a CG image based on the three-dimensional position and orientation information, and generates a display image for MR experience.

装置側表示画像処理部316は、CG描画合成部で生成された左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。左目用表示画像に対する画像処理と右目用表示画像に対する画像処理は、別々の処理回路によって並列処理により実行される。ここで行われる画像処理としては、HMD側表示画像処理部323と同様に、左目用表示画像と右目用表示画像で別々のパラメータを用いる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側表示画像処理部316と、HMD側表示画像処理部323との間で実行する画像処理をそれぞれ分散させてもよい。   The device-side display image processing unit 316 performs image processing on the display image for the left eye and the display image for the right eye generated by the CG rendering and combining unit by a plurality of image processing circuits. The image processing on the left-eye display image and the image processing on the right-eye display image are executed by parallel processing by separate processing circuits. As the image processing to be performed here, similarly to the HMD-side display image processing unit 323, it is desirable to use different parameters for the display image for the left eye and the display image for the right eye. Further, in consideration of the processing load and the processing order, the image processing to be executed between the apparatus-side display image processing unit 316 and the HMD-side display image processing unit 323 may be dispersed.

装置側間引処理部317は、左目用表示画像、右目用表示画像に対して、データ量を削減するためのフレーム間引処理を行う。   The device-side decimation processing unit 317 performs frame decimation processing for reducing the data amount on the display image for the left eye and the display image for the right eye.

装置側表示画像制御部318は、装置側間引処理部によるフレーム間引処理の間隔、タイミングの制御、及びフレーム間引処理後の左目用、右目用の表示画像をフレーム単位での時分割で後段の装置側共通表示画像処理部319へ送る制御を行う。ここで、フレーム間引処理後の左目用、右目用の表示画像のフレーム数の合計は、後段の画像処理部で処理可能なフレーム数、及び装置側I/F308で送信可能なフレーム数に収まるように制御される。   The apparatus-side display image control unit 318 controls the intervals and timings of frame thinning processing by the device-side thinning processing unit, and displays the display images for the left eye and the right eye after frame thinning processing in time division in frame units. Control is performed to send to the device-side common display image processing unit 319 in the latter stage. Here, the total number of frames of the display image for the left eye and the right eye after the frame thinning process falls within the number of frames that can be processed by the image processing unit in the subsequent stage and the number of frames that can be transmitted by the device-side I / F 308 To be controlled.

装置側共通表示画像処理部319は、フレーム間引処理後の左目用、右目用の表示画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側共通表示画像処理部320と同様に、左目用表示画像と右目用表示画像で同一のパラメータを用いることのできる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側共通表示画像処理部319と、HMD側共通表示画像処理部320との間で実行する画像処理をそれぞれ分散させてもよい。   The device-side common display image processing unit 319 performs time-division image processing on the display images for the left eye and the right eye after the frame thinning processing. As the image processing performed here, processing that can use the same parameter for the display image for the left eye and the display image for the right eye is desirable as in the case of the HMD side common display image processing unit 320. Further, in consideration of the processing load and the processing order, the image processing to be executed between the device-side common display image processing unit 319 and the HMD-side common display image processing unit 320 may be dispersed.

以上の構成により、HMD101の装着者は、撮像画像とCG画像が合成された臨場感の高いMR画像を体験することが可能となる。   With the above configuration, the wearer of the HMD 101 can experience a highly realistic MR image in which a captured image and a CG image are combined.

なお、画像処理システムの構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   In addition, although the component of an image processing system exists also except the above, since it is not the main point of this invention, description is abbreviate | omitted.

図4は、フレームレートの異なる動画像データに対する画像処理における遅延の蓄積について説明する図である。   FIG. 4 is a diagram for explaining accumulation of delays in image processing for moving image data having different frame rates.

図4では、撮像部で取得された撮像画像に対して、画像処理A、画像処理B、伝送、画像処理Cを介して、表示部で表示する処理が行われた場合について説明を行う。   In FIG. 4, a case will be described in which a process of displaying on the display unit is performed via the image processing A, the image processing B, the transmission, and the image processing C on the captured image acquired by the imaging unit.

図4(a)はフレームレート60fpsの動画像データに対する画像処理における遅延の蓄積を示している。撮像部における撮像画像Cの撮像の開始時刻を0とした場合、撮像画像Cの取得の完了時刻は1/60秒後となる。続く、画像処理Aは画像1面分のフレームメモリを必要とする画像処理とした場合、画像処理Aが開始される、すなわち処理画像PAが出力されるのは撮像画像Cの取得完了後からとなる。画像処理Bは画像1/3面分のラインメモリを必要とする処理とした場合、画像処理Bによる処理画像PBが出力されるのは、処理画像PAを1/3面分出力後からとなる。同様に伝送、画像処理C、表示でそれぞれ必要なフレームメモリ、ラインメモリ等を考慮して、それぞれの処理遅延を蓄積していった場合、撮像画像Cが、最終的に表示部で表示画像Dとして表示開始される時刻はT1となる。 FIG. 4A shows accumulation of delay in image processing for moving image data at a frame rate of 60 fps. If set to 0 the start time of the imaging of the captured image C 1 of the imaging unit, the completion time of the acquisition of the captured image C 1 is the post 1/60 seconds. Subsequent image processing A If the image processing which requires a frame memory of one plane image, the image processing A is started, i.e. the processed image of PA 1 is output after acquisition completion of the captured image C 1 It will be from. Image processing B If a process that requires a line memory of the image 1/3 screen portion, the processing by the image processing B image PB 1 is output, the processed image PA 1 after 1/3 screen portion output It becomes. Similarly, when each processing delay is accumulated in consideration of frame memory, line memory, etc. necessary for transmission, image processing C, and display, respectively, the captured image C 1 is finally displayed on the display unit as a display image. time displayed initiated as D 1 becomes T1.

図4(b)はフレームレート30fpsの動画像データに対する画像処理における遅延の蓄積を示している。撮像部における撮像画像Cの撮像の開始時刻を0とした場合、撮像画像Cの取得の完了時刻は1/30秒後となる。続く、画像処理Aでは、上述したように画像1面分のフレームメモリを必要とするため、処理画像PAが出力されるのは1/30以降となる。60fpsの場合と同様に画像処理B、伝送、画像処理C、表示でそれぞれ必要なフレームメモリ、ラインメモリ等を考慮して、各処理遅延を蓄積していった場合、撮像画像Cが、最終的に表示部で表示画像Dとして表示開始される時刻はT2となる。 FIG. 4B shows accumulation of delay in image processing for moving image data of frame rate 30 fps. If set to 0 the start time of the imaging of the captured image C 1 of the imaging unit, the completion time of the acquisition of the captured image C 1 is the post 1/30 seconds. Subsequently, in the image processing A, since it requires a frame memory of the image one plane, as described above, it becomes 1/30 after the processed image PA 1 is output. As in the case of 60 fps, when each processing delay is accumulated in consideration of the image processing B, transmission, image processing C, frame memory required for display, line memory, etc., the captured image C 1 is final display start is the time as the display image D 1 becomes T2 in displaying unit.

以上のように、フレームレートが異なる動画像データに対して各種画像処理を行うことで、T2とT1の差分ΔTが生じることが確認できる。また、図4では省略して図示を行っているが、実際には、各処理ごとに必要となるメモリ分の遅延に加えて、各処理でかかる処理時間も遅延時間として蓄積される。例えば、各画像処理において動画像データのピクセルクロックを用いて処理が行われ、ピクセルクロック単位での処理遅延が生じるような場合には、ΔTの値はさらに大きくなる。   As described above, it is possible to confirm that the difference ΔT between T2 and T1 is generated by performing various image processing on moving image data having different frame rates. Further, although not shown in FIG. 4, in fact, in addition to the delay for the memory required for each process, the processing time required for each process is also accumulated as a delay time. For example, when processing is performed using a pixel clock of moving image data in each image processing, and processing delay in pixel clock units occurs, the value of ΔT becomes larger.

図5は、本発明の第1の実施形態における画像処理システムの撮像部から位置姿勢情報生成部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。   FIG. 5 is a diagram for explaining frame thinning processing and accumulation of delay in processing from the imaging unit to the position and orientation information generation unit of the image processing system according to the first embodiment of the present invention.

本実施の形態における画像処理システムは、HMD101の撮像部301のフレームレート、及び表示部324のフレームレートを60fpsとして説明を行う。   The image processing system in the present embodiment will be described assuming that the frame rate of the imaging unit 301 of the HMD 101 and the frame rate of the display unit 324 are 60 fps.

撮像部301では左目用撮像画像CL、右目用撮像画像CR(nは1以上の整数)の撮像が行われる。1枚目の左目用撮像画像CL、1枚目の右目用撮像画像CRの撮像開始時刻を0とした場合、撮像画像CL、CRの取得の完了時刻は1/60秒後となる。 In the imaging unit 301, imaging of a left-eye captured image CL n and a right-eye captured image CR n (n is an integer of 1 or more) is performed. Assuming that the imaging start time of the first left-eye captured image CL 1 and the first right-eye captured image CR 1 is 0, the acquisition completion time of the captured images CL 1 and CR 1 is 1/60 seconds later. Become.

続く、HMD側撮像画像処理部303で左目用、右目用の撮像画像処理が並行して行われ、処理画像P、P(nは1以上の整数)が生成される。 Subsequently, in the HMD-side captured image processing unit 303, the captured image processing for the left eye and the right eye is performed in parallel, and processed images P 1 L n and P 1 R n (n is an integer of 1 or more) are generated.

HMD側間引処理部304では、HMD101から画像処理装置104への撮像画像の伝送データ量を削減するために左目用処理画像Pから偶数フレームを、右目用処理画像Pから奇数フレームをそれぞれ間引く処理を行う。この処理によって間引かれた処理画像P(2n−1)、P2n(nは1以上の整数)は後段の処理ブロックに時分割で出力される。ここでは、データ量を1/2に削減するために左右で偶数、奇数フレームをそれぞれ間引いて、交互に出力を行っているが、本実施の形態における間引処理はこれに限るものではなく、時分割出力が可能な範囲において任意のフレーム間引処理を行ってもよい。 In the HMD side thinning processing unit 304, even-numbered frames from the left-eye processed image P 1 L n and the right-eye processed image P 1 R n to reduce the transmission data amount of the captured image from the HMD 101 to the image processing apparatus 104 Processing to thin out each odd frame is performed. The processed images P 1 L (2 n -1) and P 1 R 2 n (n is an integer of 1 or more ) thinned out by this process are output to the subsequent processing blocks in time division. Here, in order to reduce the data amount to 1⁄2, the even and odd frames are thinned out on the left and right, respectively, and output is performed alternately, but the thinning processing in the present embodiment is not limited to this, Arbitrary frame skipping may be performed in a range where time-division output is possible.

HMD側共通撮像画像処理部306では、時分割出力される左目用撮像画像、右目用撮像画像に対して、共通の画像処理が実行され、処理画像P(2n−1)、P2n(nは1以上の整数)が生成される。このように、左目用撮像画像、右目用撮像画像に対して共通に実行される画像処理を間引処理の後段で行うことにより、時分割処理による回路の共通化、省電力化を実現することが可能となる。 The HMD-side common captured image processing unit 306 executes common image processing on the left-eye captured image and the right-eye captured image that are time-divisionally output, and the processed image P 2 L (2n−1) , P 2 R 2n (n is an integer of 1 or more) is generated. In this way, by performing image processing commonly executed on the left-eye captured image and the right-eye captured image in the latter stage of thinning processing, it is possible to realize commonality of circuits by time division processing and power saving. Is possible.

続いて、HMD側インタフェース307、装置側インタフェース308を介して、伝送画像T(2n−1)、T2n(nは1以上の整数)の伝送が行われる。 Subsequently, transmission of transmission images T 1 L (2 n -1) and T 1 R 2 n (n is an integer of 1 or more) is performed via the HMD side interface 307 and the device side interface 308.

装置側共通撮像画像処理部309では、HMD側共通撮像画像処理部306と同様に時分割で伝送されるT(2n−1)、T2n(nは1以上の整数)に対して、共通の画像処理が実行される。それにより、処理画像P(2n−1)、P2n(nは1以上の整数)が生成される。 In the device-side common captured image processing unit 309, T 1 L (2 n -1) and T 1 R 2 n (n is an integer of 1 or more ) transmitted by time division as in the HMD-side common captured image processing unit 306 Common image processing is performed. As a result, processed images P 3 L (2 n -1) and P 3 R 2 n (n is an integer of 1 or more) are generated.

続く、撮像フレームメモリ311Lには左目用処理画像P(2n−1)が、撮像フレームメモリ311Rには右目用処理画像P2nがそれぞれ格納される。撮像フレームメモリ311からは60fpsの周期で処理画像が出力されるため、後段の処理ブロックにはおなじ処理画像が2回続けて出力される。 Subsequently, the left-eye processed image P 3 L (2n−1) is stored in the imaging frame memory 311L, and the right-eye processed image P 3 R 2n is stored in the imaging frame memory 311R. Since the processing image is output from the imaging frame memory 311 at a cycle of 60 fps, the same processing image is output twice consecutively to the processing block in the subsequent stage.

装置側撮像画像処理部312では、HMD側撮像画像処理部303と同様に左目用、右目用の撮像画像処理が並行して行われ、処理画像P(2n−1)、P2n(nは1以上の整数)が生成される。 In the apparatus-side captured image processing unit 312, similarly to the HMD-side captured image processing unit 303, the captured image processing for the left eye and the right eye is performed in parallel, and the processed images P 4 L (2 n -1) and P 4 R 2 n (N is an integer of 1 or more) is generated.

位置姿勢情報生成部313では、処理画像P(2n−1)、P2n、及び位置姿勢センサ302で取得されたセンサ情報を用いてHMD101の三次元位置姿勢情報を算出する。そして、処理画像P(2n−1)、P2n(nは1以上の整数)が後段へ出力される。 The position and orientation information generation unit 313 calculates three-dimensional position and orientation information of the HMD 101 using the processed images P 4 L (2n−1) and P 4 R 2n and the sensor information acquired by the position and orientation sensor 302. Then, the processed images P 5 L (2 n -1) and P 5 R 2 n (n is an integer of 1 or more) are output to the subsequent stage.

以上の撮像画像処理の流れによって、撮像部で左目用の撮像画像CLの取得が開始されてから、位置姿勢情報生成部で位置姿勢情報と対応づけられた処理画像Pの出力が開始されるまでの処置遅延はTとなる。 After acquisition of the left-eye captured image CL 1 is started by the imaging unit according to the flow of the above-described captured image processing, the output of the processed image P 5 L 1 correlated with the position and orientation information by the position and orientation information generation unit The treatment delay before starting is T c .

図6は、本発明の第1の実施形態における画像処理システムのCG描画合成部から表示部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。   FIG. 6 is a diagram for explaining frame thinning processing and accumulation of delay in processing from the CG rendering / synthesizing unit to the display unit of the image processing system according to the first embodiment of the present invention.

CG描画合成部315では、三次元位置姿勢情報に基づいたCG画像の描画と、左目用、右目用処理画像P(2n−1)、P2nとの合成処理を行い、左目用MR画像MRL(2n−1)、右目用MR画像MRR2n(nは1以上の整数)を生成する。 The CG rendering composition unit 315 performs rendering processing of rendering of a CG image based on three-dimensional position and orientation information, and processing images P 5 L (2 n -1) and P 5 R 2 n for the left eye and the right eye. An MR image MRL (2n-1) and a right-eye MR image MRR 2n (n is an integer of 1 or more) are generated.

装置側表示画像処理部316では、左目用、右目用の表示画像処理が並行して行われ、処理画像P(2n−1)、P2n(nは1以上の整数)が生成される。 In the apparatus-side display image processing unit 316, display image processing for the left eye and right eye is performed in parallel to generate processed images P 6 L (2 n -1) and P 6 R 2 n (n is an integer of 1 or more). Be done.

装置側間引処理部317では、画像処理装置104からHMD101への表示画像の伝送データ量を削減するために左目用処理画像P(2n−1)、右目用処理画像P2nから偶数フレームをそれぞれ間引く処理を行う。この処理によって間引かれた処理画像P(2n−1)、P2nは後段の処理ブロックに時分割で出力される。 In the device-side thinning process section 317, for the left eye in order to reduce the transmission data amount of the display image from the image processing apparatus 104 to HMD101 processing image P 6 L (2n-1) , from the right eye processing image P 6 R 2n Perform processing to thin out each even frame. The processed images P 6 L (2 n -1) and P 6 R 2 n thinned out by this process are output to the processing blocks of the subsequent stage in time division.

装置側共通表示画像処理部319では、時分割出力される左目用表示画像、右目用表示画像に対して、共通の画像処理が実行され、処理画像P(2n−1)、P2n(nは1以上の整数)が生成される。 In the device-side common display image processing unit 319, common image processing is performed on the display image for the left eye and the display image for the right eye output in time division, and the processed images P 7 L (2 n -1) and P 7 R 2n (n is an integer of 1 or more) is generated.

続いて、装置側インタフェース308、HMD側インタフェース307を介して、伝送画像T(2n−1)、T2n(nは1以上の整数)の伝送が行われる。 Subsequently, transmission of transmission images T 2 L (2 n -1) and T 2 R 2 n (n is an integer of 1 or more) is performed via the device side interface 308 and the HMD side interface 307.

HMD側共通表示画像処理部320では、装置側共通表示画像処理部319と同様に時分割で伝送されるT(2n−1)、T2nに対して、共通の画像処理が実行され、処理画像P(2n−1)、P2n(nは1以上の整数)が生成される。 The HMD-side common display image processing unit 320 executes common image processing on T 2 L (2 n -1) and T 2 R 2 n transmitted by time division as in the device-side common display image processing unit 319. As a result, processed images P 8 L (2 n -1) and P 8 R 2 n (n is an integer of 1 or more) are generated.

続く、表示フレームメモリ322Lには左目用処理画像P(2n−1)が、表示フレームメモリ322Rには右目用処理画像P2nがそれぞれ格納される。表示フレームメモリ322からは60fpsの周期で処理画像が出力されるため、後段の処理ブロックにはおなじ処理画像が2回続けて出力される。 Subsequently, the left-eye processed image P 8 L (2n−1) is stored in the display frame memory 322L, and the right-eye processed image P 8 R 2n is stored in the display frame memory 322R. Since the processing image is output from the display frame memory 322 at a cycle of 60 fps, the same processing image is output twice in succession to the processing block in the subsequent stage.

HMD側表示画像処理部323では、装置側表示画像処理部316と同様に左目用、右目用の表示画像処理が並行して行われ、処理画像P(2n−1)、P2n(nは1以上の整数)が生成される。 In the HMD-side display image processing unit 323, as in the device-side display image processing unit 316, display image processing for the left eye and the right eye is performed in parallel, and the processed images P 9 L (2 n-1) and P 9 R 2 n (N is an integer of 1 or more) is generated.

表示部324では、処理画像P(2n−1)、P2nが、それぞれ左目用表示画像DL(2n−1)、右目用表示画像DR2n(nは1以上の整数)として表示される。 In the display unit 324, the processed images P 9 L (2 n -1) and P 9 R 2 n are displayed as the left-eye display image DL (2 n-1) and the right-eye display image DR 2 n (n is an integer of 1 or more). Be done.

以上の表示画像処理の流れによって、撮像部で左目用の撮像画像CLの取得が開始されてから、最終的に表示部において表示画像DLとして表示が開始されるまでの処置遅延はTとなる。 By the flow of the above display image processing, from the acquired captured image CL 1 for the left eye is started by the imaging unit, treatment delay to display as a display image DL 1 in the final display unit is started T D It becomes.

ここで注目するべきは、HMD101と画像処理装置104間で伝送される画像データ量は撮像画像、表示画像ともに30fpsと同等に落とされているということである。しかしながら、撮像から表示に至るまでの全ての処理は60fpsで実行されているため、フレームレート変換後に30fpsで画像処理を行った場合に比べ、フレームメモリやラインメモリによる遅延時間の蓄積を抑えることが可能となっている。   It should be noted here that the amount of image data transmitted between the HMD 101 and the image processing apparatus 104 is dropped equal to 30 fps in both the captured image and the display image. However, since all processing from imaging to display is performed at 60 fps, accumulation of delay time by frame memory and line memory can be suppressed as compared to the case where image processing is performed at 30 fps after frame rate conversion. It is possible.

以上の構成を有することにより、本実施の形態における画像処理システムは、左目用、右目用画像間でのフレーム間引処理、及び時分割出力を行い、各処理における遅延時間の蓄積を抑えつつ、動画像データの伝送データ量を削減することが可能である。また、間引処理後の動画像データは時分割出力されているため、後段の画像処理を左目用画像と右目用画像で共用することが可能となり、回路規模の削減、省電力化を実現することができる。   By having the above configuration, the image processing system according to the present embodiment performs frame thinning processing and time division output between left-eye and right-eye images, while suppressing accumulation of delay time in each processing. It is possible to reduce the amount of transmission data of moving image data. In addition, since moving image data after thinning processing is output in time division, it is possible to share the image processing of the latter stage with the image for the left eye and the image for the right eye, thereby realizing reduction in circuit size and power saving. be able to.

[第2の実施形態]
本発明を実現するのに好適な第2の実施の形態を図に従って説明する。第1の実施形態では、左目用画像データの偶数フレーム、右目用画像データの奇数フレームをそれぞれ間引処理していた。しかし、第1の実施形態では、位置姿勢情報生成部において三次元位置姿勢情報算出に用いられる左目用撮像画像と右目用撮像画像、及び表示部において表示される左目用表示画像と、右目用表示画像の生成時刻にズレが生じるという問題がある。これを解決する手段として、本実施形態では、間引処理のタイミングを左目用画像と右目用画像で同期させる例を説明する。なお、第1の実施形態と重複する部分については説明を省略する。
Second Embodiment
A second embodiment suitable for realizing the present invention will be described with reference to the drawings. In the first embodiment, the even frames of the left-eye image data and the odd frames of the right-eye image data are respectively thinned out. However, in the first embodiment, the left-eye captured image and the right-eye captured image used for calculating the three-dimensional position and orientation information in the position and orientation information generation unit, the left-eye display image displayed on the display unit, and the right-eye display There is a problem that a shift occurs in the generation time of the image. As a means for solving this, in the present embodiment, an example will be described in which the timing of the thinning process is synchronized between the image for the left eye and the image for the right eye. The description of the parts overlapping with the first embodiment will be omitted.

図7は、本発明の第2の実施形態における画像処理システムの構成の一例を示す図である。本発明の第2の実施形態における画像処理システムは、以下の構成を有するHMD101、及び画像処理装置104で構成される。HMD101は、撮像部301、位置姿勢センサ302、HMD側撮像画像処理部303、HMD側間引処理部304、HMD側撮像画像制御部305、HMD側共通撮像画像処理部306を有する。また、HMD側I/F(インタフェース)307、HMD側共通表示画像処理部320、HMD側表示画像制御部321、表示フレームメモリ322、HMD側表示画像処理部323、表示部324を有する。   FIG. 7 is a diagram showing an example of the configuration of an image processing system according to the second embodiment of the present invention. The image processing system according to the second embodiment of the present invention includes an HMD 101 and an image processing apparatus 104 having the following configuration. The HMD 101 includes an imaging unit 301, a position and orientation sensor 302, an HMD side captured image processing unit 303, an HMD side decimation processing unit 304, an HMD side captured image control unit 305, and an HMD side common captured image processing unit 306. Further, it has an HMD side I / F (interface) 307, an HMD side common display image processing unit 320, an HMD side display image control unit 321, a display frame memory 322, an HMD side display image processing unit 323, and a display unit 324.

画像処理装置104は、装置側I/F308、装置側共有撮像画像処理部309、装置側撮像画像制御部310、撮像フレームメモリ311、装置側撮像画像処理部312、位置姿勢情報生成部313を有する。また、奥行情報生成部701、コンテンツDB(データベース)314、CG描画合成部315、装置側表示画像処理部316、装置側間引処理部317、装置側表示画像制御部318、装置側共通表示画像処理部319を有する。   The image processing apparatus 104 includes an apparatus-side I / F 308, an apparatus-side shared captured image processing unit 309, an apparatus-side captured image control unit 310, an imaging frame memory 311, an apparatus-side captured image processing unit 312, and a position and orientation information generation unit 313. . In addition, a depth information generation unit 701, a content DB (database) 314, a CG rendering synthesis unit 315, an apparatus side display image processing unit 316, an apparatus side reduction processing unit 317, an apparatus side display image control unit 318, and an apparatus side common display image A processing unit 319 is provided.

HMD側I/F307及び装置側I/F308は、それぞれ送信部と受信部を有する。また、各ブロック名の末尾のL、またはRの表記は、それぞれ左目用動画像データの処理、右目用動画像データの処理を行うことを意味する。   The HMD-side I / F 307 and the device-side I / F 308 each have a transmitter and a receiver. Further, the notation L or R at the end of each block name means that processing of left-eye moving image data and processing of right-eye moving image data are performed, respectively.

本実施の形態における画像処理システムは、画像処理装置104に奥行情報生成部701を有しており、奥行情報を考慮して撮像画像とCG画像の合成を行うことを特徴としている。以下、この点に関して説明する。   The image processing system according to the present embodiment has a depth information generation unit 701 in the image processing apparatus 104, and is characterized in that the captured image and the CG image are combined in consideration of the depth information. Hereinafter, this point will be described.

画像処理装置104の位置姿勢情報生成部313は、HMD101の位置姿勢センサ302で取得したセンサ情報、撮像部301で取得した撮像画像、あるいはその両方の情報からHMD101の三次元位置姿勢情報を算出する。   The position and orientation information generation unit 313 of the image processing apparatus 104 calculates three-dimensional position and orientation information of the HMD 101 from the sensor information acquired by the position and orientation sensor 302 of the HMD 101, the captured image acquired by the imaging unit 301, or both information. .

奥行情報生成部701は、左目用、右目用の撮像画像の中から奥行検出対象となる任意の被写体を抽出し、三角測量の原理を用いたステレオ法により被写体の奥行情報を算出する。撮像画像の中から被写体を検出する方法としては、マーカー形状や特徴点等を検出して用いる方法や、カラーマーカーや衣服、肌色等の色情報を検出して用いる方法などがあり、それらを組み合わせて検出精度をより向上させることも可能である。   The depth information generation unit 701 extracts an arbitrary subject to be subjected to depth detection from the captured images for the left eye and the right eye, and calculates depth information of the subject by a stereo method using the principle of triangulation. Methods of detecting an object from a captured image include a method of detecting and using marker shapes and characteristic points, and a method of detecting and using color information such as color markers, clothes, skin color, etc. It is also possible to further improve the detection accuracy.

CG描画合成部315は、三次元位置姿勢情報と奥行情報に基づいてCG画像の描画、撮像画像との合成を実行し、MR体験用の表示画像を生成する。   The CG rendering / synthesizing unit 315 performs rendering of a CG image and synthesis with a captured image based on three-dimensional position and orientation information and depth information to generate a display image for MR experience.

以上の構成により、HMD101の装着者は、撮像画像中の任意の被写体とCG画像との奥行関係を考慮して合成された臨場感の高いMR画像を体験することが可能となる。   With the above configuration, the wearer of the HMD 101 can experience a highly realistic MR image synthesized in consideration of the depth relationship between an arbitrary subject in a captured image and a CG image.

なお、画像処理システムの構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   In addition, although the component of an image processing system exists also except the above, since it is not the main point of this invention, description is abbreviate | omitted.

図8は、奥行情報を考慮した画像合成について説明する図である。図8(a)は、MR体験の対象となるシーンを模式的に示した図である。体験者が手801を動かしてCGオブジェクト802とインタクラクションしているところをHMD101の撮像部で撮像している。なお、以下では、CGオブジェクト802とのインタラクションを行う被写体が手801だとして説明を行うが、本発明はこれに限定されず、任意の被写体に適用可能である。   FIG. 8 is a diagram for explaining image composition in consideration of depth information. FIG. 8A is a view schematically showing a scene to be subjected to the MR experience. The image capturing unit of the HMD 101 captures an image of a portion where the experience person interacts with the CG object 802 by moving the hand 801. In the following description, it is described that the subject that interacts with the CG object 802 is the hand 801, but the present invention is not limited to this, and can be applied to any subject.

図8(b)、及び図8(c)は、MR体験においてHMD101の表示部に表示される映像を模式的に示す図である。MR体験において、体験者が実際にCGオブジェクト802が存在しているように感じるには、手801とCGオブジェクト802との前後関係を考慮した上で、CGオブジェクト802のCG画像を描画、合成する必要がある。つまり、HMD101から見て、手801がCGオブジェクト802よりも手前にある場合は、図2(b)のように手801でCGオブジェクト802を隠して表示する必要がある。一方で、手801がCGオブジェクト802よりも奥にある場合には、図2(c)のようにCGオブジェクト802で手801を隠して表示する必要がある。本発明では、このような表示を行うためにHMD101の撮像部で取得された撮像画像の中から手801の領域を抽出し、その領域の奥行情報に応じて、その領域にCGオブジェクト802のCG画像を上書き描画するか否かを判定する。手801の領域の抽出では、事前に手801の色領域を登録しておき、映像中に登録した色の画素が現れた時に、その画素を手801として抽出する。   FIGS. 8B and 8C are diagrams schematically showing an image displayed on the display unit of the HMD 101 in the MR experience. In the MR experience, in order for the user to feel that the CG object 802 actually exists, the CG image of the CG object 802 is drawn and synthesized in consideration of the context of the hand 801 and the CG object 802. There is a need. That is, when viewed from the HMD 101, when the hand 801 is in front of the CG object 802, it is necessary to hide and display the CG object 802 with the hand 801 as shown in FIG. 2B. On the other hand, when the hand 801 is behind the CG object 802, the hand 801 needs to be hidden and displayed by the CG object 802 as shown in FIG. 2C. In the present invention, the area of the hand 801 is extracted from the captured image acquired by the imaging unit of the HMD 101 in order to perform such display, and CG of the CG object 802 is extracted in the area according to the depth information of the area. It is determined whether the image is drawn by overwriting. In the extraction of the area of the hand 801, the color area of the hand 801 is registered in advance, and when a pixel of the registered color appears in the image, the pixel is extracted as the hand 801.

図9は、左目用、右目用の撮像画像中に含まれる任意の被写体の奥行情報生成を説明する図である。図9では、HMD101の左目用の撮像部301Lにより取得された左目用撮像画像901L、及びHMD101の右目用の撮像部301Rにより取得された右目用撮像画像901Rをそれぞれ示している。   FIG. 9 is a diagram for explaining depth information generation of an arbitrary subject included in captured images for the left eye and the right eye. FIG. 9 shows a left-eye captured image 901L acquired by the left-eye imaging unit 301L of the HMD 101 and a right-eye captured image 901R acquired by the right-eye imaging unit 301R of the HMD 101, respectively.

ここで、左目用撮像画像901Lにおける任意の被写体902の点Pl1の撮像画像面内における座標を(Xl1,Yl1)とする。同様に右目用撮像画像901Rにおける前記左目用撮像画像内の点Pl1に相当する対応点を点Pr1とし、点Pr1の撮像画像面内の座標を(Xr1,Yr1)とする。前記対応点は画像処理による各種ステレオマッチング手法を用いることで探索可能である。ここで、左目用の撮像部301Lと右目用の撮像部301R間の基線長をB、各撮像デバイスに光学像を結像している撮像光学系の焦点距離をfとする。この時、点Pl1及びPr1の奥行情報Z1は、三角測量の原理を用いたステレオ法によりZ1=B・f/|Xl1−Xr1|の関係式で求めることができる。上記の奥行情報生成を行うためには、左目用撮像画像901Lと右目用撮像画像901Rの取得タイミングが同時であることが求められる。   Here, it is assumed that coordinates of a point Pl1 of an arbitrary subject 902 in the captured image for the left eye 901L in the captured image plane are (X11, Y11). Similarly, a corresponding point corresponding to the point P11 in the captured image for the left eye in the captured image for right eye 901R is a point Pr1, and coordinates in the captured image plane of the point Pr1 are (Xr1, Yr1). The corresponding points can be searched by using various stereo matching methods by image processing. Here, the base length between the left-eye imaging unit 301L and the right-eye imaging unit 301R is B, and the focal distance of the imaging optical system forming an optical image on each imaging device is f. At this time, the depth information Z1 of the points P11 and Pr1 can be obtained by the relational expression of Z1 = Bf / | X11-Xr1 | by the stereo method using the principle of triangulation. In order to perform the above-described depth information generation, it is required that acquisition timings of the left-eye captured image 901L and the right-eye captured image 901R be simultaneous.

図10は、本発明の第2の実施形態における画像処理システムの撮像部から奥行情報生成部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。   FIG. 10 is a diagram for explaining frame skipping processing and accumulation of delay in processing from the imaging unit to the depth information generation unit of the image processing system according to the second embodiment of the present invention.

本実施の形態における画像処理システムは、第1の実施の形態と同様、HMD101の撮像部301のフレームレート、及び表示部324のフレームレートを60fpsとして説明を行う。   As in the first embodiment, the image processing system according to the present embodiment will be described assuming that the frame rate of the imaging unit 301 of the HMD 101 and the frame rate of the display unit 324 are 60 fps.

撮像部301、HMD側撮像画像処理部303における処理は第1の実施の形態と同様のため説明を省略する。   The processes in the imaging unit 301 and the HMD side captured image processing unit 303 are the same as in the first embodiment, and thus the description thereof is omitted.

HMD側間引処理部304では、HMD101から画像処理装置104への撮像画像の伝送データ量を削減するために左目用処理画像P、右目用処理画像Pから偶数フレームをそれぞれ間引く処理を行う。この処理によって間引かれた処理画像P(2n−1)、P(2n−1)(nは1以上の整数)は後段の処理ブロックに時分割で出力される。ここでは、左目用処理画像P(2n−1)と右目用処理画像P(2n−1)が同じタイミングで処理される。そのため、後段の処理ブロックに時分割で出力するために左目用処理画像P(2n−1)出力中に、右目用処理画像P(2n−1)を不図示のフレームメモリへ格納する処理を行う。そして、左目用処理画像P(2n−1)の出力後に、右目用処理画像P(2n−1)をフレームメモリから読み出して出力することで、左目用と右目用の処理画像の時分割出力を実施する。また、データ量を1/2に削減するために左右ともに偶数フレームを間引いて、交互に出力を行っているが、本実施の形態における間引処理はこれに限るものではなく、時分割出力が可能な範囲において任意のフレーム間引処理を行ってもよい。 The HMD-side thinning processing unit 304 respectively processes even-numbered frames from the left-eye processed image P 1 L n and the right-eye processed image P 1 R n in order to reduce the transmission data amount of the captured image from the HMD 101 to the image processing apparatus 104. Perform thinning processing. Processed images P 1 L (2 n -1) and P 1 R (2 n -1) (n is an integer of 1 or more ) thinned out by this process are output to the subsequent processing blocks in time division. Here, the left-eye processed image P 1 L (2n−1) and the right-eye processed image P 1 R (2n−1) are processed at the same timing. Therefore, the right-eye processed image P 1 R (2 n -1) is stored in a frame memory ( not shown ) during output of the left-eye processed image P 1 L (2 n -1) for time division output to the subsequent processing block. Do the process. Then, after outputting the left-eye processed image P 1 L (2n−1) , the right-eye processed image P 1 R (2n−1) is read from the frame memory and output. Implement time-division output. In addition, even frames on both the left and right sides are thinned out and output is alternately performed in order to reduce the data amount to 1⁄2, but the thinning processing in the present embodiment is not limited to this, and time-division output is Any frame skipping process may be performed to the extent possible.

HMD側共通撮像画像処理部306では、時分割出力される左目用処理画像P(2n−1)、右目用処理画像P(2n−1)に対して、共通の画像処理が実行され、処理画像P(2n−1)、P(2n−1)(nは1以上の整数)が生成される。このように、左目用撮像画像、右目用撮像画像に対して共通に実行される画像処理を間引処理の後段で行うことにより、時分割処理による回路の共通化、省電力化を実現することが可能となる。 The HMD-side common captured image processing unit 306 executes common image processing on the left-eye processed image P 1 L (2 n -1) and the right-eye processed image P 1 R (2 n-1) output in time division. As a result, processed images P 2 L (2 n -1) and P 2 R (2 n -1) (n is an integer of 1 or more) are generated. In this way, by performing image processing commonly executed on the left-eye captured image and the right-eye captured image in the latter stage of thinning processing, it is possible to realize commonality of circuits by time division processing and power saving. Is possible.

続いて、HMD側インタフェース307、装置側インタフェース308を介して、伝送画像T(2n−1)、T(2n−1)(nは1以上の整数)の伝送が行われる。 Subsequently, transmission of transmission images T 1 L (2 n -1) and T 1 R (2 n -1) (n is an integer of 1 or more) is performed via the HMD side interface 307 and the device side interface 308.

装置側共通撮像画像処理部309では、HMD側共通撮像画像処理部306と同様に時分割で伝送されるT(2n−1)、T(2n−1)(nは1以上の整数)に対して、共通の画像処理が実行される。これにより、処理画像P(2n−1)、P(2n−1)(nは1以上の整数)が生成される。 In the device-side common captured image processing unit 309, T 1 L (2 n-1) and T 1 R (2 n-1) (n is 1 or more ) transmitted in time division as in the HMD-side common captured image processing unit 306 Common image processing is performed on integers. As a result, processed images P 3 L (2 n -1) and P 3 R (2 n -1) (n is an integer of 1 or more) are generated.

続く、撮像フレームメモリ311Lには左目用処理画像P(2n−1)が、撮像フレームメモリ311Rには右目用処理画像P(2n−1)がそれぞれ格納される。撮像フレームメモリ311からは60fpsの周期で処理画像が出力されるため、後段の処理ブロックにはおなじ処理画像が2回続けて出力される。 Subsequently, the left-eye processed image P 3 L (2n−1) is stored in the imaging frame memory 311L, and the right-eye processed image P 3 R (2n−1) is stored in the imaging frame memory 311R. Since the processing image is output from the imaging frame memory 311 at a cycle of 60 fps, the same processing image is output twice consecutively to the processing block in the subsequent stage.

装置側撮像画像処理部312では、HMD側撮像画像処理部303と同様に左目用、右目用の撮像画像処理が並行して行われ、処理画像P(2n−1)、P(2n−1)(nは1以上の整数)が生成される。 In the apparatus-side captured image processing unit 312, similarly to the HMD-side captured image processing unit 303, the captured image processing for the left eye and the right eye is performed in parallel, and the processed images P 4 L (2 n -1) and P 4 R ( 2n-1) (n is an integer of 1 or more) is generated.

位置姿勢情報生成部313では、処理画像P(2n−1)、P(2n−1)、及び位置姿勢センサ302で取得されたセンサ情報を用いてHMD101の三次元位置姿勢情報を算出する。そして、処理画像P(2n−1)、P(2n−1)(nは1以上の整数)が後段へ出力される。 The position and orientation information generation unit 313 uses the processed images P 4 L (2 n −1) and P 4 R (2 n −1) and the sensor information acquired by the position and orientation sensor 302 to generate three-dimensional position and orientation information of the HMD 101. calculate. Then, the processed images P 5 L (2 n -1) and P 5 R (2 n -1) (n is an integer of 1 or more) are output to the subsequent stage.

奥行情報生成部701では、左目用、右目用の処理画像P(2n−1)、P(2n−1)を用いて、撮像画像中の任意の被写体の奥行情報を算出し、処理画像P(2n−1)、P(2n−1)(nは1以上の整数)が後段へ出力される。 The depth information generation unit 701 uses the processing images P 5 L (2 n -1) and P 5 R (2 n -1) for the left eye and the right eye to calculate depth information of an arbitrary subject in the captured image, Processed images P 6 L (2 n -1) and P 6 R (2 n -1) (n is an integer of 1 or more) are output to the subsequent stage.

以上の撮像画像処理の流れによって、撮像部で左目用の撮像画像CLの取得が開始されてから、奥行情報生成部で奥行情報と対応づけられた処理画像Pの出力が開始されるまでの処置遅延はTとなる。 After the acquisition of the left-eye captured image CL 1 is started in the imaging unit by the flow of the above-described captured image processing, the output of the processed image P 6 L 1 associated with the depth information is started in the depth information generation unit The treatment delay until t is T c .

図11は、本発明の第2の実施形態における画像処理システムのCG描画合成部から表示部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。   FIG. 11 is a diagram for explaining frame skipping processing and delay accumulation in processing from the CG rendering / synthesis unit to the display unit of the image processing system according to the second embodiment of the present invention.

CG描画合成部315では、三次元位置姿勢情報に基づいたCG画像の描画と、左目用、右目用処理画像P(2n−1)、P(2n−1)との合成処理を行う。これにより、左目用MR画像MRL(2n−1)、右目用MR画像MRR(2n−1)(nは1以上の整数)を生成する。 The CG rendering / combining unit 315 composes a rendering of a CG image based on three-dimensional position and orientation information, and processing of the left-eye and right-eye processed images P 6 L (2 n -1) and P 6 R (2 n -1) Do. As a result, the left-eye MR image MRL (2n-1) and the right-eye MR image MRR (2n-1) (where n is an integer of 1 or more) are generated.

装置側表示画像処理部316では、左目用、右目用の表示画像処理が並行して行われ、処理画像P(2n−1)、P(2n−1)(nは1以上の整数)が生成される。 In the apparatus-side display image processing unit 316, display image processing for the left eye and right eye is performed in parallel, and the processed images P 7 L (2 n -1) and P 7 R (2 n -1) (n is 1 or more ) Integer) is generated.

装置側間引処理部317では、画像処理装置104からHMD101への表示画像の伝送データ量を削減するために左目用処理画像P(2n−1)、右目用処理画像P(2n−1)から偶数フレームをそれぞれ間引く処理を行う。この処理によって間引かれた処理画像P(2n−1)、P(2n−1)は後段の処理ブロックに時分割で出力される。 The apparatus-side decimation unit 317 processes the left-eye processed image P 7 L (2n−1) and the right-eye processed image P 7 R (2n ) to reduce the amount of transmission data of the display image from the image processing apparatus 104 to the HMD 101. A process of thinning out even frames from -1) is performed. The processed images P 7 L (2 n -1) and P 7 R (2 n -1) thinned out by this process are output to the processing blocks of the subsequent stage in a time division manner.

装置側共通表示画像処理部319では、時分割出力される左目用表示画像、右目用表示画像に対して、共通の画像処理が実行され、処理画像P(2n−1)、P(2n−1)(nは1以上の整数)が生成される。 In the device-side common display image processing unit 319, common image processing is performed on the display image for the left eye and the display image for the right eye output in time division, and the processed images P 8 L (2 n -1) and P 8 R (2n-1) (n is an integer of 1 or more) is generated.

続いて、装置側インタフェース308、HMD側インタフェース307を介して、伝送画像T(2n−1)、T(2n−1)(nは1以上の整数)の伝送が行われる。 Subsequently, transmission of transmission images T 2 L (2 n -1) and T 2 R (2 n -1) (n is an integer of 1 or more) is performed via the apparatus side interface 308 and the HMD side interface 307.

HMD側共通表示画像処理部320では、装置側共通表示画像処理部319と同様に時分割で伝送されるT(2n−1)、T(2n−1)に対して、共通の画像処理が実行される。これにより、処理画像P(2n−1)、P(2n−1)(nは1以上の整数)が生成される。 In the HMD side common display image processing unit 320, as in the device side common display image processing unit 319, T 2 L (2 n -1) and T 2 R (2 n -1) transmitted in time division are common. Image processing is performed. As a result, processed images P 9 L (2 n -1) and P 9 R (2 n -1) (n is an integer of 1 or more) are generated.

続く、表示フレームメモリ322Lには左目用処理画像P(2n−1)が、表示フレームメモリ322Rには右目用処理画像P(2n−1)がそれぞれ格納される。表示フレームメモリ322からは60fpsの周期で処理画像が出力されるため、後段の処理ブロックにはおなじ処理画像が2回続けて出力される。 Subsequently, the left-eye processed image P 9 L (2n−1) is stored in the display frame memory 322L, and the right-eye processed image P 9 R (2n−1) is stored in the display frame memory 322R. Since the processing image is output from the display frame memory 322 at a cycle of 60 fps, the same processing image is output twice in succession to the processing block in the subsequent stage.

HMD側表示画像処理部323では、装置側表示画像処理部316と同様に左目用、右目用の表示画像処理が並行して行われ、処理画像P10(2n−1)、P10(2n−1)(nは1以上の整数)が生成される。 In the HMD-side display image processing unit 323, as in the device-side display image processing unit 316, the display image processing for the left eye and the right eye is performed in parallel, and the processed images P 10 L (2 n -1) , P 10 R ( 2n-1) (n is an integer of 1 or more) is generated.

表示部324では、処理画像P10(2n−1)、P10(2n−1)が、それぞれ左目用表示画像DL(2n−1)、右目用表示画像DR(2n−1)(nは1以上の整数)として表示される。 In the display unit 324, the processing image P 10 L (2n-1) , P 10 R (2n-1) , respectively displaying the left-eye image DL (2n-1), the right-eye display image DR (2n-1) (n Is displayed as an integer of 1 or more).

以上の表示画像処理の流れによって、撮像部で左目用の撮像画像CLの取得が開始されてから、最終的に表示部において表示画像DLとして表示が開始されるまでの処置遅延はTとなる。 By the flow of the above display image processing, from the acquired captured image CL 1 for the left eye is started by the imaging unit, treatment delay to display as a display image DL 1 in the final display unit is started T D It becomes.

ここでも、第1の実施形態における画像処理システムと同様に、HMD101と画像処理装置104間で伝送される画像データ量は撮像画像、表示画像ともに30fpsと同等に落とされている。しかしながら、撮像から表示に至るまでの全ての処理は60fpsで実行されているため、フレームレート変換後に30fpsで画像処理を行った場合に比べ、フレームメモリやラインメモリによる遅延時間の蓄積が抑えられる。   Here, as in the image processing system in the first embodiment, the amount of image data transmitted between the HMD 101 and the image processing apparatus 104 is dropped to be equal to 30 fps in both the captured image and the display image. However, since all processing from imaging to display is performed at 60 fps, accumulation of delay time by the frame memory and the line memory can be suppressed as compared with the case where image processing is performed at 30 fps after frame rate conversion.

さらに、本実施の形態における画像処理システムでは、フレーム間引処理のタイミングを左目用画像と右目用画像で同期させていることに特徴を有する。これにより、位置姿勢情報生成部、及び奥行情報生成部において情報算出に用いられる左目用と右目用の撮像画像、及び表示部において表示される左目用と右目用の表示画像の生成時刻を1/30秒の周期で一致させることができる。左目用と右目用の撮像画像の生成時刻が一致することで、撮像画像中の任意の被写体の奥行情報が算出でき、HMD101の装着者は、
以上の構成を有することにより、本実施の形態における画像処理システムは、第1の実施形態における画像処理システムと同様に、各処理における遅延時間の蓄積を抑えつつ、動画像データの伝送データ量を削減することが可能である。また、間引処理後の動画像データは時分割出力されているため、後段の画像処理を左目用画像と右目用画像で共用することが可能となり、回路規模の削減、省電力化を実現することができる。さらに、左目用と右目用の画像データの生成タイミングが一致するように、フレーム間引処理のタイミング制御を行うことで、被写体とCGオブジェクトとの奥行関係が考慮された臨場感の高いMR画像を体験することが可能となる。
Furthermore, the image processing system according to the present embodiment is characterized in that the timing of frame thinning processing is synchronized between the image for the left eye and the image for the right eye. Thereby, the generation times of the left-eye and right-eye captured images used for information calculation in the position and orientation information generation unit and the depth information generation unit, and the left-eye and right-eye display images displayed on the display unit It can be made to coincide in a cycle of 30 seconds. When the generation times of the captured image for the left eye and for the right eye coincide with each other, depth information of any subject in the captured image can be calculated, and the wearer of the HMD 101 can
By having the above configuration, the image processing system according to the present embodiment, like the image processing system according to the first embodiment, reduces the amount of transmission data of moving image data while suppressing the accumulation of delay time in each process. It is possible to reduce. In addition, since moving image data after thinning processing is output in time division, it is possible to share the image processing of the latter stage with the image for the left eye and the image for the right eye, thereby realizing reduction in circuit size and power saving. be able to. Furthermore, by performing timing control of frame thinning processing so that the generation timings of left-eye and right-eye image data coincide, a highly realistic MR image in which the depth relationship between the subject and the CG object is considered. It becomes possible to experience.

[第3の実施形態]
本発明を実現するのに好適な第3の実施の形態を図に従って説明する。なお、第1、第2の実施形態と重複する部分については説明を省略する。
Third Embodiment
A third embodiment suitable for realizing the present invention will be described with reference to the drawings. The description of the parts overlapping with the first and second embodiments will be omitted.

第1、第2の実施形態ではHMD101と画像処理装置104間のデータ伝送に関して、有線、無線の接続方式を問わず、伝送データ量を削減するためにHMD101、画像処理装置104内でそれぞれフレーム間引処理を行う構成について説明を行った。本実施形態では、HMD101と画像処理装置104間の接続をケーブルを用いた有線接続と、無線ボックスを介しての無線接続のどちらも行うことが可能な構成について説明する。無線接続では、HMD101、画像処理装置104間を直接接続するケーブルが不要となり、HMD装着者の移動の自由度を向上させることができるというメリットがある。一方で有線接続では、無線接続と比較して一般的に広帯域伝送が可能なため、画像符号化やフレームレート変換等のデータ量削減手法を用いることなく、より高画質なMR画像を提供することができるというメリットがある。   In the first and second embodiments, regarding data transmission between the HMD 101 and the image processing apparatus 104, regardless of the wired or wireless connection method, in order to reduce the amount of transmission data, the HMD 101 and the image processing apparatus 104 interframe, respectively. The configuration for performing the pulling process has been described. In the present embodiment, a configuration in which connection between the HMD 101 and the image processing apparatus 104 can be both wired connection using a cable and wireless connection via a wireless box will be described. In the wireless connection, a cable for directly connecting the HMD 101 and the image processing apparatus 104 is unnecessary, and there is an advantage that the freedom of movement of the HMD user can be improved. On the other hand, in wired connection, broadband transmission is generally possible compared to wireless connection, so providing a higher quality MR image without using a data amount reduction method such as image coding or frame rate conversion. It has the merit of being able to

図12、13は、本発明の第3の実施形態における画像処理システムの構成の一例を示す図である。   12 and 13 are diagrams showing an example of the configuration of an image processing system according to the third embodiment of the present invention.

本発明の第3の実施形態における画像処理システムは、HMD101とHMD側無線ボックス1301、装置側無線ボックス1302、画像処理装置104で構成される。HMD101、HMD側無線ボックス1301、装置側無線ボックス1302、画像処理装置104は、それぞれ以下の構成を有する。   The image processing system according to the third embodiment of the present invention includes an HMD 101, an HMD wireless box 1301, an apparatus wireless box 1302, and an image processing apparatus 104. Each of the HMD 101, the HMD wireless box 1301, the apparatus wireless box 1302, and the image processing apparatus 104 has the following configuration.

HMD101は、撮像部301、位置姿勢センサ302、HMD内撮像画像処理部1201、HMD内有線I/F1202、HMD内表示画像処理部1203、表示部324を有する。   The HMD 101 includes an imaging unit 301, a position and orientation sensor 302, an intra-HMD captured image processing unit 1201, an intra-HMD wired I / F 1202, an intra-HMD display image processing unit 1203, and a display unit 324.

HMD側無線ボックス1301は、HMD側有線I/F1303、HMD側撮像画像処理部303、HMD側間引処理部304、HMD側撮像画像制御部305、HMD側共通撮像画像処理部306を有する。また、HMD側無線I/F1304、HMD側共通表示画像処理部320、HMD側表示画像制御部321、表示フレームメモリ322、HMD側表示画像処理部323、表示部324を有する。   The HMD-side wireless box 1301 includes an HMD-side wired I / F 1303, an HMD-side captured image processing unit 303, an HMD-side decimation processing unit 304, an HMD-side captured image control unit 305, and an HMD-side common captured image processing unit 306. Further, it has an HMD side wireless I / F 1304, an HMD side common display image processing unit 320, an HMD side display image control unit 321, a display frame memory 322, an HMD side display image processing unit 323, and a display unit 324.

装置側無線ボックス1302は、装置側無線I/F1305、装置側共有撮像画像処理部309、装置側撮像画像制御部310、撮像フレームメモリ311、装置側撮像画像処理部312、装置側有線I/F1306を有する。また、装置側表示画像処理部316、装置側間引処理部317、装置側表示画像制御部318、装置側共通表示画像処理部319を有する。   The device-side wireless box 1302 includes a device-side wireless I / F 1305, a device-side shared-captured image processing unit 309, a device-side captured-image control unit 310, an imaging frame memory 311, a device-side captured image processing unit 312, and a device-side wired I / F 1306 Have. Further, it has an apparatus side display image processing unit 316, an apparatus side thinning processing unit 317, an apparatus side display image control unit 318, and an apparatus side common display image processing unit 319.

画像処理装置104は、装置内有線I/F1204、装置内撮像画像処理部1205、位置姿勢情報生成部313、コンテンツDB314、CG描画合成部315、装置内表示画像処理部1206を有する。   The image processing apparatus 104 includes an in-apparatus wired I / F 1204, an in-apparatus captured image processing unit 1205, a position and orientation information generating unit 313, a content DB 314, a CG rendering and combining unit 315, and an in-apparatus display image processing unit 1206.

HMD内有線I/F1202、装置内有線I/F1204、HMD側有線I/F1303、HMD側無線I/F1304、装置側無線I/F1305、装置側有線I/F1306は、それぞれ送信部と受信部を有する。また、各ブロック名の末尾のL、またはRの表記は、それぞれ左目用動画像データの処理、右目用動画像データの処理を行うことを意味する。   The HMD internal I / F 1202, the internal I / F 1204, the HMD side I / F 1303, the HMD side wireless I / F 1304, the device side wireless I / F 1305, and the device side I / F 1306 respectively have a transmitter and a receiver. Have. Further, the notation L or R at the end of each block name means that processing of left-eye moving image data and processing of right-eye moving image data are performed, respectively.

図12は、本発明の第3の実施形態における画像処理システムのHMDと画像処理装置間のデータ伝送をケーブルを用いた有線伝送で行う構成について説明する図である。   FIG. 12 is a diagram for explaining a configuration in which data transmission between the HMD and the image processing apparatus of the image processing system according to the third embodiment of the present invention is performed by wired transmission using a cable.

HMD101の撮像部301は、HMD装着者の左目、右目のそれぞれの視線位置と略一致した視差を有するステレオ画像として、現実空間の撮像画像を取得する。   The imaging unit 301 of the HMD 101 acquires a captured image of the physical space as a stereo image having a parallax that substantially matches the viewing positions of the left eye and the right eye of the HMD user.

位置姿勢センサ302は、HMD装着者の視点の位置、方向に関する三次元位置姿勢情報を算出するための情報を取得する。   The position and orientation sensor 302 acquires information for calculating three-dimensional position and orientation information regarding the position and direction of the viewpoint of the HMD user.

HMD内撮像画像処理部1201は、撮像部で取得された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。   The in-HMD captured image processing unit 1201 performs image processing on the left-eye captured image and the right-eye captured image acquired by the imaging unit using a plurality of image processing circuits.

HMD内有線I/F1202は、画像処理装置104の装置内有線I/F1204との通信により、左目用撮像画像、右目用撮像画像、及び位置姿勢センサ302で取得したセンサ情報の送信を行う。また、表示部324で表示するための表示画像の受信、その他制御信号の送受信を行う。   The in-HMD wired I / F 1202 transmits the captured image for the left eye, the captured image for the right eye, and the sensor information acquired by the position and orientation sensor 302 by communication with the in-device wired I / F 1204 of the image processing device 104. In addition, reception of a display image to be displayed on the display unit 324 and transmission and reception of other control signals are performed.

HMD内表示画像処理部1203は、左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。   The in-HMD display image processing unit 1203 performs image processing on the display image for the left eye and the display image for the right eye by a plurality of image processing circuits.

表示部324は、CGが重畳されたMR画像をHMD装着者の左目、右目にそれぞれ表示するものである。   The display unit 324 displays an MR image on which CG is superimposed on the left eye and the right eye of the HMD user.

画像処理装置104の装置内有線I/F1204は、HMD101のHMD内有線I/F1202との通信により、左目用、右目用の撮像画像、及びセンサ情報の受信と、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。   The intra-apparatus wired I / F 1204 of the image processing apparatus 104 receives the captured image for the left eye and the right eye and the sensor information and communicates with the display unit 324 by communication with the intra-HMD wired I / F 1202 of the HMD 101. Sends display images and sends and receives other control signals.

装置内撮像画像処理部1205は、左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。装置内撮像画像処理部1205と、HMD内撮像画像処理部1201とで実行する画像処理は、処理負荷や処理順序を鑑みて、それぞれに分散させることが望ましい。   The in-device captured image processing unit 1205 performs image processing on the captured image for the left eye and the captured image for the right eye by a plurality of image processing circuits. It is desirable that the image processing performed by the in-device captured image processing unit 1205 and the in-HMD captured image processing unit 1201 be distributed to each in consideration of the processing load and the processing order.

位置姿勢情報生成部313は、位置姿勢センサ302で取得したセンサ情報や、撮像部301で取得した撮像画像情報、あるいはその両方の情報からHMD101の三次元位置姿勢情報を算出する。   The position and orientation information generation unit 313 calculates three-dimensional position and orientation information of the HMD 101 from the sensor information acquired by the position and orientation sensor 302, the captured image information acquired by the imaging unit 301, or both information.

コンテンツDB314は、CG描画用のコンテンツを格納するデータベースである。CG描画合成部315は、三次元位置姿勢情報に基づいて、CG画像の描画、及び撮像画像とCG画像の合成を実行し、MR体験用の表示画像を生成する。   The content DB 314 is a database that stores content for CG drawing. The CG rendering / synthesizing unit 315 renders a CG image and synthesizes a captured image and a CG image based on the three-dimensional position and orientation information, and generates a display image for MR experience.

装置内表示画像処理部1206は、CG描画合成部で生成された左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。装置内表示画像処理部1206と、HMD内表示画像処理部1203との間で実行する画像処理は、処理負荷や処理順序を鑑みて、をそれぞれ分散させることが望ましい。   The in-apparatus display image processing unit 1206 performs image processing on the display image for the left eye and the display image for the right eye generated by the CG rendering synthesis unit by a plurality of image processing circuits. It is desirable that image processing performed between the in-device display image processing unit 1206 and the in-HMD display image processing unit 1203 be dispersed in consideration of processing load and processing order.

以上の構成により、HMD101と画像処理装置104間のデータ伝送をケーブルを用いた広帯域な有線伝送で実現することが可能となる。これにより、例えば、60fpsのフレームレートを有する撮像画像、及び表示画像のフレームレートを低下させることなく伝送することが可能となり、HMD101の装着者は、より臨場感の高いMR画像を体験することが可能となる。   With the above configuration, data transmission between the HMD 101 and the image processing apparatus 104 can be realized by broadband wired transmission using a cable. This enables transmission, for example, of the captured image having a frame rate of 60 fps and the frame rate of the display image without lowering the frame rate, and the wearer of the HMD 101 can experience a more realistic MR image It becomes possible.

なお、本実施の形態における画像処理システムは、第2の実施の形態における画像処理システムと同様に、画像処理装置104に奥行情報生成部を有する構成としてもよい。また、画像処理システムの構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   The image processing system in the present embodiment may be configured to have a depth information generation unit in the image processing apparatus 104 as in the image processing system in the second embodiment. Further, although the components of the image processing system exist other than the above, since they are not the gist of the present invention, the description will be omitted.

図13は、本発明の第3の実施形態における画像処理システムのHMDと画像処理装置間のデータ伝送をHMD側無線ボックス、装置側無線ボックス介しての無線伝送で行う構成について説明する図である。なお、HMD101、画像処理装置104に関して、図12の構成と同様の説明については省略する。   FIG. 13 is a diagram for explaining a configuration in which data transmission between the HMD and the image processing apparatus of the image processing system in the third embodiment of the present invention is performed by wireless transmission via the HMD side radio box and the apparatus side radio box. . With regard to the HMD 101 and the image processing apparatus 104, the description similar to that of the configuration in FIG. 12 is omitted.

HMD101のHMD内有線I/F1202は、HMD側無線ボックス1301のHMD側有線I/F1303との通信により、左目用、右目用の撮像画像、及びセンサ情報の送信を行う。また、表示部324で表示するための表示画像の受信、その他制御信号の送受信を行う。   The HMD internal wired I / F 1202 of the HMD 101 transmits the captured image for the left eye and the right eye, and the sensor information by communication with the HMD side wired I / F 1303 of the HMD side wireless box 1301. In addition, reception of a display image to be displayed on the display unit 324 and transmission and reception of other control signals are performed.

HMD側無線ボックス1301のHMD側有線I/F1303は、HMD101のHMD内有線I/F1202との通信により、左目用、右目用の撮像画像、及びセンサ情報の受信を行う。また、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。   The HMD side wired I / F 1303 of the HMD side wireless box 1301 receives the captured image for the left eye and the right eye, and the sensor information by communication with the HMD wired I / F 1202 of the HMD 101. Further, transmission of a display image to be displayed on the display unit 324 and transmission and reception of other control signals are performed.

HMD側撮像画像処理部303は、撮像部で取得された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用撮像画像と右目用撮像画像で別々のパラメータを用いる処理であることが望ましい。   The HMD-side captured image processing unit 303 performs image processing on the left-eye captured image and the right-eye captured image acquired by the imaging unit using a plurality of image processing circuits. It is desirable that the image processing performed here is processing unique to the HMD side wireless box 1301 and the device side wireless box 1302 and using different parameters for the left-eye captured image and the right-eye captured image.

HMD側間引処理部304は、左目用撮像画像、右目用撮像画像に対して、データ量を削減するためのフレーム間引処理を行う。   The HMD-side decimation processing unit 304 performs frame decimation processing for reducing the amount of data on the left-eye captured image and the right-eye captured image.

HMD側撮像画像制御部305は、HMD側間引処理部によるフレーム間引処理の間隔、タイミングの制御、及びフレーム間引処理後の左目用、右目用の撮像画像をフレーム単位での時分割で後段のHMD側共通撮像画像処理部306へ送る制御を行う。   The HMD-side captured image control unit 305 controls the intervals and timings of frame thinning processing by the HMD-side thinning processing unit, and performs time-division of the captured images for the left eye and the right eye after frame thinning processing in frame units. Control to send to the subsequent HMD side common captured image processing unit 306 is performed.

HMD側共通撮像画像処理部306は、フレーム間引処理後の左目用、右目用の撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。例えば、解像度変換や色空間変換、あるいは画像符号化などのような処理が挙げられる。   The HMD-side common captured image processing unit 306 performs image processing in time division on the captured images for the left eye and the right eye after the frame thinning processing. As the image processing performed here, processing that is unique to the HMD-side wireless box 1301 and the device-side wireless box 1302 and that can use the same parameter for the left-eye captured image and the right-eye captured image is desirable. For example, processing such as resolution conversion, color space conversion, or image coding may be mentioned.

HMD側無線I/F1304は、装置側無線ボックス1302の装置側無線I/F1305との無線通信により、左目用撮像画像、右目用撮像画像、及びセンサ情報の送信と、表示部324で表示するための表示画像の受信、その他制御信号の送受信を行う。   The HMD-side wireless I / F 1304 transmits the captured image for the left eye, the captured image for the right eye, and the sensor information by wireless communication with the device-side wireless I / F 1305 of the device-side wireless box 1302 and displays on the display unit 324 Reception of other display images, and transmission and reception of other control signals.

HMD側共通表示画像処理部320は、フレーム間引処理後の左目用、右目用の表示画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用表示画像と右目用表示画像で同一のパラメータを用いることのできる処理が望ましい。例えば、解像度変換や色空間変換、あるいは画像復号化などのような処理が挙げられる。   The HMD-side common display image processing unit 320 performs image processing in time division on the display images for the left eye and the right eye after the frame thinning processing. As the image processing performed here, processing that is unique to the HMD-side wireless box 1301 and the device-side wireless box 1302 and that can use the same parameter for the display image for the left eye and the display image for the right eye is desirable. For example, processing such as resolution conversion, color space conversion, or image decoding may be mentioned.

HMD側表示画像制御部321は、フレーム間引処理後の左目用、右目用の表示画像をそれぞれ左目用、右目用の表示フレームメモリ322に分配する。そして、表示部324において表示可能なフレームレートに合わせて、表示フレームメモリから表示画像を出力する制御を行う。   The HMD-side display image control unit 321 distributes the left-eye and right-eye display images after frame thinning processing to the left-eye and right-eye display frame memories 322, respectively. Then, control is performed to output a display image from the display frame memory in accordance with the displayable frame rate on the display unit 324.

表示フレームメモリ322は、左目用表示画像、右目用表示画像をそれぞれ格納し、HMD側表示画像制御部321の制御に基づき、HMD側表示画像処理部323に表示画像を出力する。   The display frame memory 322 stores the display image for the left eye and the display image for the right eye, and outputs the display image to the HMD display image processing unit 323 under the control of the HMD display image control unit 321.

HMD側表示画像処理部323は、左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用表示画像と右目用表示画像で別々のパラメータを用いる処理が望ましい。   The HMD-side display image processing unit 323 performs image processing on the display image for the left eye and the display image for the right eye by a plurality of image processing circuits. As image processing performed here, processing specific to the HMD side wireless box 1301 and the device side wireless box 1302 and using different parameters for the display image for the left eye and the display image for the right eye is desirable.

装置側無線ボックス1302の装置側無線I/F1305は、HMD側無線ボックス1301のHMD側無線I/F1304との無線通信により、左目用、右目用の撮像画像、及びセンサ情報の受信を行う。また、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。   The device-side wireless I / F 1305 of the device-side wireless box 1302 receives the captured image for the left eye and the right eye and the sensor information by wireless communication with the HMD-side wireless I / F 1304 of the HMD-side wireless box 1301. Further, transmission of a display image to be displayed on the display unit 324 and transmission and reception of other control signals are performed.

装置側共通撮像画像処理部309は、フレーム間引処理後の左目用、右目用の撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。   The device-side common captured image processing unit 309 performs image processing on the captured images for the left eye and the right eye after frame thinning processing in a time division manner. As the image processing performed here, processing that is unique to the HMD-side wireless box 1301 and the device-side wireless box 1302 and that can use the same parameter for the left-eye captured image and the right-eye captured image is desirable.

装置側撮像画像制御部310は、フレーム間引処理後の左目用、右目用の撮像画像をそれぞれ左目用、右目用の撮像フレームメモリ311に分配する。そして、表示部324において表示可能なフレームレートに合わせて、撮像フレームメモリ311から撮像画像を出力する制御を行う。   The apparatus-side captured image control unit 310 distributes the left-eye and right-eye captured images after the frame thinning processing to the left-eye and right-eye imaging frame memories 311, respectively. Then, control is performed to output a captured image from the imaging frame memory 311 in accordance with a frame rate that can be displayed on the display unit 324.

撮像フレームメモリ311は、左目用撮像画像、右目用撮像画像をそれぞれ格納し、装置側撮像画像制御部310の制御に基づき、装置側撮像画像処理部312に撮像画像を出力する。   The imaging frame memory 311 stores the left-eye imaging image and the right-eye imaging image, and outputs the imaging image to the apparatus-side imaging image processing unit 312 based on the control of the apparatus-side imaging image control unit 310.

装置側撮像画像処理部312は、撮像フレームメモリ311から出力された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。ここで行われる画像処理としては、HMD側撮像画像処理部303と同様に、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用撮像画像と右目用撮像画像で別々のパラメータを用いる処理であることが望ましい。また、処理負荷や処理順序を鑑みて、装置側撮像画像処理部312と、HMD側撮像画像処理部303との間で実行する画像処理をそれぞれ分散させてもよい。   The device-side captured image processing unit 312 performs image processing on the left-eye captured image and the right-eye captured image output from the imaging frame memory 311 by a plurality of image processing circuits. The image processing performed here is processing unique to the HMD-side wireless box 1301 and the device-side wireless box 1302 as in the HMD-side captured image processing unit 303, and separately for the left-eye captured image and the right-eye captured image It is desirable that the process be performed using the parameters of Further, in consideration of the processing load and the processing order, the image processing to be executed between the apparatus-side captured image processing unit 312 and the HMD-side captured image processing unit 303 may be dispersed.

装置側有線I/F1306は、画像処理装置104の装置内有線I/F1204との通信により、左目用、右目用の撮像画像、及びセンサ情報の送信と、表示部324で表示するための左表示画像の受信、その他制御信号の送受信を行う。   The device-side wired I / F 1306 transmits the captured image for the left eye and the right eye and the sensor information by communication with the in-device wired I / F 1204 of the image processing device 104, and displays the left for displaying on the display unit 324. It receives images and sends and receives other control signals.

装置側表示画像処理部316は、CG描画合成部で生成された左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。ここで行われる画像処理としては、HMD側表示画像処理部323と同様に、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用表示画像と右目用表示画像で別々のパラメータを用いる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側表示画像処理部316と、HMD側表示画像処理部323との間で実行する画像処理をそれぞれ分散させてもよい。   The device-side display image processing unit 316 performs image processing on the display image for the left eye and the display image for the right eye generated by the CG rendering and combining unit by a plurality of image processing circuits. The image processing performed here is processing unique to the HMD-side wireless box 1301 and the device-side wireless box 1302 as in the HMD-side display image processing unit 323, and separately for the display image for the left eye and the display image for the right eye It is desirable to process using the parameters of Further, in consideration of the processing load and the processing order, the image processing to be executed between the apparatus-side display image processing unit 316 and the HMD-side display image processing unit 323 may be dispersed.

装置側間引処理部317は、左目用表示画像、右目用表示画像に対して、データ量を削減するためのフレーム間引処理を行う。   The device-side decimation processing unit 317 performs frame decimation processing for reducing the data amount on the display image for the left eye and the display image for the right eye.

装置側表示画像制御部318は、装置側間引処理部によるフレーム間引処理の間隔、タイミングの制御、及びフレーム間引処理後の左目用、右目用の表示画像をフレーム単位での時分割で後段の装置側共通表示画像処理部319へ送る制御を行う。   The apparatus-side display image control unit 318 controls the intervals and timings of frame thinning processing by the device-side thinning processing unit, and displays the display images for the left eye and the right eye after frame thinning processing in time division in frame units. Control is performed to send to the device-side common display image processing unit 319 in the latter stage.

装置側共通表示画像処理部319は、フレーム間引処理後の左目用、右目用の表示画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側共通表示画像処理部320と同様に、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用表示画像と右目用表示画像で同一のパラメータを用いることのできる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側共通表示画像処理部319と、HMD側共通表示画像処理部320との間で実行する画像処理をそれぞれ分散させてもよい。   The device-side common display image processing unit 319 performs time-division image processing on the display images for the left eye and the right eye after the frame thinning processing. The image processing performed here is processing unique to the HMD-side wireless box 1301 and the device-side wireless box 1302 as in the HMD-side common display image processing unit 320, and is a display image for the left eye and a display image for the right eye. A process that can use the same parameters is desirable. Further, in consideration of the processing load and the processing order, the image processing to be executed between the device-side common display image processing unit 319 and the HMD-side common display image processing unit 320 may be dispersed.

画像処理装置104の装置内有線I/F1204は、装置側無線ボックス1302の装置側有線I/F1306との通信により、左目用、右目用の撮像画像、及びセンサ情報の受信を行う。また、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。   The in-device wired I / F 1204 of the image processing device 104 communicates with the device-side wired I / F 1306 of the device wireless box 1302 to receive the captured image for the left eye and the right eye and the sensor information. Further, transmission of a display image to be displayed on the display unit 324 and transmission and reception of other control signals are performed.

以上の構成を有することにより、本実施の形態における画像処理システムは、HMD101と画像処理装置104間の接続をケーブルを用いた有線接続と、無線ボックスを介しての無線接続のどちらも行うことが可能となる。無線接続では、HMD101、画像処理装置104間を直接接続するケーブルが不要となり、HMD装着者の移動の自由度を向上させることができるというメリットがある。一方で有線接続では、無線接続と比較して一般的に広帯域伝送が可能なため、画像符号化やフレームレート変換等のデータ量削減手法を用いることなく、より高画質なMR画像を提供することができるというメリットがある。   By having the above configuration, the image processing system according to the present embodiment can perform both wired connection using a cable and wireless connection via a wireless box between the HMD 101 and the image processing apparatus 104. It becomes possible. In the wireless connection, a cable for directly connecting the HMD 101 and the image processing apparatus 104 is unnecessary, and there is an advantage that the freedom of movement of the HMD user can be improved. On the other hand, in wired connection, broadband transmission is generally possible compared to wireless connection, so providing a higher quality MR image without using a data amount reduction method such as image coding or frame rate conversion. It has the merit of being able to

[第4の実施形態]
本発明を実現するのに好適な第4の実施の形態を図に従って説明する。なお、第1〜第3の実施形態と重複する部分については説明を省略する。
Fourth Embodiment
A fourth embodiment suitable for realizing the present invention will be described with reference to the drawings. In addition, description is abbreviate | omitted about the part which overlaps with the 1st-3rd embodiment.

第1〜第3の実施形態ではHMD101の左目用撮像部301L、右目用撮像部301Rで取得される撮像画像の間引処理を行う構成について説明を行った。本実施形態では、HMD101に追加でオプション撮像部を有しており、左目用撮像部、右目用撮像部、オプション撮像部で取得される3つの撮像画像の間引処理行う構成について説明する。   In the first to third embodiments, the configuration for performing thinning processing of captured images acquired by the left-eye imaging unit 301L and the right-eye imaging unit 301R of the HMD 101 has been described. In the present embodiment, an optional imaging unit is additionally provided to the HMD 101, and a configuration for performing thinning processing of three captured images acquired by the left-eye imaging unit, the right-eye imaging unit, and the optional imaging unit will be described.

図14は、本発明の第4の実施形態における画像処理システムの構成の一例を示す図である。   FIG. 14 is a diagram showing an example of the configuration of an image processing system according to the fourth embodiment of the present invention.

本発明の第4の実施形態における画像処理システムは、以下の構成を有するHMD101、及び画像処理装置104で構成される。HMD101は、撮像部301、位置姿勢センサ302、HMD側撮像画像処理部303、HMD側間引処理部304、HMD側撮像画像制御部305、HMD側共通撮像画像処理部306を有する。また、HMD側I/F(インタフェース)307、HMD側共通表示画像処理部320、HMD側表示画像制御部321、表示フレームメモリ322、HMD側表示画像処理部323、表示部324を有する。また、オプション撮像部1401、オプション用HMD側撮像画像処理部1402、オプション用HMD側間引処理部1403を有する。   The image processing system according to the fourth embodiment of the present invention includes an HMD 101 and an image processing apparatus 104 having the following configuration. The HMD 101 includes an imaging unit 301, a position and orientation sensor 302, an HMD side captured image processing unit 303, an HMD side decimation processing unit 304, an HMD side captured image control unit 305, and an HMD side common captured image processing unit 306. Further, it has an HMD side I / F (interface) 307, an HMD side common display image processing unit 320, an HMD side display image control unit 321, a display frame memory 322, an HMD side display image processing unit 323, and a display unit 324. Further, it has an option imaging unit 1401, an option HMD side captured image processing unit 1402, and an option HMD side thinning processing unit 1403.

画像処理装置104は、装置側I/F308、装置側共有撮像画像処理部309、装置側撮像画像制御部310、撮像フレームメモリ311、装置側撮像画像処理部312、位置姿勢情報生成部313、コンテンツDB(データベース)314を有する。また、CG描画合成部315、装置側表示画像処理部316、装置側間引処理部317、装置側表示画像制御部318、装置側共通表示画像処理部319、オプション用撮像フレームメモリ1404、オプション用装置側撮像画像処理部1405を有する。   The image processing apparatus 104 includes an apparatus-side I / F 308, an apparatus-side shared-captured image processing unit 309, an apparatus-side captured image control unit 310, an imaging frame memory 311, an apparatus-side captured image processing unit 312, a position and orientation information generation unit 313, content It has a DB (database) 314. The CG rendering / combining unit 315, device-side display image processing unit 316, device-side thinning-out processing unit 317, device-side display image control unit 318, device-side common display image processing unit 319, option imaging frame memory 1404, for option The apparatus-side captured image processing unit 1405 is provided.

HMD側I/F307及び装置側I/F308は、それぞれ送信部と受信部を有する。また、各ブロック名の末尾のL、RまたはOPの表記は、それぞれ左目用動画像データの処理、右目用動画像データの処理、オプション撮像部用動画像データの処理を行うことを意味する。   The HMD-side I / F 307 and the device-side I / F 308 each have a transmitter and a receiver. In addition, the notation L, R or OP at the end of each block name means performing processing of moving image data for the left eye, processing of moving image data for the right eye, and processing of moving image data for an optional imaging unit.

HMD101のオプション撮像部1401は、左目用撮像部301L、右目用撮像部301Rで撮像される現実空間上の範囲とは異なる範囲のオプション撮像画像を取得する。オプション撮像部1401は、左目用、右目用撮像部301と同じ撮像デバイス、撮像光学系を用いてもよく、また、左目用、右目用撮像部301と解像度や撮像範囲等を異ならせるために異なる撮像デバイス、撮像光学系を用いてもよい。また、オプション撮像部1401で撮像される現実空間上の範囲は、左目用撮像部301L、右目用撮像部301Rで撮像される範囲の一部、あるいは全部を含んでいてもよい。さらには、オプション撮像部1401は、HMD101に内蔵してもよいし、HMD101に外付けで取り付けることが可能な構成としてもよい。   The option imaging unit 1401 of the HMD 101 acquires an option captured image in a range different from the range in real space captured by the left-eye imaging unit 301L and the right-eye imaging unit 301R. The option imaging unit 1401 may use the same imaging device and imaging optical system as the left-eye and right-eye imaging units 301, and differs from the left-eye and right-eye imaging units 301 in order to make the resolution and imaging range different. An imaging device or an imaging optical system may be used. Further, the range in the physical space imaged by the option imaging unit 1401 may include part or all of the areas imaged by the left-eye imaging unit 301L and the right-eye imaging unit 301R. Furthermore, the optional imaging unit 1401 may be built in the HMD 101, or may be externally attached to the HMD 101.

オプション用HMD側撮像画像処理部1402は、オプション撮像部1401で取得されたオプション撮像画像に対して、画像処理を行う。ここで行われる画像処理としては、左目用、右目用の撮像画像やオプション撮像画像で別々のパラメータを用いる処理が望ましい。例えば、画素欠陥補正やガンマ補正、あるいは撮像光学系の歪み補正といった撮像デバイスや撮像光学系の個体バラツキを補正する処理が挙げられる。   The option HMD side captured image processing unit 1402 performs image processing on the option captured image acquired by the option imaging unit 1401. As the image processing performed here, processing using different parameters in the captured image for the left eye and the captured image for the right eye and the option captured image is desirable. For example, processing for correcting individual variation of an imaging device or an imaging optical system such as pixel defect correction, gamma correction, or distortion correction of an imaging optical system may be mentioned.

オプション用HMD側間引処理部1403は、オプション撮像画像に対して、データ量を削減するためのフレーム間引処理を行う。   The option HMD side decimation processing unit 1403 performs a frame decimation process on the option captured image to reduce the data amount.

HMD側撮像画像制御部305は、HMD側間引処理部304、オプション用HMD側間引処理部1403によるフレーム間引処理の間隔、タイミングの制御を行う。また、フレーム間引処理後の各撮像画像を、時分割で後段のHMD側共通撮像画像処理部へ送る制御を行う。撮像画像のフレーム間引処理制御の例としては、第1の実施形態と同様にそれぞれ異なる時刻のフレームを順次間引いて出力する方法や、第2の実施形態と同様に同じ時刻のフレームを間引いて、フレームメモリを利用して時分割で出力する方法等が挙げられる。また、フレーム間引処理制御は上記に限られるものではなく、左目用撮像画像、右目用撮像画像、オプション撮像画像の用途、必要とされるフレーム数等を考慮し、優先度に応じて間引処理の間隔を異ならせてもよい。   The HMD side captured image control unit 305 controls an interval and timing of frame thinning processing by the HMD side thinning processing unit 304 and the option HMD side thinning processing unit 1403. Also, control is performed to send each captured image after the frame thinning process to the HMD side common captured image processing unit on the subsequent stage by time division. As an example of frame thinning process control of a captured image, a method of sequentially thinning out and outputting frames at different times as in the first embodiment, and thinning of frames of the same time as in the second embodiment And a method of outputting in time division using a frame memory. Further, the frame thinning process control is not limited to the above, and the thinning is performed according to the priority in consideration of the left eye imaging image, the right eye imaging image, the application of the option imaging image, the required number of frames, etc. The processing intervals may be different.

HMD側共通撮像画像処理部306は、フレーム間引処理後の左目用、右目用の撮像画像、オプション撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像符号化などのような左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。   The HMD side common captured image processing unit 306 performs image processing on the captured image for the left eye and the right eye after the frame thinning process and the option captured image in a time division manner. As the image processing performed here, for example, processing that can use the same parameter for the left-eye captured image and the right-eye captured image, such as resolution conversion, color space conversion, or image coding, is desirable.

HMD側I/F307は、画像処理装置104の装置側I/F308との通信により、左目用、右目用の撮像画像、オプション撮像画像、及びセンサ情報の送信と、表示部324で表示するための表示画像の受信、その他制御信号の送受信を行う。   The HMD I / F 307 transmits the captured image for the left eye and the right eye, the optional captured image, and the sensor information by communication with the device I / F 308 of the image processing device 104 and displays the image on the display unit 324. It receives display images and sends and receives other control signals.

画像処理装置104の装置側I/F308は、HMD101のHMD側I/F307との通信により、左目用、右目用の撮像画像、オプション撮像画像、及びセンサ情報の受信、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。   The device-side I / F 308 of the image processing device 104 receives the left-eye and right-eye captured images, option captured images, and sensor information by communication with the HMD-side I / F 307 of the HMD 101 and displays the information on the display unit 324 Transmission of display images, and transmission and reception of other control signals.

装置側共通撮像画像処理部309は、フレーム間引処理後の左目用、右目用の撮像画像、オプション撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像復号化などのような左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。   The device-side common captured image processing unit 309 performs image processing on the captured image for the left eye and the right eye after the frame thinning processing and the option captured image in a time division manner. As the image processing performed here, for example, processing capable of using the same parameter in the captured image for the left eye and the captured image for the right eye, such as resolution conversion, color space conversion, or image decoding, is desirable.

装置側撮像画像制御部310は、フレーム間引処理後の左目用、右目用の撮像画像、オプション撮像画像をそれぞれ左目用、右目用の撮像フレームメモリ311、オプション用撮像フレームメモリ1404に分配して格納する。また、表示部324において表示可能なフレームレートに合わせて、撮像フレームメモリ311、オプション用フレームメモリ1404から撮像画像を出力する制御を行う。   The apparatus-side captured image control unit 310 distributes the left-eye and right-eye captured images and option captured images after frame thinning processing to the left-eye and right-eye imaging frame memory 311 and option imaging frame memory 1404, respectively. Store. Further, control is performed to output a captured image from the imaging frame memory 311 and the option frame memory 1404 in accordance with a frame rate that can be displayed on the display unit 324.

オプション用撮像フレームメモリ1404は、オプション撮像画像を格納し、装置側撮像画像制御部310の制御に基づき、オプション用装置側撮像画像処理部1405に撮像画像を出力する。   The option imaging frame memory 1404 stores the option imaging image, and outputs the imaging image to the option apparatus imaging image processor 1405 based on the control of the apparatus imaging image control unit 310.

オプション用装置側撮像画像処理部1405は、オプション用撮像フレームメモリ1404から出力されたオプション撮像画像に対して、画像処理を行う。ここで行われる画像処理としては、オプション用HMD側撮像画像処理部1402と同様に、左目用、右目用の撮像画像とオプション撮像画像で別々のパラメータを用いる処理が望ましい。また、処理負荷や処理順序を鑑みて、オプション用装置側撮像画像処理部1405と、オプション用HMD側撮像画像処理部1402との間で実行する画像処理をそれぞれ分散させてもよい。   The option-apparatus side captured image processing unit 1405 performs image processing on the option captured image output from the option imaging frame memory 1404. As the image processing performed here, similarly to the option HMD-side captured image processing unit 1402, processing using different parameters for the left-eye and right-eye captured images and the option captured image is desirable. Further, in consideration of the processing load and the processing order, the image processing to be executed between the option device side captured image processing unit 1405 and the option HMD side captured image processing unit 1402 may be dispersed.

位置姿勢情報生成部313は、位置姿勢センサ302で取得したセンサ情報や、撮像部301、オプション撮像部1401で取得した各撮像画像情報、あるいはその両方の情報からHMD101の三次元位置姿勢情報を算出する。   The position and orientation information generation unit 313 calculates the three-dimensional position and orientation information of the HMD 101 from the sensor information acquired by the position and orientation sensor 302, the captured image information acquired by the imaging unit 301 and the option imaging unit 1401, or both information. Do.

以上の構成を有することにより、本実施の形態における画像処理システムは、画像処理装置104の位置姿勢情報生成部313において、HMD101のオプション撮像部1401で取得されたオプション撮像画像を用いることが可能となる。これにより、HMD装着者の視界の範囲外、すなわち左目用撮像部301L、右目用撮像部302Rの撮像範囲外に存在するマーカー等の情報も位置姿勢情報の生成に利用することができ、位置姿勢情報の精度、及びマーカー等の設置の自由度が向上する。   With the above configuration, in the image processing system according to the present embodiment, the position and orientation information generation unit 313 of the image processing apparatus 104 can use the option captured image acquired by the option imaging unit 1401 of the HMD 101. Become. Thus, information such as markers existing outside the range of vision of the HMD wearer, that is, outside the imaging range of the left-eye imaging unit 301L and the right-eye imaging unit 302R can also be used to generate position and orientation information. The accuracy of information and the freedom of setting markers etc. are improved.

[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読出し実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
Other Embodiments
Further, the present invention supplies software (program) for realizing the functions of the above embodiments to a system or apparatus via a network or various storage media, and a computer (CPU, MPU or the like) of the system or apparatus It is processing to read out and execute. Further, the present invention may be applied to a system constituted by a plurality of devices or to an apparatus comprising a single device. The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the respective embodiments) are possible based on the spirit of the present invention, which are excluded from the scope of the present invention is not. That is, the configuration in which each of the above-described embodiments and their modifications are combined is also included in the present invention.

101 HMD
301 撮像部
302 位置姿勢センサ
303 HMD側撮像画像処理部
304 HMD側間引処理部
305 HMD側撮像画像制御部
306 HMD側共通撮像画像処理部
307 HMD側I/F
320 HMD側共通表示画像処理部
321 HMD側表示画像制御部
322 表示フレームメモリ
323 HMD側表示画像処理部
324 表示部
104 画像処理装置
308 装置側I/F
309 装置側共有撮像画像処理部
310 装置側撮像画像制御部
311 撮像フレームメモリ
312 装置側撮像画像処理部
313 位置姿勢情報生成部
314 コンテンツDB
315 CG描画合成部
316 装置側表示画像処理部
317 装置側間引処理部
318 装置側表示画像制御部
319 装置側共通表示画像処理部
101 HMD
301 imaging unit 302 position and orientation sensor 303 HMD-side captured image processing unit 304 HMD-side decimation processing unit 305 HMD-side captured image control unit 306 HMD-side common captured image processing unit 307 HMD-side I / F
320 HMD side common display image processing unit 321 HMD side display image control unit 322 display frame memory 323 HMD side display image processing unit 324 display unit 104 image processing apparatus 308 apparatus side I / F
309 device-side shared captured image processing unit 310 device-side captured image control unit 311 imaging frame memory 312 device-side captured image processing unit 313 position and orientation information generation unit 314 content DB
315 CG rendering / combining unit 316 device-side display image processing unit 317 device-side thinning processing unit 318 device-side display image control unit 319 device-side common display image processing unit

Claims (13)

任意のフレームレートを有する少なくとも2つ以上の複数の動画像データを入力するための第1の入力手段と、
前記複数の動画像データに対して、複数の画像処理回路によって画像処理を実行する画像処理手段と、
前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うフレーム間引き手段と、
前記画像処理手段、及び前記フレーム間引き手段を制御するための制御手段と、
前記フレーム間引き手段によりデータ量が削減された間引き動画像データを出力するための第1の出力手段と、を有し、
前記制御手段は、間引き処理された前記複数の動画像データのデータ量の合計が、前記第1の出力手段において出力が可能なデータ量の範囲に収まるように前記画像処理手段、及び前記フレーム間引き手段を制御し、
前記第1の出力手段は、間引き処理された前記複数の動画像データの各フレームを時分割出力することを特徴とする画像処理装置。
First input means for inputting at least two or more pieces of moving image data having an arbitrary frame rate;
Image processing means for performing image processing on the plurality of moving image data by a plurality of image processing circuits;
Frame thinning means for thinning the number of frames without changing the frame period for each of the plurality of moving image data;
The image processing means, and control means for controlling the frame thinning means;
And first output means for outputting thinned-out moving image data whose data amount has been reduced by the frame thinning-out means,
The control means is the image processing means and the frame thinning so that the sum of the data amount of the plurality of moving image data subjected to the thinning process falls within the range of the data amount which can be output by the first output means. Control means,
The image processing apparatus according to claim 1, wherein the first output unit outputs each frame of the plurality of moving image data subjected to thinning processing in a time division manner.
前記制御手段は、前記フレーム間引き手段によってフレーム間引き処理が行われる前の動画像データに対しては、各々異なる画像処理回路を用いた並列処理を行い、フレーム間引き処理が行われた後の動画像データに対しては、共通の画像処理回路による時分割処理を行うように前記画像処理手段を制御することを特徴とする請求項1に記載の画像処理装置。   The control means performs parallel processing using different image processing circuits on moving image data before the frame thinning-out process is performed by the frame thinning-out means, and a moving image after frame thinning-out process is performed The image processing apparatus according to claim 1, wherein the image processing unit is controlled to perform time division processing by a common image processing circuit on data. 前記複数の動画像データはそれぞれ左目用、右目用の視差を有するステレオ画像であることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of moving image data are stereo images having parallaxes for the left eye and the right eye, respectively. 前記間引き手段は、左目用の動画像データに対して奇数フレーム、または偶数フレームのいずれかを間引きする間引き処理を行い、右目用の動画像データに対して左目用動画像データで間引きされるフレームとは異なるフレームを間引きする間引き処理を行うことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。   The thinning means performs a thinning process of thinning out either an odd frame or an even frame on moving image data for the left eye, and a frame thinned out with moving image data for the left eye on moving image data for the right eye The image processing apparatus according to any one of claims 1 to 3, wherein thinning out processing is performed to thin out frames different from H. 前記間引き手段は、左目用の動画像データに対して奇数フレーム、または偶数フレームのいずれかを間引きする間引き処理を行い、右目用の動画像データに対して左目用動画像データで間引きされるフレームと同じフレームを間引きする間引き処理を行うことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。   The thinning means performs a thinning process of thinning out either an odd frame or an even frame on moving image data for the left eye, and a frame thinned out with moving image data for the left eye on moving image data for the right eye The image processing apparatus according to any one of claims 1 to 4, wherein thinning processing is performed to thin the same frames as in (4). 複数の動画像データをフレーム単位で時分割に並べた、任意のフレームレートを有する、時分割された動画像データを入力するための第2の入力手段と、
前記複数の動画像データ、及び前記時分割された動画像データに対して、複数の画像処理回路によって画像処理を実行する画像処理手段と、
前記画像処理手段の制御と、時分割された動画像データのフレームを各々の動画像データとして分配する制御を行う制御手段と、
前記制御手段により分配された各フレームを、各々の動画像データとして出力するための第2の出力手段とを有する画像処理装置であって、
前記制御手段は、前記時分割された動画像データのフレームを各々の動画像データとして分配する際に、各々の動画像データのフレームレートが、時分割された動画像データが入力された際のフレームレートと等しくなるように制御することを特徴とする画像処理装置。
Second input means for inputting time-divided moving image data having an arbitrary frame rate, in which a plurality of moving image data are arranged in time division on a frame basis;
Image processing means for performing image processing on the plurality of moving image data and the time-divided moving image data by a plurality of image processing circuits;
Control means for performing control of the image processing means and control of distributing time-division frames of moving picture data as respective moving picture data;
An image processing apparatus comprising: second output means for outputting each frame distributed by the control means as moving image data;
When the control means distributes the frames of the time-divided moving image data as each moving image data, the moving image data is input when the frame rate of each moving image data is divided in time. An image processing apparatus which is controlled to be equal to a frame rate.
第1の画像処理装置と第2の画像処理装置とを有する画像処理システムであって、
前記第1の画像処理装置は、
任意のフレームレートを有する少なくとも2つ以上の複数の動画像データを入力するための第1の入力手段と、
前記複数の動画像データに対して、複数の画像処理回路によって画像処理を実行する第1の画像処理手段と、
前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うフレーム間引き手段と、
前記第1の画像処理手段、及び前記フレーム間引き手段を制御するための第1の制御手段と、
前記フレーム間引き手段によりデータ量が削減された間引き動画像データを出力するための第1の出力手段と、を有し、
前記第1の制御手段は、間引き処理された前記複数の動画像データのデータ量の合計が、前記第1の出力手段において出力が可能なデータ量の範囲に収まるように前記第1の画像処理手段、及び前記フレーム間引き手段を制御し、
前記第1の出力手段は、間引き処理された前記複数の動画像データの各フレームをフレーム単位で時分割に並べた、間引き動画像データを出力し、
前記第2の画像処理装置は、
前記第1の画像処理装置より出力された前記間引き動画像データを入力するための第2の入力手段と、
前記複数の動画像データ、及び前記間引き動画像データに対して、複数の画像処理回路によって画像処理を実行する第2の画像処理手段と、
前記第2の画像処理手段の制御と、間引き動画像データのフレームを各々の動画像データとして分配する制御を行うための第2の制御手段と、
前記第2の制御手段により分配された各フレームを、各々の動画像データとして出力するための第2の出力手段とを有し、
前記第2の制御手段は、前記間引き動画像データのフレームを各々の動画像データとして分配する際に、各々の動画像データのフレームレートが、間引き動画像データの入力のときのフレームレートと等しくなるように制御することを特徴とする画像処理システム。
An image processing system comprising a first image processing apparatus and a second image processing apparatus, comprising:
The first image processing apparatus
First input means for inputting at least two or more pieces of moving image data having an arbitrary frame rate;
First image processing means for performing image processing on the plurality of moving image data by a plurality of image processing circuits;
Frame thinning means for thinning the number of frames without changing the frame period for each of the plurality of moving image data;
The first image processing means, and a first control means for controlling the frame thinning means;
And first output means for outputting thinned-out moving image data whose data amount has been reduced by the frame thinning-out means,
The first control means performs the first image processing such that a total of data amounts of the plurality of moving image data subjected to thinning processing falls within a range of data amounts that can be output by the first output means. Control means and the frame thinning means,
The first output unit outputs decimated moving image data in which frames of the plurality of decimated moving image data are arranged in time division on a frame basis,
The second image processing apparatus
Second input means for inputting the thinned moving image data output from the first image processing apparatus;
Second image processing means for performing image processing on the plurality of moving image data and the thinned moving image data by a plurality of image processing circuits;
Second control means for performing control of the second image processing means and control of distributing frames of thinned moving image data as respective moving image data;
And second output means for outputting each frame distributed by the second control means as respective moving image data,
When the second control means distributes the frames of the thinned moving image data as respective moving image data, the frame rate of each moving image data is equal to the frame rate at the time of input of the thinned moving image data. An image processing system characterized by controlling to become.
第1の画像処理装置、及び第2の画像処理装置の間で画像データの伝送を行う画像処理システムであって、
前記第1、第2の画像処理装置はそれぞれ、
任意のフレームレートを有する少なくとも2つ以上の複数の動画像データを入力するための第1の入力手段と、
前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うフレーム間引き手段と、
前記フレーム間引き手段によりデータ量が削減された間引き動画像データをもう一方の画像処理装置へ出力するための第1の出力手段と、
前記間引き動画像データをもう一方の画像処理装置より入力するための第2の入力手段と、
前記間引き動画像データのフレームを各々の動画像データとして分配し、再構成された複数の動画像データを出力するため第2の出力手段と、
前記複数の動画像データ、及び間引き動画像データに対して、複数の画像処理回路によって画像処理を実行する画像処理手段と、
前記画像処理手段の制御と、前記フレーム間引き手段の制御、及び間引き動画像データのフレームを各々の動画像データとして分配する制御を行うための制御手段とを有しており、
前記制御手段は、間引き処理された前記複数の間引き動画像データのデータ量の合計が、前記第1の出力手段において出力が可能なデータ量の範囲に収まるように前記画像処理手段、及び前記フレーム間引き手段を制御し、
また、前記制御手段はさらに、前記間引き動画像データのフレームを各々の動画像データとして分配し、再構成する際に、各々の動画像データのフレームレートが、間引き動画像データの入力の際のフレームレートと等しくなるように制御することを特徴とする画像処理システム。
An image processing system for transmitting image data between a first image processing apparatus and a second image processing apparatus, comprising:
The first and second image processing devices respectively
First input means for inputting at least two or more pieces of moving image data having an arbitrary frame rate;
Frame thinning means for thinning the number of frames without changing the frame period for each of the plurality of moving image data;
First output means for outputting thinned moving image data whose data amount has been reduced by said frame thinning means to the other image processing apparatus;
Second input means for inputting the thinned moving image data from the other image processing apparatus;
Second output means for distributing the frames of the thinned moving image data as respective moving image data and outputting a plurality of reconstructed moving image data;
Image processing means for performing image processing on the plurality of moving image data and thinned moving image data by a plurality of image processing circuits;
Control means for controlling the image processing means, controlling the frame thinning means, and controlling to distribute frames of the thinning moving image data as respective moving image data,
The control means is the image processing means and the frame so that a total of data amounts of the plurality of thinned moving image data subjected to thinning processing falls within a range of data amounts that can be output by the first output means. Control the thinning means,
Further, the control means further distributes the frames of the thinned moving image data as respective moving image data, and when reconstructing, the frame rate of each moving image data corresponds to the input of the thinned moving image data. An image processing system that is controlled to be equal to a frame rate.
前記制御手段は、前記フレーム間引き手段によってフレーム間引き処理が行われる前の動画像データ、及び前記間引き動画像データのフレームを各々の動画像データとして分配し、再構成された後の動画像データに対しては、各々異なる画像処理回路を用いた並列処理を行い、フレーム間引き処理が行われた後の間引き動画像データに対しては、共通の画像処理回路による時分割処理を行うように前記画像処理手段を制御することを特徴とする請求項7または8に記載の画像処理システム。   The control means distributes the moving image data before the frame thinning process is performed by the frame thinning means and the frames of the thinned moving image data as respective moving image data, and generates reconstructed moving image data. The image processing circuit performs parallel processing using different image processing circuits, and performs time division processing by a common image processing circuit on thinned moving image data after frame thinning processing is performed. The image processing system according to claim 7, which controls the processing means. 前記複数の動画像データはそれぞれ左目用、右目用の視差を有するステレオ画像であることを特徴とする請求項7から9のいずれか1項に記載の画像処理システム。   The image processing system according to any one of claims 7 to 9, wherein each of the plurality of moving image data is a stereo image having parallax for left eye and right eye. 前記間引き手段は、左目用の動画像データに対して奇数フレーム、または偶数フレームのいずれかを間引きする間引き処理を行い、右目用の動画像データに対して左目用動画像データで間引きされるフレームとは異なるフレームを間引きする間引き処理を行うことを特徴とする請求項7から10のいずれか1項に記載の画像処理システム。   The thinning means performs a thinning process of thinning out either an odd frame or an even frame on moving image data for the left eye, and a frame thinned out with moving image data for the left eye on moving image data for the right eye The image processing system according to any one of claims 7 to 10, wherein thinning processing is performed to thin a frame different from the image data. 前記間引き手段は、左目用の動画像データに対して奇数フレーム、または偶数フレームのいずれかを間引きする間引き処理を行い、右目用の動画像データに対して左目用動画像データで間引きされるフレームと同じフレームを間引きする間引き処理を行うことを特徴とする請求項7から11のいずれか1項に記載の画像処理システム。   The thinning means performs a thinning process of thinning out either an odd frame or an even frame on moving image data for the left eye, and a frame thinned out with moving image data for the left eye on moving image data for the right eye The image processing system according to any one of claims 7 to 11, wherein thinning processing is performed to thin the same frames as in (4). 任意のフレームレートを有する少なくとも2つ以上の複数の動画像データを入力するためのステップと、
前記複数の動画像データに対して、複数の画像処理回路によって画像処理を実行するステップと、
前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うステップと、
前記データ量が削減された間引き動画像データを出力するステップと、を有し、
間引き処理された前記複数の動画像データのデータ量の合計が、前記出力が可能なデータ量の範囲に収まるように制御し、
前記間引き処理された前記複数の動画像データの各フレームを時分割出力することを特徴とする画像処理方法。
Inputting at least two or more pieces of moving image data having an arbitrary frame rate;
Performing image processing on the plurality of moving image data by a plurality of image processing circuits;
Performing decimation processing on the number of frames without changing the frame period for each of the plurality of moving image data;
Outputting the decimated moving image data of which the data amount has been reduced;
The sum of the data amount of the plurality of moving image data subjected to thinning processing is controlled so as to fall within the range of the data amount capable of the output;
An image processing method comprising time-divisionally outputting each frame of the plurality of moving image data subjected to the thinning process.
JP2017185468A 2017-09-26 2017-09-26 Image processing equipment, image processing system, and image processing method Active JP7091043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017185468A JP7091043B2 (en) 2017-09-26 2017-09-26 Image processing equipment, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185468A JP7091043B2 (en) 2017-09-26 2017-09-26 Image processing equipment, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2019062397A true JP2019062397A (en) 2019-04-18
JP7091043B2 JP7091043B2 (en) 2022-06-27

Family

ID=66177696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185468A Active JP7091043B2 (en) 2017-09-26 2017-09-26 Image processing equipment, image processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP7091043B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021072601A (en) * 2019-11-01 2021-05-06 キヤノン株式会社 Head-mounted display device and control method of the same
WO2023140033A1 (en) 2022-01-19 2023-07-27 株式会社ソニー・インタラクティブエンタテインメント Display control device, head-mounted display, and display control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07284127A (en) * 1994-04-13 1995-10-27 Mitsubishi Heavy Ind Ltd Encoder/decoder for stereo image
WO2012063542A1 (en) * 2010-11-09 2012-05-18 富士フイルム株式会社 Device for providing augmented reality
JP2013042216A (en) * 2011-08-11 2013-02-28 Canon Inc Image processing apparatus and control method thereof
JP2014082686A (en) * 2012-10-17 2014-05-08 Canon Inc Image processing apparatus, control method and program thereof
JP2016010082A (en) * 2014-06-26 2016-01-18 キヤノン株式会社 Image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07284127A (en) * 1994-04-13 1995-10-27 Mitsubishi Heavy Ind Ltd Encoder/decoder for stereo image
WO2012063542A1 (en) * 2010-11-09 2012-05-18 富士フイルム株式会社 Device for providing augmented reality
JP2013042216A (en) * 2011-08-11 2013-02-28 Canon Inc Image processing apparatus and control method thereof
JP2014082686A (en) * 2012-10-17 2014-05-08 Canon Inc Image processing apparatus, control method and program thereof
JP2016010082A (en) * 2014-06-26 2016-01-18 キヤノン株式会社 Image processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021072601A (en) * 2019-11-01 2021-05-06 キヤノン株式会社 Head-mounted display device and control method of the same
JP7402660B2 (en) 2019-11-01 2023-12-21 キヤノン株式会社 Head-mounted display device, control method for head-mounted display device
WO2023140033A1 (en) 2022-01-19 2023-07-27 株式会社ソニー・インタラクティブエンタテインメント Display control device, head-mounted display, and display control method
JP2023105524A (en) * 2022-01-19 2023-07-31 株式会社ソニー・インタラクティブエンタテインメント DISPLAY CONTROL DEVICE, HEAD MOUNTED DISPLAY, AND DISPLAY CONTROL METHOD
EP4468699A4 (en) * 2022-01-19 2025-12-03 Sony Interactive Entertainment Inc Display control device, head-mounted display and display control method

Also Published As

Publication number Publication date
JP7091043B2 (en) 2022-06-27

Similar Documents

Publication Publication Date Title
JP5891131B2 (en) Image generating apparatus and image generating method
CA2177051C (en) Synthesized stereoscopic imaging system and method
JP2024059761A (en) Continuous and binocular time warping and methods for virtual reality and augmented reality display systems - Patents.com
JP2019028368A (en) Rendering device, head mounted display, image transmission method, and image correction method
RU2638776C1 (en) Image generating device and method
JP4553362B2 (en) System, image processing apparatus, and information processing method
US11100716B2 (en) Image generating apparatus and image generation method for augmented reality
JP7377413B2 (en) Light field image generation system, image display system, shape information acquisition server, light field image generation method, and image display method
US11003408B2 (en) Image generating apparatus and image generating method
US11204502B2 (en) Image generation apparatus, head mounted display, image generation system, image generation method, and program
JP6216398B2 (en) Image generating apparatus and image generating method
JP2020071718A (en) Information processing device, information processing method, and program
US20220310037A1 (en) Method and system for reducing motion-to-photon latency in head-mounted display system
JP2011010126A (en) Image processing apparatus, and image processing method
JP7175715B2 (en) Information processing device, information processing method and program
JP2018198025A (en) Image processing apparatus, image processing apparatus control method, and program
JP4708590B2 (en) Mixed reality system, head mounted display device, mixed reality realization method and program
JP2019062397A (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD
JP2021086287A (en) Information processing system, information processing device, and information processing method
WO2019229816A1 (en) Image generation device, image generation method, and program
JP7242332B2 (en) SYNCHRONIZATION CONTROL DEVICE, SYNCHRONIZATION CONTROL METHOD, AND PROGRAM
JPWO2018173207A1 (en) Information processing device
JP6487512B2 (en) Head mounted display and image generation method
JP6614835B2 (en) COMMUNICATION DEVICE, HEAD MOUNT DISPLAY, IMAGE PROCESSING SYSTEM, COMMUNICATION METHOD, AND PROGRAM
JP2023183684A (en) Display system and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220615

R151 Written notification of patent or utility model registration

Ref document number: 7091043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151