JP2019062397A - IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD - Google Patents
IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD Download PDFInfo
- Publication number
- JP2019062397A JP2019062397A JP2017185468A JP2017185468A JP2019062397A JP 2019062397 A JP2019062397 A JP 2019062397A JP 2017185468 A JP2017185468 A JP 2017185468A JP 2017185468 A JP2017185468 A JP 2017185468A JP 2019062397 A JP2019062397 A JP 2019062397A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image data
- moving image
- frame
- thinning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、動画像データの伝送量削減を行う技術に関する。 The present invention relates to a technology for reducing the amount of transmission of moving image data.
近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の一つに、ビデオシースルー型HMD(Head Mounted Display:以下、「HMD」と称する)を利用するものがある。このシステムでは、HMD装着者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、その撮像画像にCG(Computer Graphics)を重畳表示した画像をHMD装着者が観察できる。 In recent years, so-called MR (Mixed Reality) technology is known as a technology for seamlessly merging the real world and the virtual world in real time and seamlessly. One of the MR techniques is a video see-through HMD (Head Mounted Display: hereinafter referred to as "HMD"). In this system, an object substantially corresponding to the object observed from the pupil position of the HMD wearer is imaged by a video camera or the like, and the HMD wearer can observe an image in which CG (Computer Graphics) is superimposed and displayed on the imaged image.
図15は、ビデオシースルー型HMDを利用した一般的な複合現実感システム(以降、MRシステム)の機能ブロック図である。この図を使用して概要を説明する。 FIG. 15 is a functional block diagram of a general mixed reality system (hereinafter referred to as an MR system) using a video see-through HMD. The outline is explained using this figure.
ビデオシースルー型HMD1501は、撮像部1503、表示部1504、位置姿勢センサ1505、HMD側インタフェース1506から構成される。画像処理装置1502は、装置側インタフェース1507、位置姿勢情報生成部1508、コンテンツDB(データベース)1509、CG描画合成部1510から構成される。画像処理装置1502は、HMD1501から受け取った撮像画像及び三次元位置姿勢情報に基づきCGを描画し、撮像画像との合成処理を行う。一般にはパソコンやワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置を用いる。
The video see-through HMD 1501 includes an
HMD1501の撮像部1503は、HMD装着者の視線位置と略一致する外界の観察画像を撮像する。一般にはステレオ画像を生成するために右目用、左目用の二つの撮像素子と光学系及び後段の画像処理を行うためのDSP(Digital Signal Processor)から構成される。
The
表示部1504は、合成されたMR画像の表示を行う。こちらも右目用、左目用の二つの表示デバイスと光学系から構成される。表示デバイスは小型の液晶ディスプレイやMEMSによる網膜スキャンタイプのデバイスが使用される。
The
位置姿勢センサ1505は、HMD装着者の位置姿勢情報を得るためのセンサ情報を取得する。位置姿勢センサとしては、磁気センサやジャイロセンサ(加速度、角速度)等が使用される。
The position and
HMD側インタフェース1506は、撮像部1503で撮像された画像や位置姿勢センサ1505で取得された位置姿勢センサ情報の画像処理装置1502への伝送、及び合成されたMR画像のHMD1501への伝送を行う。
The HMD
装置側インタフェース1507は、画像処理装置側のインタフェースであり、HMD側インタフェース1506とのデータ伝送を行う。
The
位置姿勢情報生成部1508は、受け取った撮像画像や位置姿勢センサ情報をもとにHMD装着者の位置姿勢情報を生成する。
The position and orientation
コンテンツDB1509は、仮想画像のコンテンツを格納しているデータベースである。 The content DB 1509 is a database storing the content of the virtual image.
CG描画合成1510は、位置姿勢情報とコンテンツDBの情報によりCGを描画し、撮像画像と合成する。ここで得られたMR画像を装置側インタフェース1507、HMD側インタフェース1506を介してHMD1501に送り、表示部1504で表示させる。
The CG rendering
一般的に、HMD側インタフェース1506、装置側インタフェース1507間の伝送には、MRシステムに求められるリアルタイム性、かつ大容量のデータ伝送を実現するため、メタル線や光ファイバ等を用いた多芯ケーブルによる有線接続が用いられる。HMD装着者がケーブルによる動きの制約を受けることなく、より自由にMR空間を体験できるようにするためは、HMD側インタフェース、装置側インタフェース間のデータ伝送に用いるケーブルの細線化や、伝送の無線化が望まれる。例えば、画像符号化やフレームレート変換等のデータ量削減手法を組み合わせることにより、ケーブルの細線化が可能であり、また、近年の無線伝送技術の向上もあって、同様の方法を用いることで無線伝送を行うことも可能となってきている。
Generally, for transmission between the
ディスプレイのフレームレートの1/2のフレームレートを有する動画像データから左目用画像データと右目用画像データとを生成し、左目用画像データと右目用画像データとを時分割に出力する手法が以下の特許文献1に開示されている。 The method for generating left-eye image data and right-eye image data from moving image data having a frame rate of 1/2 of the display frame rate, and outputting left-eye image data and right-eye image data in time division is as follows: Patent Document 1 discloses the following.
しかし、特許文献1の手法では、ディスプレイのフレームレートの1/2のフレームレートの動画像データを使用することにより、動画像データに対して複数の画像処理を実施する際の処理遅延の蓄積が膨大になる。例えば、ディスプレイのフレームレートを60fpsとした場合、1フレームあたりの伝送時間は1/60秒となるが、1/2のフレームレートである30fpsの動画像データでは、1フレームあたりの伝送時間が1/30秒となる。すなわち、フレームメモリを使用する画像処理を行う際に、1フレーム分のデータがフレームメモリにたまるまでの時間の差は1/60秒となり、これはそのまま最終的にディスプレイに表示されるまでの処理遅延として現れることとなる。したがって、フレームメモリ、ラインメモリ等を利用する画像処理を多用するほど、60fpsの動画像データと、30fpsの動画像データとの画像処理における処理遅延の差は大きくなる。 However, in the method of Patent Document 1, by using moving image data of a frame rate of 1/2 of the frame rate of the display, accumulation of processing delay when performing a plurality of image processing on the moving image data It will be huge. For example, when the frame rate of the display is 60 fps, the transmission time per frame is 1/60 seconds, but for 30 fps moving image data which is a half frame rate, the transmission time per frame is 1 It will be / 30 seconds. That is, when performing image processing using a frame memory, the difference in time until one frame's worth of data accumulates in the frame memory is 1/60 seconds, which is the process until it is finally displayed on the display It will appear as a delay. Therefore, the more the image processing using the frame memory, the line memory, etc., the larger the difference in processing delay in the image processing between the 60 fps moving image data and the 30 fps moving image data.
そこで、本発明は、動画像データのフレーム間引処理を行うことにより、各種画像処理における処理遅延を増加させることなく、データ量の削減を実現することを目的とする。 Therefore, an object of the present invention is to realize reduction of the data amount without increasing processing delay in various image processing by performing frame thinning processing of moving image data.
上記課題を解決するために、本発明は、任意のフレームレートを有する少なくとも2つ以上の複数の動画像データを入力するための第1の力手段と、前記複数の動画像データに対して、複数の画像処理回路によって画像処理を実行する画像処理手段と、前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うフレーム間引き手段と、前記画像処理手段、及び前記フレーム間引き手段を制御するための制御手段と、前記フレーム間引き手段によりデータ量が削減された間引き動画像データを出力するための第1の出力手段と、を有し、前記制御手段は、間引き処理された前記複数の動画像データのデータ量の合計が、前記第1の出力手段において出力が可能なデータ量の範囲に収まるように前記画像処理手段、及び前記フレーム間引き手段を制御し、前記第1の出力手段は、間引き処理された前記複数の動画像データの各フレームを時分割出力することを特徴とする。 In order to solve the above problems, according to the present invention, first force means for inputting at least two or more pieces of moving image data having an arbitrary frame rate, and the plurality of moving image data, Image processing means for performing image processing by a plurality of image processing circuits, frame thinning means for performing a thinning process on the number of frames without changing the frame period for each of the plurality of moving image data, and the image Processing means, control means for controlling the frame thinning-out means, and first output means for outputting thinned-out moving image data whose data amount has been reduced by the frame thinning-out means, the control The means is arranged such that the sum of the data amounts of the plurality of motion picture data subjected to thinning processing falls within the range of data amounts that can be output by the first output means. Controls image processing unit, and the frame thinning means, said first output means, characterized by time-division outputs each frame decimation processing said plurality of moving image data.
以上の構成によれば、本発明は、動画像データのフレーム間引処理を行うことにより、各種画像処理における処理遅延を増加させることなく、データ量の削減を実現することが可能となる。 According to the above configuration, by performing frame thinning processing of moving image data, the present invention can realize reduction of the data amount without increasing processing delay in various image processing.
[第1の実施形態]
以下、本発明の第1の実施形態について、図面を参照しながら説明する。図1は、撮像機能付表示装置を利用したMRシステムの装置構成を示す図である。
First Embodiment
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an apparatus configuration of an MR system using a display device with an imaging function.
撮像機能付表示装置を利用したMRシステムは、HMD(Head Mounted Display)101、コントローラ102、PC103から構成される。HMD101は、使用者の観察している視界の現実空間の撮像画像を取得するための撮像部を有する。また、撮像画像やPC103からの入力画像、または撮像画像にPC103で生成したCG画像を重畳した合成画像などの表示用画像を装着者に提供するための表示部を有する。図1では、HMD101とコントローラ102間を有線接続としているが、これは無線接続でもよい。HMD101は、コントローラ102からの電源供給を受けて駆動することも、バッテリーで駆動することも可能である。HMD101、コントローラ102、PC103のいずれかには、HMD装着者の三次元位置姿勢情報を生成するための位置姿勢情報生成部を有する。三次元位置姿勢情報は、HMDの撮像部、あるいは別途設置した客観カメラで取得した画像情報や、加速度センサやジャイロセンサ、磁気センサ等の各種センサ情報を用いて生成する。コントローラ102と接続されたPC103は、三次元位置姿勢情報に基づき、HMD装着者の視点から観察されるCG画像の描画、合成を行うCG描画合成部を有する。コントローラ102は、画像の解像度変換、色空間変換、光学系の歪み補正、画像符号化等の各種画像処理機能、及び伝送機能を備えている。図1では、コントローラ102とPC103を別々のハードウェア構成としているが、コントローラ102とPC103がそれぞれ有する機能を集め、専用の画像処理装置104として構成することも可能である。以降の説明では機能的な観点から、コントローラ102とPC103がそれぞれ有する機能を組み合わせたものを画像処理装置104として表記して説明する。
An MR system using a display device with an imaging function includes an HMD (Head Mounted Display) 101, a controller 102, and a PC 103. The HMD 101 includes an imaging unit for acquiring a captured image of a real space of a field of view observed by the user. The display unit also has a display unit for providing a display image such as a captured image, an input image from the PC 103, or a composite image obtained by superimposing a CG image generated by the PC 103 on the captured image. Although in FIG. 1 the HMD 101 and the controller 102 are connected by wire, they may be connected wirelessly. The HMD 101 can be driven by receiving power supply from the controller 102 or can be driven by a battery. One of the HMD 101, the controller 102, and the PC 103 includes a position and orientation information generation unit for generating three-dimensional position and orientation information of the HMD user. The three-dimensional position and orientation information is generated using image information acquired by an imaging unit of the HMD or an objective camera separately installed, and various sensor information such as an acceleration sensor, a gyro sensor, and a magnetic sensor. The PC 103 connected to the controller 102 has a CG drawing / synthesizing unit that draws and synthesizes a CG image observed from the viewpoint of the HMD user based on three-dimensional position and orientation information. The controller 102 has various image processing functions such as image resolution conversion, color space conversion, distortion correction of an optical system, and image coding, and a transmission function. Although the controller 102 and the
図2は、MRシステムにおける画像合成について説明する図である。撮像画像201はHMDの撮像部で現実空間を撮像した画像である。MRシステム用のHMDにおいては、撮像部の撮像範囲の中心光軸が、HMD装着者の視線方向に略一致するように配置されることが好ましい。撮像画像中のマーカー202は、HMD装着者の位置姿勢を算出するために用いられる指標である。CG画像203は、画像処理装置内のCG描画合成部で位置姿勢情報に基づいて描画された画像であり、仮想空間のCGオブジェクト204が描画されている。CG描画合成部において、撮像画像201にCG画像203を重畳して、MR画像205を生成し、HMDの表示部で表示することにより、HMD装着者にMR空間を提供することができる。画像合成の際に、三次元空間上の奥行きに関する情報を利用することにより、CG画像を透過させた半透明合成画像を生成することも可能である。
FIG. 2 is a diagram for explaining image synthesis in the MR system. The captured
図3は、本発明の第1の実施形態における画像処理システムの構成の一例を示す図である。本発明の第1の実施形態における画像処理システムは、以下の構成を有するHMD101、及び画像処理装置104で構成される。HMD101は、撮像部301、位置姿勢センサ302、HMD側撮像画像処理部303、HMD側間引処理部304、HMD側撮像画像制御部305、HMD側共通撮像画像処理部306を有する。また、HMD側I/F(インタフェース)307、HMD側共通表示画像処理部320、HMD側表示画像制御部321、表示フレームメモリ322、HMD側表示画像処理部323、表示部324を有する。
FIG. 3 is a diagram showing an example of the configuration of the image processing system according to the first embodiment of the present invention. The image processing system according to the first embodiment of the present invention includes an
画像処理装置104は、装置側I/F308、装置側共有撮像画像処理部309、装置側撮像画像制御部310を有する。また、撮像フレームメモリ311、装置側撮像画像処理部312、位置姿勢情報生成部313、コンテンツDB(データベース)314、CG描画合成部315、装置側表示画像処理部316を有する。また、装置側間引処理部317、装置側表示画像制御部318、装置側共通表示画像処理部319を有する。
The
HMD側I/F307及び装置側I/F308は、それぞれ送信部と受信部を有する。また、各ブロック名の末尾のL、またはRの表記は、それぞれ左目用動画像データの処理、右目用動画像データの処理を行うことを意味する。
The HMD-side I /
HMD101の撮像部301は、HMD装着者の左目、右目のそれぞれの視線位置と略一致した視差を有するステレオ画像として、現実空間の撮像画像を取得する。撮像部は撮像デバイスと撮像光学系から構成され、撮像デバイスとしては、例えば、CMOSイメージセンサ、CCDイメージセンサなどが使用される。
The imaging unit 301 of the
位置姿勢センサ302は、HMD装着者の視点の位置、方向に関する三次元位置姿勢情報を算出するための情報を取得する。この位置姿勢センサ503としては、例えば、客観カメラや、磁気センサ、加速度センサ、角速度センサ等が使用される。位置姿勢センサ503は、必ずしもHMD101内に有している必要はなく、例えば、HMD装着者の周囲に設置した客観カメラの撮像画像から必要な情報を得る構成でもよい。
The position and
HMD側撮像画像処理部303は、撮像部で取得された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。左目用撮像画像に対する画像処理と右目用撮像画像に対する画像処理は、別々の処理回路によって並列処理により実行される。ここで行われる画像処理としては、左目用撮像画像と右目用撮像画像で別々のパラメータを用いる処理が望ましい。例えば、画素欠陥補正やガンマ補正、あるいは撮像光学系の歪み補正といった撮像デバイスや撮像光学系の個体バラツキを補正する処理が挙げられる。 The HMD-side captured image processing unit 303 performs image processing on the left-eye captured image and the right-eye captured image acquired by the imaging unit using a plurality of image processing circuits. The image processing on the left-eye captured image and the image processing on the right-eye captured image are executed by parallel processing by separate processing circuits. As the image processing performed here, processing using different parameters for the left-eye captured image and the right-eye captured image is desirable. For example, processing for correcting individual variation of an imaging device or an imaging optical system such as pixel defect correction, gamma correction, or distortion correction of an imaging optical system may be mentioned.
HMD側間引処理部304は、左目用撮像画像、右目用撮像画像に対して、データ量を削減するためのフレーム間引処理を行う。フレーム間引処理は、いわゆるフレームレート変換のようなデータ量削減と同時にフレームの周期自体が変更されるものではなく、フレーム周期は入出力間で変更せずに、後段へ送るフレーム数を削減することにより動画像データ量を削減するものである。 The HMD-side decimation processing unit 304 performs frame decimation processing for reducing the amount of data on the left-eye captured image and the right-eye captured image. In the frame skipping process, the frame period itself is not changed simultaneously with the reduction of data amount as in the so-called frame rate conversion, and the frame period does not change between input and output, and reduces the number of frames sent to the latter stage. Thus, the amount of moving image data is reduced.
HMD側撮像画像制御部305は、HMD側間引処理部によるフレーム間引処理の間隔、タイミングの制御、及びフレーム間引処理後の左目用、右目用の撮像画像をフレーム単位での時分割で後段のHMD側共通撮像画像処理部306へ送る制御を行う。ここで、フレーム間引処理後の左目用、右目用の撮像画像のフレーム数の合計は、後段の画像処理部で処理可能なフレーム数、及びHMD側I/F307で送信可能なフレーム数に収まるように制御される。
The HMD-side captured
HMD側共通撮像画像処理部306は、フレーム間引処理後の左目用、右目用の撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像符号化などのような左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。
The HMD-side common captured
HMD側I/F307は、画像処理装置104の装置側I/F308との通信により、左目用撮像画像、右目用撮像画像、及び位置姿勢センサ302で取得したセンサ情報の送信を行う。また、表示部324で表示するための表示画像の受信、その他制御信号の送受信も行う。
The HMD I /
HMD側共通表示画像処理部320は、フレーム間引処理後の左目用、右目用の表示画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像復号化などのような左目用表示画像と右目用表示画像で同一のパラメータを用いることのできる処理が望ましい。
The HMD-side common display
HMD側表示画像制御部321は、フレーム間引処理後の左目用、右目用の表示画像から、表示部324において表示可能なフレームレートを有する左目用、右目用の表示画像の再構成を行う。具体的には、フレーム間引処理後の左目用、右目用の表示画像を、それぞれ左目用、右目用の表示フレームメモリ322に分配、格納し、表示部324でのフレームレートに合わせて、最新の表示画像を表示フレームメモリから出力する制御を行う。
The HMD display
表示フレームメモリ322は、左目用表示画像、右目用表示画像をそれぞれ格納し、HMD側表示画像制御部321の制御に基づき、HMD側表示画像処理部323に表示画像を出力する。
The display frame memory 322 stores the display image for the left eye and the display image for the right eye, and outputs the display image to the HMD display image processing unit 323 under the control of the HMD display
HMD側表示画像処理部323は、左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。左目用表示画像に対する画像処理と右目用表示画像に対する画像処理は、別々の処理回路によって並列処理により実行される。ここで行われる画像処理としては、左目用表示画像と右目用表示画像で別々のパラメータを用いる処理が望ましい。例えば、オフセット調整やゲイン調整、あるいは表示光学系の歪み補正といった表示デバイスや表示光学系の個体バラツキを補正する処理が挙げられる。 The HMD-side display image processing unit 323 performs image processing on the display image for the left eye and the display image for the right eye by a plurality of image processing circuits. The image processing on the left-eye display image and the image processing on the right-eye display image are executed by parallel processing by separate processing circuits. As image processing performed here, processing using separate parameters for the display image for the left eye and the display image for the right eye is desirable. For example, processing for correcting individual variation of a display device or a display optical system such as offset adjustment, gain adjustment, or distortion correction of a display optical system can be mentioned.
表示部324は、CGが重畳されたMR画像をHMD装着者の左目、右目にそれぞれ表示するものである。図3では省略しているが、表示部324は、表示デバイスと表示光学系から構成される。この表示デバイスとしては、例えば、小型の液晶ディスプレイや有機ELディスプレイ、MEMSによる網膜スキャンタイプのデバイスなどが使用される。 The display unit 324 displays an MR image on which CG is superimposed on the left eye and the right eye of the HMD user. Although not shown in FIG. 3, the display unit 324 includes a display device and a display optical system. As this display device, for example, a small liquid crystal display, an organic EL display, a device of a retinal scan type by MEMS, or the like is used.
画像処理装置104の装置側I/F308は、HMD101のHMD側I/F307との通信により、左目用撮像画像、右目用撮像画像、及び位置姿勢センサ302で取得したセンサ情報の受信を行う。また、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。
The device-side I /
装置側共通撮像画像処理部309は、フレーム間引処理後の左目用、右目用の撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像復号化などのような左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。
The device-side common captured
装置側撮像画像制御部310は、フレーム間引処理後の左目用、右目用の撮像画像をそれぞれ左目用、右目用の撮像フレームメモリ311に分配する。そして、表示部324において表示可能なフレームレートに合わせて、撮像フレームメモリ311から撮像画像を出力する制御を行う。
The apparatus-side captured
撮像フレームメモリ311は、左目用撮像画像、右目用撮像画像をそれぞれ格納し、装置側撮像画像制御部310の制御に基づき、装置側撮像画像処理部312に撮像画像を出力する。
The imaging frame memory 311 stores the left-eye imaging image and the right-eye imaging image, and outputs the imaging image to the apparatus-side imaging image processing unit 312 based on the control of the apparatus-side imaging
装置側撮像画像処理部312は、撮像フレームメモリ311から出力された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。左目用撮像画像に対する画像処理と右目用撮像画像に対する画像処理は、別々の処理回路によって並列処理により実行される。ここで行われる画像処理としては、HMD側撮像画像処理部303と同様に、左目用撮像画像と右目用撮像画像で別々のパラメータを用いる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側撮像画像処理部312と、HMD側撮像画像処理部303との間で実行する画像処理をそれぞれ分散させてもよい。 The device-side captured image processing unit 312 performs image processing on the left-eye captured image and the right-eye captured image output from the imaging frame memory 311 by a plurality of image processing circuits. The image processing on the left-eye captured image and the image processing on the right-eye captured image are executed by parallel processing by separate processing circuits. As the image processing performed here, similarly to the HMD-side captured image processing unit 303, a process using separate parameters for the left-eye captured image and the right-eye captured image is desirable. Further, in consideration of the processing load and the processing order, the image processing to be executed between the apparatus-side captured image processing unit 312 and the HMD-side captured image processing unit 303 may be dispersed.
位置姿勢情報生成部313は、位置姿勢センサ302で取得したセンサ情報や、撮像部301で取得した撮像画像情報、あるいはその両方の情報からHMD101の三次元位置姿勢情報を算出する。
The position and orientation
コンテンツDB314は、CG描画用のコンテンツを格納するデータベースである。CG描画合成部315は、三次元位置姿勢情報に基づいて、CG画像の描画、及び撮像画像とCG画像の合成を実行し、MR体験用の表示画像を生成する。
The
装置側表示画像処理部316は、CG描画合成部で生成された左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。左目用表示画像に対する画像処理と右目用表示画像に対する画像処理は、別々の処理回路によって並列処理により実行される。ここで行われる画像処理としては、HMD側表示画像処理部323と同様に、左目用表示画像と右目用表示画像で別々のパラメータを用いる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側表示画像処理部316と、HMD側表示画像処理部323との間で実行する画像処理をそれぞれ分散させてもよい。 The device-side display image processing unit 316 performs image processing on the display image for the left eye and the display image for the right eye generated by the CG rendering and combining unit by a plurality of image processing circuits. The image processing on the left-eye display image and the image processing on the right-eye display image are executed by parallel processing by separate processing circuits. As the image processing to be performed here, similarly to the HMD-side display image processing unit 323, it is desirable to use different parameters for the display image for the left eye and the display image for the right eye. Further, in consideration of the processing load and the processing order, the image processing to be executed between the apparatus-side display image processing unit 316 and the HMD-side display image processing unit 323 may be dispersed.
装置側間引処理部317は、左目用表示画像、右目用表示画像に対して、データ量を削減するためのフレーム間引処理を行う。 The device-side decimation processing unit 317 performs frame decimation processing for reducing the data amount on the display image for the left eye and the display image for the right eye.
装置側表示画像制御部318は、装置側間引処理部によるフレーム間引処理の間隔、タイミングの制御、及びフレーム間引処理後の左目用、右目用の表示画像をフレーム単位での時分割で後段の装置側共通表示画像処理部319へ送る制御を行う。ここで、フレーム間引処理後の左目用、右目用の表示画像のフレーム数の合計は、後段の画像処理部で処理可能なフレーム数、及び装置側I/F308で送信可能なフレーム数に収まるように制御される。
The apparatus-side display
装置側共通表示画像処理部319は、フレーム間引処理後の左目用、右目用の表示画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側共通表示画像処理部320と同様に、左目用表示画像と右目用表示画像で同一のパラメータを用いることのできる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側共通表示画像処理部319と、HMD側共通表示画像処理部320との間で実行する画像処理をそれぞれ分散させてもよい。
The device-side common display
以上の構成により、HMD101の装着者は、撮像画像とCG画像が合成された臨場感の高いMR画像を体験することが可能となる。
With the above configuration, the wearer of the
なお、画像処理システムの構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。 In addition, although the component of an image processing system exists also except the above, since it is not the main point of this invention, description is abbreviate | omitted.
図4は、フレームレートの異なる動画像データに対する画像処理における遅延の蓄積について説明する図である。 FIG. 4 is a diagram for explaining accumulation of delays in image processing for moving image data having different frame rates.
図4では、撮像部で取得された撮像画像に対して、画像処理A、画像処理B、伝送、画像処理Cを介して、表示部で表示する処理が行われた場合について説明を行う。 In FIG. 4, a case will be described in which a process of displaying on the display unit is performed via the image processing A, the image processing B, the transmission, and the image processing C on the captured image acquired by the imaging unit.
図4(a)はフレームレート60fpsの動画像データに対する画像処理における遅延の蓄積を示している。撮像部における撮像画像C1の撮像の開始時刻を0とした場合、撮像画像C1の取得の完了時刻は1/60秒後となる。続く、画像処理Aは画像1面分のフレームメモリを必要とする画像処理とした場合、画像処理Aが開始される、すなわち処理画像PA1が出力されるのは撮像画像C1の取得完了後からとなる。画像処理Bは画像1/3面分のラインメモリを必要とする処理とした場合、画像処理Bによる処理画像PB1が出力されるのは、処理画像PA1を1/3面分出力後からとなる。同様に伝送、画像処理C、表示でそれぞれ必要なフレームメモリ、ラインメモリ等を考慮して、それぞれの処理遅延を蓄積していった場合、撮像画像C1が、最終的に表示部で表示画像D1として表示開始される時刻はT1となる。 FIG. 4A shows accumulation of delay in image processing for moving image data at a frame rate of 60 fps. If set to 0 the start time of the imaging of the captured image C 1 of the imaging unit, the completion time of the acquisition of the captured image C 1 is the post 1/60 seconds. Subsequent image processing A If the image processing which requires a frame memory of one plane image, the image processing A is started, i.e. the processed image of PA 1 is output after acquisition completion of the captured image C 1 It will be from. Image processing B If a process that requires a line memory of the image 1/3 screen portion, the processing by the image processing B image PB 1 is output, the processed image PA 1 after 1/3 screen portion output It becomes. Similarly, when each processing delay is accumulated in consideration of frame memory, line memory, etc. necessary for transmission, image processing C, and display, respectively, the captured image C 1 is finally displayed on the display unit as a display image. time displayed initiated as D 1 becomes T1.
図4(b)はフレームレート30fpsの動画像データに対する画像処理における遅延の蓄積を示している。撮像部における撮像画像C1の撮像の開始時刻を0とした場合、撮像画像C1の取得の完了時刻は1/30秒後となる。続く、画像処理Aでは、上述したように画像1面分のフレームメモリを必要とするため、処理画像PA1が出力されるのは1/30以降となる。60fpsの場合と同様に画像処理B、伝送、画像処理C、表示でそれぞれ必要なフレームメモリ、ラインメモリ等を考慮して、各処理遅延を蓄積していった場合、撮像画像C1が、最終的に表示部で表示画像D1として表示開始される時刻はT2となる。 FIG. 4B shows accumulation of delay in image processing for moving image data of frame rate 30 fps. If set to 0 the start time of the imaging of the captured image C 1 of the imaging unit, the completion time of the acquisition of the captured image C 1 is the post 1/30 seconds. Subsequently, in the image processing A, since it requires a frame memory of the image one plane, as described above, it becomes 1/30 after the processed image PA 1 is output. As in the case of 60 fps, when each processing delay is accumulated in consideration of the image processing B, transmission, image processing C, frame memory required for display, line memory, etc., the captured image C 1 is final display start is the time as the display image D 1 becomes T2 in displaying unit.
以上のように、フレームレートが異なる動画像データに対して各種画像処理を行うことで、T2とT1の差分ΔTが生じることが確認できる。また、図4では省略して図示を行っているが、実際には、各処理ごとに必要となるメモリ分の遅延に加えて、各処理でかかる処理時間も遅延時間として蓄積される。例えば、各画像処理において動画像データのピクセルクロックを用いて処理が行われ、ピクセルクロック単位での処理遅延が生じるような場合には、ΔTの値はさらに大きくなる。 As described above, it is possible to confirm that the difference ΔT between T2 and T1 is generated by performing various image processing on moving image data having different frame rates. Further, although not shown in FIG. 4, in fact, in addition to the delay for the memory required for each process, the processing time required for each process is also accumulated as a delay time. For example, when processing is performed using a pixel clock of moving image data in each image processing, and processing delay in pixel clock units occurs, the value of ΔT becomes larger.
図5は、本発明の第1の実施形態における画像処理システムの撮像部から位置姿勢情報生成部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。 FIG. 5 is a diagram for explaining frame thinning processing and accumulation of delay in processing from the imaging unit to the position and orientation information generation unit of the image processing system according to the first embodiment of the present invention.
本実施の形態における画像処理システムは、HMD101の撮像部301のフレームレート、及び表示部324のフレームレートを60fpsとして説明を行う。
The image processing system in the present embodiment will be described assuming that the frame rate of the imaging unit 301 of the
撮像部301では左目用撮像画像CLn、右目用撮像画像CRn(nは1以上の整数)の撮像が行われる。1枚目の左目用撮像画像CL1、1枚目の右目用撮像画像CR1の撮像開始時刻を0とした場合、撮像画像CL1、CR1の取得の完了時刻は1/60秒後となる。 In the imaging unit 301, imaging of a left-eye captured image CL n and a right-eye captured image CR n (n is an integer of 1 or more) is performed. Assuming that the imaging start time of the first left-eye captured image CL 1 and the first right-eye captured image CR 1 is 0, the acquisition completion time of the captured images CL 1 and CR 1 is 1/60 seconds later. Become.
続く、HMD側撮像画像処理部303で左目用、右目用の撮像画像処理が並行して行われ、処理画像P1Ln、P1Rn(nは1以上の整数)が生成される。 Subsequently, in the HMD-side captured image processing unit 303, the captured image processing for the left eye and the right eye is performed in parallel, and processed images P 1 L n and P 1 R n (n is an integer of 1 or more) are generated.
HMD側間引処理部304では、HMD101から画像処理装置104への撮像画像の伝送データ量を削減するために左目用処理画像P1Lnから偶数フレームを、右目用処理画像P1Rnから奇数フレームをそれぞれ間引く処理を行う。この処理によって間引かれた処理画像P1L(2n−1)、P1R2n(nは1以上の整数)は後段の処理ブロックに時分割で出力される。ここでは、データ量を1/2に削減するために左右で偶数、奇数フレームをそれぞれ間引いて、交互に出力を行っているが、本実施の形態における間引処理はこれに限るものではなく、時分割出力が可能な範囲において任意のフレーム間引処理を行ってもよい。
In the HMD side thinning processing unit 304, even-numbered frames from the left-eye processed image P 1 L n and the right-eye processed image P 1 R n to reduce the transmission data amount of the captured image from the
HMD側共通撮像画像処理部306では、時分割出力される左目用撮像画像、右目用撮像画像に対して、共通の画像処理が実行され、処理画像P2L(2n−1)、P2R2n(nは1以上の整数)が生成される。このように、左目用撮像画像、右目用撮像画像に対して共通に実行される画像処理を間引処理の後段で行うことにより、時分割処理による回路の共通化、省電力化を実現することが可能となる。
The HMD-side common captured
続いて、HMD側インタフェース307、装置側インタフェース308を介して、伝送画像T1L(2n−1)、T1R2n(nは1以上の整数)の伝送が行われる。
Subsequently, transmission of transmission images T 1 L (2 n -1) and T 1 R 2 n (n is an integer of 1 or more) is performed via the
装置側共通撮像画像処理部309では、HMD側共通撮像画像処理部306と同様に時分割で伝送されるT1L(2n−1)、T1R2n(nは1以上の整数)に対して、共通の画像処理が実行される。それにより、処理画像P3L(2n−1)、P3R2n(nは1以上の整数)が生成される。
In the device-side common captured
続く、撮像フレームメモリ311Lには左目用処理画像P3L(2n−1)が、撮像フレームメモリ311Rには右目用処理画像P3R2nがそれぞれ格納される。撮像フレームメモリ311からは60fpsの周期で処理画像が出力されるため、後段の処理ブロックにはおなじ処理画像が2回続けて出力される。
Subsequently, the left-eye processed image P 3 L (2n−1) is stored in the
装置側撮像画像処理部312では、HMD側撮像画像処理部303と同様に左目用、右目用の撮像画像処理が並行して行われ、処理画像P4L(2n−1)、P4R2n(nは1以上の整数)が生成される。 In the apparatus-side captured image processing unit 312, similarly to the HMD-side captured image processing unit 303, the captured image processing for the left eye and the right eye is performed in parallel, and the processed images P 4 L (2 n -1) and P 4 R 2 n (N is an integer of 1 or more) is generated.
位置姿勢情報生成部313では、処理画像P4L(2n−1)、P4R2n、及び位置姿勢センサ302で取得されたセンサ情報を用いてHMD101の三次元位置姿勢情報を算出する。そして、処理画像P5L(2n−1)、P5R2n(nは1以上の整数)が後段へ出力される。
The position and orientation
以上の撮像画像処理の流れによって、撮像部で左目用の撮像画像CL1の取得が開始されてから、位置姿勢情報生成部で位置姿勢情報と対応づけられた処理画像P5L1の出力が開始されるまでの処置遅延はTCとなる。 After acquisition of the left-eye captured image CL 1 is started by the imaging unit according to the flow of the above-described captured image processing, the output of the processed image P 5 L 1 correlated with the position and orientation information by the position and orientation information generation unit The treatment delay before starting is T c .
図6は、本発明の第1の実施形態における画像処理システムのCG描画合成部から表示部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。 FIG. 6 is a diagram for explaining frame thinning processing and accumulation of delay in processing from the CG rendering / synthesizing unit to the display unit of the image processing system according to the first embodiment of the present invention.
CG描画合成部315では、三次元位置姿勢情報に基づいたCG画像の描画と、左目用、右目用処理画像P5L(2n−1)、P5R2nとの合成処理を行い、左目用MR画像MRL(2n−1)、右目用MR画像MRR2n(nは1以上の整数)を生成する。 The CG rendering composition unit 315 performs rendering processing of rendering of a CG image based on three-dimensional position and orientation information, and processing images P 5 L (2 n -1) and P 5 R 2 n for the left eye and the right eye. An MR image MRL (2n-1) and a right-eye MR image MRR 2n (n is an integer of 1 or more) are generated.
装置側表示画像処理部316では、左目用、右目用の表示画像処理が並行して行われ、処理画像P6L(2n−1)、P6R2n(nは1以上の整数)が生成される。 In the apparatus-side display image processing unit 316, display image processing for the left eye and right eye is performed in parallel to generate processed images P 6 L (2 n -1) and P 6 R 2 n (n is an integer of 1 or more). Be done.
装置側間引処理部317では、画像処理装置104からHMD101への表示画像の伝送データ量を削減するために左目用処理画像P6L(2n−1)、右目用処理画像P6R2nから偶数フレームをそれぞれ間引く処理を行う。この処理によって間引かれた処理画像P6L(2n−1)、P6R2nは後段の処理ブロックに時分割で出力される。
In the device-side thinning process section 317, for the left eye in order to reduce the transmission data amount of the display image from the
装置側共通表示画像処理部319では、時分割出力される左目用表示画像、右目用表示画像に対して、共通の画像処理が実行され、処理画像P7L(2n−1)、P7R2n(nは1以上の整数)が生成される。
In the device-side common display
続いて、装置側インタフェース308、HMD側インタフェース307を介して、伝送画像T2L(2n−1)、T2R2n(nは1以上の整数)の伝送が行われる。
Subsequently, transmission of transmission images T 2 L (2 n -1) and T 2 R 2 n (n is an integer of 1 or more) is performed via the
HMD側共通表示画像処理部320では、装置側共通表示画像処理部319と同様に時分割で伝送されるT2L(2n−1)、T2R2nに対して、共通の画像処理が実行され、処理画像P8L(2n−1)、P8R2n(nは1以上の整数)が生成される。
The HMD-side common display
続く、表示フレームメモリ322Lには左目用処理画像P8L(2n−1)が、表示フレームメモリ322Rには右目用処理画像P8R2nがそれぞれ格納される。表示フレームメモリ322からは60fpsの周期で処理画像が出力されるため、後段の処理ブロックにはおなじ処理画像が2回続けて出力される。
Subsequently, the left-eye processed image P 8 L (2n−1) is stored in the
HMD側表示画像処理部323では、装置側表示画像処理部316と同様に左目用、右目用の表示画像処理が並行して行われ、処理画像P9L(2n−1)、P9R2n(nは1以上の整数)が生成される。 In the HMD-side display image processing unit 323, as in the device-side display image processing unit 316, display image processing for the left eye and the right eye is performed in parallel, and the processed images P 9 L (2 n-1) and P 9 R 2 n (N is an integer of 1 or more) is generated.
表示部324では、処理画像P9L(2n−1)、P9R2nが、それぞれ左目用表示画像DL(2n−1)、右目用表示画像DR2n(nは1以上の整数)として表示される。 In the display unit 324, the processed images P 9 L (2 n -1) and P 9 R 2 n are displayed as the left-eye display image DL (2 n-1) and the right-eye display image DR 2 n (n is an integer of 1 or more). Be done.
以上の表示画像処理の流れによって、撮像部で左目用の撮像画像CL1の取得が開始されてから、最終的に表示部において表示画像DL1として表示が開始されるまでの処置遅延はTDとなる。 By the flow of the above display image processing, from the acquired captured image CL 1 for the left eye is started by the imaging unit, treatment delay to display as a display image DL 1 in the final display unit is started T D It becomes.
ここで注目するべきは、HMD101と画像処理装置104間で伝送される画像データ量は撮像画像、表示画像ともに30fpsと同等に落とされているということである。しかしながら、撮像から表示に至るまでの全ての処理は60fpsで実行されているため、フレームレート変換後に30fpsで画像処理を行った場合に比べ、フレームメモリやラインメモリによる遅延時間の蓄積を抑えることが可能となっている。
It should be noted here that the amount of image data transmitted between the
以上の構成を有することにより、本実施の形態における画像処理システムは、左目用、右目用画像間でのフレーム間引処理、及び時分割出力を行い、各処理における遅延時間の蓄積を抑えつつ、動画像データの伝送データ量を削減することが可能である。また、間引処理後の動画像データは時分割出力されているため、後段の画像処理を左目用画像と右目用画像で共用することが可能となり、回路規模の削減、省電力化を実現することができる。 By having the above configuration, the image processing system according to the present embodiment performs frame thinning processing and time division output between left-eye and right-eye images, while suppressing accumulation of delay time in each processing. It is possible to reduce the amount of transmission data of moving image data. In addition, since moving image data after thinning processing is output in time division, it is possible to share the image processing of the latter stage with the image for the left eye and the image for the right eye, thereby realizing reduction in circuit size and power saving. be able to.
[第2の実施形態]
本発明を実現するのに好適な第2の実施の形態を図に従って説明する。第1の実施形態では、左目用画像データの偶数フレーム、右目用画像データの奇数フレームをそれぞれ間引処理していた。しかし、第1の実施形態では、位置姿勢情報生成部において三次元位置姿勢情報算出に用いられる左目用撮像画像と右目用撮像画像、及び表示部において表示される左目用表示画像と、右目用表示画像の生成時刻にズレが生じるという問題がある。これを解決する手段として、本実施形態では、間引処理のタイミングを左目用画像と右目用画像で同期させる例を説明する。なお、第1の実施形態と重複する部分については説明を省略する。
Second Embodiment
A second embodiment suitable for realizing the present invention will be described with reference to the drawings. In the first embodiment, the even frames of the left-eye image data and the odd frames of the right-eye image data are respectively thinned out. However, in the first embodiment, the left-eye captured image and the right-eye captured image used for calculating the three-dimensional position and orientation information in the position and orientation information generation unit, the left-eye display image displayed on the display unit, and the right-eye display There is a problem that a shift occurs in the generation time of the image. As a means for solving this, in the present embodiment, an example will be described in which the timing of the thinning process is synchronized between the image for the left eye and the image for the right eye. The description of the parts overlapping with the first embodiment will be omitted.
図7は、本発明の第2の実施形態における画像処理システムの構成の一例を示す図である。本発明の第2の実施形態における画像処理システムは、以下の構成を有するHMD101、及び画像処理装置104で構成される。HMD101は、撮像部301、位置姿勢センサ302、HMD側撮像画像処理部303、HMD側間引処理部304、HMD側撮像画像制御部305、HMD側共通撮像画像処理部306を有する。また、HMD側I/F(インタフェース)307、HMD側共通表示画像処理部320、HMD側表示画像制御部321、表示フレームメモリ322、HMD側表示画像処理部323、表示部324を有する。
FIG. 7 is a diagram showing an example of the configuration of an image processing system according to the second embodiment of the present invention. The image processing system according to the second embodiment of the present invention includes an
画像処理装置104は、装置側I/F308、装置側共有撮像画像処理部309、装置側撮像画像制御部310、撮像フレームメモリ311、装置側撮像画像処理部312、位置姿勢情報生成部313を有する。また、奥行情報生成部701、コンテンツDB(データベース)314、CG描画合成部315、装置側表示画像処理部316、装置側間引処理部317、装置側表示画像制御部318、装置側共通表示画像処理部319を有する。
The
HMD側I/F307及び装置側I/F308は、それぞれ送信部と受信部を有する。また、各ブロック名の末尾のL、またはRの表記は、それぞれ左目用動画像データの処理、右目用動画像データの処理を行うことを意味する。
The HMD-side I /
本実施の形態における画像処理システムは、画像処理装置104に奥行情報生成部701を有しており、奥行情報を考慮して撮像画像とCG画像の合成を行うことを特徴としている。以下、この点に関して説明する。
The image processing system according to the present embodiment has a depth
画像処理装置104の位置姿勢情報生成部313は、HMD101の位置姿勢センサ302で取得したセンサ情報、撮像部301で取得した撮像画像、あるいはその両方の情報からHMD101の三次元位置姿勢情報を算出する。
The position and orientation
奥行情報生成部701は、左目用、右目用の撮像画像の中から奥行検出対象となる任意の被写体を抽出し、三角測量の原理を用いたステレオ法により被写体の奥行情報を算出する。撮像画像の中から被写体を検出する方法としては、マーカー形状や特徴点等を検出して用いる方法や、カラーマーカーや衣服、肌色等の色情報を検出して用いる方法などがあり、それらを組み合わせて検出精度をより向上させることも可能である。
The depth
CG描画合成部315は、三次元位置姿勢情報と奥行情報に基づいてCG画像の描画、撮像画像との合成を実行し、MR体験用の表示画像を生成する。 The CG rendering / synthesizing unit 315 performs rendering of a CG image and synthesis with a captured image based on three-dimensional position and orientation information and depth information to generate a display image for MR experience.
以上の構成により、HMD101の装着者は、撮像画像中の任意の被写体とCG画像との奥行関係を考慮して合成された臨場感の高いMR画像を体験することが可能となる。
With the above configuration, the wearer of the
なお、画像処理システムの構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。 In addition, although the component of an image processing system exists also except the above, since it is not the main point of this invention, description is abbreviate | omitted.
図8は、奥行情報を考慮した画像合成について説明する図である。図8(a)は、MR体験の対象となるシーンを模式的に示した図である。体験者が手801を動かしてCGオブジェクト802とインタクラクションしているところをHMD101の撮像部で撮像している。なお、以下では、CGオブジェクト802とのインタラクションを行う被写体が手801だとして説明を行うが、本発明はこれに限定されず、任意の被写体に適用可能である。
FIG. 8 is a diagram for explaining image composition in consideration of depth information. FIG. 8A is a view schematically showing a scene to be subjected to the MR experience. The image capturing unit of the
図8(b)、及び図8(c)は、MR体験においてHMD101の表示部に表示される映像を模式的に示す図である。MR体験において、体験者が実際にCGオブジェクト802が存在しているように感じるには、手801とCGオブジェクト802との前後関係を考慮した上で、CGオブジェクト802のCG画像を描画、合成する必要がある。つまり、HMD101から見て、手801がCGオブジェクト802よりも手前にある場合は、図2(b)のように手801でCGオブジェクト802を隠して表示する必要がある。一方で、手801がCGオブジェクト802よりも奥にある場合には、図2(c)のようにCGオブジェクト802で手801を隠して表示する必要がある。本発明では、このような表示を行うためにHMD101の撮像部で取得された撮像画像の中から手801の領域を抽出し、その領域の奥行情報に応じて、その領域にCGオブジェクト802のCG画像を上書き描画するか否かを判定する。手801の領域の抽出では、事前に手801の色領域を登録しておき、映像中に登録した色の画素が現れた時に、その画素を手801として抽出する。
FIGS. 8B and 8C are diagrams schematically showing an image displayed on the display unit of the
図9は、左目用、右目用の撮像画像中に含まれる任意の被写体の奥行情報生成を説明する図である。図9では、HMD101の左目用の撮像部301Lにより取得された左目用撮像画像901L、及びHMD101の右目用の撮像部301Rにより取得された右目用撮像画像901Rをそれぞれ示している。
FIG. 9 is a diagram for explaining depth information generation of an arbitrary subject included in captured images for the left eye and the right eye. FIG. 9 shows a left-eye captured
ここで、左目用撮像画像901Lにおける任意の被写体902の点Pl1の撮像画像面内における座標を(Xl1,Yl1)とする。同様に右目用撮像画像901Rにおける前記左目用撮像画像内の点Pl1に相当する対応点を点Pr1とし、点Pr1の撮像画像面内の座標を(Xr1,Yr1)とする。前記対応点は画像処理による各種ステレオマッチング手法を用いることで探索可能である。ここで、左目用の撮像部301Lと右目用の撮像部301R間の基線長をB、各撮像デバイスに光学像を結像している撮像光学系の焦点距離をfとする。この時、点Pl1及びPr1の奥行情報Z1は、三角測量の原理を用いたステレオ法によりZ1=B・f/|Xl1−Xr1|の関係式で求めることができる。上記の奥行情報生成を行うためには、左目用撮像画像901Lと右目用撮像画像901Rの取得タイミングが同時であることが求められる。
Here, it is assumed that coordinates of a point Pl1 of an
図10は、本発明の第2の実施形態における画像処理システムの撮像部から奥行情報生成部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。 FIG. 10 is a diagram for explaining frame skipping processing and accumulation of delay in processing from the imaging unit to the depth information generation unit of the image processing system according to the second embodiment of the present invention.
本実施の形態における画像処理システムは、第1の実施の形態と同様、HMD101の撮像部301のフレームレート、及び表示部324のフレームレートを60fpsとして説明を行う。
As in the first embodiment, the image processing system according to the present embodiment will be described assuming that the frame rate of the imaging unit 301 of the
撮像部301、HMD側撮像画像処理部303における処理は第1の実施の形態と同様のため説明を省略する。 The processes in the imaging unit 301 and the HMD side captured image processing unit 303 are the same as in the first embodiment, and thus the description thereof is omitted.
HMD側間引処理部304では、HMD101から画像処理装置104への撮像画像の伝送データ量を削減するために左目用処理画像P1Ln、右目用処理画像P1Rnから偶数フレームをそれぞれ間引く処理を行う。この処理によって間引かれた処理画像P1L(2n−1)、P1R(2n−1)(nは1以上の整数)は後段の処理ブロックに時分割で出力される。ここでは、左目用処理画像P1L(2n−1)と右目用処理画像P1R(2n−1)が同じタイミングで処理される。そのため、後段の処理ブロックに時分割で出力するために左目用処理画像P1L(2n−1)出力中に、右目用処理画像P1R(2n−1)を不図示のフレームメモリへ格納する処理を行う。そして、左目用処理画像P1L(2n−1)の出力後に、右目用処理画像P1R(2n−1)をフレームメモリから読み出して出力することで、左目用と右目用の処理画像の時分割出力を実施する。また、データ量を1/2に削減するために左右ともに偶数フレームを間引いて、交互に出力を行っているが、本実施の形態における間引処理はこれに限るものではなく、時分割出力が可能な範囲において任意のフレーム間引処理を行ってもよい。
The HMD-side thinning processing unit 304 respectively processes even-numbered frames from the left-eye processed image P 1 L n and the right-eye processed image P 1 R n in order to reduce the transmission data amount of the captured image from the
HMD側共通撮像画像処理部306では、時分割出力される左目用処理画像P1L(2n−1)、右目用処理画像P1R(2n−1)に対して、共通の画像処理が実行され、処理画像P2L(2n−1)、P2R(2n−1)(nは1以上の整数)が生成される。このように、左目用撮像画像、右目用撮像画像に対して共通に実行される画像処理を間引処理の後段で行うことにより、時分割処理による回路の共通化、省電力化を実現することが可能となる。
The HMD-side common captured
続いて、HMD側インタフェース307、装置側インタフェース308を介して、伝送画像T1L(2n−1)、T1R(2n−1)(nは1以上の整数)の伝送が行われる。
Subsequently, transmission of transmission images T 1 L (2 n -1) and T 1 R (2 n -1) (n is an integer of 1 or more) is performed via the
装置側共通撮像画像処理部309では、HMD側共通撮像画像処理部306と同様に時分割で伝送されるT1L(2n−1)、T1R(2n−1)(nは1以上の整数)に対して、共通の画像処理が実行される。これにより、処理画像P3L(2n−1)、P3R(2n−1)(nは1以上の整数)が生成される。
In the device-side common captured
続く、撮像フレームメモリ311Lには左目用処理画像P3L(2n−1)が、撮像フレームメモリ311Rには右目用処理画像P3R(2n−1)がそれぞれ格納される。撮像フレームメモリ311からは60fpsの周期で処理画像が出力されるため、後段の処理ブロックにはおなじ処理画像が2回続けて出力される。
Subsequently, the left-eye processed image P 3 L (2n−1) is stored in the
装置側撮像画像処理部312では、HMD側撮像画像処理部303と同様に左目用、右目用の撮像画像処理が並行して行われ、処理画像P4L(2n−1)、P4R(2n−1)(nは1以上の整数)が生成される。 In the apparatus-side captured image processing unit 312, similarly to the HMD-side captured image processing unit 303, the captured image processing for the left eye and the right eye is performed in parallel, and the processed images P 4 L (2 n -1) and P 4 R ( 2n-1) (n is an integer of 1 or more) is generated.
位置姿勢情報生成部313では、処理画像P4L(2n−1)、P4R(2n−1)、及び位置姿勢センサ302で取得されたセンサ情報を用いてHMD101の三次元位置姿勢情報を算出する。そして、処理画像P5L(2n−1)、P5R(2n−1)(nは1以上の整数)が後段へ出力される。
The position and orientation
奥行情報生成部701では、左目用、右目用の処理画像P5L(2n−1)、P5R(2n−1)を用いて、撮像画像中の任意の被写体の奥行情報を算出し、処理画像P6L(2n−1)、P6R(2n−1)(nは1以上の整数)が後段へ出力される。
The depth
以上の撮像画像処理の流れによって、撮像部で左目用の撮像画像CL1の取得が開始されてから、奥行情報生成部で奥行情報と対応づけられた処理画像P6L1の出力が開始されるまでの処置遅延はTCとなる。 After the acquisition of the left-eye captured image CL 1 is started in the imaging unit by the flow of the above-described captured image processing, the output of the processed image P 6 L 1 associated with the depth information is started in the depth information generation unit The treatment delay until t is T c .
図11は、本発明の第2の実施形態における画像処理システムのCG描画合成部から表示部までの処理におけるフレーム間引処理と遅延の蓄積について説明する図である。 FIG. 11 is a diagram for explaining frame skipping processing and delay accumulation in processing from the CG rendering / synthesis unit to the display unit of the image processing system according to the second embodiment of the present invention.
CG描画合成部315では、三次元位置姿勢情報に基づいたCG画像の描画と、左目用、右目用処理画像P6L(2n−1)、P6R(2n−1)との合成処理を行う。これにより、左目用MR画像MRL(2n−1)、右目用MR画像MRR(2n−1)(nは1以上の整数)を生成する。 The CG rendering / combining unit 315 composes a rendering of a CG image based on three-dimensional position and orientation information, and processing of the left-eye and right-eye processed images P 6 L (2 n -1) and P 6 R (2 n -1) Do. As a result, the left-eye MR image MRL (2n-1) and the right-eye MR image MRR (2n-1) (where n is an integer of 1 or more) are generated.
装置側表示画像処理部316では、左目用、右目用の表示画像処理が並行して行われ、処理画像P7L(2n−1)、P7R(2n−1)(nは1以上の整数)が生成される。 In the apparatus-side display image processing unit 316, display image processing for the left eye and right eye is performed in parallel, and the processed images P 7 L (2 n -1) and P 7 R (2 n -1) (n is 1 or more ) Integer) is generated.
装置側間引処理部317では、画像処理装置104からHMD101への表示画像の伝送データ量を削減するために左目用処理画像P7L(2n−1)、右目用処理画像P7R(2n−1)から偶数フレームをそれぞれ間引く処理を行う。この処理によって間引かれた処理画像P7L(2n−1)、P7R(2n−1)は後段の処理ブロックに時分割で出力される。
The apparatus-side decimation unit 317 processes the left-eye processed image P 7 L (2n−1) and the right-eye processed image P 7 R (2n ) to reduce the amount of transmission data of the display image from the
装置側共通表示画像処理部319では、時分割出力される左目用表示画像、右目用表示画像に対して、共通の画像処理が実行され、処理画像P8L(2n−1)、P8R(2n−1)(nは1以上の整数)が生成される。
In the device-side common display
続いて、装置側インタフェース308、HMD側インタフェース307を介して、伝送画像T2L(2n−1)、T2R(2n−1)(nは1以上の整数)の伝送が行われる。
Subsequently, transmission of transmission images T 2 L (2 n -1) and T 2 R (2 n -1) (n is an integer of 1 or more) is performed via the
HMD側共通表示画像処理部320では、装置側共通表示画像処理部319と同様に時分割で伝送されるT2L(2n−1)、T2R(2n−1)に対して、共通の画像処理が実行される。これにより、処理画像P9L(2n−1)、P9R(2n−1)(nは1以上の整数)が生成される。
In the HMD side common display
続く、表示フレームメモリ322Lには左目用処理画像P9L(2n−1)が、表示フレームメモリ322Rには右目用処理画像P9R(2n−1)がそれぞれ格納される。表示フレームメモリ322からは60fpsの周期で処理画像が出力されるため、後段の処理ブロックにはおなじ処理画像が2回続けて出力される。
Subsequently, the left-eye processed image P 9 L (2n−1) is stored in the
HMD側表示画像処理部323では、装置側表示画像処理部316と同様に左目用、右目用の表示画像処理が並行して行われ、処理画像P10L(2n−1)、P10R(2n−1)(nは1以上の整数)が生成される。 In the HMD-side display image processing unit 323, as in the device-side display image processing unit 316, the display image processing for the left eye and the right eye is performed in parallel, and the processed images P 10 L (2 n -1) , P 10 R ( 2n-1) (n is an integer of 1 or more) is generated.
表示部324では、処理画像P10L(2n−1)、P10R(2n−1)が、それぞれ左目用表示画像DL(2n−1)、右目用表示画像DR(2n−1)(nは1以上の整数)として表示される。 In the display unit 324, the processing image P 10 L (2n-1) , P 10 R (2n-1) , respectively displaying the left-eye image DL (2n-1), the right-eye display image DR (2n-1) (n Is displayed as an integer of 1 or more).
以上の表示画像処理の流れによって、撮像部で左目用の撮像画像CL1の取得が開始されてから、最終的に表示部において表示画像DL1として表示が開始されるまでの処置遅延はTDとなる。 By the flow of the above display image processing, from the acquired captured image CL 1 for the left eye is started by the imaging unit, treatment delay to display as a display image DL 1 in the final display unit is started T D It becomes.
ここでも、第1の実施形態における画像処理システムと同様に、HMD101と画像処理装置104間で伝送される画像データ量は撮像画像、表示画像ともに30fpsと同等に落とされている。しかしながら、撮像から表示に至るまでの全ての処理は60fpsで実行されているため、フレームレート変換後に30fpsで画像処理を行った場合に比べ、フレームメモリやラインメモリによる遅延時間の蓄積が抑えられる。
Here, as in the image processing system in the first embodiment, the amount of image data transmitted between the
さらに、本実施の形態における画像処理システムでは、フレーム間引処理のタイミングを左目用画像と右目用画像で同期させていることに特徴を有する。これにより、位置姿勢情報生成部、及び奥行情報生成部において情報算出に用いられる左目用と右目用の撮像画像、及び表示部において表示される左目用と右目用の表示画像の生成時刻を1/30秒の周期で一致させることができる。左目用と右目用の撮像画像の生成時刻が一致することで、撮像画像中の任意の被写体の奥行情報が算出でき、HMD101の装着者は、
以上の構成を有することにより、本実施の形態における画像処理システムは、第1の実施形態における画像処理システムと同様に、各処理における遅延時間の蓄積を抑えつつ、動画像データの伝送データ量を削減することが可能である。また、間引処理後の動画像データは時分割出力されているため、後段の画像処理を左目用画像と右目用画像で共用することが可能となり、回路規模の削減、省電力化を実現することができる。さらに、左目用と右目用の画像データの生成タイミングが一致するように、フレーム間引処理のタイミング制御を行うことで、被写体とCGオブジェクトとの奥行関係が考慮された臨場感の高いMR画像を体験することが可能となる。
Furthermore, the image processing system according to the present embodiment is characterized in that the timing of frame thinning processing is synchronized between the image for the left eye and the image for the right eye. Thereby, the generation times of the left-eye and right-eye captured images used for information calculation in the position and orientation information generation unit and the depth information generation unit, and the left-eye and right-eye display images displayed on the display unit It can be made to coincide in a cycle of 30 seconds. When the generation times of the captured image for the left eye and for the right eye coincide with each other, depth information of any subject in the captured image can be calculated, and the wearer of the
By having the above configuration, the image processing system according to the present embodiment, like the image processing system according to the first embodiment, reduces the amount of transmission data of moving image data while suppressing the accumulation of delay time in each process. It is possible to reduce. In addition, since moving image data after thinning processing is output in time division, it is possible to share the image processing of the latter stage with the image for the left eye and the image for the right eye, thereby realizing reduction in circuit size and power saving. be able to. Furthermore, by performing timing control of frame thinning processing so that the generation timings of left-eye and right-eye image data coincide, a highly realistic MR image in which the depth relationship between the subject and the CG object is considered. It becomes possible to experience.
[第3の実施形態]
本発明を実現するのに好適な第3の実施の形態を図に従って説明する。なお、第1、第2の実施形態と重複する部分については説明を省略する。
Third Embodiment
A third embodiment suitable for realizing the present invention will be described with reference to the drawings. The description of the parts overlapping with the first and second embodiments will be omitted.
第1、第2の実施形態ではHMD101と画像処理装置104間のデータ伝送に関して、有線、無線の接続方式を問わず、伝送データ量を削減するためにHMD101、画像処理装置104内でそれぞれフレーム間引処理を行う構成について説明を行った。本実施形態では、HMD101と画像処理装置104間の接続をケーブルを用いた有線接続と、無線ボックスを介しての無線接続のどちらも行うことが可能な構成について説明する。無線接続では、HMD101、画像処理装置104間を直接接続するケーブルが不要となり、HMD装着者の移動の自由度を向上させることができるというメリットがある。一方で有線接続では、無線接続と比較して一般的に広帯域伝送が可能なため、画像符号化やフレームレート変換等のデータ量削減手法を用いることなく、より高画質なMR画像を提供することができるというメリットがある。
In the first and second embodiments, regarding data transmission between the
図12、13は、本発明の第3の実施形態における画像処理システムの構成の一例を示す図である。 12 and 13 are diagrams showing an example of the configuration of an image processing system according to the third embodiment of the present invention.
本発明の第3の実施形態における画像処理システムは、HMD101とHMD側無線ボックス1301、装置側無線ボックス1302、画像処理装置104で構成される。HMD101、HMD側無線ボックス1301、装置側無線ボックス1302、画像処理装置104は、それぞれ以下の構成を有する。
The image processing system according to the third embodiment of the present invention includes an
HMD101は、撮像部301、位置姿勢センサ302、HMD内撮像画像処理部1201、HMD内有線I/F1202、HMD内表示画像処理部1203、表示部324を有する。
The
HMD側無線ボックス1301は、HMD側有線I/F1303、HMD側撮像画像処理部303、HMD側間引処理部304、HMD側撮像画像制御部305、HMD側共通撮像画像処理部306を有する。また、HMD側無線I/F1304、HMD側共通表示画像処理部320、HMD側表示画像制御部321、表示フレームメモリ322、HMD側表示画像処理部323、表示部324を有する。
The HMD-
装置側無線ボックス1302は、装置側無線I/F1305、装置側共有撮像画像処理部309、装置側撮像画像制御部310、撮像フレームメモリ311、装置側撮像画像処理部312、装置側有線I/F1306を有する。また、装置側表示画像処理部316、装置側間引処理部317、装置側表示画像制御部318、装置側共通表示画像処理部319を有する。
The device-
画像処理装置104は、装置内有線I/F1204、装置内撮像画像処理部1205、位置姿勢情報生成部313、コンテンツDB314、CG描画合成部315、装置内表示画像処理部1206を有する。
The
HMD内有線I/F1202、装置内有線I/F1204、HMD側有線I/F1303、HMD側無線I/F1304、装置側無線I/F1305、装置側有線I/F1306は、それぞれ送信部と受信部を有する。また、各ブロック名の末尾のL、またはRの表記は、それぞれ左目用動画像データの処理、右目用動画像データの処理を行うことを意味する。
The HMD internal I /
図12は、本発明の第3の実施形態における画像処理システムのHMDと画像処理装置間のデータ伝送をケーブルを用いた有線伝送で行う構成について説明する図である。 FIG. 12 is a diagram for explaining a configuration in which data transmission between the HMD and the image processing apparatus of the image processing system according to the third embodiment of the present invention is performed by wired transmission using a cable.
HMD101の撮像部301は、HMD装着者の左目、右目のそれぞれの視線位置と略一致した視差を有するステレオ画像として、現実空間の撮像画像を取得する。
The imaging unit 301 of the
位置姿勢センサ302は、HMD装着者の視点の位置、方向に関する三次元位置姿勢情報を算出するための情報を取得する。
The position and
HMD内撮像画像処理部1201は、撮像部で取得された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。 The in-HMD captured image processing unit 1201 performs image processing on the left-eye captured image and the right-eye captured image acquired by the imaging unit using a plurality of image processing circuits.
HMD内有線I/F1202は、画像処理装置104の装置内有線I/F1204との通信により、左目用撮像画像、右目用撮像画像、及び位置姿勢センサ302で取得したセンサ情報の送信を行う。また、表示部324で表示するための表示画像の受信、その他制御信号の送受信を行う。
The in-HMD wired I /
HMD内表示画像処理部1203は、左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。 The in-HMD display image processing unit 1203 performs image processing on the display image for the left eye and the display image for the right eye by a plurality of image processing circuits.
表示部324は、CGが重畳されたMR画像をHMD装着者の左目、右目にそれぞれ表示するものである。 The display unit 324 displays an MR image on which CG is superimposed on the left eye and the right eye of the HMD user.
画像処理装置104の装置内有線I/F1204は、HMD101のHMD内有線I/F1202との通信により、左目用、右目用の撮像画像、及びセンサ情報の受信と、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。
The intra-apparatus wired I /
装置内撮像画像処理部1205は、左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。装置内撮像画像処理部1205と、HMD内撮像画像処理部1201とで実行する画像処理は、処理負荷や処理順序を鑑みて、それぞれに分散させることが望ましい。 The in-device captured image processing unit 1205 performs image processing on the captured image for the left eye and the captured image for the right eye by a plurality of image processing circuits. It is desirable that the image processing performed by the in-device captured image processing unit 1205 and the in-HMD captured image processing unit 1201 be distributed to each in consideration of the processing load and the processing order.
位置姿勢情報生成部313は、位置姿勢センサ302で取得したセンサ情報や、撮像部301で取得した撮像画像情報、あるいはその両方の情報からHMD101の三次元位置姿勢情報を算出する。
The position and orientation
コンテンツDB314は、CG描画用のコンテンツを格納するデータベースである。CG描画合成部315は、三次元位置姿勢情報に基づいて、CG画像の描画、及び撮像画像とCG画像の合成を実行し、MR体験用の表示画像を生成する。
The
装置内表示画像処理部1206は、CG描画合成部で生成された左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。装置内表示画像処理部1206と、HMD内表示画像処理部1203との間で実行する画像処理は、処理負荷や処理順序を鑑みて、をそれぞれ分散させることが望ましい。 The in-apparatus display image processing unit 1206 performs image processing on the display image for the left eye and the display image for the right eye generated by the CG rendering synthesis unit by a plurality of image processing circuits. It is desirable that image processing performed between the in-device display image processing unit 1206 and the in-HMD display image processing unit 1203 be dispersed in consideration of processing load and processing order.
以上の構成により、HMD101と画像処理装置104間のデータ伝送をケーブルを用いた広帯域な有線伝送で実現することが可能となる。これにより、例えば、60fpsのフレームレートを有する撮像画像、及び表示画像のフレームレートを低下させることなく伝送することが可能となり、HMD101の装着者は、より臨場感の高いMR画像を体験することが可能となる。
With the above configuration, data transmission between the
なお、本実施の形態における画像処理システムは、第2の実施の形態における画像処理システムと同様に、画像処理装置104に奥行情報生成部を有する構成としてもよい。また、画像処理システムの構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
The image processing system in the present embodiment may be configured to have a depth information generation unit in the
図13は、本発明の第3の実施形態における画像処理システムのHMDと画像処理装置間のデータ伝送をHMD側無線ボックス、装置側無線ボックス介しての無線伝送で行う構成について説明する図である。なお、HMD101、画像処理装置104に関して、図12の構成と同様の説明については省略する。
FIG. 13 is a diagram for explaining a configuration in which data transmission between the HMD and the image processing apparatus of the image processing system in the third embodiment of the present invention is performed by wireless transmission via the HMD side radio box and the apparatus side radio box. . With regard to the
HMD101のHMD内有線I/F1202は、HMD側無線ボックス1301のHMD側有線I/F1303との通信により、左目用、右目用の撮像画像、及びセンサ情報の送信を行う。また、表示部324で表示するための表示画像の受信、その他制御信号の送受信を行う。
The HMD internal wired I /
HMD側無線ボックス1301のHMD側有線I/F1303は、HMD101のHMD内有線I/F1202との通信により、左目用、右目用の撮像画像、及びセンサ情報の受信を行う。また、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。
The HMD side wired I /
HMD側撮像画像処理部303は、撮像部で取得された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用撮像画像と右目用撮像画像で別々のパラメータを用いる処理であることが望ましい。
The HMD-side captured image processing unit 303 performs image processing on the left-eye captured image and the right-eye captured image acquired by the imaging unit using a plurality of image processing circuits. It is desirable that the image processing performed here is processing unique to the HMD
HMD側間引処理部304は、左目用撮像画像、右目用撮像画像に対して、データ量を削減するためのフレーム間引処理を行う。 The HMD-side decimation processing unit 304 performs frame decimation processing for reducing the amount of data on the left-eye captured image and the right-eye captured image.
HMD側撮像画像制御部305は、HMD側間引処理部によるフレーム間引処理の間隔、タイミングの制御、及びフレーム間引処理後の左目用、右目用の撮像画像をフレーム単位での時分割で後段のHMD側共通撮像画像処理部306へ送る制御を行う。
The HMD-side captured
HMD側共通撮像画像処理部306は、フレーム間引処理後の左目用、右目用の撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。例えば、解像度変換や色空間変換、あるいは画像符号化などのような処理が挙げられる。
The HMD-side common captured
HMD側無線I/F1304は、装置側無線ボックス1302の装置側無線I/F1305との無線通信により、左目用撮像画像、右目用撮像画像、及びセンサ情報の送信と、表示部324で表示するための表示画像の受信、その他制御信号の送受信を行う。
The HMD-side wireless I / F 1304 transmits the captured image for the left eye, the captured image for the right eye, and the sensor information by wireless communication with the device-side wireless I /
HMD側共通表示画像処理部320は、フレーム間引処理後の左目用、右目用の表示画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用表示画像と右目用表示画像で同一のパラメータを用いることのできる処理が望ましい。例えば、解像度変換や色空間変換、あるいは画像復号化などのような処理が挙げられる。
The HMD-side common display
HMD側表示画像制御部321は、フレーム間引処理後の左目用、右目用の表示画像をそれぞれ左目用、右目用の表示フレームメモリ322に分配する。そして、表示部324において表示可能なフレームレートに合わせて、表示フレームメモリから表示画像を出力する制御を行う。
The HMD-side display
表示フレームメモリ322は、左目用表示画像、右目用表示画像をそれぞれ格納し、HMD側表示画像制御部321の制御に基づき、HMD側表示画像処理部323に表示画像を出力する。
The display frame memory 322 stores the display image for the left eye and the display image for the right eye, and outputs the display image to the HMD display image processing unit 323 under the control of the HMD display
HMD側表示画像処理部323は、左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用表示画像と右目用表示画像で別々のパラメータを用いる処理が望ましい。
The HMD-side display image processing unit 323 performs image processing on the display image for the left eye and the display image for the right eye by a plurality of image processing circuits. As image processing performed here, processing specific to the HMD
装置側無線ボックス1302の装置側無線I/F1305は、HMD側無線ボックス1301のHMD側無線I/F1304との無線通信により、左目用、右目用の撮像画像、及びセンサ情報の受信を行う。また、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。
The device-side wireless I /
装置側共通撮像画像処理部309は、フレーム間引処理後の左目用、右目用の撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。
The device-side common captured
装置側撮像画像制御部310は、フレーム間引処理後の左目用、右目用の撮像画像をそれぞれ左目用、右目用の撮像フレームメモリ311に分配する。そして、表示部324において表示可能なフレームレートに合わせて、撮像フレームメモリ311から撮像画像を出力する制御を行う。
The apparatus-side captured
撮像フレームメモリ311は、左目用撮像画像、右目用撮像画像をそれぞれ格納し、装置側撮像画像制御部310の制御に基づき、装置側撮像画像処理部312に撮像画像を出力する。
The imaging frame memory 311 stores the left-eye imaging image and the right-eye imaging image, and outputs the imaging image to the apparatus-side imaging image processing unit 312 based on the control of the apparatus-side imaging
装置側撮像画像処理部312は、撮像フレームメモリ311から出力された左目用撮像画像、右目用撮像画像に対して、複数の画像処理回路によって画像処理を行う。ここで行われる画像処理としては、HMD側撮像画像処理部303と同様に、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用撮像画像と右目用撮像画像で別々のパラメータを用いる処理であることが望ましい。また、処理負荷や処理順序を鑑みて、装置側撮像画像処理部312と、HMD側撮像画像処理部303との間で実行する画像処理をそれぞれ分散させてもよい。
The device-side captured image processing unit 312 performs image processing on the left-eye captured image and the right-eye captured image output from the imaging frame memory 311 by a plurality of image processing circuits. The image processing performed here is processing unique to the HMD-
装置側有線I/F1306は、画像処理装置104の装置内有線I/F1204との通信により、左目用、右目用の撮像画像、及びセンサ情報の送信と、表示部324で表示するための左表示画像の受信、その他制御信号の送受信を行う。
The device-side wired I /
装置側表示画像処理部316は、CG描画合成部で生成された左目用表示画像、右目用表示画像に対して、複数の画像処理回路によって画像処理を行う。ここで行われる画像処理としては、HMD側表示画像処理部323と同様に、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用表示画像と右目用表示画像で別々のパラメータを用いる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側表示画像処理部316と、HMD側表示画像処理部323との間で実行する画像処理をそれぞれ分散させてもよい。
The device-side display image processing unit 316 performs image processing on the display image for the left eye and the display image for the right eye generated by the CG rendering and combining unit by a plurality of image processing circuits. The image processing performed here is processing unique to the HMD-
装置側間引処理部317は、左目用表示画像、右目用表示画像に対して、データ量を削減するためのフレーム間引処理を行う。 The device-side decimation processing unit 317 performs frame decimation processing for reducing the data amount on the display image for the left eye and the display image for the right eye.
装置側表示画像制御部318は、装置側間引処理部によるフレーム間引処理の間隔、タイミングの制御、及びフレーム間引処理後の左目用、右目用の表示画像をフレーム単位での時分割で後段の装置側共通表示画像処理部319へ送る制御を行う。
The apparatus-side display
装置側共通表示画像処理部319は、フレーム間引処理後の左目用、右目用の表示画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、HMD側共通表示画像処理部320と同様に、HMD側無線ボックス1301、及び装置側無線ボックス1302に固有の処理で、かつ左目用表示画像と右目用表示画像で同一のパラメータを用いることのできる処理が望ましい。また、処理負荷や処理順序を鑑みて、装置側共通表示画像処理部319と、HMD側共通表示画像処理部320との間で実行する画像処理をそれぞれ分散させてもよい。
The device-side common display
画像処理装置104の装置内有線I/F1204は、装置側無線ボックス1302の装置側有線I/F1306との通信により、左目用、右目用の撮像画像、及びセンサ情報の受信を行う。また、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。
The in-device wired I /
以上の構成を有することにより、本実施の形態における画像処理システムは、HMD101と画像処理装置104間の接続をケーブルを用いた有線接続と、無線ボックスを介しての無線接続のどちらも行うことが可能となる。無線接続では、HMD101、画像処理装置104間を直接接続するケーブルが不要となり、HMD装着者の移動の自由度を向上させることができるというメリットがある。一方で有線接続では、無線接続と比較して一般的に広帯域伝送が可能なため、画像符号化やフレームレート変換等のデータ量削減手法を用いることなく、より高画質なMR画像を提供することができるというメリットがある。
By having the above configuration, the image processing system according to the present embodiment can perform both wired connection using a cable and wireless connection via a wireless box between the
[第4の実施形態]
本発明を実現するのに好適な第4の実施の形態を図に従って説明する。なお、第1〜第3の実施形態と重複する部分については説明を省略する。
Fourth Embodiment
A fourth embodiment suitable for realizing the present invention will be described with reference to the drawings. In addition, description is abbreviate | omitted about the part which overlaps with the 1st-3rd embodiment.
第1〜第3の実施形態ではHMD101の左目用撮像部301L、右目用撮像部301Rで取得される撮像画像の間引処理を行う構成について説明を行った。本実施形態では、HMD101に追加でオプション撮像部を有しており、左目用撮像部、右目用撮像部、オプション撮像部で取得される3つの撮像画像の間引処理行う構成について説明する。
In the first to third embodiments, the configuration for performing thinning processing of captured images acquired by the left-
図14は、本発明の第4の実施形態における画像処理システムの構成の一例を示す図である。 FIG. 14 is a diagram showing an example of the configuration of an image processing system according to the fourth embodiment of the present invention.
本発明の第4の実施形態における画像処理システムは、以下の構成を有するHMD101、及び画像処理装置104で構成される。HMD101は、撮像部301、位置姿勢センサ302、HMD側撮像画像処理部303、HMD側間引処理部304、HMD側撮像画像制御部305、HMD側共通撮像画像処理部306を有する。また、HMD側I/F(インタフェース)307、HMD側共通表示画像処理部320、HMD側表示画像制御部321、表示フレームメモリ322、HMD側表示画像処理部323、表示部324を有する。また、オプション撮像部1401、オプション用HMD側撮像画像処理部1402、オプション用HMD側間引処理部1403を有する。
The image processing system according to the fourth embodiment of the present invention includes an
画像処理装置104は、装置側I/F308、装置側共有撮像画像処理部309、装置側撮像画像制御部310、撮像フレームメモリ311、装置側撮像画像処理部312、位置姿勢情報生成部313、コンテンツDB(データベース)314を有する。また、CG描画合成部315、装置側表示画像処理部316、装置側間引処理部317、装置側表示画像制御部318、装置側共通表示画像処理部319、オプション用撮像フレームメモリ1404、オプション用装置側撮像画像処理部1405を有する。
The
HMD側I/F307及び装置側I/F308は、それぞれ送信部と受信部を有する。また、各ブロック名の末尾のL、RまたはOPの表記は、それぞれ左目用動画像データの処理、右目用動画像データの処理、オプション撮像部用動画像データの処理を行うことを意味する。
The HMD-side I /
HMD101のオプション撮像部1401は、左目用撮像部301L、右目用撮像部301Rで撮像される現実空間上の範囲とは異なる範囲のオプション撮像画像を取得する。オプション撮像部1401は、左目用、右目用撮像部301と同じ撮像デバイス、撮像光学系を用いてもよく、また、左目用、右目用撮像部301と解像度や撮像範囲等を異ならせるために異なる撮像デバイス、撮像光学系を用いてもよい。また、オプション撮像部1401で撮像される現実空間上の範囲は、左目用撮像部301L、右目用撮像部301Rで撮像される範囲の一部、あるいは全部を含んでいてもよい。さらには、オプション撮像部1401は、HMD101に内蔵してもよいし、HMD101に外付けで取り付けることが可能な構成としてもよい。
The
オプション用HMD側撮像画像処理部1402は、オプション撮像部1401で取得されたオプション撮像画像に対して、画像処理を行う。ここで行われる画像処理としては、左目用、右目用の撮像画像やオプション撮像画像で別々のパラメータを用いる処理が望ましい。例えば、画素欠陥補正やガンマ補正、あるいは撮像光学系の歪み補正といった撮像デバイスや撮像光学系の個体バラツキを補正する処理が挙げられる。
The option HMD side captured
オプション用HMD側間引処理部1403は、オプション撮像画像に対して、データ量を削減するためのフレーム間引処理を行う。
The option HMD side
HMD側撮像画像制御部305は、HMD側間引処理部304、オプション用HMD側間引処理部1403によるフレーム間引処理の間隔、タイミングの制御を行う。また、フレーム間引処理後の各撮像画像を、時分割で後段のHMD側共通撮像画像処理部へ送る制御を行う。撮像画像のフレーム間引処理制御の例としては、第1の実施形態と同様にそれぞれ異なる時刻のフレームを順次間引いて出力する方法や、第2の実施形態と同様に同じ時刻のフレームを間引いて、フレームメモリを利用して時分割で出力する方法等が挙げられる。また、フレーム間引処理制御は上記に限られるものではなく、左目用撮像画像、右目用撮像画像、オプション撮像画像の用途、必要とされるフレーム数等を考慮し、優先度に応じて間引処理の間隔を異ならせてもよい。
The HMD side captured
HMD側共通撮像画像処理部306は、フレーム間引処理後の左目用、右目用の撮像画像、オプション撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像符号化などのような左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。
The HMD side common captured
HMD側I/F307は、画像処理装置104の装置側I/F308との通信により、左目用、右目用の撮像画像、オプション撮像画像、及びセンサ情報の送信と、表示部324で表示するための表示画像の受信、その他制御信号の送受信を行う。
The HMD I /
画像処理装置104の装置側I/F308は、HMD101のHMD側I/F307との通信により、左目用、右目用の撮像画像、オプション撮像画像、及びセンサ情報の受信、表示部324で表示するための表示画像の送信、その他制御信号の送受信を行う。
The device-side I /
装置側共通撮像画像処理部309は、フレーム間引処理後の左目用、右目用の撮像画像、オプション撮像画像に対して時分割で画像処理を行う。ここで行われる画像処理としては、例えば、解像度変換や色空間変換、あるいは画像復号化などのような左目用撮像画像と右目用撮像画像で同一のパラメータを用いることのできる処理が望ましい。
The device-side common captured
装置側撮像画像制御部310は、フレーム間引処理後の左目用、右目用の撮像画像、オプション撮像画像をそれぞれ左目用、右目用の撮像フレームメモリ311、オプション用撮像フレームメモリ1404に分配して格納する。また、表示部324において表示可能なフレームレートに合わせて、撮像フレームメモリ311、オプション用フレームメモリ1404から撮像画像を出力する制御を行う。
The apparatus-side captured
オプション用撮像フレームメモリ1404は、オプション撮像画像を格納し、装置側撮像画像制御部310の制御に基づき、オプション用装置側撮像画像処理部1405に撮像画像を出力する。
The option
オプション用装置側撮像画像処理部1405は、オプション用撮像フレームメモリ1404から出力されたオプション撮像画像に対して、画像処理を行う。ここで行われる画像処理としては、オプション用HMD側撮像画像処理部1402と同様に、左目用、右目用の撮像画像とオプション撮像画像で別々のパラメータを用いる処理が望ましい。また、処理負荷や処理順序を鑑みて、オプション用装置側撮像画像処理部1405と、オプション用HMD側撮像画像処理部1402との間で実行する画像処理をそれぞれ分散させてもよい。
The option-apparatus side captured image processing unit 1405 performs image processing on the option captured image output from the option
位置姿勢情報生成部313は、位置姿勢センサ302で取得したセンサ情報や、撮像部301、オプション撮像部1401で取得した各撮像画像情報、あるいはその両方の情報からHMD101の三次元位置姿勢情報を算出する。
The position and orientation
以上の構成を有することにより、本実施の形態における画像処理システムは、画像処理装置104の位置姿勢情報生成部313において、HMD101のオプション撮像部1401で取得されたオプション撮像画像を用いることが可能となる。これにより、HMD装着者の視界の範囲外、すなわち左目用撮像部301L、右目用撮像部302Rの撮像範囲外に存在するマーカー等の情報も位置姿勢情報の生成に利用することができ、位置姿勢情報の精度、及びマーカー等の設置の自由度が向上する。
With the above configuration, in the image processing system according to the present embodiment, the position and orientation
[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読出し実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
Other Embodiments
Further, the present invention supplies software (program) for realizing the functions of the above embodiments to a system or apparatus via a network or various storage media, and a computer (CPU, MPU or the like) of the system or apparatus It is processing to read out and execute. Further, the present invention may be applied to a system constituted by a plurality of devices or to an apparatus comprising a single device. The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the respective embodiments) are possible based on the spirit of the present invention, which are excluded from the scope of the present invention is not. That is, the configuration in which each of the above-described embodiments and their modifications are combined is also included in the present invention.
101 HMD
301 撮像部
302 位置姿勢センサ
303 HMD側撮像画像処理部
304 HMD側間引処理部
305 HMD側撮像画像制御部
306 HMD側共通撮像画像処理部
307 HMD側I/F
320 HMD側共通表示画像処理部
321 HMD側表示画像制御部
322 表示フレームメモリ
323 HMD側表示画像処理部
324 表示部
104 画像処理装置
308 装置側I/F
309 装置側共有撮像画像処理部
310 装置側撮像画像制御部
311 撮像フレームメモリ
312 装置側撮像画像処理部
313 位置姿勢情報生成部
314 コンテンツDB
315 CG描画合成部
316 装置側表示画像処理部
317 装置側間引処理部
318 装置側表示画像制御部
319 装置側共通表示画像処理部
101 HMD
301
320 HMD side common display
309 device-side shared captured
315 CG rendering / combining unit 316 device-side display image processing unit 317 device-side
Claims (13)
前記複数の動画像データに対して、複数の画像処理回路によって画像処理を実行する画像処理手段と、
前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うフレーム間引き手段と、
前記画像処理手段、及び前記フレーム間引き手段を制御するための制御手段と、
前記フレーム間引き手段によりデータ量が削減された間引き動画像データを出力するための第1の出力手段と、を有し、
前記制御手段は、間引き処理された前記複数の動画像データのデータ量の合計が、前記第1の出力手段において出力が可能なデータ量の範囲に収まるように前記画像処理手段、及び前記フレーム間引き手段を制御し、
前記第1の出力手段は、間引き処理された前記複数の動画像データの各フレームを時分割出力することを特徴とする画像処理装置。 First input means for inputting at least two or more pieces of moving image data having an arbitrary frame rate;
Image processing means for performing image processing on the plurality of moving image data by a plurality of image processing circuits;
Frame thinning means for thinning the number of frames without changing the frame period for each of the plurality of moving image data;
The image processing means, and control means for controlling the frame thinning means;
And first output means for outputting thinned-out moving image data whose data amount has been reduced by the frame thinning-out means,
The control means is the image processing means and the frame thinning so that the sum of the data amount of the plurality of moving image data subjected to the thinning process falls within the range of the data amount which can be output by the first output means. Control means,
The image processing apparatus according to claim 1, wherein the first output unit outputs each frame of the plurality of moving image data subjected to thinning processing in a time division manner.
前記複数の動画像データ、及び前記時分割された動画像データに対して、複数の画像処理回路によって画像処理を実行する画像処理手段と、
前記画像処理手段の制御と、時分割された動画像データのフレームを各々の動画像データとして分配する制御を行う制御手段と、
前記制御手段により分配された各フレームを、各々の動画像データとして出力するための第2の出力手段とを有する画像処理装置であって、
前記制御手段は、前記時分割された動画像データのフレームを各々の動画像データとして分配する際に、各々の動画像データのフレームレートが、時分割された動画像データが入力された際のフレームレートと等しくなるように制御することを特徴とする画像処理装置。 Second input means for inputting time-divided moving image data having an arbitrary frame rate, in which a plurality of moving image data are arranged in time division on a frame basis;
Image processing means for performing image processing on the plurality of moving image data and the time-divided moving image data by a plurality of image processing circuits;
Control means for performing control of the image processing means and control of distributing time-division frames of moving picture data as respective moving picture data;
An image processing apparatus comprising: second output means for outputting each frame distributed by the control means as moving image data;
When the control means distributes the frames of the time-divided moving image data as each moving image data, the moving image data is input when the frame rate of each moving image data is divided in time. An image processing apparatus which is controlled to be equal to a frame rate.
前記第1の画像処理装置は、
任意のフレームレートを有する少なくとも2つ以上の複数の動画像データを入力するための第1の入力手段と、
前記複数の動画像データに対して、複数の画像処理回路によって画像処理を実行する第1の画像処理手段と、
前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うフレーム間引き手段と、
前記第1の画像処理手段、及び前記フレーム間引き手段を制御するための第1の制御手段と、
前記フレーム間引き手段によりデータ量が削減された間引き動画像データを出力するための第1の出力手段と、を有し、
前記第1の制御手段は、間引き処理された前記複数の動画像データのデータ量の合計が、前記第1の出力手段において出力が可能なデータ量の範囲に収まるように前記第1の画像処理手段、及び前記フレーム間引き手段を制御し、
前記第1の出力手段は、間引き処理された前記複数の動画像データの各フレームをフレーム単位で時分割に並べた、間引き動画像データを出力し、
前記第2の画像処理装置は、
前記第1の画像処理装置より出力された前記間引き動画像データを入力するための第2の入力手段と、
前記複数の動画像データ、及び前記間引き動画像データに対して、複数の画像処理回路によって画像処理を実行する第2の画像処理手段と、
前記第2の画像処理手段の制御と、間引き動画像データのフレームを各々の動画像データとして分配する制御を行うための第2の制御手段と、
前記第2の制御手段により分配された各フレームを、各々の動画像データとして出力するための第2の出力手段とを有し、
前記第2の制御手段は、前記間引き動画像データのフレームを各々の動画像データとして分配する際に、各々の動画像データのフレームレートが、間引き動画像データの入力のときのフレームレートと等しくなるように制御することを特徴とする画像処理システム。 An image processing system comprising a first image processing apparatus and a second image processing apparatus, comprising:
The first image processing apparatus
First input means for inputting at least two or more pieces of moving image data having an arbitrary frame rate;
First image processing means for performing image processing on the plurality of moving image data by a plurality of image processing circuits;
Frame thinning means for thinning the number of frames without changing the frame period for each of the plurality of moving image data;
The first image processing means, and a first control means for controlling the frame thinning means;
And first output means for outputting thinned-out moving image data whose data amount has been reduced by the frame thinning-out means,
The first control means performs the first image processing such that a total of data amounts of the plurality of moving image data subjected to thinning processing falls within a range of data amounts that can be output by the first output means. Control means and the frame thinning means,
The first output unit outputs decimated moving image data in which frames of the plurality of decimated moving image data are arranged in time division on a frame basis,
The second image processing apparatus
Second input means for inputting the thinned moving image data output from the first image processing apparatus;
Second image processing means for performing image processing on the plurality of moving image data and the thinned moving image data by a plurality of image processing circuits;
Second control means for performing control of the second image processing means and control of distributing frames of thinned moving image data as respective moving image data;
And second output means for outputting each frame distributed by the second control means as respective moving image data,
When the second control means distributes the frames of the thinned moving image data as respective moving image data, the frame rate of each moving image data is equal to the frame rate at the time of input of the thinned moving image data. An image processing system characterized by controlling to become.
前記第1、第2の画像処理装置はそれぞれ、
任意のフレームレートを有する少なくとも2つ以上の複数の動画像データを入力するための第1の入力手段と、
前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うフレーム間引き手段と、
前記フレーム間引き手段によりデータ量が削減された間引き動画像データをもう一方の画像処理装置へ出力するための第1の出力手段と、
前記間引き動画像データをもう一方の画像処理装置より入力するための第2の入力手段と、
前記間引き動画像データのフレームを各々の動画像データとして分配し、再構成された複数の動画像データを出力するため第2の出力手段と、
前記複数の動画像データ、及び間引き動画像データに対して、複数の画像処理回路によって画像処理を実行する画像処理手段と、
前記画像処理手段の制御と、前記フレーム間引き手段の制御、及び間引き動画像データのフレームを各々の動画像データとして分配する制御を行うための制御手段とを有しており、
前記制御手段は、間引き処理された前記複数の間引き動画像データのデータ量の合計が、前記第1の出力手段において出力が可能なデータ量の範囲に収まるように前記画像処理手段、及び前記フレーム間引き手段を制御し、
また、前記制御手段はさらに、前記間引き動画像データのフレームを各々の動画像データとして分配し、再構成する際に、各々の動画像データのフレームレートが、間引き動画像データの入力の際のフレームレートと等しくなるように制御することを特徴とする画像処理システム。 An image processing system for transmitting image data between a first image processing apparatus and a second image processing apparatus, comprising:
The first and second image processing devices respectively
First input means for inputting at least two or more pieces of moving image data having an arbitrary frame rate;
Frame thinning means for thinning the number of frames without changing the frame period for each of the plurality of moving image data;
First output means for outputting thinned moving image data whose data amount has been reduced by said frame thinning means to the other image processing apparatus;
Second input means for inputting the thinned moving image data from the other image processing apparatus;
Second output means for distributing the frames of the thinned moving image data as respective moving image data and outputting a plurality of reconstructed moving image data;
Image processing means for performing image processing on the plurality of moving image data and thinned moving image data by a plurality of image processing circuits;
Control means for controlling the image processing means, controlling the frame thinning means, and controlling to distribute frames of the thinning moving image data as respective moving image data,
The control means is the image processing means and the frame so that a total of data amounts of the plurality of thinned moving image data subjected to thinning processing falls within a range of data amounts that can be output by the first output means. Control the thinning means,
Further, the control means further distributes the frames of the thinned moving image data as respective moving image data, and when reconstructing, the frame rate of each moving image data corresponds to the input of the thinned moving image data. An image processing system that is controlled to be equal to a frame rate.
前記複数の動画像データに対して、複数の画像処理回路によって画像処理を実行するステップと、
前記複数の動画像データのそれぞれに対して、フレームの周期を変更せずにフレーム数の間引き処理を行うステップと、
前記データ量が削減された間引き動画像データを出力するステップと、を有し、
間引き処理された前記複数の動画像データのデータ量の合計が、前記出力が可能なデータ量の範囲に収まるように制御し、
前記間引き処理された前記複数の動画像データの各フレームを時分割出力することを特徴とする画像処理方法。 Inputting at least two or more pieces of moving image data having an arbitrary frame rate;
Performing image processing on the plurality of moving image data by a plurality of image processing circuits;
Performing decimation processing on the number of frames without changing the frame period for each of the plurality of moving image data;
Outputting the decimated moving image data of which the data amount has been reduced;
The sum of the data amount of the plurality of moving image data subjected to thinning processing is controlled so as to fall within the range of the data amount capable of the output;
An image processing method comprising time-divisionally outputting each frame of the plurality of moving image data subjected to the thinning process.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017185468A JP7091043B2 (en) | 2017-09-26 | 2017-09-26 | Image processing equipment, image processing system, and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017185468A JP7091043B2 (en) | 2017-09-26 | 2017-09-26 | Image processing equipment, image processing system, and image processing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019062397A true JP2019062397A (en) | 2019-04-18 |
| JP7091043B2 JP7091043B2 (en) | 2022-06-27 |
Family
ID=66177696
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017185468A Active JP7091043B2 (en) | 2017-09-26 | 2017-09-26 | Image processing equipment, image processing system, and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7091043B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021072601A (en) * | 2019-11-01 | 2021-05-06 | キヤノン株式会社 | Head-mounted display device and control method of the same |
| WO2023140033A1 (en) | 2022-01-19 | 2023-07-27 | 株式会社ソニー・インタラクティブエンタテインメント | Display control device, head-mounted display, and display control method |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07284127A (en) * | 1994-04-13 | 1995-10-27 | Mitsubishi Heavy Ind Ltd | Encoder/decoder for stereo image |
| WO2012063542A1 (en) * | 2010-11-09 | 2012-05-18 | 富士フイルム株式会社 | Device for providing augmented reality |
| JP2013042216A (en) * | 2011-08-11 | 2013-02-28 | Canon Inc | Image processing apparatus and control method thereof |
| JP2014082686A (en) * | 2012-10-17 | 2014-05-08 | Canon Inc | Image processing apparatus, control method and program thereof |
| JP2016010082A (en) * | 2014-06-26 | 2016-01-18 | キヤノン株式会社 | Image processing device |
-
2017
- 2017-09-26 JP JP2017185468A patent/JP7091043B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07284127A (en) * | 1994-04-13 | 1995-10-27 | Mitsubishi Heavy Ind Ltd | Encoder/decoder for stereo image |
| WO2012063542A1 (en) * | 2010-11-09 | 2012-05-18 | 富士フイルム株式会社 | Device for providing augmented reality |
| JP2013042216A (en) * | 2011-08-11 | 2013-02-28 | Canon Inc | Image processing apparatus and control method thereof |
| JP2014082686A (en) * | 2012-10-17 | 2014-05-08 | Canon Inc | Image processing apparatus, control method and program thereof |
| JP2016010082A (en) * | 2014-06-26 | 2016-01-18 | キヤノン株式会社 | Image processing device |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021072601A (en) * | 2019-11-01 | 2021-05-06 | キヤノン株式会社 | Head-mounted display device and control method of the same |
| JP7402660B2 (en) | 2019-11-01 | 2023-12-21 | キヤノン株式会社 | Head-mounted display device, control method for head-mounted display device |
| WO2023140033A1 (en) | 2022-01-19 | 2023-07-27 | 株式会社ソニー・インタラクティブエンタテインメント | Display control device, head-mounted display, and display control method |
| JP2023105524A (en) * | 2022-01-19 | 2023-07-31 | 株式会社ソニー・インタラクティブエンタテインメント | DISPLAY CONTROL DEVICE, HEAD MOUNTED DISPLAY, AND DISPLAY CONTROL METHOD |
| EP4468699A4 (en) * | 2022-01-19 | 2025-12-03 | Sony Interactive Entertainment Inc | Display control device, head-mounted display and display control method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7091043B2 (en) | 2022-06-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5891131B2 (en) | Image generating apparatus and image generating method | |
| CA2177051C (en) | Synthesized stereoscopic imaging system and method | |
| JP2024059761A (en) | Continuous and binocular time warping and methods for virtual reality and augmented reality display systems - Patents.com | |
| JP2019028368A (en) | Rendering device, head mounted display, image transmission method, and image correction method | |
| RU2638776C1 (en) | Image generating device and method | |
| JP4553362B2 (en) | System, image processing apparatus, and information processing method | |
| US11100716B2 (en) | Image generating apparatus and image generation method for augmented reality | |
| JP7377413B2 (en) | Light field image generation system, image display system, shape information acquisition server, light field image generation method, and image display method | |
| US11003408B2 (en) | Image generating apparatus and image generating method | |
| US11204502B2 (en) | Image generation apparatus, head mounted display, image generation system, image generation method, and program | |
| JP6216398B2 (en) | Image generating apparatus and image generating method | |
| JP2020071718A (en) | Information processing device, information processing method, and program | |
| US20220310037A1 (en) | Method and system for reducing motion-to-photon latency in head-mounted display system | |
| JP2011010126A (en) | Image processing apparatus, and image processing method | |
| JP7175715B2 (en) | Information processing device, information processing method and program | |
| JP2018198025A (en) | Image processing apparatus, image processing apparatus control method, and program | |
| JP4708590B2 (en) | Mixed reality system, head mounted display device, mixed reality realization method and program | |
| JP2019062397A (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD | |
| JP2021086287A (en) | Information processing system, information processing device, and information processing method | |
| WO2019229816A1 (en) | Image generation device, image generation method, and program | |
| JP7242332B2 (en) | SYNCHRONIZATION CONTROL DEVICE, SYNCHRONIZATION CONTROL METHOD, AND PROGRAM | |
| JPWO2018173207A1 (en) | Information processing device | |
| JP6487512B2 (en) | Head mounted display and image generation method | |
| JP6614835B2 (en) | COMMUNICATION DEVICE, HEAD MOUNT DISPLAY, IMAGE PROCESSING SYSTEM, COMMUNICATION METHOD, AND PROGRAM | |
| JP2023183684A (en) | Display system and imaging device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200925 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210922 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211220 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220615 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7091043 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |