JP2016082528A - System, program, display device, image processing device, control method for system, control method for display device, and control method for image processing device - Google Patents
System, program, display device, image processing device, control method for system, control method for display device, and control method for image processing device Download PDFInfo
- Publication number
- JP2016082528A JP2016082528A JP2014214903A JP2014214903A JP2016082528A JP 2016082528 A JP2016082528 A JP 2016082528A JP 2014214903 A JP2014214903 A JP 2014214903A JP 2014214903 A JP2014214903 A JP 2014214903A JP 2016082528 A JP2016082528 A JP 2016082528A
- Authority
- JP
- Japan
- Prior art keywords
- index information
- image
- detected
- network communication
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、2つの画像を合成するシステム、プログラムおよび画像処理装置ならびにそのような画像処理装置から画像を受け取り表示する表示装置に関し、特にHMD(Head Mounted Display)を用いる仮想現実技術、複合現実技術に関する。 The present invention relates to a system for synthesizing two images, a program, an image processing apparatus, and a display apparatus that receives and displays an image from such an image processing apparatus, and in particular, virtual reality technology and mixed reality technology using HMD (Head Mounted Display). About.
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMDを利用した技術が知られている。これは、HMD使用者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、その撮像画像にCG(Computer Graphics)を重畳表示した画像をHMD使用者が観察できる技術である。 In recent years, a mixed reality, so-called MR (Mixed Reality) technology has been known as a technology that seamlessly fuses the real world and the virtual world in real time. A technique using video see-through HMD is known as one of MR techniques. This is a technique that allows an HMD user to observe an image obtained by capturing a subject that substantially matches the subject observed from the pupil position of the HMD user with a video camera or the like and superimposing and displaying CG (Computer Graphics) on the captured image. is there.
図2は、無線による画像伝送を行う一般的なビデオシースルー型複合現実システムの機能ブロック図である。本システムは外界の撮像および使用者に画像を表示するHMDと、CG重畳表示した画像を作成する画像処理装置で構成されている。HMDを使用して自由に動きながらMR空間を体験するには、HMDとPCなどの外部装置とは無線伝送で通信した方がよい。しかし一般的に、無線による通信は有線での通信と比べて通信帯域が狭く、不安定である。これを解決する方法として、特許文献1では、画像データを圧縮して送信することに加えて、通信ネットワークの状況に応じて画像の圧縮率を変更しデータ量を調節することで、安定した画像データの送信を可能にしている。 FIG. 2 is a functional block diagram of a general video see-through mixed reality system that performs wireless image transmission. This system is composed of an HMD that captures images from the outside world and displays images to the user, and an image processing device that creates images superimposed on CG. In order to experience the MR space while moving freely using the HMD, it is better to communicate between the HMD and an external device such as a PC by wireless transmission. However, in general, wireless communication has a narrow communication band and is unstable as compared with wired communication. As a method for solving this, in Patent Document 1, in addition to compressing and transmitting image data, a stable image can be obtained by changing the compression rate of the image and adjusting the data amount according to the situation of the communication network. Data transmission is possible.
図2において、ビデオシースルー型複合現実システムは、頭部搭載型の表示装置部(以下、HMD部200)と、画像処理部210から構成されている。画像処理部210は、一般にはパソコンやワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置を用いる。HMD部200は、撮像手段201と、画像圧縮手段203と、第1のネットワーク通信手段204と、画像表示手段205とから構成されている。
図2の構成では伸張画像、すなわち伸張された撮像画像から指標情報を検出しているが、指標情報の検出処理を圧縮前の画像で行う、すなわちHMD側で指標情報を検出する構成を考えることも可能である。
In FIG. 2, the video see-through mixed reality system includes a head-mounted display device unit (hereinafter, HMD unit 200) and an image processing unit 210. The image processing unit 210 generally uses a device having a high-performance arithmetic processing function or graphic display function such as a personal computer or a workstation. The HMD unit 200 includes an imaging unit 201, an image compression unit 203, a first network communication unit 204, and an image display unit 205.
In the configuration of FIG. 2, index information is detected from a decompressed image, that is, a stretched captured image. However, consider a configuration in which index information detection processing is performed on an image before compression, that is, index information is detected on the HMD side. Is also possible.
図3は、HMD側で指標情報を検出する、無線による画像伝送を行う一般的なビデオシースルー型複合現実システムの機能ブロック図である。図3において、ビデオシースルー型複合現実システムは、HMD部300と、画像処理部310から構成されている。HMD部300は、撮像手段301と、指標情報検出手段302と、画像圧縮手段303と、第1のネットワーク通信手段304と、画像表示手段305とから構成されている。画像処理部310は、第2のネットワーク通信手段311と、画像伸張手段312と、位置計測手段314と、CG合成手段315とから構成されている。 FIG. 3 is a functional block diagram of a general video see-through mixed reality system that detects index information on the HMD side and performs wireless image transmission. In FIG. 3, the video see-through mixed reality system includes an HMD unit 300 and an image processing unit 310. The HMD unit 300 includes an imaging unit 301, an index information detection unit 302, an image compression unit 303, a first network communication unit 304, and an image display unit 305. The image processing unit 310 includes a second network communication unit 311, an image expansion unit 312, a position measurement unit 314, and a CG composition unit 315.
図2又は3に示したビデオシースルーHMDを装着することで、現実世界と仮想世界とがリアルタイムかつシームレスに融合した複合現実世界を体験することができる。
一般的なMR技術およびシステムの構成については特許文献2に開示されている。
By wearing the video see-through HMD shown in FIG. 2 or 3, it is possible to experience a mixed reality world where the real world and the virtual world are seamlessly fused in real time.
A general MR technique and system configuration are disclosed in Patent Document 2.
図7を用いて、指標情報としてマーカーを利用した撮像画像からの位置姿勢情報の生成概念を説明する。
マーカー703は、あらかじめ撮像装置と位置関係が対応付けられているものとする。現実空間画像701にマーカー703が表示されている場合、指標情報検出手段および位置計測手段は、画像データ中からマーカー703を検出し、マーカー703の大きさや形、塗りつぶしのパターンなどの情報を取得する。この情報から、マーカー703と撮像手段本体(HMD)の相対的位置関係およびHMD使用者がマーカーを観察している方向に関する三次元位置姿勢情報を算出することができる。
A concept of generating position and orientation information from a captured image using a marker as index information will be described with reference to FIG.
It is assumed that the marker 703 has a positional relationship with the imaging device in advance. When the marker 703 is displayed in the real space image 701, the index information detection unit and the position measurement unit detect the marker 703 from the image data, and acquire information such as the size and shape of the marker 703, a fill pattern, and the like. . From this information, it is possible to calculate the relative positional relationship between the marker 703 and the imaging means main body (HMD) and three-dimensional position and orientation information regarding the direction in which the HMD user is observing the marker.
図7中では、例として、マーカー703の中心部を原点とする三次元座標系を想定している。しかし、座標系の原点はマーカー703上に設定する必要はなく、座標系の原点とマーカー703との相対的位置関係を対応付けることにより、任意の位置に設定することができる。また、位置姿勢情報生成に用いるマーカーは単独ではなく、複数のマーカーを同時に用いることも可能である。複数のマーカーを同時に用いる場合、各マーカーの位置関係をあらかじめ定義しておくことによって、それらの相対的位置関係から、マーカーを観察している方向を算出することが可能となる。 In FIG. 7, as an example, a three-dimensional coordinate system with the central portion of the marker 703 as the origin is assumed. However, the origin of the coordinate system does not need to be set on the marker 703, and can be set to an arbitrary position by associating the relative positional relationship between the origin of the coordinate system and the marker 703. Moreover, the marker used for position and orientation information generation is not limited to a single marker, and a plurality of markers can be used simultaneously. When a plurality of markers are used at the same time, it is possible to calculate the direction in which the marker is observed from the relative positional relationship by defining the positional relationship between the markers in advance.
したがって、図7に示したような内部の塗りつぶしパターンによって方向まで識別が可能なマーカーではなく、例えば、カラーマーカーや、LEDなどの発光素子のような方向性の情報を持たない一次元の情報を持つマーカーを利用することも可能となる。また、マーカーではなく、テーブルの輪郭線704のような画像中の特徴点や、画像中の特定の色などを抽出し、それらを用いて位置姿勢情報を算出することも可能である。同一種類のマーカーを複数用いたり、数種類のマーカーを同時に用いたり、マーカーの情報と画像中の特徴点の情報を組み合わせて用いることによって、より高い精度の位置姿勢情報を生成できる。さらには、複数のマーカーや特徴点の位置関係が対応付けられているため、すべてのマーカーや特徴点が画像内に表示されていなくても、それぞれのマーカーや特徴点の位置を推定することも可能である。
マーカー利用によるMR技術の実現は、非特許文献1において公開されている。
Therefore, it is not a marker that can be identified up to the direction by the internal fill pattern as shown in FIG. 7, but one-dimensional information that does not have directionality information such as a color marker or a light emitting element such as an LED is used. It is also possible to use the marker that you have. It is also possible to extract feature points in the image such as the contour line 704 of the table, a specific color in the image, and the like, and calculate position / orientation information using them. By using a plurality of the same type of markers, using several types of markers at the same time, or combining the marker information and the feature point information in the image, higher-accuracy position and orientation information can be generated. Furthermore, since the positional relationship of multiple markers and feature points is associated, even if not all markers or feature points are displayed in the image, the position of each marker or feature point can be estimated. Is possible.
Realization of MR technology using markers is disclosed in Non-Patent Document 1.
特許文献1の手法は、画像データを非可逆圧縮することが前提であり、送信画像は元画像に対して何かしら情報が失われ、画質が劣化する。そのため、図2の構成のような、伸張画像、すなわち伸張された撮像画像からマーカー等の指標情報を検出する場合、検出精度が低下し、正確な位置姿勢の計算が出来ない場合がある。 The method of Patent Document 1 is premised on irreversible compression of image data, and some information is lost from the original image in the transmission image, and the image quality deteriorates. Therefore, when detecting index information such as a marker from a stretched image, that is, a stretched captured image, as in the configuration of FIG. 2, the detection accuracy may be reduced, and an accurate position and orientation may not be calculated.
図4を用いて、指標情報の検出処理における画質劣化の影響について説明する。図4において、圧縮前の撮像画像400中にはマーカーが4つ(401,402,403,404)配置されている。撮像画像400を圧縮し生成した、圧縮後の撮像画像410において、図4から明らかなようにマーカー401に対応するマーカーは411である。マーカー401および411をそれぞれ拡大したものがマーカー(拡大)405およびマーカー(拡大)415である。マーカー(拡大)405に対してマーカー(拡大)415は明らかに画質が劣化していることがわかる。このような画質劣化のため、マーカー411に代表される圧縮後の撮像画像中の指標情報は、正しく認識されず、結果として検出されない可能性がある。 The influence of image quality deterioration in the index information detection process will be described with reference to FIG. In FIG. 4, four markers (401, 402, 403, 404) are arranged in the captured image 400 before compression. In the compressed captured image 410 generated by compressing the captured image 400, the marker corresponding to the marker 401 is 411 as is apparent from FIG. Markers (enlarged) 405 and markers (enlarged) 415 are obtained by enlarging the markers 401 and 411, respectively. It can be seen that the image quality of the marker (enlarged) 415 is clearly deteriorated with respect to the marker (enlarged) 405. Due to such image quality deterioration, there is a possibility that the index information in the captured image after compression represented by the marker 411 is not correctly recognized and may not be detected as a result.
図3の構成のように、HMD側で圧縮前の撮像画像を用いて指標情報の検出処理を行うことで、画像の圧縮伝送による検出精度の低下を考慮する必要はなくなる。しかしながら、HMDが人体に装着する機器であり軽量・コンパクト性が重要であることを考えると、実際に画像処理部で実施していた指標情報の検出処理すべてをHMD側で行うことは困難である。すなわちHMD側のみで指標情報を検出した場合でも、検出精度や検出速度が低下することとなる。 As in the configuration of FIG. 3, by performing the index information detection process using the pre-compressed captured image on the HMD side, it is not necessary to consider a decrease in detection accuracy due to image compression transmission. However, considering that the HMD is a device attached to the human body and that light weight and compactness are important, it is difficult to perform all of the index information detection processing actually performed by the image processing unit on the HMD side. . That is, even when the index information is detected only on the HMD side, the detection accuracy and the detection speed are lowered.
上記目的を達成するために、本発明のシステムは、以下の構成を備える。すなわち、表示装置と画像処理装置とを備えるシステムであって、
前記表示装置は、
現実空間を撮像して撮像画像を生成する撮像手段と、
前記撮像画像を分割して得られる複数の領域のそれぞれに対して第1の指標情報の検出処理を行う第1の指標情報検出手段と、
前記第1の指標情報検出手段の検出結果に基づいて、前記撮像画像を前記領域ごとに圧縮することにより圧縮画像を生成する画像圧縮手段と、
前記第1の指標情報が検出された領域については前記第1の指標情報および前記圧縮画像を送信し、前記第1の指標情報が検出されなかった領域については前記圧縮画像を送信する第1のネットワーク通信手段と、
表示手段と、
を備え、
前記画像処理装置は、
前記第1のネットワーク通信手段から前記圧縮画像を受信する第2のネットワーク通信手段と、
前記圧縮画像を伸張して伸張画像を生成する画像伸張手段と、
前記伸張画像の前記第1の指標情報が検出されなかった領域から第2の指標情報を検出する、前記第1の指標情報検出手段とは異なる第2の指標情報検出手段と、
前記第1の指標情報および前記第2の指標情報から前記表示装置の位置姿勢情報を生成する位置計測手段と、
前記位置姿勢情報に基づいて生成されたCGを前記伸張画像に合成して合成画像を生成するCG合成手段と、
を備え、
前記第2のネットワーク通信手段は、前記合成画像を前記第1のネットワーク通信手段に送信し、
前記第1のネットワーク通信手段は、前記第2のネットワーク通信手段から前記合成画像を受信し、
前記表示手段は、前記合成画像を表示する
ことを特徴とするシステム。
In order to achieve the above object, the system of the present invention comprises the following arrangement. That is, a system including a display device and an image processing device,
The display device
Imaging means for imaging a real space and generating a captured image;
First index information detection means for performing detection processing of first index information for each of a plurality of regions obtained by dividing the captured image;
An image compression unit that generates a compressed image by compressing the captured image for each region based on a detection result of the first index information detection unit;
The first index information and the compressed image are transmitted for the area where the first index information is detected, and the compressed image is transmitted for the area where the first index information is not detected. Network communication means;
Display means;
With
The image processing apparatus includes:
Second network communication means for receiving the compressed image from the first network communication means;
Image expansion means for expanding the compressed image to generate an expanded image;
Second index information detecting means different from the first index information detecting means for detecting second index information from an area where the first index information of the decompressed image is not detected;
Position measuring means for generating position and orientation information of the display device from the first index information and the second index information;
CG combining means for generating a combined image by combining CG generated based on the position and orientation information with the expanded image;
With
The second network communication means transmits the composite image to the first network communication means;
The first network communication means receives the composite image from the second network communication means;
The display means displays the composite image.
本発明によれば、圧縮で伝送帯域を低減した上で、画質劣化によるマーカー検出率低下の影響を抑止することが可能となる。 According to the present invention, it is possible to suppress the influence of a decrease in the marker detection rate due to image quality degradation while reducing the transmission band by compression.
以下に本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
[第1の実施形態]
本発明の実現する第1の実施形態について、図1に従って説明する。
図1はビデオシースルー型複合現実システムの機能ブロック図である。図1において、本実施形態の画像処理装置は、頭部搭載型の表示装置部(以下、HMD部100)と、画像処理部110から構成されている。本実施形態は、使用者の頭部に装着されるとして説明するが、例えば眼鏡型の表示装置のように使用者の顔面に装着される構成であってもよい。
HMD部100は、撮像部101と、第1の指標情報検出部102と、画像圧縮部103と、第1のネットワーク通信部104と、画像表示部105とから構成されている。
画像処理部110は、第2のネットワーク通信部111と、画像伸張部112と、第2の指標情報検出部113と、位置計測部114と、CG合成部115とから構成されている。
HMD部100と画像処理部110は、第1のネットワーク通信部104と、第2のネットワーク通信部111と、を介して接続される。
HMD部100と画像処理部110は、WLAN(Wireless Local Area Network)やWPAN(Wireless Personal Area Network)のような小規模ネットワークを介して通信する。HMD部100と画像処理部110との間は無線による通信に限らず、有線通信方式を利用してもよい。
[First Embodiment]
A first embodiment realized by the present invention will be described with reference to FIG.
FIG. 1 is a functional block diagram of a video see-through mixed reality system. In FIG. 1, the image processing apparatus according to the present embodiment includes a head-mounted display device unit (hereinafter, HMD unit 100) and an image processing unit 110. Although the present embodiment will be described as being worn on the user's head, it may be configured to be worn on the user's face, such as a glasses-type display device.
The HMD unit 100 includes an imaging unit 101, a first index information detection unit 102, an image compression unit 103, a first network communication unit 104, and an image display unit 105.
The image processing unit 110 includes a second network communication unit 111, an image expansion unit 112, a second index information detection unit 113, a position measurement unit 114, and a CG synthesis unit 115.
The HMD unit 100 and the image processing unit 110 are connected via the first network communication unit 104 and the second network communication unit 111.
The HMD unit 100 and the image processing unit 110 communicate via a small network such as a WLAN (Wireless Local Area Network) or a WPAN (Wireless Personal Area Network). The HMD unit 100 and the image processing unit 110 are not limited to wireless communication, and a wired communication method may be used.
撮像部101は、HMD使用者の視線位置と略一致する外界の観察画像を撮像し撮像画像を生成する。ステレオ画像を生成するための右目用、左目用の二組の撮像素子と光学系および後段の画像処理を行うためのDSPなどによる信号処理回路から構成される。
第1の指標情報検出部102は、撮像画像から、HMD使用者の位置姿勢情報を生成するために必要な指標情報を検出する。
画像圧縮部103は、撮像画像を圧縮し、元の撮像画像に対してデータ量を減じた圧縮画像を作成する。
第1のネットワーク通信部104は、圧縮画像(撮像画像)と指標情報とを無線アクセスポイントを介して画像処理部110へ送信し、また無線アクセスポイントを介して画像処理部110で生成された合成画像を受信する。
表示部105は、合成されたMR画像を表示する。こちらも撮像部101と同様、右目用、左目用の二組の表示デバイスと光学系から構成される。表示デバイスは小型の液晶ディスプレイやMEMSによる網膜スキャンタイプのデバイスが使用される。
The imaging unit 101 captures an external observation image that substantially matches the line-of-sight position of the HMD user, and generates a captured image. It comprises two sets of image sensors for the right eye and left eye for generating a stereo image, an optical system, and a signal processing circuit such as a DSP for performing subsequent image processing.
The first index information detection unit 102 detects index information necessary for generating position and orientation information of the HMD user from the captured image.
The image compression unit 103 compresses the captured image and creates a compressed image in which the data amount is reduced with respect to the original captured image.
The first network communication unit 104 transmits the compressed image (captured image) and the index information to the image processing unit 110 via the wireless access point, and the composition generated by the image processing unit 110 via the wireless access point. Receive an image.
The display unit 105 displays the synthesized MR image. Similarly to the imaging unit 101, this is composed of two sets of display devices for right eye and left eye and an optical system. As the display device, a small liquid crystal display or a retina scan type device using MEMS is used.
第2のネットワーク通信部111は、CG合成部115で生成された合成画像を無線アクセスポイントを介してHMD部100へ送信し、またHMD部100から圧縮画像(撮像画像)と指標情報とを無線アクセスポイントを介して受信する。
画像伸張部112は、HMD部100から送信された圧縮画像を伸張(デコード)し、伸張画像、すなわち伸張された撮像画像を生成する。
第2の指標情報検出部113は、伸張画像、すなわち伸張された撮像画像から、HMD使用者の位置姿勢情報を生成するために必要な指標情報を検出する。
位置計測部114は、第1および第2の指標情報から、HMD使用者の位置姿勢情報を生成する。指標情報を用いた位置姿勢計測については背景技術の項で述べた内容と同一であるため、ここでは説明を割愛する。
CG合成部115は、撮像画像と位置姿勢情報とから撮像画像にCGを合成した合成画像を作成する。
The second network communication unit 111 transmits the combined image generated by the CG combining unit 115 to the HMD unit 100 via the wireless access point, and wirelessly transmits the compressed image (captured image) and the index information from the HMD unit 100. Receive via an access point.
The image decompression unit 112 decompresses (decodes) the compressed image transmitted from the HMD unit 100, and generates a decompressed image, that is, a decompressed captured image.
The second index information detection unit 113 detects index information necessary for generating position and orientation information of the HMD user from the expanded image, that is, the expanded captured image.
The position measurement unit 114 generates position and orientation information of the HMD user from the first and second index information. Since the position and orientation measurement using the index information is the same as that described in the background art section, the description is omitted here.
The CG synthesis unit 115 creates a synthesized image obtained by synthesizing the CG with the captured image from the captured image and the position and orientation information.
HMD部100中の撮像部101で撮像された撮像画像から、画像圧縮部103により圧縮画像が生成される。同様に撮像画像から、第1の指標情報検出部102が第1の指標情報を検出し、圧縮画像と第1の指標情報とは、第1のネットワーク通信部104により画像処理部110へ送信される。 A compressed image is generated by the image compression unit 103 from the captured image captured by the imaging unit 101 in the HMD unit 100. Similarly, from the captured image, the first index information detection unit 102 detects the first index information, and the compressed image and the first index information are transmitted to the image processing unit 110 by the first network communication unit 104. The
画像処理部110では、第2のネットワーク通信部111で受信した圧縮画像を画像伸張部112で伸張(デコード)し、伸張された撮像画像を生成する。第2の指標情報検出部113は伸張された撮像画像から第2の指標情報を検出し、位置計測部114は第1の指標情報および第2の指標情報からHMD使用者の位置姿勢情報を生成する。CG合成部115は、伸張された撮像画像HMD使用者の位置姿勢情報から、撮像画像にCGを合成した合成画像を生成し、第2のネットワーク通信部111を介してHMD部100へ合成画像を送信する。HMD部100中の第1のネットワーク通信部104で受信した合成画像は、画像表示部105を介してHMD使用者に表示される。 In the image processing unit 110, the compressed image received by the second network communication unit 111 is decompressed (decoded) by the image decompressing unit 112, and a decompressed captured image is generated. The second index information detection unit 113 detects second index information from the expanded captured image, and the position measurement unit 114 generates the position and orientation information of the HMD user from the first index information and the second index information. To do. The CG synthesizing unit 115 generates a synthesized image obtained by synthesizing the CG with the captured image from the expanded captured image HMD user's position and orientation information, and sends the synthesized image to the HMD unit 100 via the second network communication unit 111. Send. The composite image received by the first network communication unit 104 in the HMD unit 100 is displayed to the HMD user via the image display unit 105.
ここで、軽量・コンパクト性が求められるHMD部の特性を考慮すると、第1の指標情報検出部102の処理は、第2の指標情報検出部113の処理と比較して簡易なものとする必要がある。例えば、指標情報の探索時に、指標情報の変形や回転を考慮しない(省略する)、あるいは考慮する範囲を制限する(正面正立した指標のみを探索する等)ことが考えられる。 Here, in consideration of the characteristics of the HMD unit that is required to be lightweight and compact, the process of the first index information detection unit 102 needs to be simpler than the process of the second index information detection unit 113. There is. For example, when searching for index information, it is conceivable that deformation or rotation of the index information is not taken into account (omitted), or a range to be considered is limited (searching only for an index that is erect in front, etc.).
図5を用いて、第1の実施形態のHMD部における画像圧縮処理の流れについて説明する。MPEG−2やH.264といった標準的な画像符号化圧縮方式では、画像を縦16画素×横16画素の領域(マクロブロック)毎に分割し、マクロブロック単位に所望の圧縮率で画像を圧縮可能である。本実施形態においても同様に撮像画像をマクロブロック単位に分割して圧縮するものとする。 The flow of image compression processing in the HMD unit of the first embodiment will be described with reference to FIG. MPEG-2 and H.264 In a standard image encoding / compression method such as H.264, an image is divided into regions (macroblocks) each having 16 pixels in the vertical direction and 16 pixels in the horizontal direction, and the image can be compressed at a desired compression rate in units of macroblocks. Similarly in this embodiment, the captured image is divided into macroblocks and compressed.
まず、S501において、領域(マクロブロック)単位に分割した撮像画像を1つ(通常、左上端から右下端の順で、左から右へ、右端へ到達すると左端に戻り1マクロブロック行分下へ移動するというラスタースキャン順番)選択する。
次に、S502において、選択したマクロブロック中に、第1の指標情報検出部102で検出した第1の指標情報が含まれるかどうかを検査し、含まれる場合はS503へ、含まれない場合はS504へ進む。
First, in S501, one captured image divided into regions (macroblocks) is united (usually from the upper left corner to the lower right corner, from left to right, and when reaching the right edge, returns to the left edge and moves down by one macroblock row. Select the raster scan order to move).
Next, in S502, it is checked whether or not the first index information detected by the first index information detection unit 102 is included in the selected macroblock. If included, the process proceeds to S503. The process proceeds to S504.
S503では、指標情報が含まれているため、画像処理部110で、当該マクロブロックでこれ以上の指標情報検出処理を行う必要がないと判断し、画質パラメータをQ2(低画質)に設定する。すなわち圧縮条件を低画質に設定する。
反対にS504では、指標情報が含まれておらず(指標情報を検出できず)、画像処理部110で指標検出処理を行う必要があるため、圧縮による画像劣化の影響を抑えるべく画質パラメータをQ1(高画質)に設定する。すなわち圧縮条件を高画質に設定する。本実施形態では画質パラメータ(圧縮条件)として、量子化スケーリング値を想定しているが、これに限定するものではない。
In S503, since index information is included, the image processing unit 110 determines that it is not necessary to perform further index information detection processing on the macroblock, and sets the image quality parameter to Q2 (low image quality). That is, the compression condition is set to low image quality.
On the other hand, in S504, since index information is not included (index information cannot be detected) and it is necessary to perform index detection processing in the image processing unit 110, the image quality parameter Q1 is set to suppress the influence of image degradation due to compression. Set to (High Quality). That is, the compression condition is set to high image quality. In the present embodiment, a quantized scaling value is assumed as the image quality parameter (compression condition), but the present invention is not limited to this.
次に、S505では、S503およびS504で設定された画質パラメータを用いて、選択されたマクロブロックを圧縮する。
以下、S506で、全てのマクロブロックの圧縮処理が終了したと判定されるまで、S501〜S505を繰り返す。
Next, in S505, the selected macroblock is compressed using the image quality parameters set in S503 and S504.
Thereafter, S501 to S505 are repeated until it is determined in S506 that the compression processing for all macroblocks has been completed.
図4を用いて、領域(マクロブロック)毎の画質制御に関して説明する。
圧縮前の撮像画像400を用いた第1の指標情報検出処理によって、マーカー401が検出されなかった場合、マーカー401周辺のマクロブロックの符号化の際は、S504で画質パラメータはQ1(高画質)に設定されるため、圧縮後の画質劣化が抑えられる。すなわち、マーカー(拡大)415のような、第2の指標情報検出処理での検出が望めない程の低画質で圧縮されることは避けられる。
The image quality control for each area (macroblock) will be described with reference to FIG.
If the marker 401 is not detected by the first index information detection process using the pre-compression captured image 400, the image quality parameter is Q1 (high image quality) in S504 when the macroblocks around the marker 401 are encoded. Therefore, image quality deterioration after compression is suppressed. That is, it is possible to avoid compression with a low image quality such as the marker (enlarged) 415 that cannot be detected by the second index information detection process.
反対に、第1の指標情報検出処理によって、マーカー401を検出した場合、マーカー401周辺のマクロブロックはS503で画質パラメータをQ2(低画質)に設定される。すなわち圧縮後のデータレートが抑制されることとなり、ネットワークの利用帯域を削減することが可能となる。マーカーは既に検出済みであるため、圧縮による画質劣化が第2の指標情報検出処理に与える影響を気にする必要はない。 On the other hand, if the marker 401 is detected by the first index information detection process, the image quality parameter of the macro block around the marker 401 is set to Q2 (low image quality) in S503. In other words, the data rate after compression is suppressed, and it is possible to reduce the network bandwidth. Since the marker has already been detected, there is no need to worry about the influence of the image quality deterioration due to compression on the second index information detection process.
図12に、第1の実施形態における各領域の状態遷移の一例を示す。説明を簡単にするために撮像画像1210は同図(a1)に示すように、4つの領域1211〜1214に分割されて処理されるものとする。
同図(a1)〜(a3)はHMD部における処理を説明するための図であり、同図(a4)〜(a5)は画像処理部における処理を説明するための図である。
FIG. 12 shows an example of state transition of each region in the first embodiment. In order to simplify the explanation, it is assumed that the captured image 1210 is divided into four regions 1211 to 1214 and processed as shown in FIG.
(A1) to (a3) are diagrams for explaining the processing in the HMD unit, and (a4) to (a5) are diagrams for explaining the processing in the image processing unit.
まず、領域1211が選択され、第1の指標情報検出処理が行われ(図12(a1))、領域1211から第1の指標情報が検出され(図12(a2))、画質パラメータQ2(低画質)で圧縮される(図12(a3))。
次に、領域1212が選択され、第1の指標情報検出処理が行われ(図12(a1))、領域1212からは第1の指標情報が検出されず(図12(a2))、画質パラメータQ1(高画質)で圧縮される(図12(a3))。
同様に、領域1213及び1214についても、第1の指標情報検出処理が行われ(図12(a1))、領域1212からは第1の指標情報が検出されず(図12(a2))、画質パラメータQ1(高画質)で圧縮される(図12(a3))。
First, the area 1211 is selected, the first index information detection process is performed (FIG. 12 (a1)), the first index information is detected from the area 1211 (FIG. 12 (a2)), and the image quality parameter Q2 (low) Image quality) (FIG. 12 (a3)).
Next, the area 1212 is selected, the first index information detection process is performed (FIG. 12 (a1)), the first index information is not detected from the area 1212 (FIG. 12 (a2)), and the image quality parameter is set. The image is compressed with Q1 (high image quality) (FIG. 12 (a3)).
Similarly, the first index information detection process is performed for the areas 1213 and 1214 (FIG. 12 (a1)), and the first index information is not detected from the area 1212 (FIG. 12 (a2)). It is compressed with the parameter Q1 (high image quality) (FIG. 12 (a3)).
画像処理部では、第1の指標情報が検出されなかった領域(高画質で圧縮された領域)1212〜1214に対して第2の指標情報検出処理が行われ(図12(a4))、例えば、領域1214から第2の指標情報が検出される(図12(a5))。 In the image processing unit, a second index information detection process is performed on areas 1212 to 1214 where the first index information has not been detected (areas compressed with high image quality) (FIG. 12 (a4)). The second index information is detected from the region 1214 (FIG. 12 (a5)).
以上のように本実施形態によれば、一部の指標情報はHMD部において検出され、指標情報が検出された領域は低画質で圧縮され、指標情報が検出されなかった領域は高画質で圧縮されて、画像処理部へ送られる。このように撮像画像の圧縮を行うことで、ネットワークの利用帯域を削減しつつ、圧縮画像が劣化することによる指標情報検出処理精度の低下を抑止することが可能となる。 As described above, according to the present embodiment, a part of the index information is detected by the HMD unit, the area where the index information is detected is compressed with low image quality, and the area where the index information is not detected is compressed with high image quality. And sent to the image processing unit. By compressing the captured image in this way, it is possible to suppress a decrease in index information detection processing accuracy due to deterioration of the compressed image while reducing the network bandwidth.
[第2の実施形態]
第1の実施形態では、第1の指標情報検出部102による指標情報検出の有無に応じて、画質パラメータの制御を行っていた。つまり、第1の指標情報検出部102によって指標情報が検出されなかった領域に対しては画質パラメータの制御を行っていなかった。しかし、第1の指標情報検出部102によって指標情報が検出されなかった領域は、次の2種類に分けることができる。すなわち、指標情報が存在しないから指標情報が検出されなかった領域と、指標情報が存在するにもかかわらず指標情報が検出されなかった領域である。
[Second Embodiment]
In the first embodiment, image quality parameters are controlled according to whether or not index information is detected by the first index information detection unit 102. That is, the image quality parameter is not controlled for the area where the index information is not detected by the first index information detection unit 102. However, the area where the index information is not detected by the first index information detection unit 102 can be divided into the following two types. That is, an area where the index information is not detected because the index information does not exist, and an area where the index information is not detected although the index information exists.
本実施形態では、第1の指標情報検出部102によって指標情報が検出されなかった領域に対しても画質パラメータの制御を行う方法について述べる。
例えば、第1の指標情報検出部によって指標情報が検出されなかった領域であって、当該領域以外の領域から検出された指標情報に基づいて推定した結果、指標情報が含まれると推定される領域を、第1の領域とする。
第1の領域は、指標情報が存在するにもかかわらず、第1の指標情報検出部が指標情報を検出できなかった領域である可能性が高い。
In the present embodiment, a method for controlling the image quality parameter even for an area where index information is not detected by the first index information detection unit 102 will be described.
For example, an area in which index information is not detected by the first index information detection unit, and an area estimated to include index information as a result of estimation based on index information detected from an area other than the area Is the first region.
The first area is likely to be an area where the first index information detection unit cannot detect the index information even though the index information exists.
第1の指標情報検出部によって指標情報が検出されなかった領域であって、当該領域以外の領域から検出された指標情報に基づいて推定した結果、指標情報が含まれると推定されない領域を、第2の領域とする。
第2の領域は、指標情報が存在しないから、第1の指標情報検出部が指標情報を検出できなかった領域である可能性が高い。
As a result of estimation based on the index information detected from the area other than the area, the area where the index information is not detected by the first index information detection unit, 2 area.
Since the index information is not present in the second area, there is a high possibility that the first index information detection unit cannot detect the index information.
図6を用いて、第2の実施形態のHMD部における画像圧縮処理の流れについて説明する。
S601は図5のS501と同じであるため、説明を省略する。
S602において、選択したマクロブロック中に、第1の指標情報検出部102で検出した第1の指標情報が含まれるかどうかを検査する。
含まれる場合はS604へ進み、画質パラメータをQ3(低画質)にする。すなわち圧縮条件を低画質に設定する。
指標情報が含まれない(第1の指標情報を検出できなかった)場合はS603へ進む。
The flow of image compression processing in the HMD unit of the second embodiment will be described with reference to FIG.
Since S601 is the same as S501 of FIG.
In S602, it is checked whether or not the first index information detected by the first index information detection unit 102 is included in the selected macroblock.
If included, the process proceeds to S604, and the image quality parameter is set to Q3 (low image quality). That is, the compression condition is set to low image quality.
If the index information is not included (the first index information could not be detected), the process proceeds to S603.
S603では、選択したマクロブロック中に指標情報が含まれる可能性を判断する。判断する方法としては、過去において検出済みの指標情報、および現在の撮像画像で検出済みの指標情報から位置関係を計算することが考えられる。例えば、HMD部100で現在の撮像画像から既にいくつか指標情報を検出している場合、当該指標情報を過去において検出された指標情報と照らし合わせ、今回検出できなかったが、指標情報が存在しうる個所を予測可能である。 In S603, it is determined whether or not index information is included in the selected macroblock. As a determination method, it is conceivable to calculate the positional relationship from index information detected in the past and index information detected in the current captured image. For example, when some index information is already detected from the current captured image in the HMD unit 100, the index information is compared with the index information detected in the past, and the index information is not detected this time. Predictable points can be predicted.
例えば、第1の指標情報検出部102が、時刻T1に検出した指標情報の集合に、指標情報1−1−1、1−1−2および1−1−3が含まれ、
指標情報1−1−3の位置は、「指標情報1−1−1の位置」と「指標情報1−1−2の位置」との中間であるとする。
そして、第1の指標情報検出部102が、時刻T2に検出した指標情報の集合に、指標情報1−2−1と1−2−2が含まれ、
「指標情報1−1−1の位置」と「指標情報1−2−1の位置」とがほぼ同じであり、かつ
「指標情報1−1−2の位置」と「指標情報1−2−2の位置」とがほぼ同じであるとする。
しかし、時刻T2に検出された指標情報の集合には、「指標情報1−2−1の位置」と「指標情報1−2−2の位置」との中間に位置する指標情報が含まれていないとする。
この場合、時刻T2に検出された指標情報の集合には、「指標情報1−2−1の位置」と「指標情報1−2−2の位置」との中間に位置する指標情報は含まれていないが、当該中間には指標情報が存在する可能性が高いと判断(推定)することができる。
For example, the index information 1-1-1, 1-1-2, and 1-1-3 are included in the set of index information detected by the first index information detection unit 102 at time T1,
The position of the index information 1-1-3 is assumed to be between the “position of the index information 1-1-1” and the “position of the index information 1-1-2”.
Then, the index information 1-2-1 and 1-2-2 are included in the set of index information detected by the first index information detection unit 102 at time T2,
The “position of the index information 1-1-1” and the “position of the index information 1-2-1” are substantially the same, and the “position of the index information 1-1-2” and the “index information 1-2— It is assumed that “position 2” is substantially the same.
However, the set of index information detected at time T2 includes index information positioned between “the position of the index information 1-2-1” and “the position of the index information 1-2-2”. Suppose not.
In this case, the set of index information detected at time T2 includes index information positioned between “the position of the index information 1-2-1” and “the position of the index information 1-2-2”. However, it can be determined (estimated) that there is a high possibility that the index information exists in the middle.
このように指標情報の位置を推定し、推定結果に応じて、対応する領域の圧縮条件を設定することが可能である。過去の指標情報は、以前の検出結果や、HMD部の初期化・セットアップ時に使用したキャリブレーションデータをHMD部100内に格納していてもよいし、画像処理部110から送信してもよい。 In this way, it is possible to estimate the position of the index information and set the compression condition of the corresponding region according to the estimation result. For past index information, previous detection results and calibration data used during initialization / setup of the HMD unit may be stored in the HMD unit 100 or may be transmitted from the image processing unit 110.
選択したマクロブロック中に指標情報が含まれる可能性が低いと判断(推定)した場合、S605へ進み、画質パラメータをQ2(中画質)にする。すなわち圧縮条件を低画質と高画質の間、もしくは低画質と同等に設定する。
予測により選択したマクロブロック中に指標情報が含まれる可能性が高いと判断した場合、S606へ進み、画質パラメータをQ1(高画質)にする。すなわち圧縮条件を高画質に設定する。
When it is determined (estimated) that the index information is unlikely to be included in the selected macroblock, the process proceeds to S605 and the image quality parameter is set to Q2 (medium image quality). That is, the compression condition is set between the low image quality and the high image quality, or equivalent to the low image quality.
If it is determined that there is a high possibility that the index information is included in the macroblock selected by the prediction, the process proceeds to S606, and the image quality parameter is set to Q1 (high image quality). That is, the compression condition is set to high image quality.
本実施形態では画質パラメータとして、量子化スケーリング値を想定しているが、これに限定するものではない。ここで、量子化スケーリング値を想定したときの各画質パラメータの関係は、Q1≦Q2≦Q3となるものとする。
次に、S607では、S604,S605およびS606で設定された画質パラメータを用いて、選択されたマクロブロックを圧縮する。以下、S608で、全てのマクロブロックの圧縮処理が終了したと判定されるまで、S601〜S607を繰り返す。
In the present embodiment, a quantized scaling value is assumed as the image quality parameter, but the present invention is not limited to this. Here, the relationship between the image quality parameters when the quantized scaling value is assumed is assumed to be Q1 ≦ Q2 ≦ Q3.
In step S607, the selected macroblock is compressed using the image quality parameters set in steps S604, S605, and S606. Thereafter, S601 to S607 are repeated until it is determined in S608 that the compression processing for all the macroblocks has been completed.
図4を用いて、領域(マクロブロック)毎の画質制御に関して説明する。
時刻T1に撮像された、圧縮前の撮像画像400を用いて、第1の指標情報検出部によって、指標情報検出処理を行い、マーカー401,402,403,404が検出されたとする。
一方、圧縮前の撮像画像400と撮像部の位置姿勢がほぼ同じという条件下で、時刻T2(T1+ΔT=T2)に撮像された、圧縮前の撮像画像(図示せず)を用いて第1の指標情報検出部によって指標画像検出処理を行った。この指標画像検出処理によって、マーカー402,403,404が検出され、マーカー401が検出されなかったとする。
時刻T1(過去)に撮像された画像から検出された指標情報の集合(時刻T1の指標情報の集合)と、時刻T2(現在)に撮像された画像から検出された指標情報の集合(時刻T2の指標情報の集合)とを比較する。そして、時刻T1の集合と時刻T2の集合との差分から、マーカー401が「存在すると思われる」領域(図4中のマーカー401周辺)を推定し、画質パラメータQ1(高画質)に設定してマーカー401が「存在すると思われる」領域を圧縮する。
同様に、マーカーが「存在しないと思われる」領域、すなわちマーカー401,402,403,404の周辺以外の領域を、画質パラメータQ2(中画質)に設定して圧縮する。
マーカー402,403,404の周辺は、画質パラメータQ3(低画質)に設定して圧縮する。
The image quality control for each area (macroblock) will be described with reference to FIG.
It is assumed that index information detection processing is performed by the first index information detection unit using the pre-compression captured image 400 captured at time T1, and the markers 401, 402, 403, and 404 are detected.
On the other hand, using the pre-compression captured image (not shown) captured at time T2 (T1 + ΔT = T2) under the condition that the position and orientation of the image capturing unit are substantially the same as the captured image 400 before compression. Index image detection processing was performed by one index information detection unit. It is assumed that the markers 402, 403, and 404 are detected by the index image detection process, and the marker 401 is not detected.
A set of index information detected from an image captured at time T1 (past) (set of index information at time T1) and a set of index information detected from an image captured at time T2 (current) (time T2) With a set of index information). Then, from the difference between the set at time T1 and the set at time T2, an area where the marker 401 “is supposed to exist” (around the marker 401 in FIG. 4) is estimated and set to the image quality parameter Q1 (high image quality). The area where the marker 401 “is supposed to exist” is compressed.
Similarly, the region where the marker is “not considered to exist”, that is, the region other than the periphery of the markers 401, 402, 403, 404 is set to the image quality parameter Q2 (medium image quality) and compressed.
The area around the markers 402, 403, and 404 is compressed by setting the image quality parameter Q3 (low image quality).
このような画質制御を行うことで、マーカー401(周辺)を圧縮後の画像からでも検出できる画質にするとともに、マーカー401〜404の周辺以外の領域に対しては、過度に画質を上げることによるデータレートの増大を抑止することが可能となる。 By performing such image quality control, the marker 401 (periphery) has an image quality that can be detected even from a compressed image, and the image quality is excessively increased for regions other than the periphery of the markers 401 to 404. An increase in data rate can be suppressed.
図13に、第2の実施形態における各領域の状態遷移の一例を示す。説明を簡単にするために撮像画像1310は同図(b1)に示すように、4つの領域1311〜1314に分割されて処理されるものとする。
同図(b1)〜(b4)はHMD部における処理を説明するための図であり、同図(b5)〜(b6)は画像処理部における処理を説明するための図である。
FIG. 13 shows an example of state transition of each region in the second embodiment. In order to simplify the explanation, it is assumed that the captured image 1310 is divided into four regions 1311 to 1314 and processed as shown in FIG.
(B1) to (b4) are diagrams for explaining processing in the HMD unit, and (b5) to (b6) are diagrams for explaining processing in the image processing unit.
まず、領域1311が選択され、第1の指標情報検出処理が行われ(図13(b1))、領域1311から第1の指標情報が検出され(図13(b2))、その後、領域1312と1314に指標情報が含まれると推定される(図13(b3))。
第1の指標情報が検出された領域1311は低画質で圧縮され、指標情報が含まれると推定された領域1312と1314は高画質で圧縮される。そして、第1の指標情報が検出されず、かつ指標情報が含まれると推定されなかった領域1313は中画質で圧縮される(図13(b4))。
First, the area 1311 is selected, the first index information detection process is performed (FIG. 13 (b1)), the first index information is detected from the area 1311 (FIG. 13 (b2)), and then the area 1312 and It is estimated that the index information is included in 1314 (FIG. 13 (b3)).
The area 1311 where the first index information is detected is compressed with low image quality, and the areas 1312 and 1314 estimated to include the index information are compressed with high image quality. Then, the area 1313 in which the first index information is not detected and the index information is not estimated to be included is compressed with medium image quality (FIG. 13 (b4)).
画像処理部では、第1の指標情報が検出されなかった領域1312〜1314に対して第2の指標情報検出処理が行われ(図13(b5))、例えば、領域1314から第2の指標情報が検出される(図13(b6))。 In the image processing unit, the second index information detection process is performed on the areas 1312 to 1314 in which the first index information is not detected (FIG. 13 (b5)). Is detected (FIG. 13 (b6)).
以上のように本実施形態によれば、第1の指標情報検出部102によって指標情報が検出されなかった領域に対して、指標情報が含まれると推定されるか否かに応じて、画像圧縮の画質パラメータを変える。このようにすることで、ビデオシースルー型複合現実システムにおいて、撮像画像の圧縮を行うことで、ネットワークの利用帯域を削減しつつ、圧縮画像が劣化することによる指標情報検出処理精度の低下をより一層抑止することが可能となる。 As described above, according to the present embodiment, image compression is performed according to whether or not index information is estimated to be included in an area in which index information is not detected by the first index information detection unit 102. Change the image quality parameter. In this way, in the video see-through mixed reality system, by compressing the captured image, the bandwidth of the network is reduced, and the accuracy of the index information detection processing due to the deterioration of the compressed image is further reduced. It becomes possible to deter.
[第3の実施形態]
第1および第2の実施形態では、第1および第2の指標情報検出部として、マーカー検出を用いていた。第3の実施形態では、指標情報として自然特徴を用いた方法について述べる。機能ブロックの構成及び圧縮方法のフローチャートに関しては第1および第2の実施形態と同じであるため、説明を省略する。
現実空間中には、HMD部100内の撮像部101によって撮像するための1つまたは複数の指標Pが配置される。ここで現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義する座標系を世界座標系と称する。この世界座標系における位置が既知である指標Pk(k=1,,,K)が配置されている。指標Pkは、撮像部101によって、少なくとも3個以上の点の情報が観測されるように設置されているとよい。指標Pkは、例えば、それぞれが異なる色を有する円形状のマーカーによって構成してもよいし、それぞれが異なる特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形領域によって形成されるような四角形指標を用いることも可能である。撮像画像上における画像座標が検出可能であって、かついずれの指標であるかが識別可能であるような指標であれば、何れの形態であってもよい。
以上のように本実施形態によれば、ビデオシースルー型複合現実システムにおいて、自然特徴を用いた指標情報検出が可能となる。
[Third Embodiment]
In the first and second embodiments, marker detection is used as the first and second index information detection units. In the third embodiment, a method using natural features as index information will be described. Since the functional block configuration and the flowchart of the compression method are the same as those in the first and second embodiments, the description thereof is omitted.
In the real space, one or a plurality of indices P for imaging by the imaging unit 101 in the HMD unit 100 are arranged. Here, a coordinate system in which one point in the real space is defined as an origin and three axes orthogonal to each other are defined as an X axis, a Y axis, and a Z axis is referred to as a world coordinate system. An indicator Pk (k = 1,..., K) whose position in the world coordinate system is known is arranged. The index Pk is preferably installed so that information of at least three points can be observed by the imaging unit 101. For example, the indicator Pk may be configured by circular markers each having a different color, or may be configured by feature points such as natural features each having a different feature. It is also possible to use a square index formed by a square area having a certain area. Any form may be used as long as the image coordinates on the captured image can be detected and the index can be identified.
As described above, according to the present embodiment, it is possible to detect index information using natural features in a video see-through mixed reality system.
[第4の実施形態]
第1および第2の実施形態では、第1および第2の指標情報検出部として、処理能力に違いはあるものの、同様の独立した手法を想定していた。つまり、第1指標情報検出部102と第2の指標情報検出部113とはそれぞれ独立して指標情報を検出するものであった。具体的には、指標情報が含まれる領域ではあるが、第1指標情報検出部102が指標情報を検出できなかった領域から、第2の指標情報検出部113が指標情報を検出するものであった。
しかし、第4の実施形態では、第1の指標情報検出部802は、指標情報が含まれると推定される領域に関して、第2の指標情報検出部813の前処理となる処理を行うのみである。
例えば、第1の指標情報検出部802は、指標情報の一部として、マーカーの外枠のみを検出する。そして、第2の指標情報検出部813は、指標情報の残部として、マーカーの外枠の中の模様を検出する。
第4の実施形態では、第1の指標情報検出部802が検出する指標情報の一部(例えば、マーカーの外枠)を第1の指標情報と称し、第2の指標情報検出部813が検出する指標情報の残部(例えば、マーカーの外枠の中の模様)を第2の指標情報と称する。
[Fourth Embodiment]
In the first and second embodiments, the same independent method is assumed as the first and second index information detection units, although there is a difference in processing capability. That is, the first index information detection unit 102 and the second index information detection unit 113 each independently detect the index information. Specifically, the second index information detection unit 113 detects the index information from the area in which the index information is included, but the first index information detection unit 102 cannot detect the index information. It was.
However, in the fourth embodiment, the first index information detection unit 802 only performs a process that is a pre-process of the second index information detection unit 813 for a region that is estimated to include the index information. .
For example, the first index information detection unit 802 detects only the outer frame of the marker as part of the index information. Then, the second index information detection unit 813 detects a pattern in the outer frame of the marker as the remainder of the index information.
In the fourth embodiment, a part of the index information detected by the first index information detection unit 802 (for example, the outer frame of the marker) is referred to as first index information, and the second index information detection unit 813 detects the index information. The remaining part of the index information (for example, the pattern in the outer frame of the marker) is referred to as second index information.
図8は、第4の実施形態におけるビデオシースルー型複合現実システムの機能ブロック図であり、HMD部800と画像処理部810から構成される。
HMD部800は、撮像部801と、第1の指標情報検出部802と、画像圧縮部803と、第1のネットワーク通信部804と、画像表示部805とから構成されている。撮像部801と、画像圧縮部803と、第1のネットワーク通信部804と、画像表示部805の各機能の説明は図1中の撮像部101と、画像圧縮手段103と、第1のネットワーク通信部104と、画像表示部105と同じであるため説明を省略する。
FIG. 8 is a functional block diagram of a video see-through mixed reality system according to the fourth embodiment, and includes an HMD unit 800 and an image processing unit 810.
The HMD unit 800 includes an imaging unit 801, a first index information detection unit 802, an image compression unit 803, a first network communication unit 804, and an image display unit 805. The functions of the imaging unit 801, the image compression unit 803, the first network communication unit 804, and the image display unit 805 are described in the imaging unit 101, the image compression unit 103, and the first network communication in FIG. Since it is the same as the part 104 and the image display part 105, description is abbreviate | omitted.
第1の指標情報検出部802は、前記の如く、指標情報が含まれると推定される領域に関して、第2の指標情報検出部の前処理となる処理を行うのみである。例えば、第1の指標情報検出部802は、指標情報の一部のみを検出する。指標情報の一部とは、例えば、指標情報(マーカー)の外形部(矩形領域)である。第1の指標情報検出部802は、第2の指標情報検出部813における指標情報検出処理の前処理として、圧縮前の撮像画像から指標情報(マーカー)の外形部(矩形領域)のみを検出する。
第1の指標情報検出部802による前処理の結果は、第2の指標情報検出部813へ送られる。
第2の指標情報検出部813は、第1の指標情報検出部802による前処理の結果を利用することによって、指標情報検出処理の一部を省略することができる。
As described above, the first index information detection unit 802 only performs a process that is a pre-process of the second index information detection unit for a region estimated to include the index information. For example, the first index information detection unit 802 detects only part of the index information. The part of the index information is, for example, an outer portion (rectangular area) of the index information (marker). The first index information detection unit 802 detects only the outer shape portion (rectangular region) of the index information (marker) from the pre-compression captured image as preprocessing of index information detection processing in the second index information detection unit 813. .
The result of the preprocessing by the first index information detection unit 802 is sent to the second index information detection unit 813.
The second index information detection unit 813 can omit a part of the index information detection process by using the result of the preprocessing by the first index information detection unit 802.
画像圧縮部803は、第1の指標情報検出部802によって指標情報が含まれると推定された領域の画像を、画質パラメータを高画質に設定して圧縮する。指標情報が含まれると推定された領域の画像は、第2の指標情報検出部813によって指標情報検出処理が行われる。
一方、画像圧縮部803は、第1の指標情報検出部802によって指標情報が含まれると推定されなかった領域の画像を、画質パラメータを中画質に設定して圧縮する。指標情報が含まれると推定されなかった領域の画像は、第2の指標情報検出部813によって指標情報検出処理が行われない。
The image compression unit 803 compresses the image of the area estimated by the first index information detection unit 802 to include the index information by setting the image quality parameter to high image quality. The image of the region estimated to include the index information is subjected to index information detection processing by the second index information detection unit 813.
On the other hand, the image compression unit 803 compresses an image of an area that has not been estimated that index information is included by the first index information detection unit 802 by setting the image quality parameter to medium image quality. The second index information detection unit 813 does not perform the index information detection process on the image of the area that is not estimated to include the index information.
画像処理部810は、第2のネットワーク通信部811と、画像伸張部812と、第2の指標情報検出部813と、位置計測部814と、CG合成部815とから構成されている。第2のネットワーク通信部811と、画像伸張部812と、CG合成部815の各機能の説明は図1中の第2のネットワーク通信部111と、画像伸張部112と、CG合成部115と同じであるため説明を省略する。
ただし、第2の指標情報検出部813が伸張された撮像画像に加えて第1の指標情報を利用して第2の指標情報を検出する点と、位置計測部814が第2の指標情報のみから位置姿勢情報を生成する点が異なる。
The image processing unit 810 includes a second network communication unit 811, an image expansion unit 812, a second index information detection unit 813, a position measurement unit 814, and a CG composition unit 815. The functions of the second network communication unit 811, the image decompression unit 812, and the CG composition unit 815 are the same as those of the second network communication unit 111, the image decompression unit 112, and the CG composition unit 115 in FIG. 1. Therefore, the description is omitted.
However, the second index information detection unit 813 detects the second index information using the first index information in addition to the expanded captured image, and the position measurement unit 814 detects only the second index information. The position and orientation information is generated from the difference.
HMD部800中の撮像部801で撮像された撮像画像から、画像圧縮部803により圧縮画像が生成される。
同様に撮像画像から、第1の指標情報検出部802が第1の指標情報検出処理を行う。ここで、第1の指標情報検出処理は、たとえばマーカーの外形部(矩形領域)の検出といった、実際に指標情報を決定する前段階の処理とする。
圧縮画像と第1の指標情報は、第1のネットワーク通信部804により画像処理部810へ送信される。
A compressed image is generated by the image compression unit 803 from the captured image captured by the imaging unit 801 in the HMD unit 800.
Similarly, from the captured image, the first index information detection unit 802 performs a first index information detection process. Here, the first index information detection process is a process in the previous stage in which the index information is actually determined, for example, detection of the outer portion (rectangular region) of the marker.
The compressed image and the first index information are transmitted to the image processing unit 810 by the first network communication unit 804.
画像処理部810では、第2のネットワーク通信部811で受信した圧縮画像を画像伸張部812で伸張(デコード)し、伸張された撮像画像を生成する。
第2の指標情報検出部813は、伸張された撮像画像および第1の指標情報から第2の指標情報を検出する。例えば、第1の指標情報として検出した矩形領域を含む領域に対して、この矩形領域がマーカーであるかどうかの判定処理を行う。
位置計測部814は第2の指標情報からHMD使用者の位置姿勢情報を生成する。
CG合成部815は、伸張された撮像画像に、HMD使用者の位置及び姿勢から見たCGを合成した合成画像を生成する。
第2のネットワーク通信部811は、CG合成部815によって生成された合成画像をHMD部800へ送信する。HMD部800中の第1のネットワーク通信部804で受信した合成画像は、画像表示部805を介してHMD使用者に表示される。
In the image processing unit 810, the compressed image received by the second network communication unit 811 is expanded (decoded) by the image expansion unit 812, and an expanded captured image is generated.
The second index information detection unit 813 detects the second index information from the expanded captured image and the first index information. For example, a process for determining whether or not the rectangular area is a marker is performed on an area including the rectangular area detected as the first index information.
The position measurement unit 814 generates position and orientation information of the HMD user from the second index information.
The CG synthesizing unit 815 generates a synthesized image obtained by synthesizing CG viewed from the position and posture of the HMD user with the expanded captured image.
The second network communication unit 811 transmits the combined image generated by the CG combining unit 815 to the HMD unit 800. The composite image received by the first network communication unit 804 in the HMD unit 800 is displayed to the HMD user via the image display unit 805.
図9を用いて、第4の実施形態のHMD部における画像圧縮処理の流れについて説明する。第1の実施形態で用いた図5と同じ部分については説明を省略し、異なる部分について説明する。具体的には、S901はS501と、S903はS503と、S904はS504と、S906はS506と、処理内容が同じため説明を省略し、S902について説明する。 The flow of image compression processing in the HMD unit of the fourth embodiment will be described with reference to FIG. The description of the same parts as those in FIG. 5 used in the first embodiment will be omitted, and different parts will be described. Specifically, S901 is S501, S903 is S503, S904 is S504, and S906 is S506 because the processing contents are the same.
S902では、S901で選択された領域が「指標情報が含まれると推定される領域」か、すなわち第1の指標情報検出処理(第2の指標情報検出処理の前処理)によって指標情報の一部などが検出される領域かを判断する。指標情報が含まれると推定された領域であればS904に進み、指標情報が含まれると推定された領域でなければS903に進む。 In S902, whether the area selected in S901 is “an area estimated to include index information”, that is, part of the index information by the first index information detection process (pre-processing of the second index information detection process). It is determined whether the area is detected. If it is an area estimated to include the index information, the process proceeds to S904, and if it is not an area estimated to include the index information, the process proceeds to S903.
例えば指標情報(マーカー)の外形部と同一形状の図形が検出された領域は、指標情報が含まれる領域と推定される。指標情報の外形部と同一形状の図形が検出されただけでは、その外形部が指標情報の一部なのか、別の図形の一部なのかは判断できない。第1の指標情報検出部802は外形部のみを検出し、その外形部が指標情報の一部なのか、別の図形の一部なのかは第2の指標情報検出部813が判断する。 For example, an area where a figure having the same shape as the outer shape of the index information (marker) is detected is estimated as an area including the index information. Only when a graphic having the same shape as the outer shape of the index information is detected, it cannot be determined whether the outer shape is a part of the index information or a part of another graphic. The first index information detection unit 802 detects only the outer shape, and the second index information detection unit 813 determines whether the outer shape is a part of the index information or a part of another figure.
図14に、第4の実施形態における各領域の状態遷移の一例を示す。説明を簡単にするために撮像画像1410は同図(c1)に示すように、4つの領域1411〜1414に分割されて処理されるものとする。
同図(c1)〜(c3)はHMD部における処理を説明するための図であり、同図(c4)〜(c5)は画像処理部における処理を説明するための図である。
FIG. 14 shows an example of state transition of each region in the fourth embodiment. In order to simplify the explanation, it is assumed that the captured image 1410 is divided into four regions 1411 to 1414 and processed as shown in FIG.
(C1) to (c3) are diagrams for explaining processing in the HMD unit, and (c4) to (c5) are diagrams for explaining processing in the image processing unit.
まず、領域1411が選択され、第1の指標情報検出処理(第2の指標情報検出の前処理)が行われ(図14(c1))、領域1411から第1の指標情報が検出され(図14(c2))、画質パラメータQ1(高画質)で圧縮される(図14(c3))。
次に、領域1412が選択され、第1の指標情報検出処理(第2の指標情報検出の前処理)が行われるが(図14(c1))、領域1412からは第1の指標情報が検出されず(図14(c2))、画質パラメータQ2(中画質)で圧縮される(図14(c3))。
First, an area 1411 is selected, and first index information detection processing (preprocessing for second index information detection) is performed (FIG. 14C1), and first index information is detected from the area 1411 (FIG. 14). 14 (c2)), and compression is performed with the image quality parameter Q1 (high image quality) (FIG. 14 (c3)).
Next, an area 1412 is selected, and first index information detection processing (preprocessing for second index information detection) is performed (FIG. 14 (c1)), but first index information is detected from the area 1412. It is not compressed (FIG. 14 (c2)) and is compressed with the image quality parameter Q2 (medium image quality) (FIG. 14 (c3)).
次に、領域1413が選択され、第1の指標情報検出処理(第2の指標情報検出の前処理)が行われるが(図14(c1))、領域1413からも第1の指標情報が検出されず(図14(c2))、画質パラメータQ2(中画質)で圧縮される(図14(c3))。
次に、領域1414が選択され、第1の指標情報検出処理(第2の指標情報検出の前処理)が行われ(図14(c1))、領域1414から第1の指標情報が検出され(図14(c2))、画質パラメータQ1(高画質)で圧縮される(図14(c3))。
Next, an area 1413 is selected, and first index information detection processing (preprocessing for second index information detection) is performed (FIG. 14 (c1)), but first index information is also detected from the area 1413. It is not compressed (FIG. 14 (c2)) and is compressed with the image quality parameter Q2 (medium image quality) (FIG. 14 (c3)).
Next, the area 1414 is selected, and first index information detection processing (preprocessing for second index information detection) is performed (FIG. 14C1), and first index information is detected from the area 1414 ( FIG. 14 (c2)), and compression is performed with the image quality parameter Q1 (high image quality) (FIG. 14 (c3)).
画像処理部では、第1の指標情報が検出された領域(高画質で圧縮された領域)1411及び1414に対して第2の指標情報検出処理(後処理)が行われ(図14(c4))、領域1411及び1414から第2の指標情報が検出される(図14(c5))。 In the image processing unit, second index information detection processing (post-processing) is performed on the regions (regions compressed with high image quality) 1411 and 1414 where the first index information is detected (FIG. 14 (c4)). ), The second index information is detected from the areas 1411 and 1414 (FIG. 14 (c5)).
以上のように本実施形態によれば、第1の指標情報検出部は、第2の指標情報検出部における検出処理の前処理を行い、第2の指標情報検出部は、第1の指標情報検出部の前処理の結果を利用して指標情報検出処理を行う。また、第1の指標情報が検出された領域については圧縮条件が高画質に設定され、第1の指標情報が含まれると推定されなかった領域については圧縮条件が中画質に設定される。
このようにすることで、軽量・コンパクト性が求められるHMD部の特性を考慮した簡易な指標情報検出処理のみをHMD部で行った上で、ネットワークの利用帯域を削減しつつ、圧縮による指標情報検出処理精度の劣化をより一層抑止することが可能となる。
As described above, according to the present embodiment, the first index information detection unit performs the preprocessing of the detection process in the second index information detection unit, and the second index information detection unit performs the first index information detection. The index information detection process is performed using the result of the preprocessing of the detection unit. The compression condition is set to high image quality for the area where the first index information is detected, and the compression condition is set to medium image quality for the area where the first index information is not estimated to be included.
By doing so, the HMD unit performs only simple index information detection processing considering the characteristics of the HMD unit that is required to be lightweight and compact, and the index information by compression while reducing the network bandwidth. It becomes possible to further suppress the deterioration of the detection processing accuracy.
[第5の実施形態]
本実施形態では、撮像画像の画像特性に応じた第1の指標情報検出の対象領域の優先度について述べる。
図10は、第5の実施形態におけるビデオシースルー型複合現実システムの機能ブロック図であり、HMD部1000と画像処理部1010から構成される。
HMD部1000は、撮像部1001と、第1の指標情報検出部1002と、画像圧縮部1003と、第1のネットワーク通信部1004と、画像表示部1005とから構成されている。第1の指標情報検出部1002は、空間周波数取得部を備える。
撮像部1001と、画像圧縮部1003と、第1のネットワーク通信部1004と、画像表示部1005の機能は、図1中の撮像部101と、画像圧縮部103と、第1のネットワーク通信部104と、画像表示部105と同じであるため説明を省略する。
[Fifth Embodiment]
In the present embodiment, the priority of the target area for the first index information detection according to the image characteristics of the captured image will be described.
FIG. 10 is a functional block diagram of a video see-through mixed reality system according to the fifth embodiment, and includes a HMD unit 1000 and an image processing unit 1010.
The HMD unit 1000 includes an image capturing unit 1001, a first index information detection unit 1002, an image compression unit 1003, a first network communication unit 1004, and an image display unit 1005. The first index information detection unit 1002 includes a spatial frequency acquisition unit.
The functions of the imaging unit 1001, the image compression unit 1003, the first network communication unit 1004, and the image display unit 1005 are the same as the imaging unit 101, the image compression unit 103, and the first network communication unit 104 in FIG. Since it is the same as that of the image display unit 105, description thereof is omitted.
空間周波数取得部は、圧縮前の撮像画像の空間周波数をマクロブロック単位ごとに求める。求められた空間周波数は閾値と比較される。
第1の指標情報検出部1002は、空間周波数取得部によって求められた空間周波数が閾値以上の場合、そのマクロブロックを優先して指標情報検出処理を行い、空間周波数が閾値未満の場合、そのマクロブロックに関して通常の指標情報検出処理を行う。
「優先して指標情報検出処理を行う」とは、例えば、通常の(つまり、通常の)指標情報検出処理と比較して、長い時間をかけて指標情報検出処理を行うことなどを意味する。
The spatial frequency acquisition unit obtains the spatial frequency of the captured image before compression for each macroblock. The determined spatial frequency is compared with a threshold value.
When the spatial frequency obtained by the spatial frequency acquisition unit is equal to or greater than the threshold, the first index information detection unit 1002 performs index information detection processing with priority on the macroblock, and when the spatial frequency is less than the threshold, the macro A normal index information detection process is performed for the block.
“Perform index information detection processing preferentially” means, for example, that index information detection processing is performed over a longer time compared to normal (that is, normal) index information detection processing.
図11を用いて、第5の実施形態のHMD部における画像圧縮処理の流れについて説明する。
S1101では、撮像画像を分割した領域(マクロブロック)単位の1つ(通常、左上端から右下端の順で、左から右へ、右端へ到達すると左端に戻り1マクロブロック行分下へ移動するというラスタースキャン順番)を選択する。
The flow of image compression processing in the HMD unit of the fifth embodiment will be described with reference to FIG.
In S1101, one of the units (macroblocks) obtained by dividing the captured image (usually, from the upper left corner to the lower right corner, from left to right, when reaching the right edge, returns to the left edge and moves down by one macroblock row. Raster scan order).
S1102では、各マクロブロック単位の空間周波数を取得し、取得された空間周波数と閾値を比較し、取得された空間周波数が以上かを調べる。取得された空間周波数が以上であればS1103に進み、取得された空間周波数が未満であればS1104に進む。
S1103では、優先的な指標情報検出処理を行い、S1104では、通常の(つまり、優先的ではない)指標情報検出処理を行う。
S1105はS501と、S1106はS503と、S1107はS504と、S1108はS505と、S1109はS506と同じであるから説明を省略する。
In S1102, the spatial frequency of each macroblock unit is acquired, the acquired spatial frequency is compared with a threshold value, and it is checked whether the acquired spatial frequency is the above or not. If the acquired spatial frequency is above, the process proceeds to S1103, and if the acquired spatial frequency is less, the process proceeds to S1104.
In S1103, priority index information detection processing is performed, and in S1104, normal (that is, non-priority) index information detection processing is performed.
S1105 is the same as S501, S1106 is the same as S503, S1107 is the same as S504, S1108 is the same as S505, and S1109 is the same as S506.
図7にマーカーの一例を示す。マーカーは、図7のマーカー703で示されるような、白黒の塗りつぶしのパターンで表されることが多い。このようなエッジ情報を含む空間周波数の高い領域は画像圧縮により先鋭度が失われやすいため、圧縮後に行う第2の指標情報検出に際し検出精度の劣化が懸念される。 FIG. 7 shows an example of the marker. The marker is often represented by a black and white fill pattern as indicated by the marker 703 in FIG. In such a region with high spatial frequency including edge information, sharpness is likely to be lost by image compression. Therefore, there is a concern that the detection accuracy may deteriorate when second index information is detected after compression.
図15に、第5の実施形態における各領域の状態遷移の一例を示す。説明を簡単にするために撮像画像1510は同図(d1)に示すように、4つの領域1511〜1514に分割されて処理されるものとする。
同図(d1)〜(d4)はHMD部における処理を説明するための図であり、同図(d5)〜(d6)は画像処理部における処理を説明するための図である。
FIG. 15 shows an example of state transition of each region in the fifth embodiment. In order to simplify the description, it is assumed that the captured image 1510 is divided into four areas 1511 to 1514 and processed as shown in FIG.
(D1) to (d4) are diagrams for explaining processing in the HMD unit, and (d5) to (d6) are diagrams for explaining processing in the image processing unit.
まず、領域1511が選択され、空間周波数が閾値以上であると判断され(図15(d1))、領域1511に対して優先的な第1の指標情報検出処理が行われ(図15(d2))、第1の指標情報が検出される(図15(d3))。第1の指標情報が検出された領域1511は画質パラメータQ2(低画質)で圧縮される(図15(d4))。
次に、領域1512が選択され、空間周波数が閾値未満であると判断され(図15(d1))、領域1512に対して通常の第1の指標情報検出処理が行われ(図15(d2))、第1の指標情報が検出されない(図15(d3))。第1の指標情報が検出されなかった領域1512は画質パラメータQ1(高画質)で圧縮される(図15(d4))。
First, the area 1511 is selected, it is determined that the spatial frequency is equal to or higher than the threshold (FIG. 15 (d1)), and the first index information detection process preferentially performed on the area 1511 is performed (FIG. 15 (d2)). ), First index information is detected (FIG. 15 (d3)). The region 1511 where the first index information is detected is compressed with the image quality parameter Q2 (low image quality) (FIG. 15 (d4)).
Next, the region 1512 is selected, it is determined that the spatial frequency is less than the threshold (FIG. 15 (d1)), and the normal first index information detection processing is performed on the region 1512 (FIG. 15 (d2)). ), The first index information is not detected (FIG. 15 (d3)). The area 1512 in which the first index information is not detected is compressed with the image quality parameter Q1 (high image quality) (FIG. 15 (d4)).
次に、領域1513が選択され、空間周波数が閾値未満であると判断され(図15(d1))、領域1513に対して通常の第1の指標情報検出処理が行われ(図15(d2))、第1の指標情報が検出されない(図15(d3))。第1の指標情報が検出されなかった領域1513は画質パラメータQ1(高画質)で圧縮される(図15(d4))。
次に、領域1514が選択され、空間周波数が閾値以上であると判断され(図15(d1))、領域1514に対して優先的な第1の指標情報検出処理が行われたが(図15(d2))、第1の指標情報が検出されなかった(図15(d3))。第1の指標情報が検出されなかった領域1514は画質パラメータQ1(高画質)で圧縮される(図15(d4))。
Next, the region 1513 is selected, it is determined that the spatial frequency is less than the threshold (FIG. 15 (d1)), and the normal first index information detection process is performed on the region 1513 (FIG. 15 (d2)). ), The first index information is not detected (FIG. 15 (d3)). The area 1513 in which the first index information is not detected is compressed with the image quality parameter Q1 (high image quality) (FIG. 15 (d4)).
Next, the area 1514 is selected, and it is determined that the spatial frequency is equal to or higher than the threshold (FIG. 15 (d1)), and the first index information detection process preferentially performed on the area 1514 (FIG. 15). (D2)), the first index information was not detected (FIG. 15 (d3)). The area 1514 in which the first index information is not detected is compressed with the image quality parameter Q1 (high image quality) (FIG. 15 (d4)).
画像処理部では、第1の指標情報が検出されなかった領域1512〜1314に対して第2の指標情報検出処理が行われ(図15(d5))、例えば、領域1514から第2の指標情報が検出される(図15(d6))。 In the image processing unit, the second index information detection process is performed on the areas 1512 to 1314 in which the first index information is not detected (FIG. 15 (d5)). Is detected (FIG. 15 (d6)).
第5の実施形態では、空間周波数が閾値以上であるか否かに基づいて、圧縮によって先鋭度が失われる領域か否かを判断し、圧縮によって先鋭度が失われる領域については圧縮前に、HMD部の第1の指標情報検出部によって優先して指標情報検出処理を行う。
以上のように、圧縮による画像の劣化が予想される領域(圧縮後の画像から指標情報を検出することが難しい領域)の指標情報の検出処理を圧縮前画像において優先的に実施する。このようにすることで、ネットワークの利用帯域を削減しつつ、指標情報検出処理精度の低下を抑止することが可能となる。
In the fifth embodiment, based on whether or not the spatial frequency is equal to or higher than a threshold value, it is determined whether or not the region where the sharpness is lost by the compression. The index information detection process is preferentially performed by the first index information detection unit of the HMD unit.
As described above, index information detection processing is preferentially performed on an uncompressed image in an area where degradation of the image due to compression is expected (an area where it is difficult to detect index information from the compressed image). By doing in this way, it becomes possible to suppress the fall of index information detection processing accuracy, reducing the use zone of a network.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
例えば、HMDの代わりにHUD(Head Up Display)、HHD(Hand Held Display)を用いた複合現実システムにも適用可能である。
また、本発明は、光学シースルー型のHMDを用いた複合現実システムにも同様に適用可能である。その場合、画像処理部110は合成画像のうちCG部分のみをHMD部100に送信する。もしくは、合成画像中の撮像画像(背景)とCGとを識別する情報を合成画像と併せてHMD部100に送信する。表示部105は、撮像画像に対応する現実空間を透過して視認可能となっており、受信した合成画像(CG)を現実空間に重畳して表示する。
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
For example, the present invention can be applied to a mixed reality system using HUD (Head Up Display) or HHD (Hand Held Display) instead of HMD.
The present invention is also applicable to a mixed reality system using an optical see-through HMD. In that case, the image processing unit 110 transmits only the CG portion of the composite image to the HMD unit 100. Alternatively, information for identifying the captured image (background) and CG in the composite image is transmitted to the HMD unit 100 together with the composite image. The display unit 105 is visible through the real space corresponding to the captured image, and displays the received composite image (CG) superimposed on the real space.
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
100 HMD部
101 撮像部
102 第1の指標情報検出部
103 画像圧縮部
104 ネットワーク通信部
105 画像表示部
110 画像処理部
111 ネットワーク通信部
112 画像伸張部
113 第2の指標情報検出部
114 位置計測部
115 CG合成部
100 HMD unit 101 Imaging unit 102 First index information detection unit 103 Image compression unit 104 Network communication unit 105 Image display unit 110 Image processing unit 111 Network communication unit 112 Image expansion unit 113 Second index information detection unit 114 Position measurement unit 115 CG synthesis unit
Claims (16)
前記表示装置は、
現実空間を撮像して撮像画像を生成する撮像手段と、
前記撮像画像を分割して得られる複数の領域のそれぞれに対して第1の指標情報の検出処理を行う第1の指標情報検出手段と、
前記第1の指標情報検出手段の検出結果に基づいて、前記撮像画像を前記領域ごとに圧縮することにより圧縮画像を生成する画像圧縮手段と、
前記第1の指標情報が検出された領域については前記第1の指標情報および前記圧縮画像を送信し、前記第1の指標情報が検出されなかった領域については前記圧縮画像を送信する第1のネットワーク通信手段と、
表示手段と、
を備え、
前記画像処理装置は、
前記第1のネットワーク通信手段から前記圧縮画像を受信する第2のネットワーク通信手段と、
前記圧縮画像を伸張して伸張画像を生成する画像伸張手段と、
前記伸張画像の前記第1の指標情報が検出されなかった領域から第2の指標情報を検出する、前記第1の指標情報検出手段とは異なる第2の指標情報検出手段と、
前記第1の指標情報および前記第2の指標情報から前記表示装置の位置姿勢情報を生成する位置計測手段と、
前記位置姿勢情報に基づいて生成されたCGを前記伸張画像に合成して合成画像を生成するCG合成手段と、
を備え、
前記第2のネットワーク通信手段は、前記合成画像を前記第1のネットワーク通信手段に送信し、
前記第1のネットワーク通信手段は、前記第2のネットワーク通信手段から前記合成画像を受信し、
前記表示手段は、前記合成画像を表示する
ことを特徴とするシステム。 A system comprising a display device and an image processing device,
The display device
Imaging means for imaging a real space and generating a captured image;
First index information detection means for performing detection processing of first index information for each of a plurality of regions obtained by dividing the captured image;
An image compression unit that generates a compressed image by compressing the captured image for each region based on a detection result of the first index information detection unit;
The first index information and the compressed image are transmitted for the area where the first index information is detected, and the compressed image is transmitted for the area where the first index information is not detected. Network communication means;
Display means;
With
The image processing apparatus includes:
Second network communication means for receiving the compressed image from the first network communication means;
Image expansion means for expanding the compressed image to generate an expanded image;
Second index information detecting means different from the first index information detecting means for detecting second index information from an area where the first index information of the decompressed image is not detected;
Position measuring means for generating position and orientation information of the display device from the first index information and the second index information;
CG combining means for generating a combined image by combining CG generated based on the position and orientation information with the expanded image;
With
The second network communication means transmits the composite image to the first network communication means;
The first network communication means receives the composite image from the second network communication means;
The display means displays the composite image.
前記第1の指標情報が検出された領域については、前記第1の指標情報および前記圧縮画像を送信し、
前記第1の指標情報が検出されなかった領域については、前記第1の指標情報を送信せず前記圧縮画像のみを送信する
ことを特徴とする請求項1に記載のシステム。 The first network communication means includes:
For the region in which the first index information is detected, the first index information and the compressed image are transmitted,
2. The system according to claim 1, wherein only the compressed image is transmitted without transmitting the first index information for an area in which the first index information is not detected.
前記第1の指標情報検出手段によって指標情報が検出された領域の圧縮率が、
前記第1の指標情報検出手段によって指標情報が検出されなかった領域の圧縮率よりも高くなるように圧縮条件を設定する
ことを特徴とする請求項1又は2に記載のシステム。 The image compression means includes
The compression ratio of the area where the index information is detected by the first index information detecting means is
3. The system according to claim 1, wherein the compression condition is set to be higher than a compression rate of a region where the index information is not detected by the first index information detection unit.
前記第1の指標情報検出手段によって指標情報が検出されなかった第1の領域であって、第1の領域以外の領域から検出された指標情報に基づいて推定した結果、指標情報が含まれると推定される第1の領域の圧縮率が、
前記第1の指標情報検出手段によって指標情報が検出されなかった第2の領域であって、第2の領域以外の領域から検出された指標情報に基づいて推定した結果、指標情報が含まれると推定されない第2の領域の圧縮率よりも低くなるように圧縮条件を設定することを特徴とする請求項3に記載のシステム The image compression means includes
When index information is included as a result of estimation based on index information detected from a region other than the first region, which is a first region where index information is not detected by the first index information detection unit The estimated compression ratio of the first region is
When index information is included as a result of estimation based on index information detected from an area other than the second area, which is a second area where index information is not detected by the first index information detecting means 4. The system according to claim 3, wherein the compression condition is set to be lower than a compression rate of the second area that is not estimated.
空間周波数取得手段をさらに備え、
前記空間周波数取得手段によって取得された空間周波数が閾値以上の領域に対して、優先的に指標情報検出処理を行うことを特徴とする請求項3に記載のシステム。 The first index information detecting means includes
Spatial frequency acquisition means,
The system according to claim 3, wherein the index information detection process is preferentially performed on a region where the spatial frequency acquired by the spatial frequency acquisition unit is equal to or greater than a threshold value.
前記撮像画像を分割して得られる複数の領域のそれぞれに対して指標情報を検出するための前処理を行い、指標情報の一部を前記第1の指標情報として検出し、
前記画像圧縮手段は、
前記第1の指標情報が検出された領域の圧縮率が、
前記第1の指標情報が検出されなかった領域の圧縮率よりも低くなるように圧縮条件を設定し、
前記第2の指標情報検出手段は、
前記第1の指標情報検出手段によって前記第1の指標情報が検出された領域に対して、前記第1の指標情報検出手段によって行われた前処理の後処理を行い、前記第1の指標情報検出手段によって検出されなかった指標情報の残部を前記第2の指標情報として検出し、前記第1の指標情報と前記第2の指標情報とによって一つの指標情報を生成することを特徴とする請求項1に記載のシステム。 The first index information detecting means includes
Performing pre-processing for detecting index information for each of a plurality of regions obtained by dividing the captured image, detecting a part of the index information as the first index information,
The image compression means includes
The compression ratio of the area where the first index information is detected is
Setting a compression condition to be lower than the compression ratio of the area where the first index information is not detected,
The second index information detecting means includes
The first index information is detected by performing post-processing after preprocessing performed by the first index information detecting unit on the area where the first index information detecting unit detects the first index information. The remainder of the index information not detected by the detecting means is detected as the second index information, and one index information is generated by the first index information and the second index information. Item 4. The system according to Item 1.
現実空間を撮像して撮像画像を生成する撮像手段と、
前記撮像画像を分割して得られる複数の領域のそれぞれに対して第1の指標情報の検出処理を行う前記第1の指標情報検出手段と、
前記第1の指標情報検出手段の検出結果に基づいて、前記撮像画像を前記領域ごとに圧縮することにより圧縮画像を生成する画像圧縮手段と、
前記第1の指標情報が検出された領域については前記第1の指標情報および前記圧縮画像を、前記第1の指標情報が検出されなかった領域については前記圧縮画像を、前記第2のネットワーク通信手段に送信する第1のネットワーク通信手段と、
前記合成画像を取得して表示する表示手段と、
を備えることを特徴とする表示装置。 A second network communication means for receiving a compressed image; an image decompressing means for decompressing the compressed image to generate a decompressed image; and a first index information detecting means detected by the first index information detecting means among the decompressed images. Second index information detection means different from the first index information detection means for detecting second index information from an area where index information has not been detected, the first index information and the second index An image processing apparatus comprising: position measuring means for generating position and orientation information of a display device from information; and CG combining means for generating a composite image by combining CG generated based on the position and orientation information with the expanded image. A connected display device,
Imaging means for imaging a real space and generating a captured image;
The first index information detecting means for detecting the first index information for each of a plurality of areas obtained by dividing the captured image;
An image compression unit that generates a compressed image by compressing the captured image for each region based on a detection result of the first index information detection unit;
The first index information and the compressed image for the area where the first index information is detected, the compressed image for the area where the first index information is not detected, and the second network communication First network communication means for transmitting to the means;
Display means for acquiring and displaying the composite image;
A display device comprising:
前記第1の指標情報が検出された領域については前記第1の指標情報および前記圧縮画像を、前記第1の指標情報が検出されなかった領域については前記圧縮画像を、前記第1のネットワーク通信手段から受信する前記第2のネットワーク通信手段と、
前記圧縮画像を伸張して伸張画像を生成する画像伸張手段と、
前記伸張画像の前記第1の指標情報が検出されなかった領域から第2の指標情報を検出する、前記第1の指標情報検出手段とは異なる第2の指標情報検出手段と、
前記第1の指標情報および前記第2の指標情報から前記表示装置の位置姿勢情報を生成する位置計測手段と、
前記位置姿勢情報に基づいて生成されたCGを前記伸張画像に合成して合成画像を生成するCG合成手段と、
を備えることを特徴とする画像処理装置。 Imaging means for capturing a real space and generating a captured image; first index information detecting means for performing first index information detection processing for each of a plurality of regions obtained by dividing the captured image; The image compression means for generating a compressed image by compressing the captured image for each region based on the detection result of the first index information detection means, and the compressed image as a second network communication means An image processing apparatus connected to a display device comprising first network communication means for transmitting,
The first index information and the compressed image for the area where the first index information is detected, the compressed image for the area where the first index information is not detected, and the first network communication. Said second network communication means for receiving from means;
Image expansion means for expanding the compressed image to generate an expanded image;
Second index information detecting means different from the first index information detecting means for detecting second index information from an area where the first index information of the decompressed image is not detected;
Position measuring means for generating position and orientation information of the display device from the first index information and the second index information;
CG combining means for generating a combined image by combining CG generated based on the position and orientation information with the expanded image;
An image processing apparatus comprising:
前記表示装置において、
撮像手段が、現実空間を撮像して撮像画像を生成する撮像工程と、
第1の指標情報検出手段が、前記撮像画像を分割して得られる複数の領域のそれぞれに対して第1の指標情報の検出処理を行う第1の指標情報検出工程と、
画像圧縮手段が、前記第1の指標情報検出手段の検出結果に基づいて、前記撮像画像を前記領域ごとに圧縮することにより圧縮画像を生成する画像圧縮工程と、
第1のネットワーク通信手段が、前記第1の指標情報が検出された領域については前記第1の指標情報および前記圧縮画像を送信し、前記第1の指標情報が検出されなかった領域については前記圧縮画像を送信する第1のネットワーク通信工程と、
を有し、
前記画像処理装置において、
第2のネットワーク通信手段が、前記第1のネットワーク通信手段から前記圧縮画像を受信する第2のネットワーク通信工程と、
画像伸張手段が、前記圧縮画像を伸張して伸張画像を生成する画像伸張工程と、
第2の指標情報検出手段が、前記伸張画像の前記第1の指標情報が検出されなかった領域から第2の指標情報を検出する、前記第1の指標情報検出工程とは異なる第2の指標情報検出工程と、
位置計測手段が、前記第1の指標情報および前記第2の指標情報から前記表示装置の位置姿勢情報を生成する位置計測工程と、
CG合成手段が、前記位置姿勢情報に基づいて生成されたCGを前記伸張画像に合成して合成画像を生成するCG合成工程と、
を有し、
前記第2のネットワーク通信手段が、前記合成画像を前記第1のネットワーク通信手段に送信し、
前記第1のネットワーク通信手段が、前記第2のネットワーク通信手段から前記合成画像を受信し、
前記表示装置において、表示手段が、前記合成画像を表示する
ことを特徴とするシステムの制御方法。 A control method for a system including a display device and an image processing device,
In the display device,
An imaging step in which an imaging unit images a real space to generate a captured image;
A first index information detection step in which a first index information detection means performs a first index information detection process on each of a plurality of regions obtained by dividing the captured image;
An image compression step in which an image compression unit generates a compressed image by compressing the captured image for each region based on a detection result of the first index information detection unit;
The first network communication means transmits the first index information and the compressed image for the area in which the first index information is detected, and the area for which the first index information is not detected. A first network communication step of transmitting the compressed image;
Have
In the image processing apparatus,
A second network communication step in which a second network communication means receives the compressed image from the first network communication means;
An image expansion means for generating an expanded image by expanding the compressed image;
A second index different from the first index information detecting step, wherein the second index information detecting means detects second index information from a region where the first index information of the expanded image is not detected. An information detection process;
A position measuring unit that generates position and orientation information of the display device from the first index information and the second index information;
A CG combining step for generating a combined image by combining a CG generated based on the position and orientation information with the expanded image;
Have
The second network communication means transmits the composite image to the first network communication means;
The first network communication means receives the composite image from the second network communication means;
In the display device, a display means displays the composite image.
撮像手段が、現実空間を撮像して撮像画像を生成する撮像工程と、
前記第1の指標情報検出手段が、前記撮像画像を分割して得られる複数の領域のそれぞれに対して第1の指標情報の検出処理を行う第1の指標情報検出工程と、
画像圧縮手段が、前記第1の指標情報検出手段の検出結果に基づいて、前記撮像画像を前記領域ごとに圧縮することにより圧縮画像を生成する画像圧縮工程と、
第1のネットワーク通信手段が、
前記第1の指標情報が検出された領域については前記第1の指標情報および前記圧縮画像を、前記第1の指標情報が検出されなかった領域については前記圧縮画像を、前記第2のネットワーク通信手段に送信する工程と、
前記合成画像を、前記第2のネットワーク通信手段から受信する工程と、
表示手段が、受信した前記合成画像を表示する表示工程と、
を有することを特徴とする表示装置の制御方法。 A second network communication means for receiving a compressed image; an image decompressing means for decompressing the compressed image to generate a decompressed image; and a first index information detecting means detected by the first index information detecting means among the decompressed images. Second index information detection means different from the first index information detection means for detecting second index information from an area where index information has not been detected, the first index information and the second index An image processing apparatus comprising: position measuring means for generating position and orientation information of a display device from information; and CG combining means for generating a composite image by combining CG generated based on the position and orientation information with the expanded image. A method for controlling a connected display device, comprising:
An imaging step in which an imaging unit images a real space to generate a captured image;
A first index information detection step in which the first index information detection means performs a first index information detection process on each of a plurality of regions obtained by dividing the captured image;
An image compression step in which an image compression unit generates a compressed image by compressing the captured image for each region based on a detection result of the first index information detection unit;
The first network communication means is
The first index information and the compressed image for the area where the first index information is detected, the compressed image for the area where the first index information is not detected, and the second network communication Transmitting to the means;
Receiving the composite image from the second network communication means;
A display step in which the display means displays the received composite image;
A control method for a display device, comprising:
前記第2のネットワーク通信手段が、
前記第1の指標情報が検出された領域については前記第1の指標情報および前記圧縮画像を、前記第1の指標情報が検出されなかった領域については前記圧縮画像を、前記第1のネットワーク通信手段から受信する第2のネットワーク通信工程と、
画像伸張手段が、前記圧縮画像を伸張して伸張画像を生成する画像伸張工程と、
第2の指標情報検出手段が、前記伸張画像の前記第1の指標情報が検出されなかった領域から第2の指標情報を検出する、前記第1の指標情報検出手段が行う検出工程とは異なる第2の指標情報検出工程と、
位置計測手段が、前記第1の指標情報および前記第2の指標情報から前記表示装置の位置姿勢情報を生成する位置計測工程と、
CG合成手段が、前記位置姿勢情報に基づいて生成されたCGを前記伸張画像に合成して合成画像を生成するCG合成工程と、
前記第2のネットワーク通信手段が、前記合成画像を前記第1のネットワーク通信手段に送信する工程と、
を有することを特徴とする画像処理装置の制御方法。
Imaging means for capturing a real space and generating a captured image; first index information detecting means for performing first index information detection processing for each of a plurality of regions obtained by dividing the captured image; The image compression means for generating a compressed image by compressing the captured image for each region based on the detection result of the first index information detection means, and the compressed image as a second network communication means A control method for an image processing apparatus connected to a display device comprising first network communication means for transmitting,
The second network communication means comprises:
The first index information and the compressed image for the area where the first index information is detected, the compressed image for the area where the first index information is not detected, and the first network communication. A second network communication step for receiving from the means;
An image expansion means for generating an expanded image by expanding the compressed image;
This is different from the detection step performed by the first index information detecting unit, wherein the second index information detecting unit detects the second index information from a region where the first index information of the decompressed image is not detected. A second index information detection step;
A position measuring unit that generates position and orientation information of the display device from the first index information and the second index information;
A CG combining step for generating a combined image by combining a CG generated based on the position and orientation information with the expanded image;
The second network communication means transmitting the composite image to the first network communication means;
A control method for an image processing apparatus, comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014214903A JP2016082528A (en) | 2014-10-21 | 2014-10-21 | System, program, display device, image processing device, control method for system, control method for display device, and control method for image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014214903A JP2016082528A (en) | 2014-10-21 | 2014-10-21 | System, program, display device, image processing device, control method for system, control method for display device, and control method for image processing device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016082528A true JP2016082528A (en) | 2016-05-16 |
Family
ID=55959362
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014214903A Pending JP2016082528A (en) | 2014-10-21 | 2014-10-21 | System, program, display device, image processing device, control method for system, control method for display device, and control method for image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016082528A (en) |
-
2014
- 2014-10-21 JP JP2014214903A patent/JP2016082528A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11973979B2 (en) | Image compression for digital reality | |
| US11796309B2 (en) | Information processing apparatus, information processing method, and recording medium | |
| JP5113426B2 (en) | Head-mounted display device and control method thereof | |
| JP6425780B1 (en) | Image processing system, image processing apparatus, image processing method and program | |
| JP7349793B2 (en) | Image processing device, image processing method, and program | |
| US10497140B2 (en) | Hybrid depth sensing pipeline | |
| JP4847192B2 (en) | Image processing system, image processing apparatus, imaging apparatus, and control method thereof | |
| JP4989417B2 (en) | Image display system, image display apparatus, control method therefor, and computer program | |
| US8045825B2 (en) | Image processing apparatus and method for composition of real space images and virtual space images | |
| US20140092439A1 (en) | Encoding images using a 3d mesh of polygons and corresponding textures | |
| US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
| US20190122439A1 (en) | Method and device for compositing an image | |
| CN108885342A (en) | Wide Baseline Stereo for Low Latency Rendering | |
| US20210192681A1 (en) | Frame reprojection for virtual reality and augmented reality | |
| US11430178B2 (en) | Three-dimensional video processing | |
| JP2016206989A (en) | Transmission device, mixed reality system, transmission control method, and program | |
| JP6808419B2 (en) | Image processing system and its control method | |
| JP7175715B2 (en) | Information processing device, information processing method and program | |
| US20230401784A1 (en) | Information processing apparatus, information processing method, and storage medium | |
| JP2018141943A (en) | Image processing apparatus, image processing method, and program | |
| JP2016086245A (en) | Image processing device, image processing system, image processing device control method, and program | |
| JP2016146044A (en) | Video processing system, video processing device and control method thereof, program, and storage medium | |
| JP2012034336A (en) | Stereoscopic image generating device and method | |
| JP2021086287A (en) | Information processing system, information processing device, and information processing method | |
| JP2016082528A (en) | System, program, display device, image processing device, control method for system, control method for display device, and control method for image processing device |