[go: up one dir, main page]

JP2019146010A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2019146010A
JP2019146010A JP2018028177A JP2018028177A JP2019146010A JP 2019146010 A JP2019146010 A JP 2019146010A JP 2018028177 A JP2018028177 A JP 2018028177A JP 2018028177 A JP2018028177 A JP 2018028177A JP 2019146010 A JP2019146010 A JP 2019146010A
Authority
JP
Japan
Prior art keywords
display
angle
image
projection plane
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018028177A
Other languages
Japanese (ja)
Inventor
正俊 石井
Masatoshi Ishii
正俊 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018028177A priority Critical patent/JP2019146010A/en
Priority to US16/275,106 priority patent/US10863154B2/en
Publication of JP2019146010A publication Critical patent/JP2019146010A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 広視野な表示部に画像を表示する表示システムに対して、違和感の少ない表示画像を生成する。【解決手段】 入力画像を撮影した時の撮影画角を取得する第1の取得手段と、表示部を含む表示システムにおいて、視点位置から前記表示部を鑑賞した時の見込み角である表示角を示す表示システム情報を取得する第2の取得手段と、仮想空間に投影面を設定する設定手段と、前記入力画像と前記投影面との対応関係に基づいて、前記投影面をレンダリングすることで、前記表示部に表示するための表示画像を生成する生成手段とを有し、前記生成手段は、前記撮影画角に基づいて前記仮想空間に仮想的な視点位置を設定し、前記仮想的な視点位置から前記投影面をレンダリングすることを特徴とする。【選択図】 図2PROBLEM TO BE SOLVED: To generate a display image with a little uncomfortable feeling for a display system that displays an image on a wide-field display unit. A display system including a display unit including a first acquisition unit that acquires an imaging angle of view when an input image is captured, and a display angle that is a prospective angle when the display unit is viewed from a viewpoint position. Rendering the projection plane based on a correspondence between the input image and the projection plane, second acquisition means for acquiring the display system information to be displayed, setting means for setting the projection plane in the virtual space, Generating means for generating a display image to be displayed on the display unit, the generating means sets a virtual viewpoint position in the virtual space based on the shooting angle of view, and the virtual viewpoint The projection plane is rendered from a position. [Selection] Figure 2

Description

本発明は、広視野な画像を表示する表示システムのための画像を生成する技術に関する。   The present invention relates to a technique for generating an image for a display system that displays a wide-field image.

従来、画像を表示する表示システムの一つとして、鑑賞者の視野を覆うように配置された表示画面に画像を表示することで、鑑賞者に高い臨場感を与えるシステムが知られている。   2. Description of the Related Art Conventionally, as one display system for displaying an image, a system that gives a high sense of realism to a viewer by displaying the image on a display screen arranged so as to cover the viewer's field of view is known.

特許文献1は、鑑賞者に凹面を向けた球面状の広視野角のスクリーンに画像を表示する方法について記載している。特許文献1に記載された方法によれば、平面状の画像を球面形状に貼り付けるマッピング処理を行うことで、スクリーンに表示する画像を生成している。   Patent Document 1 describes a method of displaying an image on a spherical wide viewing angle screen with a concave surface facing the viewer. According to the method described in Patent Document 1, an image to be displayed on a screen is generated by performing a mapping process in which a planar image is pasted into a spherical shape.

特開2007−318754号公報JP 2007-318754 A

広視野な画像を生成するためには、広い撮影画角で撮像された画像であることが望ましい。しかしながら、鑑賞者が表示部を見込む角度(以降、表示角と記述する)に対して撮影画角が足らない場合もある。このような場合に、表示角を満たすように画像の画角を広げる画像処理を画像に対して実行すると、従来技術においては、鑑賞者の視点位置などを考慮していないため、表示された画像に不自然な歪みが発生し、鑑賞者に違和感を与えてしまう。   In order to generate an image with a wide field of view, it is desirable that the image be captured with a wide shooting angle of view. However, there are cases where the angle of view of the image is not sufficient for the angle at which the viewer looks at the display unit (hereinafter referred to as the display angle). In such a case, when image processing for expanding the angle of view of the image so as to satisfy the display angle is performed on the image, the prior art does not consider the viewer's viewpoint position and the like. Will cause unnatural distortion and give viewers a sense of incongruity.

そこで本発明は、広視野な表示部に画像を表示する表示システムに対して、違和感の少ない表示画像を生成することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to generate a display image with less discomfort for a display system that displays an image on a wide-field display unit.

上記課題を解決するため本願発明は、入力画像を撮影した時の撮影画角を取得する第1の取得手段と、表示部を含む表示システムにおいて、視点位置から前記表示部を鑑賞した時の見込み角である表示角を示す表示システム情報を取得する第2の取得手段と、仮想空間に投影面を設定する設定手段と、前記入力画像と前記投影面との対応関係に基づいて、前記投影面をレンダリングすることで、前記表示部に表示するための表示画像を生成する生成手段とを有し、前記生成手段は、前記撮影画角に基づいて前記仮想空間に仮想的な視点位置を設定し、前記仮想的な視点位置から前記投影面をレンダリングすることを特徴とする。   In order to solve the above problems, the present invention provides a first acquisition unit that acquires a shooting angle of view when an input image is captured, and a display system that includes a display unit. A second acquisition unit configured to acquire display system information indicating a display angle, a setting unit configured to set a projection plane in a virtual space, and the projection plane based on a correspondence relationship between the input image and the projection plane. Generating means for generating a display image to be displayed on the display unit, and the generating means sets a virtual viewpoint position in the virtual space based on the shooting angle of view. The projection plane is rendered from the virtual viewpoint position.

広視野な表示部に画像を表示する表示システムに対して、違和感の少ない表示画像を生成することが可能となる。   With respect to a display system that displays an image on a wide-field display unit, it is possible to generate a display image with less discomfort.

画像処理装置のハードウェア構成を示す図The figure which shows the hardware constitutions of an image processing apparatus 画像処理装置の機能構成を示すブロック図Block diagram showing functional configuration of image processing apparatus 画像処理装置において実行される処理の流れを示すフローチャートA flowchart showing a flow of processing executed in the image processing apparatus 表示システムの構成例を示す図A diagram showing a configuration example of a display system 表示画像生成処理の流れを示すフローチャートFlowchart showing the flow of display image generation processing 表示部と投影面との関係を示す図The figure which shows the relationship between a display part and a projection surface 平面投影面と入力画像との対応関係を示す図The figure which shows the correspondence of a plane projection surface and an input image 表示部と投影面との関係をXZ平面で見た図The figure which looked at the relation between the display section and the projection plane in the XZ plane 仮想視点位置の設定方法を示す図Diagram showing how to set the virtual viewpoint position

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を必ずしも限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not necessarily limit the present invention, and not all combinations of features described in the present embodiment are essential for the solution means of the present invention.

<第1実施形態>
本実施形態では、画像を表示可能な平面状のディスプレイを3つ、鑑賞者の視野を覆うように配置することで、広視野な画像を表示する表示システムのための画像処理装置を例に説明する。図4は、本実施形態が想定する表示システムの例を示す。本実施形態における表示システムにおいては、センターディスプレイ401、左ディスプレイ402、右ディスプレイ403の3つのディスプレイにより、画像を表示する表示部が構成される。センターディスプレイ401、左ディスプレイ402、右ディスプレイ403は、上方から見たときに等脚台形を描くように配置されている。各ディスプレイは例えば、液晶ディスプレイなどの自発光デバイスを用いる。センターディスプレイ401は、鑑賞者の正面に配置されている。左ディスプレイ402は、センターディスプレイ401の鑑賞者から見て左側の端と接し、かつセンターディスプレイ401とのなす角が角度θscを有するように配置されている。同様に右ディスプレイ403は、センターディスプレイ401の鑑賞者から見て右側の端と接し、かつセンターディスプレイ401とのなす角が角度θscを有するように配置されている。従って3つのディスプレイは、各ディスプレイ面からの法線が交点をもつように、配置される。そして各ディスプレイ面の交点側に、それぞれに対応する表示画像を表示する。このように3つの平面状の表示画面(ディスプレイ)を配置することで、表示部が鑑賞者の視野を覆う。この表示システムに画像を表示すると、鑑賞者に対して、表示されている画像を撮像した場にいるかのような臨場感を与えることができる。本実施形態では、図4に示す表示システムに表示する表示画像を生成する画像処理装置について、説明する。
<First Embodiment>
In the present embodiment, an example of an image processing apparatus for a display system that displays an image with a wide field of view by arranging three planar displays capable of displaying an image so as to cover the viewer's field of view will be described. To do. FIG. 4 shows an example of a display system assumed in this embodiment. In the display system according to the present embodiment, a display unit that displays an image is configured by three displays, the center display 401, the left display 402, and the right display 403. The center display 401, the left display 402, and the right display 403 are arranged so as to draw an isosceles trapezoid when viewed from above. Each display uses a self-luminous device such as a liquid crystal display. The center display 401 is disposed in front of the viewer. The left display 402 is disposed so as to be in contact with the left end as viewed from the viewer of the center display 401 and an angle formed with the center display 401 has an angle θsc. Similarly, the right display 403 is arranged so as to be in contact with the right end as viewed from the viewer of the center display 401 and to form an angle θsc with the center display 401. Therefore, the three displays are arranged so that the normal from each display surface has an intersection. And the display image corresponding to each is displayed on the intersection side of each display surface. By arranging three planar display screens (displays) in this way, the display unit covers the viewer's field of view. When an image is displayed on this display system, it is possible to give the viewer a sense of presence as if he / she was in a place where the displayed image was captured. In the present embodiment, an image processing apparatus that generates a display image to be displayed on the display system shown in FIG. 4 will be described.

なお、本実施形態において、鑑賞者が表示システムにおける表示部(3つのディスプレイ)に表示された画像を見込む角度を、表示角と呼ぶ。また、各ディスプレイに表示する表示画像は、いずれも共通の入力画像から生成される。つまり本実施形態では、1台の撮像装置(例えば、デジタルカメラ)を用いて撮影した入力画像に基づいて、3つの表示画像が生成されることになる。   In the present embodiment, the angle at which the viewer looks at the image displayed on the display unit (three displays) in the display system is called a display angle. In addition, the display images displayed on each display are all generated from a common input image. In other words, in the present embodiment, three display images are generated based on an input image captured using one imaging device (for example, a digital camera).

図1は、本実施形態における画像処理装置のハードウェア構成を示す。CPU101は、RAM102をワークメモリとして、ROM103及びハードディスクドライブ(HDD)105に格納されたプログラムを実行し、システムバス100を介して後述する各構成を制御する。これにより、後述する様々な処理が実行される。HDDI/F104は、例えばシリアルATA(SATA)等のインタフェイスであり、HDD105や光ディスクドライブなどの二次記憶装置を接続する。CPU101は、HDDI/F104を介して、HDD105からのデータ読み出し、およびHDD105へのデータ書き込みが可能である。さらにCPU101は、HDD105に格納されたデータをRAM102に展開し、同様に、RAM102に展開されたデータをHDD105に保存することが可能である。そしてCPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。入力I/F106は、例えばUSBやIEEE1394等のシリアルバスインタフェイスであり、キーボードやマウスなどの入力デバイス107を接続する。CPU101は、入力I/F106を介して入力デバイス107からデータを読み込むことが可能である。出力I/F108は、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスであり、液晶ディスプレイやプロジェクタなどの出力デバイス109を接続する。CPU101は、出力I/F108を介して出力デバイス109にデータを送り、表示を実行させることができる。本実施形態において出力デバイス109は、図4に示す表示部を有する表示システムである。   FIG. 1 shows a hardware configuration of an image processing apparatus according to this embodiment. The CPU 101 uses the RAM 102 as a work memory, executes programs stored in the ROM 103 and the hard disk drive (HDD) 105, and controls each component to be described later via the system bus 100. Thereby, various processes described later are executed. The HDD I / F 104 is an interface such as serial ATA (SATA), for example, and connects a secondary storage device such as the HDD 105 or an optical disk drive. The CPU 101 can read data from the HDD 105 and write data to the HDD 105 via the HDD I / F 104. Further, the CPU 101 can expand the data stored in the HDD 105 in the RAM 102 and similarly store the data expanded in the RAM 102 in the HDD 105. The CPU 101 can execute the data expanded in the RAM 102 as a program. The input I / F 106 is a serial bus interface such as USB or IEEE1394, for example, and is connected to an input device 107 such as a keyboard and a mouse. The CPU 101 can read data from the input device 107 via the input I / F 106. The output I / F 108 is a video output interface such as DVI or HDMI (registered trademark), for example, and connects an output device 109 such as a liquid crystal display or a projector. The CPU 101 can send data to the output device 109 via the output I / F 108 to execute display. In the present embodiment, the output device 109 is a display system having the display unit shown in FIG.

図2は、本実施形態における画像処理装置の機能構成を示すブロック図である。図2(a)において画像処理装置は、投影面設定部201、画像取得部202、表示装置情報取得部203、視点位置情報取得部204、撮像パラメータ取得部205、表示画像生成部206、画像出力部207を有する。投影面設定部201は、入力画像から表示システムにおける各ディスプレイに表示する表示画像を生成するための投影面を設定する。本実施形態では、入力画像に対応した平面状の仮想的な投影面(以降、平面投影面と呼ぶ)を用いて、入力画像から3つの表示画像を生成する。平面投影面は、入力画像のアスペクト比と撮像によって得られた入力画像を撮像した際の撮像画角に応じて設定される。そこで投影面設定部201は、視点位置と入力画像に基づいて平面投影面を設定する。   FIG. 2 is a block diagram illustrating a functional configuration of the image processing apparatus according to the present embodiment. 2A, the image processing apparatus includes a projection plane setting unit 201, an image acquisition unit 202, a display device information acquisition unit 203, a viewpoint position information acquisition unit 204, an imaging parameter acquisition unit 205, a display image generation unit 206, and an image output. Part 207. The projection plane setting unit 201 sets a projection plane for generating a display image to be displayed on each display in the display system from the input image. In the present embodiment, three display images are generated from an input image using a planar virtual projection plane (hereinafter referred to as a plane projection plane) corresponding to the input image. The plane projection plane is set according to the aspect ratio of the input image and the imaging angle of view when the input image obtained by imaging is captured. Therefore, the projection plane setting unit 201 sets a plane projection plane based on the viewpoint position and the input image.

画像取得部202は、撮像することで得られた画像を取得し、入力画像として表示画像生成部206に出力する。   The image acquisition unit 202 acquires an image obtained by imaging and outputs the acquired image to the display image generation unit 206 as an input image.

表示システム情報取得部203は、表示システムにおける表示部(ここではディスプレイ)に関する情報を取得する。本実施形態では、ディスプレイの数、各ディスプレイ面の形状、大きさ、複数のディスプレイの位置関係を示す情報を取得するものとする。   The display system information acquisition unit 203 acquires information about a display unit (here, a display) in the display system. In the present embodiment, information indicating the number of displays, the shape and size of each display surface, and the positional relationship among a plurality of displays is acquired.

視点情報取得部204は、実空間における鑑賞者の視点位置を示す視点情報を取得する。視点情報とは、表示システムにおける画像表示部を鑑賞する際の、鑑賞者の視点の3次元的な位置を示す情報である。本実施形態においては、鑑賞者が鑑賞する前に、事前に表示システムに表示する表示画像を生成するものとする。ただし図4に示す表示システムにおいては、表示角が変わると、各ディスプレイに表示する表示画像も変わる。表示角は、鑑賞者がどの程度ディスプレイから離れた位置からディスプレイを鑑賞するかに応じて異なる。そこで本実施形態では、事前に表示画像を生成するために、どの位置から鑑賞者が鑑賞するかを想定しておく必要がある。本実施形態では、鑑賞者がディスプレイを鑑賞するのに望ましい視点位置を視点情報として取得することで、視点位置を特定しておくものとする。   The viewpoint information acquisition unit 204 acquires viewpoint information indicating the viewer's viewpoint position in the real space. The viewpoint information is information indicating the three-dimensional position of the viewer's viewpoint when viewing the image display unit in the display system. In this embodiment, it is assumed that a display image to be displayed on the display system is generated in advance before the viewer appreciates. However, in the display system shown in FIG. 4, when the display angle changes, the display image displayed on each display also changes. The display angle varies depending on how far the viewer views the display from a position away from the display. Therefore, in this embodiment, in order to generate a display image in advance, it is necessary to assume from which position the viewer will appreciate. In the present embodiment, it is assumed that the viewpoint position is specified by acquiring, as viewpoint information, a viewpoint position desirable for the viewer to appreciate the display.

撮像パラメータ取得部205は、撮像により入力画像を取得した際に設定されていた、撮像装置の撮像パラメータを取得する。撮像パラメータ取得部205は、入力画像に付帯されたメタデータに基づいて、撮像パラメータを取得することができる。あるいは、入力デバイス107からユーザが入力した情報に基づいて、撮像パラメータを取得する形態としてもよい。   The imaging parameter acquisition unit 205 acquires imaging parameters of the imaging apparatus that were set when the input image was acquired by imaging. The imaging parameter acquisition unit 205 can acquire imaging parameters based on metadata attached to the input image. Or it is good also as a form which acquires an imaging parameter based on the information which the user input from the input device 107. FIG.

表示画像生成部206は、視点位置と各ディスプレイとの位置関係に基づいて、1つの入力画像から、各ディスプレイに表示する表示画像を生成する。表示画像生成部206は、入力画像を撮影した際の撮影画角と表示部における表示角とに基づいて、仮想的な視点位置を制御することにより、広視野な表示画像を生成する。表示画像生成部206の詳細については、後述する。画像出力部207は、生成された3つの表示画像を、各ディスプレイに出力する。   The display image generation unit 206 generates a display image to be displayed on each display from one input image based on the positional relationship between the viewpoint position and each display. The display image generation unit 206 generates a wide-field display image by controlling the virtual viewpoint position based on the shooting angle of view when the input image is shot and the display angle on the display unit. Details of the display image generation unit 206 will be described later. The image output unit 207 outputs the generated three display images to each display.

以下、本実施形態の画像処理装置が実行する処理の流れについて説明する。   Hereinafter, a flow of processing executed by the image processing apparatus according to the present embodiment will be described.

図3は本実施形態の画像処理装置で行われる処理の流れを示すフローチャートである。CPU101は、ROM103又はHDD104に格納された図3に示すフローチャートを実現するプログラムを読み出して、RAM102をワークエリアとして実行する。これによりCU101は、図2に示す各機能構成としての役割を果たす。なお、以降のフローチャートにおいては各工程(ステップ)を「S」と表記することとする。   FIG. 3 is a flowchart showing the flow of processing performed by the image processing apparatus of this embodiment. The CPU 101 reads a program for realizing the flowchart shown in FIG. 3 stored in the ROM 103 or the HDD 104, and executes the RAM 102 as a work area. Thereby, the CU 101 plays a role as each functional configuration shown in FIG. In the following flowcharts, each step (step) is denoted as “S”.

S301において画像取得部202は、HDD105に記憶された撮像画像を表す撮像画像データを入力画像として取得し、RAM102に格納する。   In step S <b> 301, the image acquisition unit 202 acquires captured image data representing a captured image stored in the HDD 105 as an input image, and stores the acquired image data in the RAM 102.

S302において撮像パラメータ取得部205は、撮像画像データに付帯されたメタデータから、撮像パラメータを取得する。本実施形態において撮像パラメータ取得部205は、入力画像を撮影した時の撮影画角やレンズの射影方法を特定する情報を撮像パラメータとして取得する。本実施形態では、一般的なレンズで使用される中心射影方式のレンズを介して入力画像が撮像されたものとする。   In step S302, the imaging parameter acquisition unit 205 acquires imaging parameters from metadata attached to the captured image data. In the present embodiment, the imaging parameter acquisition unit 205 acquires, as imaging parameters, information for specifying a shooting angle of view and a lens projection method when an input image is captured. In the present embodiment, it is assumed that an input image is captured through a central projection type lens used in a general lens.

S303において表示システム情報取得部203は、表示システムにおける表示部に関する表示システム情報を取得する。本実施形態において、表示システム情報取得部203は、画像を表示するディスプレイの数、各ディスプレイ面の形状、大きさ、各ディスプレイの配置を示す情報を取得する。本実施形態においては、図4に示すように、ディスプレイの数は3台である。各ディスプレイの形状は、平面で、幅Wsc、高さHscの矩形である。3つのディスプレイの配置は、センターディスプレイと右ディスプレイとの間の開き角、およびセンターディスプレイと左ディスプレイとの間の開き角がいずれも角度θscである。また、視点位置から3つのディスプレイにより構成される表示部を鑑賞した時の見込み角(表示角)は2φとする。これらの表示システム情報は、ユーザの指示に基づいて入力デバイス107からRAM102へ取得する。あるいは、これらの情報をあらかじめ表示システム情報のパッケージとしてHDD105に保持しておき、HDD105から必要に応じて選択するようにしても良い。   In S303, the display system information acquisition unit 203 acquires display system information related to the display unit in the display system. In the present embodiment, the display system information acquisition unit 203 acquires information indicating the number of displays that display images, the shape and size of each display surface, and the arrangement of each display. In this embodiment, as shown in FIG. 4, the number of displays is three. The shape of each display is a plane and a rectangle with a width Wsc and a height Hsc. In the arrangement of the three displays, the opening angle between the center display and the right display, and the opening angle between the center display and the left display are all the angle θsc. Further, the viewing angle (display angle) when viewing a display unit composed of three displays from the viewpoint position is 2φ. The display system information is acquired from the input device 107 to the RAM 102 based on a user instruction. Alternatively, these pieces of information may be stored in advance in the HDD 105 as a display system information package, and may be selected from the HDD 105 as necessary.

S304において視点情報取得部204は、ユーザの指示に基づいて入力デバイス107から視点情報を取得する。本実施形態では視点情報取得部204は、センターディスプレイ401の画面における中心位置からの距離Dviewを視点情報として取得する。   In step S304, the viewpoint information acquisition unit 204 acquires viewpoint information from the input device 107 based on a user instruction. In the present embodiment, the viewpoint information acquisition unit 204 acquires a distance Dview from the center position on the screen of the center display 401 as viewpoint information.

S305において投影面設定部201は、表示画像を生成する際に使用する平面投影面を設定する。投影面の設定処理の詳細は後述する。   In step S305, the projection plane setting unit 201 sets a plane projection plane used when generating a display image. Details of the projection plane setting process will be described later.

S306において表示画像生成部206は、各ディスプレイに表示する表示画像を示す表示画像データを生成する。表示画像生成処理の詳細は後述する。   In S306, the display image generation unit 206 generates display image data indicating a display image to be displayed on each display. Details of the display image generation processing will be described later.

S307において画像出力部207が生成された各ディスプレイに対応する表示画像をRAM102から出力I/F108を介して出力デバイス109に出力する。あるいは、生成された表示画像をHDD105に記憶するようにしてもよい。   In S307, the image output unit 207 outputs a display image corresponding to each display generated from the RAM 102 to the output device 109 via the output I / F 108. Alternatively, the generated display image may be stored in the HDD 105.

<投影面設定処理>
次に、投影面設定処理について詳細に説明する。本実施形態における投影面設定処理では、入力画像に対応する平面状の投影面(以下、平面投影面とする)を設定する。平面投影面は、入力画像のアスペクト比と同じアスペクト比を持つ平面で構成される。投影面設定処理部201は、仮想空間において視点位置から見た際の平面投影面の見込み角が、撮影画角と一致するようにサイズと位置を算出し、仮想空間上に平面投影面を配置される。ここで、水平方向の撮影画角の半画角をθとする。本実施形態では、仮想空間において、視点位置を原点とするXYZ3次元座標を定義する。図8は、仮想空間において表示部、平面投影面を上方から見たXZ平面を示す図である。図8に示すように平面投影面はXY平面に平行で、かつZ軸が平面投影面の中心を通るような位置に配置される。なお表示部を表す平面を仮想空間上に配置すると、原点(視点位置)とセンターディスプレイの中心位置との距離がDviewとなるように、表示部の各ディスプレイは配置されることになる。つまりセンターディスプレイの中心座標は(0,0,Dview)である。3つのディスプレイは、Z軸を中心に左右対称になるように配置されている。
<Projection plane setting process>
Next, the projection plane setting process will be described in detail. In the projection plane setting process in this embodiment, a planar projection plane (hereinafter referred to as a plane projection plane) corresponding to the input image is set. The plane projection plane is composed of a plane having the same aspect ratio as that of the input image. The projection plane setting processing unit 201 calculates the size and position so that the prospective angle of the plane projection plane when viewed from the viewpoint position in the virtual space matches the shooting angle of view, and arranges the plane projection plane in the virtual space. Is done. Here, let θ be the half field angle of the horizontal field of view. In the present embodiment, XYZ three-dimensional coordinates having the viewpoint position as the origin are defined in the virtual space. FIG. 8 is a diagram illustrating the XZ plane when the display unit and the plane projection plane are viewed from above in the virtual space. As shown in FIG. 8, the plane projection plane is arranged at a position parallel to the XY plane and the Z axis passing through the center of the plane projection plane. When the plane representing the display unit is arranged in the virtual space, each display of the display unit is arranged so that the distance between the origin (viewpoint position) and the center position of the center display becomes Dview. That is, the center coordinates of the center display are (0, 0, Dview). The three displays are arranged so as to be symmetric about the Z axis.

<表示画像生成処理>
ここで表示画像生成処理について詳細に説明する。表示画像生成部206は、仮想空間において視点位置に配置された仮想カメラにより平面投影面をレンダリングすることで、各ディスプレイに対応する表示画像を生成する。
<Display image generation processing>
Here, the display image generation processing will be described in detail. The display image generation unit 206 generates a display image corresponding to each display by rendering the planar projection plane with a virtual camera arranged at the viewpoint position in the virtual space.

図2(b)は、表示画像生成部206の詳細な構成を示すブロック図である。第1算出部2061は、入力画像と平面投影面との対応関係を算出する。レンダリング処理部2062は、入力画像と平面投影面との対応関係を用いて、平面投影面をレンダリングする。   FIG. 2B is a block diagram illustrating a detailed configuration of the display image generation unit 206. The first calculation unit 2061 calculates the correspondence between the input image and the planar projection plane. The rendering processing unit 2062 renders the planar projection plane using the correspondence relationship between the input image and the planar projection plane.

図5は、本実施例における表示画像生成処理の詳細を示すフローチャートである。以下フローチャートの各ステップについて説明する。   FIG. 5 is a flowchart showing details of the display image generation processing in this embodiment. Hereinafter, each step of the flowchart will be described.

S501において第1算出部2061は、平面仮想投影面の各頂点の3次元座標と撮影画像の画素位置を示す2次元座標の間の対応付けを行う。これは、一般的なCGレンダリングにおけるUVマッピングと同様の処理である。仮想空間における平面投影面の各頂点の3次元座標と入力画像の画素位置を示す2次元座標の間の対応付けを行う。これは、一般的なCGレンダリングにおけるUVマッピングと同様の処理である。中心射影のレンズを介して撮像された入力画像を用いる場合、図7に示すように、平面投影面の四隅の座標それぞれを、入力画像の四隅の画素位置を示す座標と対応付ける。ここでは、入力画像において、左上の画素を原点(0,0)とするUV座標系により各画素の画素位置を示すものとする。第1算出部2061は、入力画像における各頂点のUV座標を取得し、平面投影面の各頂点の3次元座標と対応づける。四隅以外の各画素のUV座標については、線形補間により算出する。なお、魚眼レンズのようにレンズの射影方式が等距離射影や等立体角射影の場合は、中心射影で再投影を行ってから同様の処理を行えばよい。   In step S501, the first calculation unit 2061 performs association between the three-dimensional coordinates of each vertex of the planar virtual projection plane and the two-dimensional coordinates indicating the pixel position of the captured image. This is the same processing as UV mapping in general CG rendering. Association is performed between the three-dimensional coordinates of each vertex of the plane projection plane in the virtual space and the two-dimensional coordinates indicating the pixel position of the input image. This is the same processing as UV mapping in general CG rendering. When an input image captured through a central projection lens is used, as shown in FIG. 7, the coordinates of the four corners of the planar projection surface are associated with coordinates indicating the pixel positions of the four corners of the input image. Here, in the input image, the pixel position of each pixel is indicated by a UV coordinate system in which the upper left pixel is the origin (0, 0). The first calculation unit 2061 acquires the UV coordinates of each vertex in the input image and associates it with the three-dimensional coordinates of each vertex of the planar projection plane. The UV coordinates of each pixel other than the four corners are calculated by linear interpolation. If the lens projection method is equidistant projection or equisolid angle projection, such as a fisheye lens, the same processing may be performed after re-projecting with central projection.

S502においてレンダリング処理部2062は、表示角と水平方向の撮影画角とを比較する。表示角の方が撮影画角よりも大きい場合はS503へと進み、そうでなければS504へと進む。   In step S502, the rendering processing unit 2062 compares the display angle with the shooting angle of view in the horizontal direction. If the display angle is larger than the shooting angle of view, the process proceeds to S503, and if not, the process proceeds to S504.

S503においてレンダリング処理部2062は、レンダリング処理の基準となる仮想的な視点の位置(以降、仮想視点位置)を設定する。具体的には、仮想視点位置から表示部を見た際の見込み角を仮想表示角とし、仮想表示角と撮影画角とが一致するように仮想視点位置を設定する。図8は、仮想視点位置と視点情報が示す視点位置とが一致している場合の平面投影面と表示部との関係を示した図である。もし、図8のように撮影画角よりも表示部の表示角の方が大きい場合、このまま表示部を構成する各ディスプレイ面に平面投影面を射影すると、表示部における左右に、画像が表示されない領域が発生してしまう。そこで本実施形態においてレンダリング処理部2062は、撮影画角と表示角に応じてレンダリング用の仮想視点位置を視点位置とは異なる位置に設定する。図9は、仮想視点位置を説明するための図である。レンダリング処理部2062は仮想表示角φ’が撮影画角θに一致する位置まで、仮想視点位置をZ軸負の方向へと移動させる。   In step S503, the rendering processing unit 2062 sets a virtual viewpoint position (hereinafter referred to as a virtual viewpoint position) serving as a reference for rendering processing. Specifically, the virtual viewpoint position is set so that the virtual display angle is a virtual display angle when the display unit is viewed from the virtual viewpoint position, and the virtual display angle coincides with the shooting angle of view. FIG. 8 is a diagram illustrating the relationship between the planar projection plane and the display unit when the virtual viewpoint position matches the viewpoint position indicated by the viewpoint information. If the display angle of the display unit is larger than the shooting angle of view as shown in FIG. 8, if the plane projection plane is projected onto each display surface constituting the display unit as it is, images are not displayed on the left and right sides of the display unit. An area will be generated. Therefore, in this embodiment, the rendering processing unit 2062 sets the virtual viewpoint position for rendering to a position different from the viewpoint position according to the shooting angle of view and the display angle. FIG. 9 is a diagram for explaining the virtual viewpoint position. The rendering processing unit 2062 moves the virtual viewpoint position in the negative Z-axis direction to a position where the virtual display angle φ ′ matches the shooting angle of view θ.

S504においてレンダリング処理部2062は、表示部における点M(x,y,z)に対応する平面投影面における点M’のX座標xm’を式(1)により算出する。 In step S504, the rendering processing unit 2062 calculates the X coordinate x m ′ of the point M ′ on the plane projection plane corresponding to the point M (x, y, z) on the display unit using Expression (1).

Figure 2019146010
Figure 2019146010

ここで、φは、点MからXZ平面におろした垂線の足を点Mxzとしたときに、ベクトルOMxzとZ軸とのなす角である。また、Wflatは、平面投影面の幅である。 Here, φ m is an angle formed by the vector OM xz and the Z axis when a perpendicular line extending from the point M to the XZ plane is a point M xz . W flat is the width of the plane projection plane.

S505においてレンダリング処理部2062は、表示部における点M(x,y,z)に対応する平面投影面における点M’のY座標ym’をS504で用いた式(1)を用いて算出する。この際、水平方向の撮影画角θの代わりに垂直方向の撮影画角を用いる。また、角度φの代わりに、点MからYZ平面におろした垂線の足を点MyzとしたときのベクトルOMyzとZ軸とのなす角を用いる。さらにWflatの代わりに平面投影面の高さを用いて計算する。なお、Z座標については、平面投影面が平面であるため、平面投影面上のどの点においてもZ座標は変わらない。よって、常に投影面設定処理において設定された平面投影面のZ座標と一致させる。 Rendering unit 2062 in S505 is calculated using equation (1) used in S504 the 'Y coordinate y m of the' point M at the point M (x, y, z) planar projection surface corresponding to the display unit . At this time, a vertical shooting field angle is used instead of the horizontal shooting field angle θ. Further, instead of the angle φ m , an angle formed by the vector OM yz and the Z axis when a perpendicular line extending from the point M to the YZ plane is the point M yz is used. Further, the height of the plane projection plane is used instead of W flat for calculation. As for the Z coordinate, since the plane projection plane is a plane, the Z coordinate does not change at any point on the plane projection plane. Therefore, the Z coordinate of the plane projection plane set in the projection plane setting process is always matched.

S506においてレンダリング処理部2062は、平面投影面を示す3次元座標と入力画像を示す2次元座標との対応関係を用いて、平面投影面上の点M’の3次元座標から入力画像における位置I(u,v)を算出しサンプリングする。具体的には、位置I(u,v)近傍の4画素の画素値を取得し、各4画素とI(u,v)との距離に応じた補間演算を行うことで、点Mに表示すべき画素値を決定する。   In step S <b> 506, the rendering processing unit 2062 uses the correspondence relationship between the three-dimensional coordinates indicating the planar projection plane and the two-dimensional coordinates indicating the input image to determine the position I in the input image from the three-dimensional coordinates of the point M ′ on the plane projection plane. (U, v) is calculated and sampled. Specifically, the pixel values of four pixels in the vicinity of the position I (u, v) are acquired, and an interpolation operation is performed according to the distance between each of the four pixels and I (u, v) to display at the point M. A pixel value to be determined is determined.

S507においてレンダリング処理部2062は、表示部における全ての点に対して表示すべき表示画像における画素の画素値を算出したか否かを判定する。もし、全ての画素に対して画素値を算出していれば処理を終了し、終わっていなければまだ処理の未処理の画素へと点Mを更新し、S504に戻って処理を継続する。   In step S507, the rendering processing unit 2062 determines whether or not the pixel values of the pixels in the display image to be displayed for all the points on the display unit have been calculated. If the pixel values have been calculated for all the pixels, the process ends. If not completed, the point M is updated to an unprocessed pixel that has not yet been processed, and the process returns to S504 to continue the process.

以上の処理により、撮影画角に対して表示部を鑑賞する際の表示角が大きい場合に、撮影画角と仮想視点位置での表示角が一致するように仮想視点位置を設定し、表示画像を生成する。これにより、表示角を満たした違和感の少ない表示画像を生成することができる。   With the above processing, when the display angle when viewing the display unit is larger than the shooting angle of view, the virtual viewpoint position is set so that the shooting angle of view matches the display angle at the virtual viewpoint position, and the display image Is generated. Thereby, it is possible to generate a display image with less discomfort that satisfies the display angle.

なお本実施形態では、なお、図2に示す構成をCPU101がプログラムを実行させることにより実現する場合を例に説明した。しかしながら、図2に示す各構成の一部またはその全てを、専用の処理回路により実現してもよい。   In the present embodiment, the case where the configuration shown in FIG. 2 is realized by causing the CPU 101 to execute a program has been described as an example. However, some or all of the components shown in FIG. 2 may be realized by a dedicated processing circuit.

<その他の実施形態>
なお上述の実施形態において、表示画像を表示する表示システムにおいて、3つのディスプレイにより表示部を構成する場合を例に説明した。表示部は、自発光型ディスプレイ以外にも、プロジェクタにより画像を投影するスクリーンを用いてもよい。この場合表示システムとしては、複数のスクリーンそれぞれに対応する複数のプロジェクタを、各スクリーンに表示画像を投影できるように設置する。あるいは、複数のプロジェクタが白い壁に投影する表示システムにも上記の実施形態を適用することができる。画像を投影する壁を上方から見たときに、図4に示すディスプレイと同様の形状になっている場合、撮影画角と仮想視点位置での表示角が一致するように仮想視点位置を設定し、表示画像を生成することで同様の効果を得ることができる。なおこの場合白い壁に対して画像が投影される領域を、表示部とみなして表示システム情報を取得する。
<Other embodiments>
In the above-described embodiment, the case where the display unit includes three displays in the display system that displays a display image has been described as an example. In addition to the self-luminous display, the display unit may use a screen that projects an image using a projector. In this case, as a display system, a plurality of projectors corresponding to each of the plurality of screens are installed so that a display image can be projected on each screen. Alternatively, the above embodiment can also be applied to a display system in which a plurality of projectors project onto a white wall. When the wall on which the image is projected is viewed from above, if the shape is the same as the display shown in FIG. 4, the virtual viewpoint position is set so that the shooting angle of view matches the display angle at the virtual viewpoint position. The same effect can be obtained by generating a display image. In this case, the display system information is acquired by regarding the area where the image is projected on the white wall as the display unit.

また表示部として、平面を水平方向に湾曲させたような湾曲表示画面を用いることもできる。   A curved display screen in which a plane is curved in the horizontal direction can also be used as the display unit.

また上述の実施形態では、図4に示すように鑑賞者に対して大型のディスプレイを用いた表示部を例に説明した。しかしながら、例えば複数の平面上の表示画面を用いて、頭部のみを覆う程度の大きさの表示部であっても、同様の表示システムを構成できる。例えば、ヘッドマウントディスプレイなどである。この場合も、表示部を構成する表示画面が平面であり、画像を表示する側に各表示画面の法線が交点を持つように配置することで、臨場感のある広視野な画像を表示することができる。このような表示システムに対しても、上述の実施形態と同様に、共通の入力画像をレンダリングすることで、違和感のない広視野な表示画像を生成できる。   Further, in the above-described embodiment, the display unit using a large display as shown in FIG. 4 has been described as an example. However, a similar display system can be configured even if the display unit is large enough to cover only the head using, for example, display screens on a plurality of planes. For example, a head mounted display. Also in this case, the display screen constituting the display unit is a plane, and the image display side is arranged so that the normal of each display screen has an intersection on the image display side, thereby displaying a wide-field image with a sense of reality. be able to. For such a display system, a wide-field display image without a sense of incongruity can be generated by rendering a common input image, as in the above-described embodiment.

また前述の実施形態において視点情報は、望ましい鑑賞者の位置を指定することにより、特定された。しかしながら例えば、実際に鑑賞者の位置を検出し、実際に表示システムを鑑賞している鑑賞者に応じて視点情報を設定してもよい。   In the above-described embodiment, the viewpoint information is specified by designating a desired viewer position. However, for example, the position of the viewer may be actually detected, and the viewpoint information may be set according to the viewer who is actually viewing the display system.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201 投影面設定部
202 画像取得部
203 表示システム情報取得部
204 視点情報取得部
205 撮像パラメータ取得部
206 表示画像生成部
207 画像出力部
DESCRIPTION OF SYMBOLS 201 Projection surface setting part 202 Image acquisition part 203 Display system information acquisition part 204 Viewpoint information acquisition part 205 Imaging parameter acquisition part 206 Display image generation part 207 Image output part

Claims (8)

入力画像を撮影した時の撮影画角を取得する第1の取得手段と、
表示部を含む表示システムにおいて、視点位置から前記表示部を鑑賞した時の見込み角である表示角を示す表示システム情報を取得する第2の取得手段と、
仮想空間に投影面を設定する設定手段と、
前記入力画像と前記投影面との対応関係に基づいて、前記投影面をレンダリングすることで、前記表示部に表示するための表示画像を生成する生成手段とを有し、
前記生成手段は、前記撮影画角に基づいて前記仮想空間に仮想的な視点位置を設定し、前記仮想的な視点位置から前記投影面をレンダリングすることを特徴とする画像処理装置。
First acquisition means for acquiring a shooting angle of view when an input image is captured;
In a display system including a display unit, a second acquisition unit that acquires display system information indicating a display angle that is an expected angle when the display unit is viewed from a viewpoint position;
Setting means for setting a projection plane in a virtual space;
Generation means for generating a display image to be displayed on the display unit by rendering the projection plane based on a correspondence relationship between the input image and the projection plane;
The image processing apparatus, wherein the generation unit sets a virtual viewpoint position in the virtual space based on the shooting angle of view, and renders the projection plane from the virtual viewpoint position.
さらに、前記表示部を鑑賞する視点位置を示す視点情報を取得する第3の取得手段と、
前記視点情報が示す前記視点位置から前記表示部を鑑賞した時の見込み角である表示角と前記撮影画角とを比較する比較手段を有し、
前記生成手段は、前記比較手段により前記撮影画角より前記表示角の方が大きいと判定された場合に、前記視点情報が示す前記視点位置とは異なる位置に前記仮想的な視点位置を設定することを特徴とする請求項1に記載の画像処理装置。
And third acquisition means for acquiring viewpoint information indicating a viewpoint position for viewing the display unit;
Comparing means for comparing a display angle that is an expected angle when the display unit is viewed from the viewpoint position indicated by the viewpoint information and the shooting angle of view;
The generation unit sets the virtual viewpoint position at a position different from the viewpoint position indicated by the viewpoint information when the comparison unit determines that the display angle is larger than the shooting angle of view. The image processing apparatus according to claim 1.
前記生成手段は、前記比較手段により前記撮影画角より前記表示角の方が小さいと判定された場合に、前記視点情報が示す前記視点位置に前記仮想的な視点位置を設定することを特徴とする請求項2に記載の画像処理装置。   The generating means sets the virtual viewpoint position to the viewpoint position indicated by the viewpoint information when the comparing means determines that the display angle is smaller than the shooting angle of view. The image processing apparatus according to claim 2. 前記生成手段は、前記生成手段は、前記比較手段により前記撮影画角より前記表示角の方が大きいと判定された場合に、前記視点情報が示す前記視点位置から前記投影面から離れる方向に前記仮想視点位置を移動させることを特徴とする請求項2または3に記載の画像処理装置。   The generating unit is configured to move the generating unit in a direction away from the projection plane from the viewpoint position indicated by the viewpoint information when the comparing unit determines that the display angle is larger than the shooting angle of view. The image processing apparatus according to claim 2, wherein the virtual viewpoint position is moved. 前記設定手段は、前記入力画像に基づいて、前記投影面を設定することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the setting unit sets the projection plane based on the input image. 前記表示部は、画像を表示可能な表示画面を複数、配置された構成であることを特徴とする請求項1乃至5の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display unit includes a plurality of display screens capable of displaying images. コンピュータを請求項1乃至6のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 6. 入力画像を撮影した時の撮影画角を取得し、
表示部を含む表示システムにおいて、視点位置から前記表示部を鑑賞した時の見込み角である表示角を示す表示システム情報を取得し、
仮想空間に投影面を設定し、
前記撮影画角に基づいて前記仮想空間に仮想的な視点位置を設定し、前記入力画像と前記投影面との対応関係に基づいて、前記仮想的な視点位置から前記投影面をレンダリングすることで、前記表示部に表示するための表示画像を生成することを特徴とする画像処理方法。
Obtain the shooting angle of view when the input image was shot,
In a display system including a display unit, display system information indicating a display angle that is an expected angle when viewing the display unit from a viewpoint position is acquired;
Set the projection plane in the virtual space,
A virtual viewpoint position is set in the virtual space based on the shooting angle of view, and the projection plane is rendered from the virtual viewpoint position based on a correspondence relationship between the input image and the projection plane. An image processing method for generating a display image to be displayed on the display unit.
JP2018028177A 2018-02-20 2018-02-20 Image processing device, image processing method, and program Pending JP2019146010A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018028177A JP2019146010A (en) 2018-02-20 2018-02-20 Image processing device, image processing method, and program
US16/275,106 US10863154B2 (en) 2018-02-20 2019-02-13 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018028177A JP2019146010A (en) 2018-02-20 2018-02-20 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2019146010A true JP2019146010A (en) 2019-08-29

Family

ID=67774029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018028177A Pending JP2019146010A (en) 2018-02-20 2018-02-20 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2019146010A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220020111A1 (en) 2020-07-17 2022-01-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220020111A1 (en) 2020-07-17 2022-01-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US12073531B2 (en) 2020-07-17 2024-08-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Similar Documents

Publication Publication Date Title
US11962946B2 (en) Image processing apparatus, display system, image processing method, and medium
US10863154B2 (en) Image processing apparatus, image processing method, and storage medium
KR102539427B1 (en) Image processing apparatus, image processing method, and storage medium
US11044398B2 (en) Panoramic light field capture, processing, and display
JP6698972B2 (en) Virtual object display control device, virtual object display system, virtual object display control method, and virtual object display control program
US11244423B2 (en) Image processing apparatus, image processing method, and storage medium for generating a panoramic image
JP6310898B2 (en) Image processing apparatus, information processing apparatus, and image processing method
CN117197403A (en) Mixed reality system and method for generating virtual content using the same
JP2020173529A (en) Information processing device, information processing method, and program
TWI277014B (en) Image display method and image display device
CN114513646B (en) A method and device for generating panoramic video in a three-dimensional virtual scene
CN110192221B (en) Image generating apparatus and image display control apparatus
US10935878B2 (en) Image processing apparatus, image processing method, and program
JP2019146010A (en) Image processing device, image processing method, and program
WO2019163449A1 (en) Image processing apparatus, image processing method and program
JP7118383B1 (en) Display system, display method, and display program
JP2019146004A (en) Image processing device, image processing method, and program
JP2019146147A (en) Image processing apparatus, image processing method and program
US20230168510A1 (en) Head-mounted display device, control method, and non-transitory computer readable storage medium
JP2019146157A (en) Image processing device, image processing method, and program
CN111480335B (en) Image processing device, image processing method, program, and projection system
JP2023179864A (en) Viewpoint conversion device and its program
US20220044351A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
WO2019163385A1 (en) Image processing device, image processing method and program
JP2012043345A (en) Image processing device and method