[go: up one dir, main page]

JP2018109740A - Display device, program, and display method - Google Patents

Display device, program, and display method Download PDF

Info

Publication number
JP2018109740A
JP2018109740A JP2017207635A JP2017207635A JP2018109740A JP 2018109740 A JP2018109740 A JP 2018109740A JP 2017207635 A JP2017207635 A JP 2017207635A JP 2017207635 A JP2017207635 A JP 2017207635A JP 2018109740 A JP2018109740 A JP 2018109740A
Authority
JP
Japan
Prior art keywords
image
display
frame
display device
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017207635A
Other languages
Japanese (ja)
Inventor
浅井 貴浩
Takahiro Asai
貴浩 浅井
啓一 河口
Keiichi Kawaguchi
啓一 河口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to CN201711457442.9A priority Critical patent/CN108259782A/en
Priority to US15/856,949 priority patent/US10789671B2/en
Publication of JP2018109740A publication Critical patent/JP2018109740A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device which makes it easier to see images with different qualities.SOLUTION: A display device 30, which displays a first image CE with which a second image P with different qualities from that of the first image is overlapped, includes: determination means 35 for determining whether the second image to be seen; and image presentation means 36 for switching between a display of the existence of the second image and a non-display according to the result of determination by the determination means.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置、プログラム、及び表示方法に関する。   The present invention relates to a display device, a program, and a display method.

従来のデジタルカメラよりも広角な画像を撮像できる撮像装置が普及しはじめている。このような撮像装置の1つとして魚眼レンズ等を複数組み合わせ、1回の撮像で周囲360度が撮像された全天球画像を作成する全天球カメラが知られている。全天球画像に対しユーザは任意に視線方向を決定して全天球画像を様々な方向から閲覧することができる。   Imaging devices capable of capturing images with a wider angle than conventional digital cameras are becoming popular. As one of such imaging apparatuses, there is known an omnidirectional camera that combines a plurality of fish-eye lenses and the like to create an omnidirectional image in which 360 degrees around is captured by one imaging. The user can arbitrarily determine the viewing direction for the omnidirectional image and view the omnidirectional image from various directions.

しかしながら、画像処理の負荷などを考慮すると撮像範囲が広い全天球画像の画像処理には制約が生じやすく、通常のデジタルカメラの画像と比較すると画質が低下(例えば解像度が低い、白飛びしやすい、色再現性が低い等)する傾向がある。このため、ユーザが全天球画像の一部を拡大して閲覧するような場合に、画質の低下が気になったり詳細な情報を得られにくかったりするという不都合がある。   However, considering the load of image processing and the like, image processing of a spherical image with a wide imaging range is likely to be restricted, and the image quality is deteriorated compared to an image of a normal digital camera (for example, the resolution is low and whiteout is likely to occur) The color reproducibility is low). For this reason, when a user enlarges and browses a part of the omnidirectional image, there is an inconvenience that the image quality is deteriorated and it is difficult to obtain detailed information.

このような不都合に対し、広角画像に望遠画像を嵌め込む(重畳する)技術が考案されている(例えば、特許文献1参照。)。   For such inconvenience, a technique for fitting (superimposing) a telephoto image on a wide-angle image has been devised (see, for example, Patent Document 1).

しかしながら、低画質の画像に高画質の画像を重畳するだけでは、ユーザは低画質の画像のどこに高画質の画像が重畳されているかを判断しにくいという問題がある。全天球画像のように画角が広く、ユーザが全体を一度に見渡せない画像ではこの傾向が顕著になる。一例として、高画質の画像が重畳されている場所に表示装置が何らかのマークを表示することが考えられるが、ユーザが高画質の画像を見る際にマークが邪魔になるという別の不都合をもたらす。   However, simply superimposing a high-quality image on a low-quality image has a problem that it is difficult for the user to determine where the high-quality image is superimposed on the low-quality image. This tendency becomes remarkable in an image that has a wide angle of view such as an omnidirectional image and the user cannot see the entire image at once. As an example, it is conceivable that the display device displays some mark in a place where a high-quality image is superimposed, but this causes another inconvenience that the mark becomes an obstacle when the user views a high-quality image.

本発明は、上記課題に鑑み、品質の異なる複数の画像の閲覧を容易にする表示装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a display device that facilitates browsing of a plurality of images having different qualities.

本発明は、第一の画像と異なる品質の第二の画像が重畳された前記第一の画像を表示する表示装置であって、前記第二の画像が閲覧されるか否かを判断する判断手段と、前記判断手段の判断結果に応じて、前記第二の画像が存在する旨の表示と非表示を切り替える画像提示手段と、を有する。   The present invention provides a display device that displays the first image on which a second image having a quality different from that of the first image is superimposed, and determines whether or not the second image is browsed And an image presenting means for switching between display and non-display of the presence of the second image according to the determination result of the determination means.

品質の異なる複数の画像の閲覧を容易にする表示装置を提供することができる。   It is possible to provide a display device that facilitates browsing of a plurality of images having different qualities.

全天球画像について説明する図の一例である。It is an example of the figure explaining an omnidirectional image. 全天球画像の表示方法を説明する図の一例である。It is an example of the figure explaining the display method of a spherical image. 全天球カメラと表示装置を有する画像処理システムのシステム構成例を示す図である。1 is a diagram illustrating a system configuration example of an image processing system having an omnidirectional camera and a display device. 撮像装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an imaging device. 表示装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of a display apparatus. 全天球カメラの使用イメージ図である。It is a use image figure of a spherical camera. 全天球カメラで撮像された画像から全天球画像が作成されるまでの処理の概略を説明する図である。It is a figure explaining the outline | summary of the process until an omnidirectional image is produced from the image imaged with the omnidirectional camera. 全天球カメラで撮像された画像から全天球画像が作成されるまでの処理の概略を説明する図である。It is a figure explaining the outline | summary of the process until an omnidirectional image is produced from the image imaged with the omnidirectional camera. ユーザの視線を説明する図の一例である。It is an example of the figure explaining a user's eyes | visual_axis. 全天球画像の閲覧領域の拡大と縮小を模式的に説明する図の一例である。It is an example of the figure which illustrates typically expansion and reduction of a viewing area of a spherical image. デジタルカメラ、全天球カメラ、及び表示装置が有する機能をブロック状に示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the function which a digital camera, a spherical camera, and a display apparatus have in a block form. 平面画像の一致領域への射影方式変換及び平面画像と一致領域とを対応付ける位置パラメータの一例を示す図である。It is a figure which shows an example of the position parameter which matches the projection system conversion to the coincidence area of a plane image, and a plane image and a coincidence area. 射影方式変換部が作成する射影方式変換画像とマスクデータを説明する図の一例である。It is an example of the figure explaining the projection system conversion image and mask data which a projection system conversion part produces. 全天球画像への平面画像の重畳を模式的に説明する図の一例である。It is an example of the figure which illustrates the superimposition of the plane image on the omnidirectional image typically. 平面画像が重畳された全天球画像の正距円筒図法と、全天球に貼り付けられた全天球画像を示す図の一例である。It is an example of the figure which shows the equirectangular projection of the omnidirectional image on which the planar image was superimposed, and the omnidirectional image stuck on the omnidirectional sphere. 全天球画像に重畳された平面画像を模式的に示す図である。It is a figure which shows typically the plane image superimposed on the omnidirectional image. 表示装置が全天球画像に平面画像を重畳する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which a display apparatus superimposes a planar image on an omnidirectional image. 画像重畳部の機能をブロック状に説明する機能ブロック図の一例である。It is an example of the functional block diagram explaining the function of an image superimposition part to a block form. 閲覧領域に対する平面画像の相対位置を説明する図の一例である。It is an example of the figure explaining the relative position of the plane image with respect to a browsing area. 画角aと画角bの求め方を説明する図の一例である。It is an example of the figure explaining how to obtain the angle of view a and the angle of view b. 閲覧領域と平面画像の対角頂点の関係を説明する図の一例である。It is an example of the figure explaining the relationship between a browsing area | region and the diagonal vertex of a planar image. フレームの表示方法を模式的に説明する図の一例である。It is an example of the figure which illustrates the display method of a frame typically. 全天球画像に表示されるフレームの例を説明する図の一例である。It is an example of the figure explaining the example of the flame | frame displayed on an omnidirectional image. 表示装置が平面画像を表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a frame, when a display apparatus displays a plane image. 閲覧領域への平面画像の自動拡大の処理を説明する図の一例である。It is an example of the figure explaining the process of the automatic expansion of the planar image to a browsing area. 閲覧領域に平面画像の全体が含まれていない場合の平面画像の自動拡大の処理を説明する図の一例である。It is an example of the figure explaining the process of the automatic expansion of a plane image in case the whole plane image is not contained in the browsing area | region. 表示装置が平面画像を表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a frame, when a display apparatus displays a plane image. フレームの表示と非表示を説明する図の一例である。It is an example of the figure explaining the display and non-display of a frame. 表示装置が平面画像を表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a frame, when a display apparatus displays a plane image. 表示装置が平面画像を表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a frame, when a display apparatus displays a plane image. フレームの表示例を示す図である。It is a figure which shows the example of a display of a frame. 表示装置が平面画像を表示する際にクリック又はタッチによりフレームの表示の有無を制御する手順を示すフローチャート図の一例である(実施例2)。(Example 2) which is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a frame by click or touch, when a display apparatus displays a plane image. 表示装置が平面画像を表示する際にクリック又はタッチによりフレームの表示の有無を制御する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a flame | frame by clicking or a touch, when a display apparatus displays a plane image. 表示装置による視線検知を説明する図の一例である。It is an example of the figure explaining the gaze detection by a display apparatus. 表示装置が平面画像を表示する際に視線位置に応じてフレームの表示の有無を制御する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a flame | frame according to a gaze position, when a display apparatus displays a plane image. 閲覧領域と平面画像の距離を説明する図の一例である。It is an example of the figure explaining the distance of a browsing area | region and a planar image. 表示装置が平面画像を表示する際に閲覧領域の中心との距離に応じてフレームの表示の有無を制御する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a frame according to the distance with the center of a browsing area, when a display apparatus displays a planar image. 表示装置が平面画像を表示する際にマウスカーソルの位置に応じてフレームの表示の有無を制御する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which controls the presence or absence of the display of a flame | frame according to the position of a mouse cursor, when a display apparatus displays a plane image.

以下、本発明を実施するための形態について図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<全天球画像の概略>
図1は、全天球画像CEについて説明する図の一例である。図1(a)は、三次元の立体球CSで表わされた全天球画像CEを示し、図1(b)は正距円筒図法で表された全天球画像CEを示す。全天球カメラで生成された全天球画像CEは図1(b)のような画像が立体球CSに張り合わされた三次元の構造を有している。仮想カメラICはユーザの視点に対応し、図1では全天球画像CEの中心に視点がある。ユーザUは仮想カメラICを通るX軸、Y軸、Z軸を中心とする3軸の回転を行わせて、全天球画像CEの任意の閲覧領域T(ディスプレイ又は表示用のソフトウェアに表示される範囲)を表示させることができる。また、ユーザは閲覧領域Tを拡大又は縮小することもできる。
<Overview of spherical image>
FIG. 1 is an example of a diagram illustrating the omnidirectional image CE. 1A shows an omnidirectional image CE represented by a three-dimensional solid sphere CS, and FIG. 1B shows an omnidirectional image CE represented by equirectangular projection. The omnidirectional image CE generated by the omnidirectional camera has a three-dimensional structure in which an image as shown in FIG. The virtual camera IC corresponds to the viewpoint of the user. In FIG. 1, the viewpoint is at the center of the omnidirectional image CE. The user U rotates the three axes around the X axis, the Y axis, and the Z axis passing through the virtual camera IC, and is displayed on an arbitrary viewing area T (display or display software) of the omnidirectional image CE. Range) can be displayed. The user can also enlarge or reduce the browsing area T.

<本実施形態の表示装置の概略>
図2は、本実施形態の全天球画像の表示方法を説明する図の一例である。図2(a)は全天球画像CEの一例を示す図である。後述する表示装置が全天球画像CEに平面画像Pを重畳したものとする。表示装置は平面画像Pが存在する旨を意味するフレーム40を全天球画像CEに表示する。図2(a)では、平面画像Pの外縁(枠)を示すフレーム40が表示されている。ユーザはこのフレーム40により、全天球画像CEに平面画像Pが貼り付けられていること、平面画像Pの位置及び大きさを確認できる。
<Outline of Display Device of Present Embodiment>
FIG. 2 is an example of a diagram illustrating a method for displaying an omnidirectional image according to the present embodiment. FIG. 2A shows an example of the omnidirectional image CE. Assume that a display device to be described later superimposes a planar image P on the omnidirectional image CE. The display device displays a frame 40 indicating that the planar image P exists on the omnidirectional image CE. In FIG. 2A, a frame 40 indicating the outer edge (frame) of the planar image P is displayed. The user can confirm that the planar image P is pasted on the omnidirectional image CE and the position and size of the planar image P using the frame 40.

ユーザがフレーム40に気づいたものとする。解像度が高い高画質の画像を表示できるため、ユーザは全天球画像CEを拡大させる。これにより、図2(b)のように平面画像Pがディスプレイ508に大きく表示される。表示装置は所定の条件を満たす場合、フレーム40を消去する。これにより、フレーム40が平面画像Pの閲覧を妨害することを抑制できる。   It is assumed that the user has noticed the frame 40. Since a high-quality image with high resolution can be displayed, the user enlarges the omnidirectional image CE. Thereby, the planar image P is displayed largely on the display 508 as shown in FIG. The display device erases the frame 40 when a predetermined condition is satisfied. Thereby, it can suppress that the flame | frame 40 obstructs browsing of the plane image P.

フレーム40を消去するための所定の条件は、ユーザUが平面画像Pを見ることが推定されることである。具体的には以下のようになる。
(i)ユーザUが平面画像Pをクリックした場合
(ii)現在の閲覧領域Tの画角に対し平面画像Pが占める画角の比率が所定以上になった場合
また、以下のようにユーザUの閲覧のための操作に伴って、フレーム40の消去を制御してもよい。
(iii)マウスカーソルの座標が平面画像Pと重なっていない場合
(iv)全天球画像CEの閲覧領域Tが変更されてから所定時間が経過した後
なお、見ることが推定されるとは、実際にユーザが見る他、見る可能性がある旨を含む。
The predetermined condition for erasing the frame 40 is that the user U is estimated to see the planar image P. Specifically:
(i) When the user U clicks the plane image P
(ii) When the ratio of the angle of view occupied by the planar image P to the angle of view of the current viewing area T is greater than or equal to a predetermined value. Erasing may be controlled.
(iii) When the coordinates of the mouse cursor do not overlap with the plane image P
(iv) After a predetermined time has elapsed since the viewing area T of the omnidirectional image CE has been changed, it is estimated that the user sees the image in addition to the actual user viewing.

このように、本実施形態の表示装置は、全天球画像CEに平面画像Pを重畳することで、解像度が低い全天球画像CEを平面画像Pで補うことができる。平面画像Pの位置がフレーム40で表示されるのでユーザはどこに平面画像Pがあるかを容易に把握できる。ユーザが平面画像Pを見る場合、フレーム40が消去されるのでフレーム40が平面画像Pの閲覧を妨害することも抑制できる。   As described above, the display device of the present embodiment can supplement the omnidirectional image CE having a low resolution with the planar image P by superimposing the planar image P on the omnidirectional image CE. Since the position of the planar image P is displayed in the frame 40, the user can easily grasp where the planar image P is. When the user views the planar image P, the frame 40 is erased, so that the frame 40 can be prevented from obstructing the viewing of the planar image P.

<用語について>
重畳とは、2つ以上のものを合わせて1つのものにすることをいう。また、本実施形態では、重畳に、貼り付け、嵌め込み、合成、重ね合わせという意味が含まれてよい。
<Terminology>
Superposition means that two or more objects are combined into one. In the present embodiment, the superimposition may include the meanings of pasting, fitting, synthesis, and superposition.

特許請求の範囲の閲覧とは、ユーザが第二の画像を意識して見ることをいう。第一の画像は例えば全天球画像であり、第二の画像は例えば平面画像である。   The browsing of the claims means that the user views the second image with consciousness. The first image is, for example, an omnidirectional image, and the second image is, for example, a planar image.

第二の画像が存在する旨とは、第二の画像の存在にユーザが気づき得る視覚的な特徴である。具体的には何らかの画像部品により示される。画像部品の一例はフレーム40である。   The presence of the second image is a visual feature that allows the user to notice the presence of the second image. Specifically, it is indicated by some image component. An example of the image component is the frame 40.

また、高画質の定義は画像によっても異なるため、ユーザの閲覧目的によって種々でよいが、一般に画像が忠実に光景を表すことをいう。画像の品質が高いと称することもできる。例えば、解像度が高い、ダイナミックレンジが広い、色再現性が高い、ノイズが少ない、画像をいう。また、品質には画質の高低、静止画と動画の違い、射影方式の違いなどがある。   Also, since the definition of high image quality varies depending on the image, it may vary depending on the user's viewing purpose, but generally it means that the image faithfully represents a scene. It can also be referred to as high image quality. For example, an image having a high resolution, a wide dynamic range, high color reproducibility, little noise, and the like. In addition, quality includes high and low image quality, differences between still images and moving images, and differences in projection methods.

<システム構成例>
図3は、全天球カメラ20と表示装置30を有する画像処理システム100のシステム構成例を示す図である。図3(a)は全天球カメラ20と通常のデジタルカメラ9を有する画像処理システム100を示す。通常のデジタルカメラ9とは、一般に35mmフィルムに換算した場合に焦点距離35mm以上で撮像する撮像装置(カメラ)であるが、24mm〜35mm程度の広角画像を撮像できる撮像装置が含まれてよい。簡単には、全天球カメラ20ではなく平面画像Pを撮像する撮像装置ということができる。換言すると、閲覧領域Tに全体を表示可能な画像を撮像する撮像装置である。
<System configuration example>
FIG. 3 is a diagram illustrating a system configuration example of the image processing system 100 including the omnidirectional camera 20 and the display device 30. FIG. 3A shows an image processing system 100 having an omnidirectional camera 20 and a normal digital camera 9. The normal digital camera 9 is generally an image pickup apparatus (camera) that picks up an image with a focal length of 35 mm or more when converted into a 35 mm film, but may include an image pickup apparatus that can pick up a wide-angle image of about 24 mm to 35 mm. Simply, it can be said that the imaging device captures the planar image P instead of the omnidirectional camera 20. In other words, the imaging apparatus captures an image that can be displayed entirely in the browsing area T.

デジタルカメラ9は、全天球画像CEよりも少なくとも解像度が高い(撮像する画角に対する画素数が多い)撮像素子を有している。また、全天球カメラ20よりも狭い撮像範囲で撮像条件(露出時間、シャッター速度、ホワイトバランス等)を最適化するため、白飛びしにくく、色再現性も高い場合が多い。このようにデジタルカメラ9はいわゆる高画質の平面画像を生成する。   The digital camera 9 has an image sensor that has at least a higher resolution than the omnidirectional image CE (a large number of pixels with respect to the angle of view to be imaged). In addition, since the imaging conditions (exposure time, shutter speed, white balance, etc.) are optimized in an imaging range narrower than that of the omnidirectional camera 20, whiteout is difficult and color reproducibility is often high. Thus, the digital camera 9 generates a so-called high-quality planar image.

これにより、全天球画像CEでは拡大時に粗くなる画像を、平面画像Pの高い画質の画像で補うことができる。図3(a)の構成では、デジタルカメラ9が表示装置30を兼ねている。デジタルカメラ9の具体例は、例えばデジタルスチルカメラ、又はデジタルビデオカメラであるが、撮像装置を備えたその他の装置であってもよい。例えば、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、ウェアラブルPC(Personal Computer)等でもよい。この場合、スマートフォン等に全天球カメラ20が外付けされてよい。   Thereby, in the omnidirectional image CE, an image that becomes rough when enlarged can be supplemented with a high-quality image of the planar image P. In the configuration of FIG. 3A, the digital camera 9 also serves as the display device 30. A specific example of the digital camera 9 is, for example, a digital still camera or a digital video camera, but may be other devices including an imaging device. For example, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), a wearable PC (Personal Computer), or the like may be used. In this case, the omnidirectional camera 20 may be externally attached to a smartphone or the like.

全天球カメラ20とデジタルカメラ9はUSB,Bluetooth(登録商標)、無線LANなどで通信することができる。全天球カメラ20が撮像した全天球画像CEはデジタルカメラ9に送信される。デジタルカメラ9も同様に平面画像Pを撮像する。全天球画像CEには周囲360度の風景が写っているので平面画像Pは全天球画像CEの一部になる。   The omnidirectional camera 20 and the digital camera 9 can communicate with each other by USB, Bluetooth (registered trademark), wireless LAN, or the like. The omnidirectional image CE captured by the omnidirectional camera 20 is transmitted to the digital camera 9. Similarly, the digital camera 9 captures the planar image P. Since the 360-degree landscape is reflected in the omnidirectional image CE, the planar image P becomes a part of the omnidirectional image CE.

デジタルカメラ9は表示装置30として、全天球画像CEに平面画像Pを重畳する。具体的には、例えばユーザUが平面画像Pと全天球画像CEを選択して、重畳を指示する。あるいは、デジタルカメラ9を重畳モードに設定して平面画像Pを撮像すると、平面画像Pがマッチングする全天球画像CEに自動的に重畳する。画像の一致度が低ければ重畳されないので不都合は少ない。また、表示装置30としてのデジタルカメラ9はフレーム40の表示と非表示を切り替えてデジタルカメラ9が有するディスプレイに表示したりする。このように、デジタルカメラ9が表示装置30である場合は、全天球カメラ20とデジタルカメラ9という構成で、全天球画像CEと平面画像Pを重畳したりフレーム40の表示及び非表示を切り替えたりすることができる。   As the display device 30, the digital camera 9 superimposes the planar image P on the omnidirectional image CE. Specifically, for example, the user U selects the planar image P and the omnidirectional image CE and instructs superposition. Alternatively, when the digital camera 9 is set to the superimposing mode and the planar image P is captured, the digital image is automatically superimposed on the omnidirectional image CE with which the planar image P matches. There is little inconvenience because the images are not superimposed if the degree of coincidence of the images is low. Further, the digital camera 9 as the display device 30 switches between displaying and hiding the frame 40 and displays the frame 40 on the display of the digital camera 9. As described above, when the digital camera 9 is the display device 30, the omnidirectional camera 20 and the digital camera 9 are used to superimpose the omnidirectional image CE and the planar image P and to display and hide the frame 40. Can be switched.

図3(b)は、全天球カメラ20、通常のデジタルカメラ9、及び表示装置30を有する画像処理システム100を示す。全天球カメラ20と表示装置30、及び、デジタルカメラ9と表示装置30はUSB、Bluetooth(登録商標)、無線LANなどで通信することができる。全天球カメラ20が撮像した全天球画像CEは表示装置30に送信される。デジタルカメラ9が撮像した平面画像Pも表示装置30に送信される。送信の他、記憶媒体に格納された全天球画像CE又は平面画像Pを表示装置30が記憶媒体から読み取ってもよい。   FIG. 3B shows an image processing system 100 having an omnidirectional camera 20, a normal digital camera 9, and a display device 30. The omnidirectional camera 20 and the display device 30 and the digital camera 9 and the display device 30 can communicate with each other by USB, Bluetooth (registered trademark), wireless LAN, or the like. The omnidirectional image CE captured by the omnidirectional camera 20 is transmitted to the display device 30. A planar image P captured by the digital camera 9 is also transmitted to the display device 30. In addition to transmission, the display device 30 may read the omnidirectional image CE or the planar image P stored in the storage medium from the storage medium.

表示装置30は、例えばPC、スマートフォン、タブレット端末、PDAなどの情報処理装置である。この他、情報処理装置としての機能を有する複合機、プロジェクタ、テレビ会議端末などでもよい。   The display device 30 is an information processing device such as a PC, a smartphone, a tablet terminal, or a PDA. In addition, a multifunction device having a function as an information processing device, a projector, a video conference terminal, or the like may be used.

図3(b)の構成では、表示装置30が全天球画像CEに平面画像Pを重畳する。また、フレーム40の表示と非表示を切り替えて表示装置30のディスプレイに表示する。より具体的には、ユーザUは、平面画像Pと全天球画像CEを見比べることなどで、どの平面画像Pがどの全天球画像CEの一部か分かるので、全天球画像CEとこれに貼り付ける平面画像Pを選択し、表示装置30に貼り付けを行わせる。デジタルカメラ9のように自動的に重畳させてもよい。このように、表示装置30は全天球画像CEと平面画像Pを取得して、全天球画像CEに平面画像Pを重畳し、フレーム40の表示及び非表示を切り替えることができる。図4以下の説明では、特に言及しない限り、図3(b)の構成を念頭に説明する。   In the configuration of FIG. 3B, the display device 30 superimposes the planar image P on the omnidirectional image CE. Further, the display and non-display of the frame 40 are switched and displayed on the display of the display device 30. More specifically, the user U can know which planar image P is a part of which omnidirectional image CE by comparing the planar image P with the omnidirectional image CE. A planar image P to be pasted is selected, and the display device 30 is pasted. You may superimpose automatically like the digital camera 9. Thus, the display device 30 can acquire the omnidirectional image CE and the planar image P, superimpose the planar image P on the omnidirectional image CE, and switch between display and non-display of the frame 40. In the description of FIG. 4 and subsequent figures, the configuration of FIG. 3B will be described in mind unless otherwise specified.

図3(c)は、全天球カメラ20、通常のデジタルカメラ9、表示装置30、及び画像重畳サーバ70がネットワークNを介して接続された画像処理システム100を示す。ネットワークNは、ユーザ環境に構築されているLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANやインターネットと呼ばれる。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、全天球カメラ20及びデジタルカメラ9が直接、公衆回線網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。   FIG. 3C shows an image processing system 100 in which an omnidirectional camera 20, a normal digital camera 9, a display device 30, and an image superimposing server 70 are connected via a network N. The network N is constructed by a LAN constructed in a user environment, a provider network of a provider that connects the LAN to the Internet, a line provided by a line operator, and the like. When the network N has a plurality of LANs, the network N is called a WAN or the Internet. The network N may be constructed by either wired or wireless, and wired and wireless may be combined. In addition, when the omnidirectional camera 20 and the digital camera 9 are directly connected to the public network, they can be connected to the provider network without going through the LAN.

画像重畳サーバ70は一般的な情報処理装置又はサーバ装置でよいし、表示装置30の具体例は図3(b)と同様でよい。しかしながら、画像重畳サーバ70はクラウドコンピューティングに対応していることが好ましい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。   The image superimposing server 70 may be a general information processing device or server device, and a specific example of the display device 30 may be the same as that in FIG. However, the image superimposing server 70 is preferably compatible with cloud computing. Cloud computing refers to a usage pattern in which resources on a network are used without being aware of specific hardware resources.

全天球カメラ20が撮像した全天球画像CEは画像重畳サーバ70に送信される。デジタルカメラ9が撮像した平面画像Pも画像重畳サーバ70に送信される。図3(c)の構成では、画像重畳サーバ70が全天球画像CEに平面画像Pを重畳する。より具体的には、表示装置30はユーザUの操作を受け付けて画像重畳サーバ70にアクセスして、全天球画像CE及び平面画像Pのリスト(サムネイル画像など)を表示する。ユーザUは、平面画像Pと全天球画像CEを見比べることなどで、どの平面画像Pがどの全天球画像CEの一部か分かるので、全天球画像CEとこれに貼り付ける平面画像Pを選択し、画像重畳サーバ70に通知する。画像重畳サーバ70が自動的に重畳してもよい。   The omnidirectional image CE captured by the omnidirectional camera 20 is transmitted to the image superimposing server 70. A planar image P captured by the digital camera 9 is also transmitted to the image superimposing server 70. In the configuration of FIG. 3C, the image superimposing server 70 superimposes the planar image P on the omnidirectional image CE. More specifically, the display device 30 receives the operation of the user U, accesses the image superimposing server 70, and displays a list of omnidirectional images CE and planar images P (thumbnail images and the like). The user U can know which planar image P is a part of which celestial sphere image CE by comparing the planar image P with the celestial sphere image CE. Is notified to the image superimposing server 70. The image superimposing server 70 may automatically superimpose.

画像重畳サーバ70は、全天球画像CEに平面画像Pを重畳すると共に、閲覧領域Tの画像データを表示装置30に送信する。初期状態の視線方向と画角は予め決まっているものとする。画像重畳サーバ70はWebサーバとして閲覧領域Tの画像データとユーザの操作を受け付けるための表示プログラム(スクリプト言語で記述されている)を表示装置30に送信する。表示装置30は表示プログラムを実行しユーザUの操作を受け付け、視線方向と画角を画像重畳サーバ70に送信する。画像重畳サーバ70は視線方向と画角に応じて閲覧領域Tを更新し、閲覧領域Tの画像データを表示装置30に送信する。画像重畳サーバ70は、フレーム40の表示と非表示を切り替えるため、表示装置30はフレーム40が表示される画像と表示されない画像を表示できる。   The image superimposing server 70 superimposes the planar image P on the omnidirectional image CE and transmits the image data of the viewing area T to the display device 30. It is assumed that the viewing direction and the angle of view in the initial state are determined in advance. The image superimposing server 70 transmits, as a Web server, image data in the viewing area T and a display program (described in a script language) for receiving a user operation to the display device 30. The display device 30 executes the display program, accepts an operation of the user U, and transmits the line-of-sight direction and the angle of view to the image superimposing server 70. The image superimposing server 70 updates the viewing area T according to the line-of-sight direction and the angle of view, and transmits image data of the viewing area T to the display device 30. Since the image superimposing server 70 switches between display and non-display of the frame 40, the display device 30 can display an image in which the frame 40 is displayed and an image in which the frame 40 is not displayed.

全天球画像CE、平面画像P及び表示プログラムを画像重畳サーバ70が表示装置30に送信してもよい。この場合、表示装置30がユーザの操作に応じて閲覧領域Tを決定し、フレーム40の表示と非表示を切り替える。   The image superimposing server 70 may transmit the omnidirectional image CE, the planar image P, and the display program to the display device 30. In this case, the display device 30 determines the viewing area T according to the user's operation, and switches between display and non-display of the frame 40.

また、全天球画像CEと平面画像Pから画像重畳サーバ70が位置パラメータ(後述する)を算出し、全天球画像CEと平面画像P及び位置パラメータを表示装置30がダウンロードしてもよい。ユーザは任意に視線方向を変えるが、表示装置30は同じ位置パラメータを使って全天球画像CEに平面画像Pを重畳できる。後述する図11の位置パラメータ作成部8が画像重畳サーバ70にあり、変換表示部7を表示装置30が有する形態となる。   Further, the image superimposing server 70 may calculate a position parameter (described later) from the omnidirectional image CE and the planar image P, and the display device 30 may download the omnidirectional image CE, the planar image P, and the positional parameter. Although the user arbitrarily changes the line-of-sight direction, the display device 30 can superimpose the planar image P on the omnidirectional image CE using the same position parameter. A position parameter creating unit 8 shown in FIG. 11 described later is provided in the image superimposing server 70, and the conversion display unit 7 is included in the display device 30.

<ハードウェア構成>
<<全天球カメラのハードウェア構成>>
図4は、全天球カメラのハードウェア構成図である。以下では、全天球カメラ20は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラ9やスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に全天球カメラ20と同じ機能を有するようにしてもよい。
<Hardware configuration>
<< Hardsphere camera hardware configuration >>
FIG. 4 is a hardware configuration diagram of the omnidirectional camera. In the following, the omnidirectional camera 20 is an omnidirectional imaging apparatus using two imaging elements, but the number of imaging elements may be three or more. In addition, it is not always necessary to use an apparatus dedicated to omnidirectional imaging. By attaching a retrofit omnidirectional imaging unit to a normal digital camera 9, a smartphone, or the like, it has substantially the same function as the omnidirectional camera 20. May be.

図4に示されているように、全天球カメラ20は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、及び、加速度センサ120なども接続される。   As shown in FIG. 4, the omnidirectional camera 20 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, antenna 117a, electronic compass 118, gyro sensor 119, and acceleration A sensor 120 or the like is also connected.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among these, the imaging unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 103a and 103b are provided. The image sensors 103a and 103b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by a fisheye lens into image data of an electric signal and output the image data. A timing generation circuit for generating a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。   The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 103 a and 103 b of the imaging unit 101 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 105. The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Further, ROM 112, SRAM 113, DRAM 114, operation unit 115, network I / F 116, communication unit 117, and electronic compass 118 are connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを重畳処理して、図1(b)に示されているような正距円筒図法による画像のデータを作成する。   The image processing unit 104 takes in the image data output from the image sensors 103a and 103b through the parallel I / F bus, performs predetermined processing on each image data, and then superimposes the image data. Then, image data is created by equirectangular projection as shown in FIG.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   In general, the imaging control unit 105 sets a command or the like in a register group of the imaging elements 103a and 103b using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture status data of the register groups of the imaging elements 103a and 103b and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some imaging devices may have a preview display function using a display or a function corresponding to moving image display. In this case, output of image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frame / min).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置には表示部が設けられていないが、表示部を設けてもよい。   Further, as will be described later, the imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the imaging device is not provided with a display unit, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。   The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、全天球カメラ20の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒図法による画像のデータを記憶する。   The CPU 111 controls the overall operation of the omnidirectional camera 20 and executes necessary processes. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed image data based on equirectangular projection.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザUは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。   The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user U inputs various imaging modes and imaging conditions by operating the operation buttons.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶された正距円筒図法による画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して表示装置30等の外部装置に送信されたりする。   The network I / F 116 is a general term for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. Further, the network I / F 116 may be a network interface regardless of wireless or wired. The image data of the equirectangular projection stored in the DRAM 114 is recorded on an external medium via the network I / F 116 or displayed via the network I / F 116 as a network I / F as necessary. Or transmitted to an external device such as the device 30.

通信部117は、全天球カメラ20に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、表示装置30等の外部装置と通信を行う。この通信部117によっても、正距円筒図法による画像のデータを表示装置30等の外部装置に送信することができる。   The communication unit 117 communicates with an external device such as the display device 30 by a short-range wireless technology such as WiFi (wireless fidelity) or NFC via the antenna 117 a provided in the omnidirectional camera 20. The communication unit 117 can also transmit image data based on equirectangular projection to an external device such as the display device 30.

電子コンパス118は、地球の磁気から全天球カメラ20の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。   The electronic compass 118 calculates the direction of the omnidirectional camera 20 from the earth's magnetism and outputs the direction information. This orientation information is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image. The related information includes each data of the image capturing date and time and the data capacity of the image data.

ジャイロセンサ119は、全天球カメラ20の移動に伴う角度の変化(ロール角、ピッチング角、ヨー角)を検出する。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。   The gyro sensor 119 detects a change in angle (roll angle, pitching angle, yaw angle) accompanying the movement of the omnidirectional camera 20. The change in angle is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image.

加速度センサ120は3軸方向の加速度を検出する。検出した加速度に基づいて全天球カメラ20の姿勢(重力方向に対する角度)を検出する。ジャイロセンサ119と加速度センサ120は両方を有することで画像補正の精度が向上する。   The acceleration sensor 120 detects acceleration in three axis directions. Based on the detected acceleration, the attitude of the omnidirectional camera 20 (angle with respect to the direction of gravity) is detected. By having both the gyro sensor 119 and the acceleration sensor 120, the accuracy of image correction is improved.

なお、一眼レフカメラのハードウェア構成は図4と同様であるか又は相違があるとしても本実施形態の説明には支障がないものとする。   Note that the hardware configuration of the single-lens reflex camera is the same as or different from that in FIG.

<<表示装置のハードウェア構成>>
図5は、表示装置のハードウェア構成図である。表示装置30は、表示装置全体の動作を制御するCPU501、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、表示装置用のプログラム等の各種データを記憶するHD(Hard Disk)504を有する。また、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507を有する。また、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、ネットワークNを利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、を有する。また、着脱可能な記録媒体の一例としての光記憶媒体513に対する各種データの読み出し又は書き込みを制御する光メディアドライブ514、及び、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<< Hardware configuration of display device >>
FIG. 5 is a hardware configuration diagram of the display device. The display device 30 includes a CPU 501 that controls the operation of the entire display device, a ROM 502 that stores a program used to drive the CPU 501 such as an IPL (Initial Program Loader), a RAM 503 that is used as a work area for the CPU 501, and a program for the display device HD (Hard Disk) 504 for storing various data such as. In addition, an HDD (Hard Disk Drive) 505 that controls reading or writing of various data with respect to the HD 504 according to the control of the CPU 501 and a media drive 507 that controls reading or writing (storage) of data with respect to a recording medium 506 such as a flash memory. . In addition, a display 508 for displaying various information such as a cursor, menu, window, character, or image, a network I / F 509 for data communication using the network N, a character, a numerical value, various instructions for inputting, etc. A keyboard 511 having a plurality of keys, and a mouse 512 for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. Further, as shown in FIG. 5, an optical media drive 514 that controls reading or writing of various data with respect to an optical storage medium 513 as an example of a removable recording medium, and the above-described components are electrically connected. For this purpose, a bus line 510 such as an address bus or a data bus is provided.

なお、画像重畳サーバ70のハードウェア構成は図5と同様であるか又は相違があるとしても本実施形態の説明には支障がないものとする。   It should be noted that the hardware configuration of the image superimposing server 70 is the same as or different from that in FIG.

<全天球画像CEの作成>
図6〜図9を用いて全天球画像CEについて説明する。図6は、全天球カメラ20の使用イメージ図である。全天球カメラ20は、図6に示されているように、ユーザUが手に持ってユーザUの周りの被写体を撮像するために用いられる。全天球カメラ20は、2つの撮像素子の背面同士が対向させられた構造を有しており、それぞれユーザUの周りの被写体を撮像することで、2つの半球画像を得る。
<Creation of spherical image CE>
The omnidirectional image CE will be described with reference to FIGS. FIG. 6 is a usage image diagram of the omnidirectional camera 20. As shown in FIG. 6, the omnidirectional camera 20 is used by the user U to take an image of a subject around the user U with his hand. The omnidirectional camera 20 has a structure in which the back surfaces of the two imaging elements are opposed to each other, and obtains two hemispherical images by imaging the subject around the user U, respectively.

次に、図7及び図8を用いて、全天球カメラ20で撮像された画像から全天球画像CEが作成されるまでの処理の概略を説明する。なお、図7(a)は全天球カメラ20で撮像された半球画像(前側)、図7(b)は全天球カメラ20で撮像された半球画像(後側)、図7(c)は正距円筒図法による全天球画像を示した図である。図8(a)は正距円筒図法による画像で球を被う状態を示した概念図、図8(b)は全天球画像CEを示した図である。   Next, an outline of processing until an omnidirectional image CE is created from an image captured by the omnidirectional camera 20 will be described with reference to FIGS. 7 and 8. 7A shows a hemispheric image (front side) captured by the omnidirectional camera 20, FIG. 7B shows a hemispheric image captured by the omnidirectional camera 20 (rear side), and FIG. 7C. These are the figures which showed the omnidirectional image by equirectangular projection. FIG. 8A is a conceptual diagram showing a state where a sphere is covered with an image obtained by equirectangular projection, and FIG. 8B is a diagram showing an omnidirectional image CE.

図7(a)に示されているように、全天球カメラ20によって得られた画像は、魚眼レンズによって湾曲した半球画像(前側)となる。また、図7(b)に示されているように、全天球カメラ20によって得られた画像は、魚眼レンズによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、全天球カメラ20によってつなぎ合わされ、図7(c)に示されているように、正距円筒図法による画像が作成される。   As shown in FIG. 7A, the image obtained by the omnidirectional camera 20 is a hemispherical image (front side) curved by the fisheye lens. Further, as shown in FIG. 7B, the image obtained by the omnidirectional camera 20 is a hemispherical image (rear side) curved by the fisheye lens. Then, the hemispherical image (front side) and the hemispherical image inverted at 180 degrees (rear side) are joined together by the omnidirectional camera 20, and as shown in FIG. An image is created.

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図8(a)に示されているように、正距円筒図法による画像が球面を覆うように貼り付けられ、図8(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒図法による画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。全天球画像CEは、静止画であっても動画であってもよい。具体的には図8(a)の正距円筒図法による画像から図8(b)の三次元の全天球画像へ変換は後述する式(1)が利用される。   Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 8A, an image by equirectangular projection is pasted so as to cover the spherical surface. An omnidirectional image CE as shown in (b) is created. As described above, the omnidirectional image CE is represented as an image in which an image obtained by equidistant cylindrical projection faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The omnidirectional image CE may be a still image or a moving image. Specifically, the expression (1) described later is used for conversion from the image by the equirectangular projection of FIG. 8A to the three-dimensional omnidirectional image of FIG. 8B.

全天球画像CEは、球面を覆うように貼り付けられた画像であるため湾曲しており、人間が見ると違和感を持ってしまう。そこで、表示装置30は、全天球画像CEの一部の閲覧領域Tを湾曲の少ない平面画像Pとして表示することで、人間に違和感を与えないように表示する。閲覧領域Tは、三次元の仮想空間における座標(X,Y,Z)によって示される。一方、ディスプレイ508は二次元平面なので閲覧領域Tのままでは表示装置30が表示できない。   Since the omnidirectional image CE is an image pasted so as to cover the spherical surface, it is curved and has a sense of incongruity when viewed by humans. Therefore, the display device 30 displays a part of the viewing area T of the omnidirectional image CE as a flat image P with a small curvature so as not to give a sense of incongruity to humans. The browsing area T is indicated by coordinates (X, Y, Z) in a three-dimensional virtual space. On the other hand, since the display 508 is a two-dimensional plane, the display device 30 cannot display the viewing area T as it is.

そこで、3Dコンピュータグラフィックの技法を用いて三次元の物体を二次元平面に投影する透視投影変換により、表示装置30は湾曲の少ない画像を得る。以上のようにして、全天球画像CEの閲覧領域Tがディスプレイ508に表示される。   Therefore, the display device 30 obtains an image with less curvature by perspective projection conversion in which a three-dimensional object is projected onto a two-dimensional plane using a 3D computer graphic technique. As described above, the viewing area T of the omnidirectional image CE is displayed on the display 508.

図9は、ユーザUの視線を説明する図の一例である。全天球画像CEは三次元の座標を有しているので、視線方向は三次元の座標や緯度・経度などの球体の座標を特定する情報で特定される。本実施形態では、閲覧領域Tの中心cpを視線方向とする。   FIG. 9 is an example of a diagram illustrating the line of sight of the user U. Since the omnidirectional image CE has three-dimensional coordinates, the line-of-sight direction is specified by information specifying the coordinates of the sphere such as three-dimensional coordinates and latitude / longitude. In the present embodiment, the center cp of the viewing area T is the line-of-sight direction.

ユーザUはキーボード511又はマウス512により視線方向を変えることができるが、仮想カメラICが平行移動しないと仮定すると、仮想カメラICは剛体としてロール(Z軸を中心とする回転)、ヨー(Y軸を中心とする回転)、及びピッチ(X軸を中心とする回転)の3つの回転が可能である。このうちヨーとピッチの回転のいずれが生じても視線方向が変化する(ロールの変化ではカメラのアッパーベクトルが変わるだけで、カメラの視線ベクトルは変化しない)。   Although the user U can change the line-of-sight direction with the keyboard 511 or the mouse 512, assuming that the virtual camera IC does not translate, the virtual camera IC is rolled as a rigid body (rotation about the Z axis), yaw (Y axis) Rotation around the X axis) and pitch (rotation around the X axis) are possible. Of these, the direction of the line of sight changes regardless of whether the rotation of the yaw or the pitch occurs (changing the roll only changes the upper vector of the camera and does not change the line of sight of the camera).

例えば、ユーザUが全天球画像CEを水平方向に回転させるとヨー角が変化し、上下方向に回転させるとピッチ角が変化し、ディスプレイ508の中心を軸に全天球画像CEを回転させるとロール角が変化する。本実施形態では、ユーザUのWebページに対する操作が、視線方向(ロール角、ヨー角、ピッチ角)等に反映される。どのように反映されるかは表示装置30が実行するプログラムに予め記述されている。   For example, when the user U rotates the omnidirectional image CE in the horizontal direction, the yaw angle changes. When the user U rotates it in the vertical direction, the pitch angle changes, and the omnidirectional image CE is rotated about the center of the display 508. And roll angle changes. In the present embodiment, the operation of the user U on the Web page is reflected in the line-of-sight direction (roll angle, yaw angle, pitch angle) and the like. How it is reflected is described in advance in a program executed by the display device 30.

図10は、全天球画像CEの閲覧領域Tの拡大と縮小を模式的に説明する図の一例である。図10(a)は初期の閲覧領域Tを示す。仮想カメラICが立体球CSの中央に存在する場合、閲覧領域Tは画角αにより決定される。画角αは、例えば閲覧領域Tの対角頂点を立体球CSの中央から臨む角度である。   FIG. 10 is an example of a diagram schematically illustrating enlargement and reduction of the viewing area T of the omnidirectional image CE. FIG. 10A shows an initial browsing area T. FIG. When the virtual camera IC exists in the center of the solid sphere CS, the viewing area T is determined by the angle of view α. The angle of view α is an angle at which the diagonal vertex of the viewing area T faces the center of the solid sphere CS, for example.

初期状態の画角αをαとする。図10(b)に示すように画角を小さくすれば(α<α)閲覧領域Tが狭くなるのでディスプレイ508上では画像が拡大され、図10(c)に示すように、画角を大きくすれば(α>α)閲覧領域Tが広くなるのでディスプレイ508上では画像が縮小される。ユーザUが全天球画像CEを拡大する操作又は縮小の操作を行うと、表示装置30は操作量に応じて画角を小さくしたり大きくしたりする。 The angle of view α in the initial state is α 0 . If the angle of view is reduced as shown in FIG. 10B (α 10 ), the viewing area T becomes narrower, so the image is enlarged on the display 508, and as shown in FIG. Is increased (α 2 > α 0 ), the viewing area T becomes wider, and the image is reduced on the display 508. When the user U performs an operation for enlarging or reducing the omnidirectional image CE, the display device 30 decreases or increases the angle of view according to the operation amount.

図10(c)のように画角が大きくなったとしても、仮想カメラICが中央にある限り、仮想カメラICの後方にある画像を表示装置30が表示することができない。このため、ユーザUが図10(c)の状態から更に縮小する操作を行うと、表示装置30は仮想カメラICを後方に移動する。図10(d)では画角α2は図10(c)と変わっていないが、仮想カメラICが後方に移動することで、閲覧領域Tが更に広くなっている。このため、図10(c)よりも更に画像を縮小することが可能である。   Even if the angle of view increases as shown in FIG. 10C, as long as the virtual camera IC is in the center, the display device 30 cannot display an image behind the virtual camera IC. Therefore, when the user U performs an operation of further reducing from the state of FIG. 10C, the display device 30 moves the virtual camera IC backward. In FIG. 10 (d), the angle of view α2 is not different from that in FIG. 10 (c), but the viewing area T is further expanded by moving the virtual camera IC backward. For this reason, it is possible to further reduce the image as compared with FIG.

<全天球画像CEへの平面画像Pの重畳に関する機能>
まず、図11〜図16を用いて、全天球画像CEへの平面画像Pの重畳に関する機能について説明する。上記のように、図3(b)の構成を念頭に説明する。
<Function related to superimposition of planar image P on omnidirectional image CE>
First, the function regarding the superimposition of the planar image P on the omnidirectional image CE will be described with reference to FIGS. As described above, the configuration of FIG. 3B will be described in mind.

図11は、デジタルカメラ9、全天球カメラ20、及び表示装置30が有する機能をブロック状に示す機能ブロック図の一例である。デジタルカメラ9は平面画像取得部11を有している。平面画像取得部11はデジタルカメラ9の撮像機能により実現され、所定の解像度の画素がそれぞれ濃淡を表す画像データ(平面画像P)を作成する。平面画像Pは1つの静止画、複数の静止画、又は動画のいずれでもよい。   FIG. 11 is an example of a functional block diagram illustrating the functions of the digital camera 9, the omnidirectional camera 20, and the display device 30 in a block shape. The digital camera 9 has a planar image acquisition unit 11. The planar image acquisition unit 11 is realized by the imaging function of the digital camera 9, and creates image data (planar image P) in which each pixel of a predetermined resolution represents light and shade. The planar image P may be one still image, a plurality of still images, or a moving image.

全天球カメラ20は全天球画像取得部12を有している。全天球画像取得部12は全天球カメラ20の撮像機能により実現され、全天球カメラ20の周囲360度の画像データ(全天球画像CE)を作成する。全天球画像CEは、1つの静止画、複数の静止画、又は動画のいずれでもよい。   The omnidirectional camera 20 has an omnidirectional image acquisition unit 12. The omnidirectional image acquisition unit 12 is realized by the imaging function of the omnidirectional camera 20, and creates 360 degree image data (omnidirectional image CE) around the omnidirectional camera 20. The omnidirectional image CE may be one still image, a plurality of still images, or a moving image.

表示装置30は、主に、位置パラメータ作成部8、及び変換表示部7を有している。表示装置30が有するこれらの機能は、図5に示した表示装置30のCPU501がHD504からRAM503に展開されたプログラムを実行することで実現される機能又は手段である。   The display device 30 mainly includes a position parameter creation unit 8 and a conversion display unit 7. These functions of the display device 30 are functions or means realized by the CPU 501 of the display device 30 illustrated in FIG. 5 executing a program expanded from the HD 504 to the RAM 503.

まず、位置パラメータ作成部8は、更に全天球画像読込部21、平面画像読込部22、位置パラメータ算出部23、及び位置パラメータ書出部24を有する。全天球画像読込部21は、全天球画像取得部12から全天球画像CEを読み込む。平面画像読込部22は、平面画像取得部11から平面画像Pを読み込む。読み込むとは、取得する、受信する、記憶媒体から読み出す、又は、入力を受け付けるという意味である。   First, the position parameter creation unit 8 further includes an omnidirectional image reading unit 21, a planar image reading unit 22, a position parameter calculation unit 23, and a position parameter writing unit 24. The omnidirectional image reading unit 21 reads the omnidirectional image CE from the omnidirectional image acquisition unit 12. The planar image reading unit 22 reads the planar image P from the planar image acquisition unit 11. Reading means acquiring, receiving, reading from a storage medium, or receiving input.

位置パラメータ算出部23は、平面画像Pと一致する全天球画像CEの一致領域を特定し、一致領域を特定するための位置パラメータPPを求める。位置パラメータPPの詳細は図12にて説明される。正距円筒図法により全天球画像CEは歪んだ状態になるため、平面画像Pにも同じ変換を施し、歪んだ状態にすることが好ましい。そして、両方の特徴点を抽出しマッチングを行うことで、位置パラメータPPを求めることができる。特徴点の検出については、エッジ検出、コーナー検出、SIFT特徴量とSURF特徴量、同一色の中心点など様々な検出方法が知られている。あるいは、全天球画像CEと平面画像Pの画素値の差の絶対値の合計又は差の二乗和を1画素ずつずらして算出し、絶対値の合計又は二乗和が最も小さくなった時の平面画像Pの位置を一致領域としてもよい。   The position parameter calculation unit 23 specifies the matching area of the omnidirectional image CE that matches the planar image P, and obtains the position parameter PP for specifying the matching area. Details of the position parameter PP will be described with reference to FIG. Since the omnidirectional image CE is distorted by the equirectangular projection, it is preferable that the flat image P is subjected to the same conversion to be distorted. Then, the position parameter PP can be obtained by extracting both feature points and performing matching. For detection of feature points, various detection methods such as edge detection, corner detection, SIFT feature amount and SURF feature amount, and a central point of the same color are known. Alternatively, the sum of the absolute values of the difference between the pixel values of the omnidirectional image CE and the planar image P or the sum of squares of the differences is calculated by shifting one pixel at a time, and the plane when the sum of the absolute values or the sum of squares becomes the smallest The position of the image P may be the matching area.

また、平面画像Pをメッシュ状に領域分割してそれぞれで全天球画像CEとマッチングをすれば、レンズ歪等によるずれ補正も加味することができる。   Further, if the planar image P is divided into a mesh area and matched with the omnidirectional image CE, it is possible to take into account deviation correction due to lens distortion or the like.

全天球画像CEと平面画像Pの対応は一意に定まるので位置パラメータPPは、一度、求めるだけでよい。位置パラメータ書出部24は位置パラメータPPを位置パラメータ書出部24に送出する。   Since the correspondence between the omnidirectional image CE and the planar image P is uniquely determined, the position parameter PP need only be obtained once. The position parameter writing unit 24 sends the position parameter PP to the position parameter writing unit 24.

変換表示部7は、更に平面画像読込部25、視線方向画角指示部26、全天球画像読込部27、射影方式変換部1(符号は28)、射影方式変換部2(符号は29)、画像重畳部33、位置パラメータ読込部32、及び画像表示部31を有する。平面画像読込部25と全天球画像読込部27の機能は位置パラメータ作成部8と同様である。また、位置パラメータ読込部32は位置パラメータ作成部8から位置パラメータPPを取得する。   The conversion display unit 7 further includes a planar image reading unit 25, a line-of-sight direction angle-of-view instruction unit 26, an omnidirectional image reading unit 27, a projection method conversion unit 1 (reference numeral 28), and a projection method conversion unit 2 (reference numeral 29). The image superimposing unit 33, the position parameter reading unit 32, and the image display unit 31. The functions of the planar image reading unit 25 and the omnidirectional image reading unit 27 are the same as those of the position parameter creation unit 8. Further, the position parameter reading unit 32 acquires the position parameter PP from the position parameter creating unit 8.

視線方向画角指示部26は、ユーザUが操作した視線方向と画角(拡大・縮小)を受け付ける。視線方向と画角が操作により入力されるため閲覧領域Tが定まる。   The line-of-sight direction angle-of-view instruction unit 26 receives the line-of-sight direction and the angle of view (enlargement / reduction) operated by the user U. The viewing area T is determined because the line-of-sight direction and the angle of view are input by operation.

また、ユーザUが任意に視線方向と画角(拡大・縮小)を操作するため、射影方式変換された平面画像Pの一部のみしか閲覧領域Tに入らない場合、又は、射影方式変換された平面画像Pが全く閲覧領域Tに入らない場合がある。このため、射影方式変換部1は、射影方式変換画像のうち閲覧領域Tに含まれている領域を示すマスクデータを生成する。詳細は図13にて説明される。   In addition, since the user U arbitrarily operates the line-of-sight direction and the angle of view (enlargement / reduction), only a part of the planar image P that has undergone the projection method conversion enters the viewing area T, or the projection method has been converted. The planar image P may not enter the browsing area T at all. For this reason, the projection method conversion unit 1 generates mask data indicating a region included in the browsing region T in the projection method conversion image. Details will be described with reference to FIG.

射影方式変換部2は、視線方向画角指示部26が受け付けた視線方向及び画角に対応する閲覧領域Tを決定し、読み込まれた全天球画像CEの閲覧領域Tに対し画像表示部31の表示サイズに合わせた透視投影変換を行い、表示画像を作成する。したがって、表示画像は二次元平面の画像である。   The projection method conversion unit 2 determines the viewing area T corresponding to the viewing direction and the viewing angle received by the viewing direction view angle instruction unit 26, and the image display unit 31 for the viewing area T of the read omnidirectional image CE. Perspective projection conversion according to the display size is performed to create a display image. Therefore, the display image is a two-dimensional plane image.

画像重畳部33は、マスクデータを用いて表示画像に射影方式変換画像を重畳して重畳画像を生成する。詳細は図14にて説明される。また、画像表示部31は重畳画像をディスプレイ508に表示する。   The image superimposing unit 33 generates a superimposed image by superimposing the projection method conversion image on the display image using the mask data. Details will be described with reference to FIG. The image display unit 31 displays the superimposed image on the display 508.

<位置パラメータ>
図12は平面画像Pの一致領域への射影方式変換及び平面画像Pと一致領域とを対応付ける位置パラメータPPの一例を示す図である。マッチングによりすでに平面画像Pと全天球画像CEの対応は得られているものとする。位置パラメータPPは、特徴点が最も一致した時に平面画像Pが存在する全天球画像CEの緯度と経度である。
<Position parameter>
FIG. 12 is a diagram illustrating an example of the projection method conversion to the matching area of the planar image P and the position parameter PP for associating the planar image P with the matching area. It is assumed that correspondence between the planar image P and the omnidirectional image CE has already been obtained by matching. The position parameter PP is the latitude and longitude of the omnidirectional image CE where the planar image P exists when the feature points are the best match.

図12(a)は平面画像Pを示し、図12(b)は正距円筒図法の全天球画像CEを示す。図12(b)には一致領域301が示されている。位置パラメータ算出部23は、平面画像Pを格子状に分割して、それぞれ格子の交点部分の座標(x,y)に対応する全天球画像CEの一致領域301の点(λ,φ)を位置パラメータPPとする。なお、λは経度、φは緯度である。図12(c)は位置パラメータPPの一例を示す。平面画像Pの格子の座標と、全天球画像CEの一致領域301の緯度と経度が格子ごとに対応付けられている。   FIG. 12A shows a planar image P, and FIG. 12B shows an omnidirectional image CE of equirectangular projection. FIG. 12B shows a matching area 301. The position parameter calculation unit 23 divides the planar image P into a grid pattern, and calculates the point (λ, φ) of the coincidence region 301 of the omnidirectional image CE corresponding to the coordinates (x, y) of the intersection of the grids. It is assumed that the position parameter PP. Note that λ is longitude and φ is latitude. FIG. 12C shows an example of the position parameter PP. The coordinates of the grid of the planar image P and the latitude and longitude of the matching area 301 of the omnidirectional image CE are associated with each grid.

<射影方式変換部1の処理>
図13は、射影方式変換部1が作成する射影方式変換画像302とマスクデータ303を説明する図の一例である。図13(a)は射影方式変換画像302を示す。射影方式変換画像302は正距円筒図法で表された全天球画像の閲覧領域Tと同じサイズの領域を有し、一致領域301に射影方式変換後の平面画像Pが貼り付けられる。一致領域301に平面画像Pが射影方式変換されることで、平面画像Pは台形歪みの状態になっている。射影方式変換画像302のうち平面画像Pがない部分はグレーの均一画像307である。均一画像307は重畳に使用されないのでどのような画素値でもよい。
<Processing of Projection Method Conversion Unit 1>
FIG. 13 is an example of a diagram illustrating a projection method conversion image 302 and mask data 303 created by the projection method conversion unit 1. FIG. 13A shows a projection method conversion image 302. The projection system conversion image 302 has an area having the same size as the viewing area T of the omnidirectional image represented by the equirectangular projection, and the planar image P after the projection system conversion is pasted on the matching area 301. The planar image P is in a trapezoidal distortion state by the projection system conversion of the planar image P to the coincidence area 301. A portion where the planar image P is not present in the projection system converted image 302 is a gray uniform image 307. Since the uniform image 307 is not used for superposition, any pixel value may be used.

図13(b)は図13(a)の平面画像Pに対応するマスクデータ303を示す。マスクデータ303は図13(a)から閲覧領域Tに含まれる平面画像Pを取り出すためのデータである。マスクデータの白画素の領域は、閲覧領域Tかつ平面画像Pの領域を示す。したがって、マスクデータの白画素の領域は平面画像Pの領域以下となる。図13(b)のマスクデータは、閲覧領域Tが平面画像Pより大きい場合であるため、図13(a)の例では一致領域301がマスクデータ303の白画素の領域とほぼ等しくなっている。閲覧領域Tが平面画像Pと全く重ならない場合、マスクデータは全面が黒画素になる。閲覧領域Tが平面画像Pより小さい場合、マスクデータ303は白画素のみになる。このようにマスクデータ303の白画素と一致領域301は常に同じサイズ及び同じ位置になる。   FIG. 13B shows mask data 303 corresponding to the planar image P of FIG. The mask data 303 is data for extracting the planar image P included in the viewing area T from FIG. The white pixel area of the mask data indicates the browsing area T and the plane image P area. Therefore, the white pixel area of the mask data is equal to or smaller than the area of the planar image P. The mask data in FIG. 13B is a case where the viewing area T is larger than the planar image P. Therefore, in the example of FIG. 13A, the matching area 301 is substantially equal to the white pixel area of the mask data 303. . When the viewing area T does not overlap the flat image P at all, the entire mask data is black pixels. When the viewing area T is smaller than the planar image P, the mask data 303 is only white pixels. Thus, the white pixel and the matching area 301 of the mask data 303 are always the same size and the same position.

画像重畳部33は射影方式変換画像302とマスクデータ303でマスク処理を行う。このマスク処理は、マスクデータ303の白画素に対応する画素を射影方式変換画像302から取り出す処理である。画像重畳部33は、射影方式変換画像302から白画素の位置の画素値を取り出して、表示画像の射影方式変換画像302と同じ位置に重畳する。   The image superimposing unit 33 performs a mask process using the projection method converted image 302 and the mask data 303. This mask process is a process for extracting pixels corresponding to white pixels of the mask data 303 from the projection method conversion image 302. The image superimposing unit 33 extracts the pixel value at the position of the white pixel from the projection method conversion image 302 and superimposes it on the same position as the projection method conversion image 302 of the display image.

なお、マスクデータ303の黒画素と白画素の境界は、白画素から黒画素に向けて徐々に白から黒に変化する傾斜が設けられることが好適である。これにより、低解像度の全天球画像CEと高解像度の平面画像Pとの境界を目立たなくすることができる。   The boundary between the black pixel and the white pixel in the mask data 303 is preferably provided with a slope that gradually changes from white to black from the white pixel to the black pixel. Thereby, the boundary between the low-resolution spherical image CE and the high-resolution planar image P can be made inconspicuous.

<画像重畳部の処理>
図14を用いて画像重畳部33の処理について説明する。図14は、全天球画像CEへの平面画像Pの重畳を模式的に説明する図の一例である。図14に示すように、射影方式変換部2が閲覧領域Tを透視投影変換した表示画像304、射影方式変換画像302(図13(a))、及びマスクデータ303(図13(b))が画像重畳部33に入力される。
<Processing of image superimposing unit>
The process of the image superimposition part 33 is demonstrated using FIG. FIG. 14 is an example of a diagram schematically illustrating the superimposition of the planar image P on the omnidirectional image CE. As shown in FIG. 14, a display image 304 obtained by perspective projection conversion of the viewing area T by the projection method conversion unit 2, a projection method conversion image 302 (FIG. 13A), and mask data 303 (FIG. 13B). Input to the image superimposing unit 33.

画像重畳部33はより画角が広い射影方式変換画像302を表示画像304に重畳する。マスクデータ303を使ったマスク処理により、マスクデータ303の白画素の画素位置の射影方式変換画像302を取り出して表示画像304に上書きする(この場合は、この時点で表示画像304の画素が損失される。)。このようにして重畳画像305には、低解像度の全天球画像CEに高解像度の平面画像P1が配置される。   The image superimposing unit 33 superimposes the projection method conversion image 302 having a wider angle of view on the display image 304. By the mask processing using the mask data 303, the projection method conversion image 302 at the pixel position of the white pixel in the mask data 303 is taken out and overwritten on the display image 304 (in this case, the pixels of the display image 304 are lost at this time). ) In this way, in the superimposed image 305, the high-resolution planar image P1 is arranged on the low-resolution omnidirectional image CE.

あるいは、透明なレイヤを用意して、マスクデータ303の白画素の画素位置の射影方式変換画像302を取り出して透明なレイヤに配置してもよい。この場合、表示画像304に損失はなく、例えばユーザが平面画像P1の表示と非表示を切り替えることができる。   Alternatively, a transparent layer may be prepared, and the projection method conversion image 302 at the pixel position of the white pixel in the mask data 303 may be taken out and placed in the transparent layer. In this case, there is no loss in the display image 304, and for example, the user can switch between display and non-display of the planar image P1.

画像重畳部33は重畳画像305を出力する。重畳画像305には、低解像度の全天球画像CEに高解像度の平面画像Pが配置されている。   The image superimposing unit 33 outputs a superimposed image 305. In the superimposed image 305, a high-resolution planar image P is arranged on a low-resolution omnidirectional image CE.

なお、本実施形態では重畳の方法にも特徴がある。説明したように表示装置30は全天球画像CEの透視投影変換と平面画像Pの重畳を並行に行う。仮に、全天球画像CEに平面画像Pを貼り付けてから透視投影変換を行うと、全天球画像CEの解像度を平面画像Pと同じにする必要があり、データ量が大きくなってしまう。本実施形態では表示画像304が作成されてから平面画像Pが重畳されているので、データ量が大きくなることを抑制できる。   In this embodiment, the superimposing method is also characterized. As described above, the display device 30 performs the perspective projection conversion of the omnidirectional image CE and the superimposition of the planar image P in parallel. If the perspective projection conversion is performed after the planar image P is pasted on the omnidirectional image CE, the resolution of the omnidirectional image CE needs to be the same as that of the planar image P, and the amount of data increases. In the present embodiment, since the planar image P is superimposed after the display image 304 is created, an increase in the data amount can be suppressed.

表示装置30は、全天球画像CEと平面画像Pの重畳を、ディスプレイ508の表示サイクル(例えば、1秒間に30〜60回)で繰り返す。こうすることで、表示装置30は平面画像Pと全天球画像CEを1つずつ保持しておき、ユーザの操作に応じた視点でリアルタイムに重畳画像305を生成できる。   The display device 30 repeats the superimposition of the omnidirectional image CE and the planar image P in the display cycle of the display 508 (for example, 30 to 60 times per second). By doing so, the display device 30 can hold the planar image P and the omnidirectional image CE one by one, and generate the superimposed image 305 in real time from the viewpoint according to the user's operation.

<正距円筒図法の全天球画像CEの全天球への変換>
図15(a)は、全天球画像CEを正距円筒図法により示す図であり、図15(b)は正距円筒図法の全天球画像CEが全天球に貼り付けられた全天球画像CEを示す。図15(a)の画像から図15(b)の画像への変換が、図8で説明した全天球カメラ20の撮像時に全天球カメラ20で行われている処理である。
<Conversion of the equirectangular projection to the celestial sphere image CE>
FIG. 15A is a diagram showing the omnidirectional image CE by the equirectangular projection, and FIG. 15B is an omnidirectional image in which the omnidirectional image CE of the equirectangular projection is pasted on the omnisphere. A spherical image CE is shown. The conversion from the image in FIG. 15A to the image in FIG. 15B is processing performed by the omnidirectional camera 20 when the omnidirectional camera 20 described with reference to FIG.

正距円筒図法の任意の点(λ,φ)に対応する三次元上の点(x,y,z)の座標は、球の半径を1.0とすると下記の式で求めることができる。
X = cos(φ)*cos(λ)
Y = sin(φ) …(1)
Z = cos(φ)*sin(λ)
このように、正距円筒図法の全天球画像CEから三次元の全天球画像CEが得られる。
The coordinates of a three-dimensional point (x, y, z) corresponding to an arbitrary point (λ, φ) in equirectangular projection can be obtained by the following equation, assuming that the radius of the sphere is 1.0.
X = cos (φ) * cos (λ)
Y = sin (φ) (1)
Z = cos (φ) * sin (λ)
Thus, a three-dimensional omnidirectional image CE is obtained from the omnidirectional image CE of equirectangular projection.

<全天球画像CEにおける平面画像P>
図16は、全天球画像CEに重畳された平面画像Pを模式的に示す図である。上記のように、平面画像Pは平面のまま表示画像304と重畳されるため、図16のように、平面画像Pが立体球CSに貼り付けられることはない。しかし、ユーザから見ると、図16に示すように、全天球画像CEと同じ中心位置、同じ半径の球体の一部に平面画像Pが重畳されたように見える。
<Plane image P in the spherical image CE>
FIG. 16 is a diagram schematically illustrating a planar image P superimposed on the omnidirectional image CE. As described above, since the planar image P is superimposed on the display image 304 as it is, the planar image P is not pasted on the solid sphere CS as shown in FIG. However, when viewed from the user, as shown in FIG. 16, it appears that the planar image P is superimposed on a part of a sphere having the same center position and the same radius as the omnidirectional image CE.

なお、図16のように、三次元の全天球画像CEに平面画像Pが重畳されてもよい。マッチングにより(位置パラメータPPにより)平面画像Pが対応する経度と緯度が分かるので式(1)により表示装置30は全天球に平面画像Pを貼り付けられる。この場合、奥行き情報を使った陰面消去法(いわゆるZバッファ法)等は用いず、後優先でレンダリングするとよい。   In addition, as shown in FIG. 16, the planar image P may be superimposed on the three-dimensional omnidirectional image CE. Since the longitude and latitude corresponding to the planar image P can be known by matching (by the position parameter PP), the display device 30 can paste the planar image P on the celestial sphere according to Expression (1). In this case, the hidden surface removal method using the depth information (so-called Z buffer method) or the like is not used, and rendering may be performed with priority.

平面画像Pが複数ある場合、位置パラメータ算出部23がそれぞれの平面画像Pに対して位置パラメータPPを算出すれば、同様に重畳できる。この場合、レンダリングの順番は広角画像を先にして、望遠を後とすることで同じ画素数のデジタルカメラ9で撮像された場合、解像度が高い平面画像Pの上に、解像度の低い平面画像Pが覆いかぶさることを回避できる。   In the case where there are a plurality of plane images P, if the position parameter calculation unit 23 calculates the position parameters PP for the respective plane images P, they can be superimposed in the same manner. In this case, when the image is captured by the digital camera 9 having the same number of pixels with the wide-angle image first and the telephoto later, the lower-resolution planar image P is placed on the higher-resolution planar image P. Can be avoided.

<重畳手順>
図17は、表示装置30が全天球画像CEに平面画像Pを重畳する手順を示すフローチャート図の一例である。図17の処理は、ユーザが重畳を指示すること等によりスタートされる。ステップS10〜S30とS40〜S60は並行的に実行されるが、順番に実行されてもよい。
<Superposition procedure>
FIG. 17 is an example of a flowchart illustrating a procedure in which the display device 30 superimposes the planar image P on the omnidirectional image CE. The process in FIG. 17 is started when the user gives an instruction to superimpose. Steps S10 to S30 and S40 to S60 are executed in parallel, but may be executed in order.

平面画像読込部22は平面画像Pを読み込む(S10)。全天球画像読込部21は全天球画像CEを読み込む(S20)。そして、位置パラメータ算出部23は位置パラメータPPを算出する(S30)。   The planar image reading unit 22 reads the planar image P (S10). The omnidirectional image reading unit 21 reads the omnidirectional image CE (S20). Then, the position parameter calculation unit 23 calculates the position parameter PP (S30).

平面画像読込部25は平面画像Pを読み込む(S40)。全天球画像読込部27は全天球画像CEを読み込む(S50)。また、視線方向画角指示部26は視線方向と画角を受け付ける(S60)。ステップS60は随時行われる。   The planar image reading unit 25 reads the planar image P (S40). The omnidirectional image reading unit 27 reads the omnidirectional image CE (S50). The line-of-sight direction angle-of-view instruction unit 26 receives the line-of-sight direction and the angle of view (S60). Step S60 is performed as needed.

次に、射影方式変換部1は位置パラメータPPで平面画像Pに射影方式変換を施し、射影方式変換画像302を生成する(S70)。   Next, the projection method conversion unit 1 performs the projection method conversion on the plane image P with the position parameter PP, and generates the projection method conversion image 302 (S70).

次に、射影方式変換部1は視線方向と画角で定まる閲覧領域T及び射影方式変換された平面画像P(一致領域)に応じてマスクデータ303を生成する(S80)。   Next, the projection method conversion unit 1 generates mask data 303 according to the viewing area T determined by the line-of-sight direction and the angle of view and the planar image P (coincidence region) converted by the projection method (S80).

次に、射影方式変換部2は、閲覧領域Tに応じて全天球画像CEを透視投影変換し、表示画像304を生成する(S90)。   Next, the projection method conversion unit 2 performs perspective projection conversion of the omnidirectional image CE according to the viewing area T, and generates a display image 304 (S90).

次に、画像重畳部33はマスクデータを用いて射影方式変換画像302と表示画像304を重畳し、重畳画像305を生成する(S100)。   Next, the image superimposing unit 33 superimposes the projection method conversion image 302 and the display image 304 using the mask data, and generates a superimposed image 305 (S100).

次に、画像表示部31は重畳画像305を表示する(S110)。表示装置30は図17のステップS60〜S110の処理を繰り返す。   Next, the image display unit 31 displays the superimposed image 305 (S110). The display device 30 repeats the processing of steps S60 to S110 in FIG.

<フレームの表示制御に関する機能>
次に、図18〜図23を用いて、重畳画像305におけるフレーム40の表示制御に関する機能について説明する。図18は、画像重畳部33の機能をブロック状に説明する機能ブロック図の一例である。画像重畳部33は、更に判断部35とフレーム表示部36を有している。判断部35は、現在の閲覧領域Tと平面画像Pの位置(位置パラメータPP)を使ってフレーム40を表示する状態か否かを判断し、判断結果(フレーム表示、フレーム消去)をフレーム表示部36に送出する。フレーム表示部36は、判断結果に応じてフレーム40を表示したり消去したりする。
<Functions related to frame display control>
Next, functions relating to display control of the frame 40 in the superimposed image 305 will be described with reference to FIGS. FIG. 18 is an example of a functional block diagram illustrating the function of the image superimposing unit 33 in a block shape. The image superimposing unit 33 further includes a determination unit 35 and a frame display unit 36. The determination unit 35 determines whether or not the frame 40 is to be displayed using the current viewing area T and the position of the planar image P (position parameter PP), and the determination result (frame display, frame deletion) is displayed in the frame display unit. 36. The frame display unit 36 displays or deletes the frame 40 according to the determination result.

<フレーム40の表示の有無の判断について>
上記のようにユーザUが重畳画像305に重畳された平面画像Pを見ることが推定された場合、フレーム40が消去され、それ以外の状態ではフレーム40が表示されたままとなる。上記の所定の条件(i)〜(iv)の判断について説明する。
<Determination of presence / absence of display of frame 40>
When it is estimated that the user U sees the planar image P superimposed on the superimposed image 305 as described above, the frame 40 is deleted, and the frame 40 remains displayed in other states. The determination of the predetermined conditions (i) to (iv) will be described.

まず「(ii)現在の閲覧領域Tの画角に対し平面画像Pが占める比率が所定以上になった場合」の判断方法について説明する。   First, a determination method of “(ii) when the ratio of the plane image P to the angle of view of the current viewing area T exceeds a predetermined value” will be described.

図19は、閲覧領域Tに対する平面画像Pの相対位置を説明する図の一例である。図19(a)では、閲覧領域Tに平面画像Pの全体が含まれている。閲覧領域Tはディスプレイ508に表示されている全天球画像の領域なので、ユーザUはほぼ正面から平面画像Pを見ている。閲覧領域の画角をa、平面画像Pの画角をbとすると、画角a>画角bであれば、平面画像Pの全体と全天球画像CEの一部が見えていることになる。図19(a)のような状況であれば、ユーザUが平面画像Pを見たいと推定される。   FIG. 19 is an example of a diagram illustrating the relative position of the planar image P with respect to the viewing area T. In FIG. 19A, the entire planar image P is included in the viewing area T. Since the viewing area T is the area of the omnidirectional image displayed on the display 508, the user U is viewing the planar image P almost from the front. If the viewing angle of the viewing area is a and the viewing angle of the planar image P is b, if the viewing angle a> the viewing angle b, the entire planar image P and a part of the omnidirectional image CE are visible. Become. In the situation as shown in FIG. 19A, it is estimated that the user U wants to see the planar image P.

しかし、平面画像Pに対して全天球画像CEの方がある程度大きい場合、ユーザUが平面画像Pを見たいとは判断しなくてよい。そこで、例えば、画角aが画角bの1.2倍より大きい場合、判断部35はフレーム40を表示すると判断する。すなわち、画角aが画角bの1.2倍より大きい場合、現在の画角に対し平面画像Pが占める比率が所定未満になったと判断する。また、画角aが画角bの1.2倍以下の場合、判断部35はフレーム40を表示しないと判断する。すなわち、画角aが画角bの1.2倍以下の場合、現在の画角に対し平面画像Pが占める比率が所定以上になったと判断する。   However, when the omnidirectional image CE is somewhat larger than the planar image P, the user U does not have to determine that he / she wants to view the planar image P. Therefore, for example, when the angle of view a is larger than 1.2 times the angle of view b, the determination unit 35 determines to display the frame 40. That is, when the angle of view a is larger than 1.2 times the angle of view b, it is determined that the ratio of the planar image P to the current angle of view is less than a predetermined value. When the angle of view a is 1.2 times or less of the angle of view b, the determination unit 35 determines that the frame 40 is not displayed. That is, when the angle of view a is 1.2 times or less of the angle of view b, it is determined that the ratio of the planar image P to the current angle of view has become a predetermined value or more.

閲覧領域Tは既知である。また、位置パラメータPPに平面画像Pの緯度・経度が登録されているので、画角bは位置パラメータPPから求められる。詳細は図20、図21で説明する。   The browsing area T is known. Further, since the latitude and longitude of the planar image P are registered in the position parameter PP, the angle of view b can be obtained from the position parameter PP. Details will be described with reference to FIGS.

図19(b)では、閲覧領域Tの方が平面画像Pより狭くなっている。すなわち、ユーザUは平面画像Pのみを見ている。この場合は、当然ながらフレーム40が表示されない。   In FIG. 19B, the viewing area T is narrower than the planar image P. That is, the user U sees only the planar image P. In this case, of course, the frame 40 is not displayed.

図19(c)では、平面画像Pの上方のみが閲覧領域Tになっている。つまり、ユーザUは平面画像Pの上方を見ている。しかし、閲覧領域Tが平面画像Pに完全に含まれているので(画角aが画角bの1.2倍以下)、判断部35はフレーム40を表示しないと判断する。   In FIG. 19 (c), only the upper side of the planar image P is the viewing area T. That is, the user U is looking above the planar image P. However, since the viewing area T is completely included in the planar image P (the angle of view a is 1.2 times or less of the angle of view b), the determination unit 35 determines that the frame 40 is not displayed.

また、図19(d)では、閲覧領域Tの中心と平面画像Pの中心とのずれ(角度)が大きくなり、閲覧領域Tの一部が平面画像Pをはみ出している。この場合、閲覧領域Tに対し平面画像Pが小さいので(画角aが画角bの1.2倍以下)、判断部35はフレーム40を表示すると判断する。   In FIG. 19D, the deviation (angle) between the center of the viewing area T and the center of the planar image P is large, and a part of the viewing area T protrudes from the planar image P. In this case, since the planar image P is smaller than the viewing area T (the angle of view a is 1.2 times or less of the angle of view b), the determination unit 35 determines to display the frame 40.

なお、フレーム40を表示するか否かの閾値を1.2倍としたのは一例であって、1.0より大きい値であればよい。例えば、1.1〜1.5倍等のように決定できる。また、ユーザUが閾値を設定できてもよい。   It should be noted that the threshold value for whether or not to display the frame 40 is set to 1.2 times as long as the value is larger than 1.0. For example, it can be determined as 1.1 to 1.5 times. Moreover, the user U may be able to set a threshold value.

図20は、画角aと画角bの求め方を説明する図の一例である。画角aはユーザUが操作により決定する閲覧領域Tにより求められる。仮想カメラICから閲覧領域Tまでの距離をf、閲覧領域Tの対角線の長さを2Lとすると、画角αと、距離f、及びLには式(2)の関係がある。
Lf=tan(α/2)…(2)
閲覧領域Tの対角頂点の座標はユーザUが操作したことで分かっているので、対角線の長さ2Lは容易に算出できる。距離fについては全天球の半径、又は、ユーザUが操作したことで分かっている。したがって、式(2)により画角αを算出できる。
FIG. 20 is an example of a diagram for explaining how to obtain the angle of view a and the angle of view b. The angle of view a is obtained from the viewing area T determined by the user U by operation. When the distance from the virtual camera IC to the viewing area T is f and the length of the diagonal line of the viewing area T is 2L, the angle of view α, the distance f, and L have the relationship of Expression (2).
Lf = tan (α / 2) (2)
Since the coordinates of the diagonal vertices of the viewing area T are known by the operation of the user U, the diagonal length 2L can be easily calculated. The distance f is known from the radius of the celestial sphere or that the user U has operated. Therefore, the angle of view α can be calculated from the equation (2).

画角bも同様に算出できるが、画角bは閲覧領域Tに平面画像Pが一部でも含まれている場合に算出されればよい。図21は閲覧領域Tと平面画像Pの関係を示す図である。判断部35は、平面画像Pが閲覧領域Tに入っているか否かを4つの頂点のそれぞれで判断する。閲覧領域Tの4つの頂点をA1〜A4、平面画像Pの4つの頂点をB1〜B4とする。頂点B1〜B4は例えば全天球の経度や緯度で特定されるが、ディスプレイ508上の座標で特定されてもよい。   The angle of view b can be calculated in the same manner, but the angle of view b may be calculated when the viewing area T includes even a portion of the planar image P. FIG. 21 is a diagram showing the relationship between the viewing area T and the planar image P. The determination unit 35 determines whether each of the four vertices determines whether the planar image P is in the viewing area T. The four vertices of the viewing area T are A1 to A4, and the four vertices of the planar image P are B1 to B4. The vertices B1 to B4 are specified by, for example, the longitude and latitude of the omnidirectional sphere, but may be specified by coordinates on the display 508.

例えば、頂点B1については以下のように判断される。   For example, the vertex B1 is determined as follows.

頂点A1の経度≦頂点B1の経度≦頂点A2の経度、かつ、
頂点A1の緯度≧頂点B1の緯度≦頂点A4の緯度
頂点B2、B3、B4についても同様に判断できる。対角の頂点(B1とB3、B2とB4)が閲覧領域Tに入っていれば、位置パラメータPPから式(2)により画角bを算出できる。図21に示すように平面画像Pの対角頂点B1〜B4の全てが閲覧領域Tに入っていない場合、閲覧領域Tに入っている頂点B1から閲覧領域Tの対角頂点A3により画角bを算出する。頂点B1の対角頂点が頂点A3であること、頂点B2の対角頂点が頂点A4であること、頂点B3の対角頂点が頂点A1であること、頂点B4の対角頂点が頂点A2であることは表示装置30に設定されている。
The longitude of vertex A1 ≦ the longitude of vertex B1 ≦ the longitude of vertex A2, and
It can be similarly determined for the latitude of the vertex A1 ≧ the latitude of the vertex B1 ≦ the latitude vertices B2, B3, and B4 of the vertex A4. If the diagonal vertices (B1 and B3, B2 and B4) are in the viewing area T, the angle of view b can be calculated from the position parameter PP according to equation (2). As shown in FIG. 21, when all of the diagonal vertices B1 to B4 of the planar image P are not in the browsing area T, the angle of view b is set by the diagonal vertex A3 in the browsing area T from the vertex B1 in the browsing area T. Is calculated. The diagonal vertex of vertex B1 is vertex A3, the diagonal vertex of vertex B2 is vertex A4, the diagonal vertex of vertex B3 is vertex A1, and the diagonal vertex of vertex B4 is vertex A2. This is set in the display device 30.

<フレームの表示方法>
全天球画像における平面画像Pの場所(一致領域301)は位置パラメータPPで表されている。図12(c)の位置パラメータPPのうち、x=0.5又はy=0.5の値を持つ格子が平面画像Pの外縁である。位置パラメータPPにはx=0.5又はy=0.5の値を持つ格子の緯度と経度が設定されているので、フレーム表示部36はこの緯度と経度にフレーム40となる点線を描画する。
<Frame display method>
The location (coincidence region 301) of the planar image P in the omnidirectional image is represented by the position parameter PP. Among the positional parameters PP in FIG. 12C, a grid having a value of x = 0.5 or y = 0.5 is the outer edge of the planar image P. Since the latitude and longitude of the grid having a value of x = 0.5 or y = 0.5 is set in the position parameter PP, the frame display unit 36 draws a dotted line that becomes the frame 40 at the latitude and longitude. .

あるいは、射影方式変換部1と同様の射影方式変換を行ってもよい。平面画像Pの外縁の矩形を射影方式変換すればフレーム40が得られる。   Or you may perform the projection system conversion similar to the projection system conversion part 1. FIG. The frame 40 can be obtained by projecting the outer edge rectangle of the planar image P.

図22は、フレーム40の表示方法を模式的に説明する図の一例である。フレーム表示部36は、正距円筒図法の全天球画像CEと同じサイズ(画素数)の透明なレイヤを用意しておく。そして、フレーム表示部36は、位置パラメータPPでx=0.5、−0.5又はy=0.5、−0.5の値を持つ格子の緯度と経度にフレーム40となる点線を描画する。   FIG. 22 is an example of a diagram for schematically explaining the display method of the frame 40. The frame display unit 36 prepares a transparent layer having the same size (number of pixels) as the omnidirectional image CE of equirectangular projection. Then, the frame display unit 36 draws a dotted line that becomes the frame 40 at the latitude and longitude of the lattice having the values x = 0.5, −0.5 or y = 0.5, −0.5 in the position parameter PP. To do.

フレーム表示部36はマスクデータを使って、透明なレイヤからマスクデータの白画素に対応する領域を取り出す。そして、取り出した透明なレイヤを重畳画像305に重ね合わせることで、平面画像Pの外縁を表すフレーム40を表示する。   The frame display unit 36 uses the mask data to extract an area corresponding to the white pixel of the mask data from the transparent layer. Then, the frame 40 representing the outer edge of the planar image P is displayed by superimposing the extracted transparent layer on the superimposed image 305.

なお、フレーム40を非表示にする場合、フレーム表示部36は透明なレイヤを非表示にすればよい。   When the frame 40 is hidden, the frame display unit 36 may hide the transparent layer.

<表示例>
図23は、全天球画像CEに表示されるフレーム40の例を説明する図の一例である。図23(a)〜図23(d)は、ユーザUが表示装置30を操作して徐々に全天球画像CEを拡大している様子を示す。図23(a)では全天球画像CEのほぼ全体が閲覧領域Tに含まれている。図23(a)の状態では画角aが画角bの1.2倍より大きいため、フレーム40が表示されている。また、画角の比率ではなく、平面画像の中心と閲覧領域Tの中心cpとの距離が閾値未満になった時(例えば、閾値は閲覧領域Tの画角の1/4の長さ)としてもよい。
<Display example>
FIG. 23 is an example of a diagram illustrating an example of the frame 40 displayed on the omnidirectional image CE. FIG. 23A to FIG. 23D show a state in which the user U operates the display device 30 and gradually enlarges the omnidirectional image CE. In FIG. 23A, almost the entire celestial sphere image CE is included in the viewing area T. In the state of FIG. 23A, since the angle of view a is larger than 1.2 times the angle of view b, the frame 40 is displayed. In addition, when the distance between the center of the planar image and the center cp of the viewing area T is less than the threshold (for example, the threshold is a length of 1/4 of the viewing angle of the viewing area T), not the ratio of the angle of view. Also good.

図23(b)、図23(c)のように徐々に全天球画像CEが拡大されても、画角aが画角bの1.2倍より大きいため、フレーム40が表示される。図23(d)では、画角aが画角bの1.2倍以下となったため、フレーム40が表示されない。   Even when the omnidirectional image CE is gradually enlarged as shown in FIGS. 23B and 23C, the frame 40 is displayed because the angle of view a is larger than 1.2 times the angle of view b. In FIG. 23D, since the angle of view a is 1.2 times or less of the angle of view b, the frame 40 is not displayed.

<動作手順>
図24は、表示装置30が平面画像Pを表示する際にフレーム40の表示の有無を制御する手順を示すフローチャート図の一例である。図24の手順は、表示装置30が全天球画像CEを表示するとスタートする。すでに、全天球画像CEに平面画像Pが重畳されているものとする。
<Operation procedure>
FIG. 24 is an example of a flowchart illustrating a procedure for controlling whether or not the frame 40 is displayed when the display device 30 displays the planar image P. The procedure in FIG. 24 starts when the display device 30 displays the omnidirectional image CE. It is assumed that the planar image P has already been superimposed on the omnidirectional image CE.

判断部35は、閲覧領域Tが変更されたか否か、又は、マウス操作されたか否かを判断する(S210)。閲覧領域Tが変更されるとは、ユーザUが視線方向を変更するか、拡大、又は、縮小の操作を行ったことをいう。具体的には、視線方向画角指示部26が、ユーザUの操作を視線方向と画角に変更して画像重畳部33に送出する。また、単にマウス操作されたか否かを判断してもよい。これにより、閲覧領域Tが変更されなくても何らかのマウスイベントを契機にステップS220以降の処理が進行する。   The determination unit 35 determines whether the viewing area T has been changed or whether the mouse has been operated (S210). The browsing area T being changed means that the user U has changed the line-of-sight direction, or has performed an enlargement or reduction operation. Specifically, the line-of-sight direction angle-of-view instruction unit 26 changes the operation of the user U to the line-of-sight direction and the angle of view and sends it to the image superimposing unit 33. Further, it may be determined whether or not the mouse is simply operated. Thereby, even if the browsing area T is not changed, the processing after step S220 proceeds with some mouse event as a trigger.

画像重畳部33は、視線方向と画角によって閲覧領域Tを特定する(S220)。すなわち、全天球画像CEのうち閲覧領域Tに対応する緯度と経度の範囲が特定される。   The image superimposing unit 33 identifies the viewing area T based on the viewing direction and the angle of view (S220). That is, the latitude and longitude ranges corresponding to the viewing area T in the omnidirectional image CE are specified.

次に、判断部35は閲覧領域Tに平面画像Pの一部でも入っているか否かを判断する(S230)。全く入っていない場合はフレーム40を表示する必要がないので処理はステップS280に進む。   Next, the determination unit 35 determines whether or not a part of the planar image P is included in the viewing area T (S230). If it does not enter at all, it is not necessary to display the frame 40, so the process proceeds to step S280.

閲覧領域Tに一部でも平面画像Pが入っている場合(S230のYes)、判断部35は平面画像Pの画角bを算出する(S240)。また、閲覧領域の画角aを算出する(S250)。   If at least a part of the planar image P is included in the viewing area T (Yes in S230), the determination unit 35 calculates the angle of view b of the planar image P (S240). Also, the viewing angle a of the viewing area is calculated (S250).

そして、判断部35は画角aと画角bの比率a/bと閾値1.2を比較して、比率a/bが閾値1.2より大きいか否かを判断する(S260)。   Then, the determination unit 35 compares the ratio a / b between the angle of view a and the angle of view b with the threshold value 1.2, and determines whether the ratio a / b is larger than the threshold value 1.2 (S260).

ステップS260の判断がYesの場合、ユーザUが平面画像Pを見ると推定されないので、判断部35はフレーム40を表示すると判断する(S270)。フレーム表示部36はフレーム40のレイヤからマスクデータを使って閲覧領域Tを取り出して表示する。これにより、平面画像Pの場所や大きさをユーザUに知らせることができる。   If the determination in step S260 is Yes, it is not estimated that the user U views the planar image P, so the determination unit 35 determines to display the frame 40 (S270). The frame display unit 36 takes out the browsing area T from the layer of the frame 40 using the mask data and displays it. Thereby, the location and size of the planar image P can be notified to the user U.

ステップS260の判断がNoの場合、ユーザUが平面画像Pを見ると推定されるので、判断部35はフレーム40を表示しないと判断する(S280)。フレーム表示部36はフレーム40のレイヤを非表示にする。これにより、ユーザUが平面画像Pを見る際にフレーム40が邪魔になることを抑制できる。   If the determination in step S260 is No, it is estimated that the user U sees the planar image P, so the determination unit 35 determines not to display the frame 40 (S280). The frame display unit 36 hides the layer of the frame 40. Thereby, when the user U sees the plane image P, it can suppress that the flame | frame 40 becomes obstructive.

画像表示部31は、全天球画像CEに平面画像Pが重畳され、フレーム40が表示又は非表示の重畳画像305をディスプレイ508に表示する(S290)。   The image display unit 31 displays the superimposed image 305 on which the planar image P is superimposed on the omnidirectional image CE and the frame 40 is displayed or not displayed on the display 508 (S290).

<(i)の判断方法>
次に、「(i) ユーザUが平面画像Pをクリックした場合」の判断方法について説明する。ユーザUが平面画像Pをクリックした場合、ユーザUが平面画像Pを見たいことが明らかになるので、(ii)の条件を満たしていなくても、フレーム表示部36はフレーム40を表示する必要がなくなる。また、ユーザUが平面画像Pを見たいことが明らかなので、射影方式変換部2が平面画像Pを閲覧領域Tの全面に表示すれば、平面画像Pが正面になるようにユーザUが操作する必要がなくなり便利である。具体的には図23(a)のフレーム40で示される平面画像PをユーザUがクリックすることで、図23(a)から図23(d)へ閲覧領域Tを変えるような表示方法である。このような表示方法を平面画像Pの自動拡大と称して説明する。なお、タッチパネルを備えた機器への表示を行う場合には平面画像Pがタッチされた場合に同様の動作を行う。
<Judgment method of (i)>
Next, a determination method of “(i) When user U clicks planar image P” will be described. When the user U clicks on the planar image P, it becomes clear that the user U wants to view the planar image P. Therefore, the frame display unit 36 needs to display the frame 40 even if the condition (ii) is not satisfied. Disappears. Further, since it is clear that the user U wants to view the planar image P, if the projection method conversion unit 2 displays the planar image P on the entire surface of the viewing area T, the user U operates so that the planar image P is in front. It is not necessary and convenient. Specifically, this is a display method in which the viewing area T is changed from FIG. 23 (a) to FIG. 23 (d) when the user U clicks the planar image P indicated by the frame 40 in FIG. 23 (a). . Such a display method will be described as automatic enlargement of the planar image P. In addition, when displaying on the apparatus provided with the touch panel, the same operation | movement is performed when the plane image P is touched.

図25を用いて平面画像Pの自動拡大について説明する。図25は、閲覧領域Tへの平面画像Pの自動拡大の処理を説明する図の一例である。平面画像Pにマウスカーソル311が重なった状態でユーザUがクリックしたものとする。タッチパネルの場合は、ユーザUが指で平面画像Pをタップすることが相当する。マウスカーソルやタッチパネルをポインティングデバイスという。以下では説明を簡単にするため、マウスカーソル311を例にして説明する。   The automatic enlargement of the planar image P will be described with reference to FIG. FIG. 25 is an example of a diagram illustrating the process of automatically expanding the planar image P to the browsing area T. It is assumed that the user U clicks in a state where the mouse cursor 311 is overlapped with the planar image P. In the case of a touch panel, it corresponds to the user U tapping the planar image P with a finger. A mouse cursor or touch panel is called a pointing device. Hereinafter, in order to simplify the description, the mouse cursor 311 will be described as an example.

視線方向画角指示部26はマウスカーソル311がクリックされたディスプレイ508上の座標を全天球画像CEの三次元座標に変換する。この変換は、透視投影変換と逆の変換に相当する。判断部35は、マウスカーソル311の三次元座標を緯度・経度に変換して、マウスカーソル311の座標が平面画像Pに含まれるか否かを判断する。判断は以下のように行う。   The line-of-sight direction angle-of-view instruction unit 26 converts the coordinates on the display 508 where the mouse cursor 311 is clicked into the three-dimensional coordinates of the omnidirectional image CE. This conversion corresponds to a conversion opposite to the perspective projection conversion. The determination unit 35 converts the three-dimensional coordinates of the mouse cursor 311 into latitude and longitude, and determines whether or not the coordinates of the mouse cursor 311 are included in the plane image P. Judgment is made as follows.

頂点B1の経度≦マウスカーソルの座標の経度≦頂点B2の経度、かつ、
頂点B1の緯度≧マウスカーソルの座標の緯度≦頂点B4の緯度
判断部35は、マウスカーソル311の座標が平面画像Pに含まれている場合、平面画像Pがクリックされたと判断する。
Longitude of vertex B1 ≦ longitude of coordinates of mouse cursor ≦ longitude of vertex B2, and
The latitude of the vertex B1 ≧ the latitude of the coordinates of the mouse cursor ≦ the latitude of the vertex B4 When the coordinates of the mouse cursor 311 are included in the planar image P, the determination unit 35 determines that the planar image P has been clicked.

この場合、射影方式変換部2は平面画像Pを自動拡大する。射影方式変換部2は、平面画像Pを徐々に拡大して閲覧領域Tに一致させる画像処理を行う。具体的には、頂点A1と頂点B1を結ぶ線312、頂点A2と頂点B2を結ぶ線312、頂点A3と頂点B3を結ぶ線312、頂点A4と頂点B4を結ぶ線312、をそれぞれ等間隔に補間する。図25では線312が4分割されている。補間により得られた線312上の補間点をP1i〜P4iとする(iは1〜4の整数)。   In this case, the projection method conversion unit 2 automatically enlarges the planar image P. The projection method conversion unit 2 performs image processing for gradually enlarging the planar image P to match the viewing area T. Specifically, a line 312 connecting the vertex A1 and the vertex B1, a line 312 connecting the vertex A2 and the vertex B2, a line 312 connecting the vertex A3 and the vertex B3, and a line 312 connecting the vertex A4 and the vertex B4 are equally spaced. Interpolate. In FIG. 25, the line 312 is divided into four. Interpolation points on the line 312 obtained by the interpolation are P1i to P4i (i is an integer of 1 to 4).

平面画像Pを自動拡大する処理は閲覧領域Tの画角aを小さくする処理である。画像表示部31は、補間点P13・P23・P33・P43を結ぶ領域に閲覧領域Tを縮小する(画角aを小さくする)。次に、補間点P12・P22・P32・P42を結ぶ領域に閲覧領域Tを縮小する。次に、補間点P11・P21・P31・P41を結ぶ領域に閲覧領域Tを縮小する。次に、平面画像Pの頂点B1・B2・B3・B4を結ぶ領域に閲覧領域Tを縮小する。   The process of automatically enlarging the planar image P is a process of reducing the angle of view a of the viewing area T. The image display unit 31 reduces the viewing area T to an area connecting the interpolation points P13, P23, P33, and P43 (decreases the angle of view a). Next, the viewing area T is reduced to an area connecting the interpolation points P12, P22, P32, and P42. Next, the viewing area T is reduced to an area connecting the interpolation points P11, P21, P31, and P41. Next, the viewing area T is reduced to an area connecting the vertices B1, B2, B3, and B4 of the planar image P.

このような画像処理により、ユーザUには平面画像Pが徐々に大きくなるように見える。閲覧領域Tに対し透視投影変換が行われディスプレイ508の全面(表示用のソフトウェアの全面)に表示されるため、ユーザUには平面画像Pが大きく見える。   By such image processing, it seems to the user U that the planar image P gradually increases. Since the perspective projection conversion is performed on the viewing area T and displayed on the entire surface of the display 508 (the entire surface of the display software), the user U can see the planar image P large.

なお、閲覧領域Tに平面画像Pの全体が含まれていない場合も同様に自動拡大できる。図26は、閲覧領域Tに平面画像Pの全体が含まれていない場合の平面画像Pの自動拡大の処理を説明する図の一例である。図26では、平面画像Pの頂点B4しか閲覧領域Tに入っていない。しかし、平面画像Pの頂点B1〜B3の座標は閲覧領域Tに表示されていないだけで既知であるため、図25と同様に自動拡大できる。   In addition, even when the entire planar image P is not included in the browsing area T, it can be automatically enlarged similarly. FIG. 26 is an example of a diagram illustrating the process of automatically enlarging the planar image P when the entire planar image P is not included in the viewing area T. In FIG. 26, only the vertex B4 of the planar image P is in the viewing area T. However, since the coordinates of the vertices B1 to B3 of the planar image P are known only by not being displayed in the viewing area T, they can be automatically enlarged as in FIG.

<動作手順>
図27は、表示装置30が平面画像Pを表示する際にフレーム40の表示の有無を制御する手順を示すフローチャート図の一例である。なお、図27の説明では主に図24との相違を説明する。
<Operation procedure>
FIG. 27 is an example of a flowchart illustrating a procedure for controlling whether or not to display the frame 40 when the display device 30 displays the planar image P. In the description of FIG. 27, differences from FIG. 24 are mainly described.

ステップS210、S220の処理は図24と同様でよい。次に、判断部35は平面画像Pがクリックされたか否かを判断する(S222)。ステップS222の判断がNoの場合、以降の処理は図24と同様である。   The processing in steps S210 and S220 may be the same as in FIG. Next, the determination unit 35 determines whether or not the planar image P is clicked (S222). If the determination in step S222 is No, the subsequent processing is the same as in FIG.

ステップS222の判断がYesの場合、判断部35はフレーム40を表示しないと判断する(S224)。   If the determination in step S222 is Yes, the determination unit 35 determines not to display the frame 40 (S224).

そして、射影方式変換部2は平面画像Pを自動拡大する(S226)。以上の処理により、ユーザUは平面画像Pが正面になるように操作する必要がなくなる。   Then, the projection method conversion unit 2 automatically enlarges the planar image P (S226). With the above processing, the user U does not need to operate so that the planar image P is in front.

<マウスカーソルの座標に基づくフレーム40の表示制御>
次に、「(iii) マウスカーソルの座標が平面画像Pと重なっていない場合」の判断方法について説明する。すなわち、判断部35は、マウスカーソルの座標が平面画像Pと重なっている場合はフレーム40を表示すると判断し、マウスカーソルの座標が平面画像Pと重なっていない場合はフレーム40を表示しないと判断する。マウスカーソルの座標が平面画像Pと重なっているかどうかの判断方法は上記した。
<Display control of the frame 40 based on the coordinates of the mouse cursor>
Next, a determination method of “(iii) When the mouse cursor coordinates do not overlap the planar image P” will be described. That is, the determination unit 35 determines that the frame 40 is displayed when the coordinates of the mouse cursor overlap with the planar image P, and determines that the frame 40 is not displayed when the coordinates of the mouse cursor do not overlap with the planar image P. To do. The method for determining whether or not the coordinates of the mouse cursor overlap with the planar image P has been described above.

図28は、フレーム40の表示と非表示を説明する図の一例である。図28(a)では平面画像Pとマウスカーソル311が重なっているため、フレーム40が表示されている。図28(b)では平面画像Pとマウスカーソル311が重なっていないため、フレーム40が表示されない。   FIG. 28 is an example of a diagram for explaining display and non-display of the frame 40. In FIG. 28A, since the planar image P and the mouse cursor 311 overlap, the frame 40 is displayed. In FIG. 28B, since the planar image P and the mouse cursor 311 do not overlap, the frame 40 is not displayed.

図29は、表示装置30が平面画像Pを表示する際にフレーム40の表示の有無を制御する手順を示すフローチャート図の一例である。なお、図29の説明では主に図27との相違を説明する。   FIG. 29 is an example of a flowchart illustrating a procedure for controlling whether or not to display the frame 40 when the display device 30 displays the planar image P. In the description of FIG. 29, differences from FIG. 27 are mainly described.

ステップS210〜S230の処理は図27と同様でよい。ステップS230でYesと判断された場合、判断部35はマウスカーソルが平面画像Pと重なっているか否かを判断する(S232)。   The processing in steps S210 to S230 may be the same as in FIG. When it is determined Yes in step S230, the determination unit 35 determines whether or not the mouse cursor overlaps the planar image P (S232).

マウスカーソルが平面画像Pと重なっている場合(S232のYes)、判断部35はフレーム40を表示すると判断する(S270)。マウスカーソルが平面画像Pと重なっていない場合(S232のNo)、判断部35はフレーム40を表示しないと判断する(S280)。   When the mouse cursor overlaps with the planar image P (Yes in S232), the determination unit 35 determines to display the frame 40 (S270). When the mouse cursor does not overlap with the planar image P (No in S232), the determination unit 35 determines that the frame 40 is not displayed (S280).

こうすることで、ユーザUがマウスカーソルを平面画像Pに重ねた場合にだけ表示装置30はフレーム40を表示するので、ユーザUは全天球画像CEを見やすくなる。また、ユーザUがマウスカーソルを移動させマウスカーソルと平面画像Pが重なれば、フレーム40が表示されるので平面画像Pがどこにあるかを見つけやすい。   By doing so, the display device 30 displays the frame 40 only when the user U overlays the mouse cursor on the planar image P, so that the user U can easily view the omnidirectional image CE. Further, when the user U moves the mouse cursor and the mouse cursor and the plane image P overlap, the frame 40 is displayed, so it is easy to find where the plane image P is.

なお、図29とは逆に、マウスカーソルの座標が平面画像Pと重なっている場合はフレーム40を表示しないと判断部35が判断し、マウスカーソルの座標が平面画像Pと重なっていない場合はフレーム40を表示すると判断してもよい。この場合、一般にフレーム40が表示されている時間は表示されてない時間より長くなるので、ユーザUは平面画像Pを見つけやすくなり、マウスカーソルを平面画像Pに重ねればフレーム40を消去して平面画像Pを見ることができる。   In contrast to FIG. 29, when the coordinates of the mouse cursor overlap with the plane image P, the determination unit 35 determines that the frame 40 is not displayed, and when the coordinates of the mouse cursor do not overlap with the plane image P. It may be determined that the frame 40 is displayed. In this case, since the time during which the frame 40 is displayed is generally longer than the time during which the frame 40 is not displayed, the user U can easily find the planar image P. If the mouse cursor is superimposed on the planar image P, the frame 40 is deleted. A plane image P can be seen.

<全天球画像CEの回転に基づくフレーム40の表示制御>
次に、「(iv) 全天球画像CEの閲覧領域Tが変更されてから所定時間が経過した後」 の判断方法について説明する。判断部35は、全天球画像CEが回転された直後、所定時間フレーム40を表示すると判断する。
<Display control of frame 40 based on rotation of omnidirectional image CE>
Next, a determination method of “(iv) After a predetermined time has elapsed since the viewing area T of the omnidirectional image CE is changed” will be described. The determination unit 35 determines to display the frame 40 for a predetermined time immediately after the omnidirectional image CE is rotated.

図30は、表示装置30が平面画像Pを表示する際にフレーム40の表示の有無を制御する手順を示すフローチャート図の一例である。なお、図30の説明では主に図29との相違を説明する。   FIG. 30 is an example of a flowchart illustrating a procedure for controlling whether or not the frame 40 is displayed when the display device 30 displays the planar image P. In the description of FIG. 30, differences from FIG. 29 are mainly described.

ステップS210〜S230の処理は図29と同様でよい。ステップS230でYesと判断された場合、判断部35はフレーム40を表示すると判断する(S270)。すなわち、ステップS10で閲覧領域が変更された場合(全天球画像CEが回転された場合)、閲覧領域Tに平面画像Pが入っていれば、フレーム表示部36がフレーム40を表示する。   The processing in steps S210 to S230 may be the same as in FIG. When it is determined Yes in step S230, the determination unit 35 determines to display the frame 40 (S270). That is, when the viewing area is changed in Step S10 (when the omnidirectional image CE is rotated), if the viewing area T contains the planar image P, the frame display unit 36 displays the frame 40.

次に、判断部35は、フレーム40を表示してから所定時間が経過したか否かを判断する(S272)。所定時間は例えば数秒である。ユーザUがフレーム40に気づく時間があればよく、ユーザUが設定してもよい。   Next, the determination unit 35 determines whether or not a predetermined time has elapsed since the frame 40 was displayed (S272). The predetermined time is several seconds, for example. It is sufficient that the user U notices the frame 40, and the user U may set it.

所定時間が経過すると、判断部35はフレーム40を表示しないと判断する(S280)。すなわち、閲覧領域Tが回転又は拡大・縮小され所定時間が経過するとフレーム40を消去できる。したがって、ユーザUに平面画像Pを気づかせやすくできると共に、平面画像Pの閲覧を妨害しにくい。   When the predetermined time has elapsed, the determination unit 35 determines not to display the frame 40 (S280). That is, the frame 40 can be deleted when the browsing area T is rotated or enlarged / reduced and a predetermined time elapses. Therefore, the user U can easily notice the flat image P, and the browsing of the flat image P is hardly disturbed.

<フレームの表示例>
フレーム40は平面画像Pの場所をユーザUに知らせたり注意喚起するための画像部品であるが、画像部品は平面画像Pの場所をユーザUに知らせたり注意喚起できるものであれば、どのような形態でもよい。フレーム40は色合い又は輝度を任意に変更できる。
<Frame display example>
The frame 40 is an image component for informing the user U of the location of the planar image P or calling attention, but any image component can be used to notify the user U of the location of the planar image P or call attention. Form may be sufficient. The frame 40 can be arbitrarily changed in hue or luminance.

図31(a)はフレーム40の形態の一例を示す。図31(a)のフレーム40は白画素で表示されている。白画素の場合、全天球画像CEが暗い場合にユーザUが平面画像Pの場所に気づきやすくなる。図23などのように黒画素の場合、全天球画像CEが明るい場合にユーザUが平面画像Pの場所に気づきやすくなる。平面画像Pの画素値の平均に応じて白画素と黒画素をフレーム表示部36が自動で切り替えてもよい。フレーム40が点滅したり、フレーム40の点線が回転したりするような表示効果を与えてもよい。   FIG. 31A shows an example of the form of the frame 40. The frame 40 in FIG. 31A is displayed with white pixels. In the case of white pixels, the user U can easily notice the location of the planar image P when the omnidirectional image CE is dark. In the case of black pixels as shown in FIG. 23, the user U can easily notice the location of the planar image P when the omnidirectional image CE is bright. The frame display unit 36 may automatically switch between white pixels and black pixels according to the average of the pixel values of the planar image P. You may give the display effect that the flame | frame 40 blinks or the dotted line of the flame | frame 40 rotates.

また、図31(b)に示すようにフレーム表示部36はフレーム40内の色合いを変更してもよい。例えば、全天球画像CEがカラーの場合、フレーム表示部36は平面画像Pを白黒に変換する。この場合、フレーム40そのものの表示は不要になる。フレーム表示部36は、平面画像Pを白黒に変換する。   Further, as shown in FIG. 31B, the frame display unit 36 may change the hue in the frame 40. For example, when the omnidirectional image CE is color, the frame display unit 36 converts the planar image P into black and white. In this case, it is not necessary to display the frame 40 itself. The frame display unit 36 converts the planar image P into black and white.

同様に、平面画像Pをセピア色にしたり、減色したりしてもよい。また、全天球画像CEが白黒の場合、平面画像Pをカラーにしてもよい。この場合、平面画像Pは元々カラーであることが好ましい。フレーム表示部36は全天球画像CEを白黒に変換する。   Similarly, the planar image P may be a sepia color or may be reduced in color. Further, when the omnidirectional image CE is black and white, the planar image P may be colored. In this case, it is preferable that the planar image P is originally color. The frame display unit 36 converts the omnidirectional image CE into black and white.

また、平面画像Pの輝度を反転してもよい。輝度は「Y = 0.299R + 0.587G + 0.114B」で算出される。RGBがそれぞれ0〜255の値を取る場合、輝度も0〜255の値を取る。輝度の反転とは127を中心に輝度を逆の値に置き換えることをいう。
反転後の値=|反転前の値−255|
こうすることで平面画像Pの輝度が周りと異なるので、ユーザは一目で平面画像Pに気づくことができる。なお、輝度の反転の他、階調反転、明度反転、色相反転などを行ってもよい。
Further, the brightness of the planar image P may be reversed. The luminance is calculated by “Y = 0.299R + 0.587G + 0.114B”. When RGB takes a value of 0 to 255, the luminance also takes a value of 0 to 255. The reversal of luminance means that the luminance is replaced with an opposite value around 127.
Value after inversion = | Value before inversion−255 |
By doing so, the brightness of the planar image P is different from the surroundings, so that the user can notice the planar image P at a glance. In addition to luminance inversion, gradation inversion, brightness inversion, hue inversion, and the like may be performed.

また、フレーム表示部36は、平面画像Pを点滅させてもよい。点滅とは、平面画像Pの態様に関し色調が変更された状態と通常の状態を交互に切り替えることをいう。例えば、フレーム表示部36は、数秒ごとに色調が変更された状態と通常の状態を交互に切り替える。こうすることで、ユーザは平面画像Pに更に気づきやすくなる。   Further, the frame display unit 36 may blink the planar image P. Blinking means that the state in which the color tone is changed with respect to the aspect of the planar image P and the normal state are alternately switched. For example, the frame display unit 36 alternately switches between a state in which the color tone is changed and a normal state every few seconds. By doing so, the user becomes more easily aware of the planar image P.

また、図31(c)に示すようにフレーム表示部36は平面画像Pを指し示すアイコン313を表示してもよい。ユーザUはこのアイコン313の内側に平面画像Pがあることを推測できるので、アイコン313の内側が正面になるように拡大すれば平面画像Pを閲覧できる。   In addition, as shown in FIG. 31C, the frame display unit 36 may display an icon 313 indicating the planar image P. Since the user U can guess that the flat image P exists inside the icon 313, the flat image P can be viewed by enlarging the icon 313 so that the inside of the icon 313 is in front.

<まとめ>
以上のように、本実施形態の画像処理システム100は、全天球画像CEに平面画像Pを重畳することで、画質が低い全天球画像CEを平面画像Pで補うことができる。平面画像Pの位置がフレーム40で表示されるのでユーザはどこに平面画像Pがあるかを容易に把握できる。ユーザが平面画像Pを見る場合、フレーム40が消去されるのでフレーム40が平面画像Pの閲覧を妨害することも抑制できる。
<Summary>
As described above, the image processing system 100 according to the present embodiment can supplement the low-quality omnidirectional image CE with the flat image P by superimposing the flat image P on the omnidirectional image CE. Since the position of the planar image P is displayed in the frame 40, the user can easily grasp where the planar image P is. When the user views the planar image P, the frame 40 is erased, so that the frame 40 can be prevented from obstructing the viewing of the planar image P.

実施例1では(i)〜(iv)のような契機でフレーム40の表示又は非表示を制御したが、本実施例では、フレーム40の表示又は非表示の契機の他の例をいくつか説明する。   In the first embodiment, the display or non-display of the frame 40 is controlled by the triggers (i) to (iv). However, in this embodiment, some other examples of the trigger of the display or non-display of the frame 40 will be described. To do.

なお、本実施例において、実施例1において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。   In the present embodiment, the components denoted by the same reference numerals in the first embodiment perform similar functions, and therefore, only the main components of the present embodiment may be mainly described.

A.平面画像Pをクリック又はタップすること
実施例1の(i)ではクリックやタッチによりフレームが非表示になると説明したが、逆に、ユーザが平面画像Pをクリック又はタッチした場合にフレームを表示又は非表示にしてもよい。
A. Clicking or tapping the planar image P In (i) of the first embodiment, it has been described that the frame is hidden by clicking or touching. Conversely, when the user clicks or touches the planar image P, the frame is displayed or It may be hidden.

図32は、表示装置30が平面画像Pを表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。図32の説明では主に図24との相違を説明する。ステップS210〜S290までの処理は図24と同じでよい。   FIG. 32 is an example of a flowchart illustrating a procedure for controlling whether or not to display a frame when the display device 30 displays the planar image P. In the description of FIG. 32, differences from FIG. 24 are mainly described. The processing from step S210 to step S290 may be the same as in FIG.

ステップS290に続いて、フレーム表示部36は平面画像Pがクリック又はタップされたか否かを判断する(S32−1)。フレームが表示されているか否かに関わらず、クリック又はタップされた位置が平面画像Pと重なっているか否かをマスクデータを使って判断する。   Subsequent to step S290, the frame display unit 36 determines whether or not the planar image P is clicked or tapped (S32-1). Regardless of whether or not the frame is displayed, whether or not the clicked or tapped position overlaps the planar image P is determined using the mask data.

ステップS32−1の判断がYesの場合、フレーム表示部36は現在、フレームが表示されているか否かを判断する(S32−2)。   If the determination in step S32-1 is Yes, the frame display unit 36 determines whether a frame is currently displayed (S32-2).

フレームが表示されている場合、フレーム表示部36はフレームを非表示にし(S32−3)、フレームが表示されていない場合、フレーム表示部36はフレームを表示する(S32−4)。   When the frame is displayed, the frame display unit 36 hides the frame (S32-3), and when the frame is not displayed, the frame display unit 36 displays the frame (S32-4).

フレームが表示された状態でクリック又はタッチされると、射影方式変換部2は平面画像Pを自動拡大する(S224)。   When the frame is displayed or clicked or touched, the projection method conversion unit 2 automatically enlarges the planar image P (S224).

このように、画角aと画角bの比率a/bが1.2未満でフレームが表示されていない場合でも、クリック又はタップによりフレームを表示することができる。また、フレームが表示されている場合にクリック又はタップされるとフレームを非表示にして平面画像を自動拡大することができる。したがって、ユーザは自分の好みでフレームの表示と非表示を切り替えることができる。   Thus, even when the ratio a / b between the angle of view a and the angle of view b is less than 1.2 and no frame is displayed, the frame can be displayed by clicking or tapping. Further, when a frame is displayed, clicking or tapping can hide the frame and automatically enlarge the planar image. Therefore, the user can switch between displaying and hiding frames according to his / her preference.

図32の処理では、画角aと画角bの比率a/bが1.2より大きい場合に、フレームが表示されるが、単純に、ユーザのクリック又はタップで表示と非表示を切り替えてもよい。   In the process of FIG. 32, a frame is displayed when the ratio a / b between the angle of view a and the angle of view b is greater than 1.2, but simply switching between display and non-display by a user's click or tap. Also good.

図33は、表示装置30が平面画像Pを表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。図33の処理では、閲覧領域に平面画像が含まれていてもフレームは表示されない。   FIG. 33 is an example of a flowchart illustrating a procedure for controlling whether or not to display a frame when the display device 30 displays the planar image P. In the processing of FIG. 33, no frame is displayed even if a planar image is included in the viewing area.

ステップS220に続いて、フレーム表示部36は平面画像Pがクリック又はタップされたか否かを判断する(S32−1)。   Subsequent to step S220, the frame display unit 36 determines whether or not the planar image P is clicked or tapped (S32-1).

平面画像がクリック又はタップされると、フレーム表示部は現在、フレームが表示されているか否かを判断する(S32−2)。   When the planar image is clicked or tapped, the frame display unit determines whether a frame is currently displayed (S32-2).

フレームが表示されている場合、フレーム表示部36はフレームを非表示にし(S32−3)、フレームが表示されていない場合、フレーム表示部36はフレームを表示する(S32−4)。   When the frame is displayed, the frame display unit 36 hides the frame (S32-3), and when the frame is not displayed, the frame display unit 36 displays the frame (S32-4).

このような処理によれば、ユーザは平面画像のクリック又はタップによりフレームの表示と非表示を切り替えることができる。この処理ではクリック又はタップでフレームの表示と非表示が切り替わるので、クリックによる自動拡大が困難になるが、自動拡大は例えば右クリックで表示されるメニューなどから行ってもよいし、ダブルクリックなどで行ってもよい。   According to such processing, the user can switch between display and non-display of the frame by clicking or tapping the planar image. In this process, the display and non-display of the frame are switched by clicking or tapping, so that automatic enlargement by clicking becomes difficult. However, automatic enlargement may be performed from a menu displayed by right-clicking, etc. You may go.

なお、変形例として、フレーム表示部36が閲覧領域に入っている平面画像に自動的にフレームを表示しておき、フレームの表示後に一定時間が経過するとフレームが自動的に消去してもよい。ユーザは平面画像のあることを把握してフレームのない全天球画像を閲覧できる。また、クリック又はタップによりフレームの表示と非表示を切り替えることができる。   As a modified example, the frame display unit 36 may automatically display a frame on a planar image in the viewing area, and the frame may be automatically deleted when a certain time elapses after the frame is displayed. The user can recognize the presence of a planar image and browse a spherical image without a frame. Moreover, the display and non-display of a frame can be switched by clicking or tapping.

B.視線検知によりフレームの表示と非表示を切り替える
クリックやタッチではなく視線検知によりフレームの表示と非表示を切り替えることもできる。
B. Switching between display and non-display of a frame by gaze detection It is also possible to switch between display and non-display of a frame by gaze detection instead of click or touch.

図34は、表示装置30による視線検知を説明する図の一例である。本実施例の表示装置30は視線検知装置90を有している。視線検知装置90はカメラを有しており、少なくとも眼を含む顔画像を撮像する。視線検知装置90は顔画像の画像データを解析して視線方向を検出する。視線方向は、基準点と動点の相対位置に基づいて検出される。一例として、基準点に目頭、動点に虹彩を選ぶ方法と、基準点に角膜反射、動点に瞳孔を選ぶ方法とがある。角膜反射が使用される場合視線検知装置90は点光源を照射する。視線検知装置90は、画像データから顔部分を特定し、顔部分から眉、鼻孔、目、唇などの特徴的な部品を特定し、これらの配置関係から目の位置を特定する。目の位置が特定されると目頭、動点、角膜反射及び瞳孔を検出できる。基準点と動点の相対位置に視線方向が対応付けられたテーブルが予め容易されており、視線検出装置はこのテーブルを参照して視線方向を検出する。視線方向は例えば視線検出装置の撮像素子の中心を原点とする三次元座標系のベクトルで表される。視線検出装置の撮像素子を基準とする閲覧領域の相対的な位置が明らかであれば、表示装置30のディスプレイ(閲覧領域)における視線の到達点の座標(視線位置)が特定される。フレーム表示部36はこの座標を定期的に取得して平面画像Pと重なっているか否かを判断する。   FIG. 34 is an example of a diagram for explaining line-of-sight detection by the display device 30. The display device 30 of this embodiment has a line-of-sight detection device 90. The line-of-sight detection device 90 has a camera and captures a facial image including at least eyes. The gaze detection device 90 analyzes the image data of the face image and detects the gaze direction. The line-of-sight direction is detected based on the relative position between the reference point and the moving point. As an example, there are a method of selecting an eye for the reference point and an iris for the moving point, and a method of selecting a corneal reflection for the reference point and a pupil for the moving point. When corneal reflection is used, the line-of-sight detection device 90 emits a point light source. The line-of-sight detection device 90 identifies a face part from the image data, identifies characteristic parts such as eyebrows, nostrils, eyes, and lips from the face part, and identifies the position of the eye from these arrangement relationships. When the position of the eye is specified, the eye head, moving point, corneal reflection, and pupil can be detected. A table in which the line-of-sight direction is associated with the relative position of the reference point and the moving point is facilitated in advance, and the line-of-sight detection device detects the line-of-sight direction with reference to this table. The line-of-sight direction is represented, for example, by a vector in a three-dimensional coordinate system with the origin at the center of the image sensor of the line-of-sight detection device. If the relative position of the viewing area with reference to the image sensor of the line-of-sight detection device is clear, the coordinates (line-of-sight position) of the line-of-sight arrival point on the display (viewing area) of the display device 30 are specified. The frame display unit 36 periodically acquires these coordinates and determines whether or not they overlap with the planar image P.

図35(a)は、表示装置30が平面画像Pを表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。図35(a)の説明では主に図32との相違を説明する。   FIG. 35A is an example of a flowchart illustrating a procedure for controlling whether or not to display a frame when the display device 30 displays the planar image P. FIG. In the description of FIG. 35A, differences from FIG. 32 are mainly described.

フレーム表示部36は視線位置に基づいて平面画像Pが注視されたか否かを判断する(S35−1)。フレームが表示されていてもいなくてもよいが、次述するようにフレームが表示されている場合は視線位置は制御に使用されない。フレーム表示部36は視線位置が平面画像Pと重なっているか否かをマスクデータを使って判断する。   The frame display unit 36 determines whether or not the planar image P is watched based on the line-of-sight position (S35-1). Although the frame may or may not be displayed, the line-of-sight position is not used for control when the frame is displayed as described below. The frame display unit 36 determines whether or not the line-of-sight position overlaps the planar image P using the mask data.

ステップS35−1の判断がYesの場合、フレーム表示部36は現在、フレームが表示されているか否かを判断する(S35−2)。   When the determination in step S35-1 is Yes, the frame display unit 36 determines whether a frame is currently displayed (S35-2).

フレームが表示されている場合、フレーム表示部36はフレームを表示にしたままにして(S35−3)、フレームが表示されていない場合、フレーム表示部36はフレームを表示する(S35−4)。   When the frame is displayed, the frame display unit 36 keeps the frame displayed (S35-3), and when the frame is not displayed, the frame display unit 36 displays the frame (S35-4).

そして、平面画像がクリックされると(S35−5)、フレーム表示部36はフレームが表示されている場合に(S35−6)、フレームを非表示にして(S35−7)、射影方式変換部2が平面画像Pを自動拡大する(S224)。フレーム表示部36はフレームが表示されていない場合にフレームを表示する(S35−8)。   When the planar image is clicked (S35-5), when the frame is displayed (S35-6), the frame display unit 36 hides the frame (S35-7), and the projection method conversion unit. 2 automatically enlarges the planar image P (S224). The frame display unit 36 displays a frame when no frame is displayed (S35-8).

このように、フレームが表示されていなくてもユーザが注視するだけでフレームが表示されるので、平面画像Pが視線位置に存在する場合、ユーザは平面画像Pに気づくことができる。また、すでにフレームが表示されている場合は平面画像Pが注視されてもフレームは表示されたままなので、フレームがハンチングすることを防止できる。また、平面画像がクリックされるとフレームが表示されている場合は自動拡大でき、フレームが表示されていない場合はフレームを表示できる。   As described above, even if the frame is not displayed, the frame is displayed only by the user's gaze. Therefore, when the planar image P exists at the line-of-sight position, the user can notice the planar image P. In addition, when the frame is already displayed, the frame remains displayed even when the planar image P is watched, so that the frame can be prevented from hunting. When a planar image is clicked, the frame can be automatically enlarged when the frame is displayed, and the frame can be displayed when the frame is not displayed.

なお、ユーザが意図的にフレームを消去したい場合は、そのためのボタンを押下したり、図33のようにクリック又はタップしたりする方法が考えられる。あるいは、フレームの表示後の一定時間が経過するとフレームが自動的に消去されてもよい。   When the user wants to delete a frame intentionally, a method of pressing a button for that purpose or clicking or tapping as shown in FIG. 33 can be considered. Alternatively, the frame may be automatically deleted when a certain time has elapsed after the frame is displayed.

また、図35(b)のように、ユーザが平面画像Pを注視しかつクリック又はタップした場合にフレームを表示してもよい。   Further, as shown in FIG. 35B, a frame may be displayed when the user gazes at the planar image P and clicks or taps it.

図35(b)では、フレーム表示部36は視線位置に基づいて平面画像Pが注視されたか否かを判断する(S35−1)。   In FIG. 35B, the frame display unit 36 determines whether or not the planar image P is watched based on the line-of-sight position (S35-1).

ステップS35−1の判断がYesの場合、フレーム表示部36は平面画像がクリックされると(S35−5)、フレームを表示し(S35−8)、クリックされなければフレームを表示しない(S35−7)。   When the determination in step S35-1 is Yes, the frame display unit 36 displays the frame when the planar image is clicked (S35-5) (S35-8), and does not display the frame unless it is clicked (S35-). 7).

このような処理では、注視しただけではフレームが表示されないのでユーザが煩わしく感じることを抑制できる。注視しなくなればフレームを非表示にできる。   In such a process, since a frame is not displayed only by gaze, it can suppress that a user feels troublesome. You can hide the frame if you don't watch it.

C.平面画像Pが閲覧領域の中心付近に存在する場合にフレームを表示する
平面画像Pが閲覧領域の中心付近に存在する場合、ユーザが平面画像Pの被写体に興味を持っていると推測されるため、フレームを表示することでユーザに平面画像Pの存在を知らせることができる。
C. A frame is displayed when the planar image P exists near the center of the viewing area. If the planar image P exists near the center of the viewing area, it is assumed that the user is interested in the subject of the planar image P. By displaying the frame, the user can be notified of the presence of the planar image P.

図36は、閲覧領域と平面画像Pの距離を説明する図である。フレーム表示部36は閲覧領域の中心と平面画像Pの中心の距離Lを算出して閾値と比較することで、フレームを表示するか否かを判断する。図36(a)では距離Lが閾値以上なので、フレームが表示されない。図36(b)では距離Lが閾値未満なのでフレームが表示される。   FIG. 36 is a diagram illustrating the distance between the viewing area and the planar image P. The frame display unit 36 determines whether or not to display a frame by calculating a distance L between the center of the viewing area and the center of the planar image P and comparing it with a threshold value. In FIG. 36A, since the distance L is equal to or greater than the threshold, no frame is displayed. In FIG. 36B, the frame is displayed because the distance L is less than the threshold value.

図37は表示装置30が平面画像Pを表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。図37の説明では主に図35との相違を説明する。   FIG. 37 is an example of a flowchart illustrating a procedure for controlling whether or not to display a frame when the display device 30 displays the planar image P. In the description of FIG. 37, differences from FIG. 35 are mainly described.

ステップS230で閲覧領域に平面画像Pが入っていると判断されると、フレーム表示部36は閲覧領域と平面画像Pの距離を算出し、距離が閾値未満か否かを判断する(S37−1)。閾値については実験的に定めればよい。例えば、閲覧領域の対角線の画素数の1/3、1/4等などである。   If it is determined in step S230 that the planar image P is in the viewing area, the frame display unit 36 calculates the distance between the viewing area and the planar image P and determines whether the distance is less than a threshold (S37-1). ). The threshold value may be determined experimentally. For example, 1/3 of the number of diagonal pixels in the viewing area, 1/4, etc.

閲覧領域と平面画像Pの距離が閾値未満の場合、フレーム表示部36はフレームを表示すると判断し(S37−2)、距離が閾値以上の場合、フレーム表示部36はフレームを表示しないと判断する(S37−3)。以降の処理は図35と同様である。   If the distance between the viewing area and the planar image P is less than the threshold, the frame display unit 36 determines to display a frame (S37-2). If the distance is equal to or greater than the threshold, the frame display unit 36 determines not to display the frame. (S37-3). The subsequent processing is the same as in FIG.

このように、ユーザが閲覧領域の中心付近で見ようとしている被写体がある場合、フレームが表示されるので、ユーザは平面画像Pの存在に気づくことができる。   As described above, when there is a subject that the user wants to see near the center of the viewing area, the frame is displayed, so that the user can notice the presence of the planar image P.

D.マウスカーソルが平面画像Pと重なっている場合に非表示にして重なっていない場合に表示する
実施例1では、マウスカーソルが平面画像Pと重なっている場合に表示し、重なっていない場合に非表示としたが、その逆に、マウスカーソルが平面画像Pと重なっている場合に非表示にして重なっていない場合に表示してもよい。こうすることで、ユーザはマウスカーソルを重ねることでフレームがない状態でユーザが平面画像Pを閲覧できる。
D. Displayed when the mouse cursor is overlapped with the planar image P and displayed when it is not overlapped In Example 1, displayed when the mouse cursor is overlapped with the planar image P, not displayed when not overlapped However, conversely, when the mouse cursor overlaps with the plane image P, it may be hidden and displayed when it does not overlap. By doing so, the user can browse the planar image P without a frame by overlaying the mouse cursor.

図38は、表示装置30が平面画像Pを表示する際にフレームの表示の有無を制御する手順を示すフローチャート図の一例である。図38の説明では主に図37との相違を説明する。   FIG. 38 is an example of a flowchart illustrating a procedure for controlling whether or not to display a frame when the display device 30 displays the planar image P. In the description of FIG. 38, differences from FIG. 37 are mainly described.

ステップS230に続いて、フレーム表示部36はマウスカーソルが平面画像Pと重なっているか否かを判断する(S38−1)。   Subsequent to step S230, the frame display unit 36 determines whether or not the mouse cursor overlaps the planar image P (S38-1).

マウスカーソルが平面画像Pと重なっている場合、フレーム表示部36はフレームを表示しないと判断し(S38−2)、マウスカーソルが平面画像Pと重なっていない場合、フレーム表示部36はフレームを表示すると判断する(S38−3)。以降の処理は図37と同様でよい。   When the mouse cursor overlaps with the plane image P, the frame display unit 36 determines that no frame is displayed (S38-2). When the mouse cursor does not overlap with the plane image P, the frame display unit 36 displays a frame. Then, it is determined (S38-3). The subsequent processing may be the same as in FIG.

このように、マウスカーソルが平面画像Pと重なっていない場合はフレームが表示されることでユーザが平面画像Pの場所に気づくことができ、マウスカーソルが平面画像Pと重なっている場合は平面画像Pをフレームなしに閲覧できる。   As described above, when the mouse cursor does not overlap with the planar image P, the frame is displayed so that the user can notice the location of the planar image P. When the mouse cursor overlaps with the planar image P, the planar image is displayed. P can be viewed without a frame.

<まとめ>
以上説明したように、本実施例の表示装置30は、種々のイベントを契機にしてフレーム40の表示又は非表示を制御できる。
<Summary>
As described above, the display device 30 of this embodiment can control the display or non-display of the frame 40 triggered by various events.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、上記の(i)から(iv)は自動的にフレーム40の表示・非表示を切り替えるものであるが、ユーザUが意図的に表示・非表示を指定してもよい。   For example, the above (i) to (iv) automatically switch display / non-display of the frame 40, but the user U may intentionally specify display / non-display.

また、平面画像Pが表示されている状態でフレーム40の表示と非表示が切り替えられていたが、画像重畳部33はフレーム40が表示される場合にだけ平面画像Pを表示し、フレーム40が表示されない場合に平面画像Pを非表示にしてもよい。   Further, the display and non-display of the frame 40 are switched while the plane image P is displayed. However, the image superimposing unit 33 displays the plane image P only when the frame 40 is displayed. The planar image P may be hidden when not displayed.

また、全天球画像の表示はブラウザソフトウェアで行ってもよいし、全天球画像CEを表示するためのアプリケーションソフトで行ってもよい。   Further, the display of the omnidirectional image may be performed by browser software, or may be performed by application software for displaying the omnidirectional image CE.

また、本実施形態の全天球画像は閲覧領域Tに表示しきない画角の画像データであればよい。例えば、水平方向にだけ180度〜360度の画角を有する画像でもよい。   Further, the omnidirectional image of the present embodiment may be image data having an angle of view that cannot be displayed in the viewing area T. For example, an image having an angle of view of 180 degrees to 360 degrees only in the horizontal direction may be used.

また、図11、18などの構成例は、全天球カメラ20、表示装置30、及びデジタルカメラ9による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。全天球カメラ20、表示装置30、及びデジタルカメラ9の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。   In addition, the configuration examples in FIGS. 11 and 18 are divided according to main functions in order to facilitate understanding of processing by the omnidirectional camera 20, the display device 30, and the digital camera 9. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the omnidirectional camera 20, the display device 30, and the digital camera 9 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

なお、判断部35は判断手段の一例であり、フレーム表示部36は画像提示手段の一例であり、視線方向画角指示部26は操作受付手段の一例であり、画像表示部31は画像表示手段の一例である。視線検知装置90は視線位置検出手段の一例である。   The determination unit 35 is an example of a determination unit, the frame display unit 36 is an example of an image presentation unit, the line-of-sight direction angle-of-view instruction unit 26 is an example of an operation reception unit, and the image display unit 31 is an image display unit. It is an example. The line-of-sight detection device 90 is an example of a line-of-sight position detection unit.

7 変換表示部
8 位置パラメータ作成部
9 デジタルカメラ
20 全天球カメラ
23 位置パラメータ算出部
24 位置パラメータ書出部
26 視線方向画角指示部
30 表示装置
32 画像重畳部
33 画像重畳部
35 判断部
36 フレーム表示部
100 画像処理システム
7 conversion display unit 8 position parameter creation unit 9 digital camera 20 omnidirectional camera 23 position parameter calculation unit 24 position parameter writing unit 26 gaze direction angle of view instruction unit 30 display device 32 image superimposing unit 33 image superimposing unit 35 determining unit 36 Frame display unit 100 Image processing system

特開2016−96487号公報Japanese Patent Laid-Open No. 2006-96487

Claims (18)

第一の画像と異なる品質の第二の画像が重畳された前記第一の画像を表示する表示装置であって、
前記第二の画像が閲覧されるか否かを判断する判断手段と、
前記判断手段の判断結果に応じて、前記第二の画像が存在する旨の表示と非表示を切り替える画像提示手段と、
を有する表示装置。
A display device for displaying the first image on which a second image having a quality different from that of the first image is superimposed,
Determining means for determining whether or not the second image is viewed;
An image presentation unit that switches between display and non-display of the presence of the second image according to a determination result of the determination unit;
A display device.
前記画像提示手段は、前記判断手段の判断結果に応じて、前記第二の画像の位置又は大きさを示す画像部品の表示と非表示を切り替える請求項1に記載の表示装置。   The display device according to claim 1, wherein the image presentation unit switches between display and non-display of an image component indicating a position or size of the second image according to a determination result of the determination unit. 前記判断手段が前記第二の画像が閲覧されると判断した場合、前記画像提示手段は前記画像部品を表示せず、
前記判断手段が前記第二の画像が閲覧されないと判断した場合、前記画像提示手段は前記画像部品を表示する請求項2に記載の表示装置。
When the determination means determines that the second image is browsed, the image presentation means does not display the image component,
The display device according to claim 2, wherein when the determination unit determines that the second image is not browsed, the image presentation unit displays the image component.
前記判断手段は、表示装置に表示された前記第一の画像の閲覧領域に対する前記第二の画像が表示された領域の比率を閾値と比較して、前記第二の画像が閲覧されるか否かを判断する請求項2又は3に記載の表示装置。   The determination means compares the ratio of the area where the second image is displayed to the viewing area of the first image displayed on the display device with a threshold value, and determines whether or not the second image is browsed. The display device according to claim 2, which determines whether or not. 前記第一の画像に対する操作を受け付ける操作受付手段を有し、
前記操作受付手段が操作を受け付けた座標が前記第二の画像に重なっているか否かを前記判断手段が判断し、
前記座標が前記第二の画像に重なっていると前記判断手段が判断した場合、前記画像提示手段は前記画像部品を表示しない請求項2又は3に記載の表示装置。
Operation receiving means for receiving an operation on the first image;
The determination means determines whether or not the coordinates received by the operation reception means overlap the second image,
4. The display device according to claim 2, wherein when the determination unit determines that the coordinates overlap the second image, the image presentation unit does not display the image component. 5.
前記第二の画像が前記表示装置に表示されている場合に、前記座標が前記第二の画像に重なっていると前記判断手段が判断した場合、
前記第二の画像を前記表示装置の表示サイズまで徐々に拡大して表示する画像表示手段を有する請求項5に記載の表示装置。
When the determination unit determines that the coordinates overlap the second image when the second image is displayed on the display device,
The display device according to claim 5, further comprising an image display unit that gradually enlarges and displays the second image to a display size of the display device.
前記操作受付手段が操作を受け付けるポインティングデバイスの座標が前記第二の画像に重なっているか否かを前記判断手段が判断し、
前記ポインティングデバイスの座標が前記第二の画像に重なっていると前記判断手段が判断した場合、前記画像提示手段は前記画像部品を表示し、
前記ポインティングデバイスの座標が前記第二の画像に重なっていないと前記判断手段が判断した場合、前記画像提示手段は前記画像部品を表示しない請求項5又は6に記載の表示装置。
The determination means determines whether or not the coordinates of the pointing device for receiving the operation by the operation reception means overlap the second image,
When the determination unit determines that the coordinates of the pointing device overlap the second image, the image presentation unit displays the image component,
The display device according to claim 5 or 6, wherein when the determination unit determines that the coordinates of the pointing device do not overlap the second image, the image presentation unit does not display the image component.
前記操作受付手段が操作を受け付けるポインティングデバイスの座標が前記第二の画像に重なっているか否かを前記判断手段が判断し、
前記ポインティングデバイスの座標が前記第二の画像に重なっていると前記判断手段が判断した場合、前記画像提示手段は前記画像部品を表示せず、
前記ポインティングデバイスの座標が前記第二の画像に重なっていないと前記判断手段が判断した場合、前記画像提示手段は前記画像部品を表示する請求項5又は6に記載の表示装置。
The determination means determines whether or not the coordinates of the pointing device for receiving the operation by the operation reception means overlap the second image,
When the determination unit determines that the coordinates of the pointing device overlap the second image, the image presentation unit does not display the image component,
The display device according to claim 5 or 6, wherein when the determination unit determines that the coordinates of the pointing device do not overlap the second image, the image presentation unit displays the image component.
前記操作受付手段が前記第一の画像の閲覧領域の変更を受け付けた場合、
閲覧領域が変更されてから所定時間、前記画像提示手段は前記画像部品を表示し、閲覧領域が変更されてから所定時間が経過すると前記画像提示手段は前記画像部品を表示しない請求項5又は6に記載の表示装置。
When the operation accepting unit accepts a change in the viewing area of the first image,
7. The image presentation unit displays the image component for a predetermined time after the viewing region is changed, and the image presentation unit does not display the image component when a predetermined time has elapsed since the viewing region is changed. The display device described in 1.
前記第一の画像は撮像装置の周囲360度が撮像された全天球画像であり、前記第二の画像は前記第一の画像の閲覧領域に全体を表示可能な画像である請求項2〜9のいずれか1項に記載の表示装置。   The first image is an omnidirectional image in which 360 degrees around the imaging device is imaged, and the second image is an image that can be entirely displayed in a viewing area of the first image. The display device according to any one of 9. 前記第一の画像に対する操作を受け付ける操作受付手段を有し、
前記操作受付手段が操作を受け付けた座標が前記第二の画像に重なっているか否かを前記判断手段が判断し、
前記座標が前記第二の画像に重なっていると前記判断手段が判断した場合、前記画像提示手段は前記画像部品を表示する請求項2又は3に記載の表示装置。
Operation receiving means for receiving an operation on the first image;
The determination means determines whether or not the coordinates received by the operation reception means overlap the second image,
4. The display device according to claim 2, wherein when the determination unit determines that the coordinates overlap with the second image, the image presentation unit displays the image component.
ユーザの視線位置を検出する視線位置検出手段を有し、
前記視線位置検出手段が検出した視線位置が前記第二の画像に重なっているか否かを前記判断手段が判断し、
前記視線位置が前記第二の画像に重なっていると前記判断手段が判断した場合、前記画像提示手段は前記画像部品を表示する請求項2又は3に記載の表示装置。
Gaze position detection means for detecting the gaze position of the user,
The determination means determines whether the line-of-sight position detected by the line-of-sight position detection means overlaps the second image;
4. The display device according to claim 2, wherein when the determination unit determines that the line-of-sight position overlaps the second image, the image presentation unit displays the image component.
前記判断手段は前記第一の画像の中心と前記第二の画像の中心の距離が閾値未満か否かを判断し、
前記距離が閾値未満であると前記判断手段が判断した場合、前記画像提示手段は前記画像部品を表示する請求項2又は3に記載の表示装置。
The determining means determines whether the distance between the center of the first image and the center of the second image is less than a threshold;
The display device according to claim 2, wherein the image presentation unit displays the image component when the determination unit determines that the distance is less than a threshold.
前記画像部品は、前記第二の画像の外縁を示す枠であることを特徴とする請求項2〜13のいずれか1項に記載の表示装置。   The display device according to claim 2, wherein the image component is a frame indicating an outer edge of the second image. 前記画像部品は、前記第二の画像を指し示す画像であることを特徴とする請求項2〜13のいずれか1項に記載の表示装置。   The display device according to claim 2, wherein the image component is an image indicating the second image. 前記第二の画像が存在する旨は、前記第二の画像の色合い又は輝度が前記第一の画像と異なる態様であることで示されることを特徴とする請求項1〜13のいずれか1項に記載の表示装置。   The fact that the second image exists is indicated by a mode in which the hue or luminance of the second image is different from that of the first image. The display device described in 1. 第一の画像と異なる品質の第二の画像が重畳された前記第一の画像を表示する表示装置を、
前記第二の画像が閲覧されるか否かを判断する判断手段と、
前記判断手段の判断結果に応じて、前記第二の画像が存在する旨の表示と非表示を切り替える画像提示手段、
として機能させるためのプログラム。
A display device for displaying the first image on which a second image having a quality different from that of the first image is superimposed;
Determining means for determining whether or not the second image is viewed;
Image presenting means for switching between display and non-display of the presence of the second image according to the determination result of the determination means;
Program to function as.
第一の画像と異なる品質の高画質な第二の画像が重畳された前記第一の画像を表示する表示装置が行う表示方法であって、
判断手段が、前記第二の画像が閲覧されるか否かを判断するステップと、
画像提示手段が、前記判断手段の判断結果に応じて、前記第二の画像が存在する旨の表示と非表示を切り替えるステップと、
を有する表示方法。
A display method performed by a display device that displays the first image on which a high-quality second image having a quality different from that of the first image is superimposed,
A step of determining whether or not the second image is viewed;
An image presenting means switching between display and non-display of the presence of the second image according to the determination result of the determination means;
Display method.
JP2017207635A 2016-12-28 2017-10-26 Display device, program, and display method Withdrawn JP2018109740A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201711457442.9A CN108259782A (en) 2016-12-28 2017-12-28 Image processing apparatus, camera chain, image processing method
US15/856,949 US10789671B2 (en) 2016-12-28 2017-12-28 Apparatus, system, and method of controlling display, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016256381 2016-12-28
JP2016256381 2016-12-28

Publications (1)

Publication Number Publication Date
JP2018109740A true JP2018109740A (en) 2018-07-12

Family

ID=62844361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017207635A Withdrawn JP2018109740A (en) 2016-12-28 2017-10-26 Display device, program, and display method

Country Status (1)

Country Link
JP (1) JP2018109740A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023097997A (en) * 2021-12-28 2023-07-10 キヤノン株式会社 Image processing device, image processing method and program
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
JP2023097997A (en) * 2021-12-28 2023-07-10 キヤノン株式会社 Image processing device, image processing method and program

Similar Documents

Publication Publication Date Title
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US10789671B2 (en) Apparatus, system, and method of controlling display, and recording medium
JP2018110375A (en) Display device, program, and display method
JP5835383B2 (en) Information processing method, information processing apparatus, and program
JP6805861B2 (en) Image processing equipment, image processing system, image processing method and program
JP5835384B2 (en) Information processing method, information processing apparatus, and program
EP2822267A2 (en) Method and apparatus for previewing a dual-shot image
JP2019057903A (en) Image processing apparatus, photographing system, image processing method, and program
JP2019164782A (en) Image processing apparatus, image capturing system, image processing method, and program
JP2019057264A (en) Image processing apparatus, photographing system, image processing method, and program
CN113066189A (en) Augmented reality equipment and virtual and real object shielding display method
JP2022130180A (en) Image processing method, program, image processing device and image processing system
JP2018109946A (en) Display device, program, and display method
CN103391396B (en) Display control apparatus and display control method
JP6350695B2 (en) Apparatus, method, and program
JPWO2017159014A1 (en) Image processing apparatus, image processing method, and image processing system
JP2018110384A (en) Image processing apparatus, photographing system, image processing method, and program
JP2018109740A (en) Display device, program, and display method
JPWO2017145483A1 (en) Image processing apparatus, image processing system, and program
JP2018157538A (en) Program, imaging system, and information processing apparatus
JP6583486B2 (en) Information processing method, information processing program, and information processing apparatus
JP6128185B2 (en) Apparatus, method, and program
JP2019164783A (en) Image processing apparatus, image capturing system, image processing method, and program
JP6812643B2 (en) Communication terminals, image communication systems, display methods, and programs
JP2018109971A (en) Image processing apparatus, image processing system, photographing system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20201111