[go: up one dir, main page]

JP2013005376A - Image processing program, image processing apparatus, and image processing method - Google Patents

Image processing program, image processing apparatus, and image processing method Download PDF

Info

Publication number
JP2013005376A
JP2013005376A JP2011137211A JP2011137211A JP2013005376A JP 2013005376 A JP2013005376 A JP 2013005376A JP 2011137211 A JP2011137211 A JP 2011137211A JP 2011137211 A JP2011137211 A JP 2011137211A JP 2013005376 A JP2013005376 A JP 2013005376A
Authority
JP
Japan
Prior art keywords
video
display
parameter
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011137211A
Other languages
Japanese (ja)
Inventor
Masashi Yamada
真史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FREDDIE SYSTEM Inc
OFFICE SANSARA CO Ltd
Original Assignee
FREDDIE SYSTEM Inc
OFFICE SANSARA CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FREDDIE SYSTEM Inc, OFFICE SANSARA CO Ltd filed Critical FREDDIE SYSTEM Inc
Priority to JP2011137211A priority Critical patent/JP2013005376A/en
Publication of JP2013005376A publication Critical patent/JP2013005376A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】2D3D変換に必要なパラメータの調整作業の効率を高める。
【解決手段】三次元パラメータを調整するための調整用画面を第1のディスプレイに表示し、三次元パラメータを調整するためのユーザ入力に応じて、三次元パラメータ記憶部に記憶されている三次元パラメータを更新し、二次元映像記憶部に記憶されている二次元映像と、三次元パラメータ記憶部に記憶されている三次元パラメータとに基づいて三次元映像を生成し、調整用画面を用いて三次元パラメータを調整可能な状態において、第1のディスプレイとは別の、三次元表示に対応した第2のディスプレイに、生成された三次元映像を表示する。
【選択図】図1
An object of the present invention is to improve the efficiency of adjustment work of parameters necessary for 2D3D conversion.
An adjustment screen for adjusting a three-dimensional parameter is displayed on a first display, and a three-dimensional parameter stored in a three-dimensional parameter storage unit in response to a user input for adjusting the three-dimensional parameter. Update parameters, generate 3D video based on 2D video stored in 2D video storage and 3D parameters stored in 3D parameter storage, using adjustment screen In a state where the three-dimensional parameter can be adjusted, the generated three-dimensional image is displayed on a second display corresponding to the three-dimensional display, which is different from the first display.
[Selection] Figure 1

Description

本発明は、画像処理プログラム、画像処理装置、及び画像処理方法に関する。   The present invention relates to an image processing program, an image processing apparatus, and an image processing method.

近年、映画やテレビにおいて三次元(3D)映像を鑑賞する環境が整備され、3D映像に対する関心が高まっている。しかしながら、3D映像を作成するためには、例えば、3D映像を撮影するためのカメラ等の特殊な機材が必要となり、映像作成のコストが高くなってしまう。そのため、3D映像のコンテンツの拡充には至っていないのが現状である。   In recent years, an environment for viewing three-dimensional (3D) images in movies and television has been improved, and interest in 3D images has increased. However, in order to create a 3D video, for example, special equipment such as a camera for shooting the 3D video is required, which increases the cost of creating the video. Therefore, the current situation is that the content of 3D video has not been expanded.

そこで、既に作成されている二次元(2D)映像を3D映像に変換する技術、すなわち2D3D変換技術が注目されている。このような2D3D変換技術を用いることにより、既存の多くのコンテンツを3D映像として楽しむことが可能となる。例えば、特許文献1には、2D3D変換の際に必要となるパラメータを調整するための手法が開示されている。   Therefore, attention has been paid to a technique for converting a two-dimensional (2D) video that has already been created into a 3D video, that is, a 2D3D conversion technology. By using such 2D3D conversion technology, it is possible to enjoy many existing contents as 3D video. For example, Patent Document 1 discloses a technique for adjusting parameters necessary for 2D3D conversion.

特開2006−80982号公報JP 2006-80982 A

上述のように、特許文献1に開示されているような手法を用いることにより、2D3D変換のパラメータを調整することが可能である。しかしながら、特許文献1に開示されている手法では、ある1つのフレーム画像に対するパラメータを調整中に、このフレーム画像に対応する3D画像を確認することはできるものの、元の2D映像から生成される3D映像を確認することはできない。   As described above, it is possible to adjust the parameters of the 2D3D conversion by using the technique disclosed in Patent Document 1. However, in the method disclosed in Patent Document 1, while a parameter for a certain frame image can be adjusted, a 3D image corresponding to the frame image can be confirmed, but a 3D generated from the original 2D video image can be confirmed. The video cannot be confirmed.

一般的に、フレームごとの3D画像の表示だけでは、3D映像における3Dの表示効果が適切であるかどうかを判断することは難しい。そのため、パラメータの調整結果がどのように3D映像に反映されているかを確認するためには、パラメータの調整作業を一旦終了したうえで、最終的な3D映像を出力するためのレンダリング処理を実行する必要がある。そして、レンダリングにより出力された3D映像を3D表示に対応したディスプレイに表示することにより、3Dの表示が適切に行われているかどうかを確認することとなる。   Generally, it is difficult to determine whether a 3D display effect in 3D video is appropriate only by displaying a 3D image for each frame. Therefore, in order to confirm how the parameter adjustment result is reflected in the 3D video, after the parameter adjustment work is once completed, a rendering process for outputting the final 3D video is executed. There is a need. Then, by displaying the 3D video output by rendering on a display corresponding to 3D display, it is confirmed whether or not the 3D display is appropriately performed.

このように、2D3D変換に際しては、フレームごとのパラメータ調整とレンダリングとを繰り返す必要があり、調整作業に非常に手間がかかってしまう。   As described above, in 2D3D conversion, it is necessary to repeat parameter adjustment and rendering for each frame, which requires much labor for adjustment work.

そこで、本発明は、2D3D変換に必要なパラメータの調整作業の効率を高めることを目的とする。   Accordingly, an object of the present invention is to increase the efficiency of parameter adjustment work necessary for 2D3D conversion.

本発明の一側面に係る画像処理プログラムは、二次元映像を記憶する二次元映像記憶部と、二次元映像を三次元映像に変換するために必要となる三次元パラメータを記憶する三次元パラメータ記憶部とを有するコンピュータに、三次元パラメータを調整するための調整用画面を第1のディスプレイに表示し、三次元パラメータを調整するためのユーザ入力に応じて、三次元パラメータ記憶部に記憶されている三次元パラメータを更新する三次元パラメータ調整機能と、二次元映像記憶部に記憶されている二次元映像と、三次元パラメータ記憶部に記憶されている三次元パラメータとに基づいて、三次元映像を生成する三次元映像生成機能と、調整用画面を用いて三次元パラメータを調整可能な状態において、第1のディスプレイとは別の、三次元表示に対応した第2のディスプレイに、生成された三次元映像を表示する三次元映像表示機能と、を実現させるためのものである。   An image processing program according to an aspect of the present invention includes a 2D video storage unit that stores 2D video, and a 3D parameter storage that stores 3D parameters necessary for converting the 2D video into 3D video. On the first display, and an adjustment screen for adjusting the three-dimensional parameter is displayed on the first display and stored in the three-dimensional parameter storage unit in response to a user input for adjusting the three-dimensional parameter. Based on the 3D parameter adjustment function for updating the 3D parameter, the 2D image stored in the 2D image storage unit, and the 3D parameter stored in the 3D parameter storage unit. In a state where the 3D image generation function for generating the image and the 3D parameter can be adjusted using the adjustment screen, three different from the first display, A second display corresponding to the original display, and a three-dimensional image display function for displaying the generated three-dimensional image is intended for realizing.

なお、本発明において、「部」とは、単に物理的手段を意味するものではなく、その「部」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や装置の機能が1つの物理的手段や装置により実現されても良い。   In the present invention, the “part” does not simply mean a physical means, but includes a case where the function of the “part” is realized by software. Also, even if the functions of one “unit” or device are realized by two or more physical means or devices, the functions of two or more “units” or devices are realized by one physical means or device. May be.

本発明によれば、2D3D変換に必要なパラメータの調整作業の効率を高めることができる。   ADVANTAGE OF THE INVENTION According to this invention, the efficiency of the adjustment work of the parameter required for 2D3D conversion can be improved.

本発明の一実施形態である画像処理システムの構成を示す図である。1 is a diagram illustrating a configuration of an image processing system according to an embodiment of the present invention. 2D映像から各オブジェクトの輪郭を抜き出す処理のイメージを示す図である。It is a figure which shows the image of the process which extracts the outline of each object from 2D video. レイヤーデータを合成して深度画像を生成する処理のイメージを示す図である。It is a figure which shows the image of the process which synthesize | combines layer data and produces | generates a depth image. 深度値にグラデーションをつける処理のイメージを示す図である。It is a figure which shows the image of the process which gives a gradation to a depth value. 3Dパラメータ調整中の画面の一例を示す図である。It is a figure which shows an example of the screen during 3D parameter adjustment. 深度画像内のエッジの一例を示す図である。It is a figure which shows an example of the edge in a depth image. 確認用3Dディスプレイ14における画素パターンの一例を示す図である。It is a figure which shows an example of the pixel pattern in the 3D display 14 for confirmation. 3D映像を生成する処理のイメージを示す図である。It is a figure which shows the image of the process which produces | generates 3D video. 3視点以上の多視点の場合における最大視差量の一例を示す図である。It is a figure which shows an example of the largest parallax amount in the case of the multi viewpoint of 3 viewpoints or more. 2D3D変換処理全体の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the whole 2D3D conversion process.

以下、図面を参照して本発明の一実施形態について説明する。図1は、本発明の一実施形態である画像処理システムの構成を示す図である。画像処理システムは、二次元(2D)映像を三次元(3D)映像に変換するためのシステムであり、画像処理装置10、作業用二次元ディスプレイ12、及び確認用3Dディスプレイ14を含んで構成されている。画像処理装置10は、2D3D変換処理を行うための情報処理装置であり、パーソナルコンピュータやサーバなどを用いて実現される。なお、画像処理装置10は、複数台の情報処理装置を用いて構成されていてもよい。作業用2Dディスプレイ12は、画像処理装置10において2D3D変換のための作業を行う際に必要な各種情報を表示するためのものであり、2D表示が可能なディスプレイ装置である。確認用3Dディスプレイ14は、画像処理装置10によって生成される3D映像を表示するためのものであり、3D表示が可能なディスプレイ装置である。なお、確認用3Dディスプレイ14は、3D表示に対応していればよく、3D表示の方式は任意である。例えば、偏光フィルタ方式や液晶シャッタ方式等の、3D視聴時にメガネを用いるものであってもよいし、パララックスバリア方式やレンチキュラ方式等の、裸眼での3D視聴が可能なものであってもよい。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration of an image processing system according to an embodiment of the present invention. The image processing system is a system for converting a two-dimensional (2D) image into a three-dimensional (3D) image, and includes an image processing device 10, a work two-dimensional display 12, and a confirmation 3D display 14. ing. The image processing apparatus 10 is an information processing apparatus for performing 2D3D conversion processing, and is realized using a personal computer, a server, or the like. The image processing apparatus 10 may be configured using a plurality of information processing apparatuses. The work 2D display 12 is for displaying various kinds of information necessary for performing work for 2D3D conversion in the image processing apparatus 10, and is a display device capable of 2D display. The confirmation 3D display 14 is for displaying a 3D video generated by the image processing apparatus 10 and is a display device capable of 3D display. Note that the confirmation 3D display 14 only needs to support 3D display, and the 3D display method is arbitrary. For example, glasses using 3D viewing such as a polarizing filter method or a liquid crystal shutter method may be used, or 3D viewing with the naked eye such as a parallax barrier method or a lenticular method may be used. .

図1に示すように、画像処理装置10は、2D映像記憶部20、マスク作成部22、レイヤーデータ作成部24、レイヤーデータ記憶部26、深度映像生成部28、3Dパラメータ記憶部30、3Dパラメータ調整部32、深度映像表示部34、3D映像生成部36、3D映像記憶部38、3D映像表示部40、及び3D映像出力部42を含んで構成される。画像処理装置10を構成する各部は、例えば、メモリや記憶装置等の記憶領域を用いたり、記憶領域に格納されているプログラムを実行したりすることにより実現することができる。   As shown in FIG. 1, the image processing apparatus 10 includes a 2D video storage unit 20, a mask creation unit 22, a layer data creation unit 24, a layer data storage unit 26, a depth video generation unit 28, a 3D parameter storage unit 30, and a 3D parameter. The adjustment unit 32 includes a depth video display unit 34, a 3D video generation unit 36, a 3D video storage unit 38, a 3D video display unit 40, and a 3D video output unit 42. Each unit constituting the image processing apparatus 10 can be realized, for example, by using a storage area such as a memory or a storage device or by executing a program stored in the storage area.

2D映像記憶部20には、3D映像への変換元となる2D映像が格納されている。2D映像は、連続する複数の2D画像により構成されている。2D映像は任意の形式であってよいが、ここでは、2D映像のフレームごとに1つの2D画像が生成された状態で2D映像記憶部20に格納されていることとする。なお、MPEG形式等の圧縮された2D映像を用いる場合であれば、圧縮された2D映像をデコードすることにより、フレームごとの2D画像を生成することが可能である。本実施形態では、2D映像中の1つのフレームの画像のことを単にフレーム画像と記載する場合もある。   The 2D video storage unit 20 stores 2D video as a conversion source to 3D video. The 2D video is composed of a plurality of continuous 2D images. The 2D video may be in any format, but here it is assumed that one 2D image is generated for each frame of the 2D video and stored in the 2D video storage unit 20. If a compressed 2D video such as an MPEG format is used, a 2D image for each frame can be generated by decoding the compressed 2D video. In the present embodiment, an image of one frame in 2D video may be simply referred to as a frame image.

マスク作成部22は、3D表示の対象となる各オブジェクトの輪郭を2D映像の中から抜き出すためのものである。図2に、2D映像から各オブジェクトの輪郭を抜き出す処理のイメージ図が示されている。図2には、2D映像中に三角形80、四角形82,84の3つのオブジェクトが示されている。マスク作成部22は、例えば、2D映像の1つのフレーム画像を作業用2Dディスプレイ12に表示し、各オブジェクトの範囲を指定するためのユーザ入力を受け付ける。そして、オブジェクトの範囲が指定されると、マスク生成部22は、2D映像の後続フレームのフレーム画像に対してオブジェクトの追従処理を行い、各フレーム画像においてオブジェクトの輪郭を切り取る。なお、マスク作成部22は、フレーム画像を解析することにより、ユーザ入力によらず自動的にオブジェクトの輪郭を切り抜くこととしてもよい。また、マスク作成部22は、オブジェクトの追従結果を作業用2Dディスプレイ12に表示し、追従が正しく行われていない部分について、ユーザ入力に応じて補正を行うことも可能である。   The mask creation unit 22 is for extracting the outline of each object to be 3D displayed from the 2D video. FIG. 2 shows an image diagram of processing for extracting the outline of each object from the 2D video. FIG. 2 shows three objects of a triangle 80 and squares 82 and 84 in the 2D video. For example, the mask creation unit 22 displays one frame image of 2D video on the work 2D display 12 and accepts user input for designating the range of each object. When the range of the object is designated, the mask generation unit 22 performs the object tracking process on the frame image of the subsequent frame of the 2D video, and cuts the outline of the object in each frame image. Note that the mask creating unit 22 may automatically cut out the outline of the object by analyzing the frame image regardless of the user input. In addition, the mask creation unit 22 can display the object tracking result on the work 2D display 12 and can correct a portion in which the tracking is not correctly performed according to a user input.

レイヤーデータ作成部24は、マスク作成部22の処理結果に基づいて、3D表示の対象となるオブジェクトごとのレイヤーデータを作成し、レイヤーデータ記憶部26に格納する。また、レイヤーデータ作成部24は、あるオブジェクトのレイヤーデータを作業用2Dディスプレイ12に表示し、当該オブジェクトの傾きや凹凸を指定するためのユーザ入力を受け付けることも可能である。   The layer data creation unit 24 creates layer data for each object to be 3D displayed based on the processing result of the mask creation unit 22 and stores the layer data in the layer data storage unit 26. The layer data creation unit 24 can also display layer data of a certain object on the work 2D display 12 and accept user input for designating the inclination and unevenness of the object.

深度映像生成部28は、レイヤーデータ作成部24により作成された複数のオブジェクトのレイヤーデータをフレームごとに合成することにより深度映像を生成し、3Dパラメータ記憶部24内の深度映像記憶部50に格納する。図3には、あるフレームのレイヤーデータを合成した深度画像が表示されている。深度画像は、画像中の画素ごとの深度を示すものであり、デプスマップと呼ばれる。深度画像は、2D映像のフレーム画像と同じ大きさであり、各画素の画素値は深度を表す深度値となっている。本実施形態では、深度画像は、各画素の値を256段階のグレースケール値で表したグレースケール画像とする。そして、図3に示すように、深度値0が最も奥の深度を表し、深度値255が最も手前の深度を表すこととする。   The depth video generation unit 28 generates a depth video by synthesizing the layer data of a plurality of objects created by the layer data creation unit 24 for each frame, and stores the depth video in the depth video storage unit 50 in the 3D parameter storage unit 24. To do. In FIG. 3, a depth image obtained by combining layer data of a certain frame is displayed. The depth image indicates the depth for each pixel in the image, and is called a depth map. The depth image is the same size as the 2D video frame image, and the pixel value of each pixel is a depth value representing the depth. In the present embodiment, the depth image is a grayscale image in which the value of each pixel is represented by 256 levels of grayscale values. As shown in FIG. 3, the depth value 0 represents the innermost depth, and the depth value 255 represents the nearest depth.

深度映像生成部28では、各深度画像に対して、各レイヤーの深度値を初期設定することができる。また、深度映像生成部28では、オブジェクトの傾きや凹凸に応じて、オブジェクト内の深度値を変更することが可能である。例えば、図4に示すように、深度映像生成部28は、オブジェクトの傾きに応じて深度値にグラデーションをつけることも可能である。なお、深度値の初期設定は、各フレームの深度画像に対して個別に行うことも可能であるし、例えば、いくつかのフレームの深度画像に対して深度値を設定することにより、その他のフレームの深度画像の深度値を補間により算出することも可能である。このように、深度映像生成部28では、2D映像の各フレームに対応する深度画像を生成することにより、2D映像に対応する深度映像を生成することができる。   The depth video generation unit 28 can initially set the depth value of each layer for each depth image. Further, the depth video generation unit 28 can change the depth value in the object in accordance with the inclination or unevenness of the object. For example, as shown in FIG. 4, the depth video generation unit 28 can add gradation to the depth value according to the inclination of the object. Note that the initial setting of the depth value can be performed individually for the depth image of each frame. For example, by setting the depth value for the depth image of several frames, other frames can be set. It is also possible to calculate the depth value of the depth image by interpolation. As described above, the depth video generation unit 28 can generate a depth video corresponding to a 2D video by generating a depth image corresponding to each frame of the 2D video.

3Dパラメータ調整部32は、2D映像を3D映像に変換するために必要となる3Dパラメータを調整するための機能を有している。上述した深度映像も3Dパラメータの1つである。3Dパラメータには、深度映像の他に、視差量、輻輳位置、及び3Dモードが含まれる。図1に示すように、これらの3Dパラメータは、3Dパラメータ記憶部30内の深度映像記憶部50、視差量記憶部52、輻輳位置記憶部54、及び3Dモード記憶部56に格納されている。3Dパラメータ調整部32では、これらの3Dパラメータを調整するための調整用画面を作業用2Dディスプレイ12に表示し、当該画面に対するユーザ入力に応じて3Dパラメータを更新することが可能である。   The 3D parameter adjustment unit 32 has a function for adjusting 3D parameters necessary for converting 2D video to 3D video. The above-described depth image is also one of 3D parameters. The 3D parameters include a parallax amount, a convergence position, and a 3D mode in addition to the depth image. As shown in FIG. 1, these 3D parameters are stored in the depth video storage unit 50, the parallax amount storage unit 52, the convergence position storage unit 54, and the 3D mode storage unit 56 in the 3D parameter storage unit 30. The 3D parameter adjustment unit 32 can display an adjustment screen for adjusting these 3D parameters on the work 2D display 12 and update the 3D parameters in accordance with a user input on the screen.

図5には、調整用画面の一例が示されている。図5に示すように、調整用画面100には、深度映像を表示するための表示領域110に加えて、深度映像の再生を制御するためのボタン、3Dパラメータを調整するためのボタン、3D映像のレンダリングを指示するためのボタンが設けられている。   FIG. 5 shows an example of the adjustment screen. As shown in FIG. 5, the adjustment screen 100 includes a display area 110 for displaying the depth image, a button for controlling the reproduction of the depth image, a button for adjusting the 3D parameter, and the 3D image. A button for instructing rendering is provided.

再生/一時停止ボタン120は、深度映像の再生や一時停止を指示するためのものである。この再生/一時停止ボタン120の操作入力に応じて、深度映像表示部34が、深度映像記憶部50に格納されている深度映像の再生や一時停止を行う。また、深度映像表示部34は、フレーム指定ボタン122で指定されたフレームの深度画像を表示させたり、戻しボタン124や送りボタン126の操作入力に応じてフレームを戻したり進めたりすることが可能である。   The play / pause button 120 is for instructing to play or pause the depth video. In response to the operation input of the playback / pause button 120, the depth video display unit 34 plays back or pauses the depth video stored in the depth video storage unit 50. Further, the depth video display unit 34 can display the depth image of the frame designated by the frame designation button 122, and can return or advance the frame according to the operation input of the return button 124 or the feed button 126. is there.

深度値ボタン130は、表示領域110に表示されている深度画像の深度値を調整する際に用いられる。例えば、ユーザは、表示領域110において調整対象のレイヤー(オブジェクト)を選択し、選択されたレイヤーに対する深度値を入力することができる。3Dパラメータ調整部32は、このように入力される深度値により、深度映像記憶部50に格納されている、対象の深度画像における深度値を更新する。なお、3Dパラメータ調整部32は、オブジェクトに設定されている傾きや凹凸を考慮したうえで深度値を更新することが可能である。   The depth value button 130 is used when adjusting the depth value of the depth image displayed in the display area 110. For example, the user can select a layer (object) to be adjusted in the display area 110 and input a depth value for the selected layer. The 3D parameter adjustment unit 32 updates the depth value in the target depth image stored in the depth video storage unit 50 based on the depth value thus input. Note that the 3D parameter adjustment unit 32 can update the depth value in consideration of the inclination and unevenness set in the object.

深度値範囲ボタン132は、各レイヤーの深度値の範囲を入力する際に用いられる。例えば、ユーザは、表示領域110において調整対象のレイヤーを選択し、選択されたレイヤーに対する深度値の範囲を入力することができる。3Dパラメータ調整部32は、ここで指定される範囲内において、当該レイヤーの深度値を調整することができる。3Dパラメータ調整部32は、あるフレームの深度画像の深度値が調整されることに伴って、例えば、初期設定時と同様の手法により、他のフレームの深度画像の深度値を自動的に更新することができる。このとき、3Dパラメータ調整部32は、ユーザに指定された範囲内となるように深度値を更新することができる。   The depth value range button 132 is used when inputting the depth value range of each layer. For example, the user can select a layer to be adjusted in the display area 110 and input a range of depth values for the selected layer. The 3D parameter adjustment unit 32 can adjust the depth value of the layer within the range specified here. The 3D parameter adjustment unit 32 automatically updates the depth values of the depth images of other frames, for example, by the same method as that at the time of initial setting as the depth value of the depth image of a certain frame is adjusted. be able to. At this time, the 3D parameter adjustment unit 32 can update the depth value so as to be within a range designated by the user.

視差量ボタン134は、隣り合う視点間における最大視差を示す最大視差量を調整する際に用いられる。最大視差量は、3D映像における立体感を調整するためのパラメータであり、最大視差量が大きくなるほど立体感が強くなる反面、最大視差量を大きくしすぎると立体感が破綻したり、3D映像に乱れが生じたりすることがある。3Dパラメータ調整部32は、このように入力される最大視差量を視差量記憶部52に格納する。なお、本実施形態では、入力される最大視差量は深度映像の全フレームに対して適用されることとするが、フレームごとや区間ごとに最大視差量を調整可能であることとしてもよい。フレームごとや区間ごとに最大視差量が調整される場合、視差量記憶部52には、フレームや区間を識別するための情報と最大視差量とが対応付けて記憶されることとすればよい。   The parallax amount button 134 is used when adjusting the maximum parallax amount indicating the maximum parallax between adjacent viewpoints. The maximum amount of parallax is a parameter for adjusting the stereoscopic effect in 3D images. The larger the maximum amount of parallax, the stronger the stereoscopic effect. On the other hand, if the maximum amount of parallax is increased too much, the stereoscopic effect will break down or Disturbance may occur. The 3D parameter adjustment unit 32 stores the maximum parallax amount input in this way in the parallax amount storage unit 52. In the present embodiment, the input maximum parallax amount is applied to all frames of the depth video, but the maximum parallax amount may be adjustable for each frame or each section. When the maximum parallax amount is adjusted for each frame or section, the parallax amount storage unit 52 may store information for identifying the frame or section and the maximum parallax amount in association with each other.

輻輳位置ボタン136は、3D映像における輻輳位置を調整する際に用いられる。輻輳位置は、3D映像を表示する際にスクリーン面に位置する深度値を指定するものである。例えば、図3に示したように、奥から手前に向かって0から255まで深度値が規定されている場合において、輻輳位置を0とすると、深度値0(無限遠)がスクリーン面に位置することになる。この場合、映像が全てスクリーン面から飛び出したものとなる。3Dパラメータ調整部32は、このように入力される輻輳位置を輻輳位置記憶部54に格納する。なお、本実施形態では、入力される輻輳位置は深度映像の全フレームに対して適用されることとするが、フレームごとや区間ごとに輻輳位置を調整可能であることとしてもよい。フレームごとや区間ごとに輻輳位置が調整される場合、輻輳位置記憶部54には、フレームや区間を識別するための情報と輻輳位置とが対応付けて記憶されることとすればよい。   The convergence position button 136 is used when adjusting the convergence position in the 3D video. The convergence position designates a depth value located on the screen surface when displaying 3D video. For example, as shown in FIG. 3, when the depth value is defined from 0 to 255 from the back to the front, if the convergence position is 0, the depth value 0 (infinity) is located on the screen surface. It will be. In this case, all the images are projected from the screen surface. The 3D parameter adjustment unit 32 stores the congestion position input in this way in the congestion position storage unit 54. In the present embodiment, the input congestion position is applied to all frames of the depth video, but the congestion position may be adjustable for each frame or section. When the congestion position is adjusted for each frame or section, the congestion position storage unit 54 may store information for identifying the frame or section and the congestion position in association with each other.

エッジ補正ボタン138は、深度画像内のエッジを補正する際に用いられる。エッジとは、深度値の変化量が大きい部分であり、例えば図6に示すように、レイヤーの境目部分などに存在する。3Dパラメータ調整部32は、表示領域110に表示されている深度画像内のエッジを検出し、検出されたエッジ周辺の深度値の変化が緩やかになるように深度値を更新することができる。ここで、エッジの検出は、例えば隣接する画素間における深度値の変化量が所定レベル以上であるかどうかを判定することなどにより行うことが可能である。3Dパラメータ調整部32は、表示領域110においてユーザから指定される範囲内のエッジを補正することも可能である。また、3Dパラメータ調整部32は、表示領域110に表示されている深度画像だけではなく、他のフレームの深度画像に含まれるエッジについても同様に補正することが可能である。   The edge correction button 138 is used when correcting an edge in the depth image. An edge is a portion where the amount of change in depth value is large, and is present at a boundary portion of a layer, for example, as shown in FIG. The 3D parameter adjustment unit 32 can detect an edge in the depth image displayed in the display area 110 and update the depth value so that the change in the depth value around the detected edge becomes gradual. Here, the edge can be detected by, for example, determining whether or not the amount of change in the depth value between adjacent pixels is equal to or higher than a predetermined level. The 3D parameter adjustment unit 32 can also correct an edge within a range designated by the user in the display area 110. In addition, the 3D parameter adjustment unit 32 can correct not only the depth image displayed in the display area 110 but also the edges included in the depth images of other frames.

3Dモード選択ボタン140は、3D映像の生成や表示を行う際のモードを示す3Dモードを選択する際に用いられる。例えば、3Dモードとして、パラレル、クロス、アナグリフ、インターレース、多視点などを選択することが可能である。ここで、多視点とは、視点数が3つ以上のものであり、視点数を入力することが可能である。3Dパラメータ調整部32は、このように入力される3Dモードを3Dモード記憶部56に格納する。なお、3Dモード記憶部56には、確認用3Dディスプレイ14における3D表示に関連する仕様を示すディスプレイ情報が、3Dモードの一部として予め格納されていてもよい。このようなディスプレイ情報には、例えば、確認用3Dディスプレイ14における画素配列のパターンを示す情報が含まれる。図7には、確認用3Dディスプレイ14が8視点の3D映像の表示に対応している場合における、画素パターンの一例が示されている。図7の例では、確認用3Dディスプレイ14の表示面は、横8画素×縦6画素ごとにグループ分けされており、各グループに対して同じ画素パターンが規定されている。なお、3Dパラメータ調整部32は、このような画素パターン等を示すディスプレイ情報を確認用3Dディスプレイ14から取得して3Dモード記憶部56に格納してもよい。   The 3D mode selection button 140 is used when a 3D mode indicating a mode for generating or displaying a 3D video is selected. For example, as the 3D mode, parallel, cross, anaglyph, interlace, multi-viewpoint, etc. can be selected. Here, the multi-viewpoint has three or more viewpoints, and the number of viewpoints can be input. The 3D parameter adjustment unit 32 stores the 3D mode input in this way in the 3D mode storage unit 56. In the 3D mode storage unit 56, display information indicating specifications related to 3D display on the confirmation 3D display 14 may be stored in advance as part of the 3D mode. Such display information includes, for example, information indicating a pixel arrangement pattern in the confirmation 3D display 14. FIG. 7 shows an example of a pixel pattern in the case where the confirmation 3D display 14 is compatible with display of 8 viewpoints of 3D video. In the example of FIG. 7, the display surface of the confirmation 3D display 14 is grouped into 8 horizontal pixels × 6 vertical pixels, and the same pixel pattern is defined for each group. Note that the 3D parameter adjustment unit 32 may acquire display information indicating such a pixel pattern and the like from the confirmation 3D display 14 and store the display information in the 3D mode storage unit 56.

図1に戻り、3D映像生成部36は、2D映像記憶部20に記憶されている2D映像と、3Dパラメータ記憶部30に記憶されている3Dパラメータとに基づいて3D映像を生成し、3D映像記憶部38に格納する。図8は、3D映像の生成処理のイメージが示されている。図8に示すように、3D映像生成部36は、2D映像の各フレーム画像から、3Dパラメータを考慮して、3Dモードに応じた視点数のフレーム画像を生成する。例えば、視点数が8であれば、1フレームの2D画像から、対応する8枚の3D画像が生成されることとなる。   Returning to FIG. 1, the 3D video generation unit 36 generates a 3D video based on the 2D video stored in the 2D video storage unit 20 and the 3D parameters stored in the 3D parameter storage unit 30. Store in the storage unit 38. FIG. 8 shows an image of 3D video generation processing. As illustrated in FIG. 8, the 3D video generation unit 36 generates a frame image with the number of viewpoints corresponding to the 3D mode from each frame image of the 2D video in consideration of the 3D parameters. For example, if the number of viewpoints is 8, eight corresponding 3D images are generated from one frame of 2D images.

2D映像のフレーム画像から3D映像のフレーム画像を生成する処理の一例について説明する。本実施形態では、上述したように、深度画像は変換元の2D画像と幅、高さが同じサイズで、R・G・B値が全て共通の256段階のグレースケール画像とする。3D映像生成部36は、深度画像の各画素の輝度値、すなわち深度値を取得し、変換元の2D画像の対応する画素を深度値に従って水平方向に移動させることにより3D画像を生成する。画素の移動量をshift、最大視差量をshift_max、深度値をpとすると、例えば、2視点の場合であれば次式(1)によって移動量shiftを求めることができる。   An example of processing for generating a 3D video frame image from a 2D video frame image will be described. In this embodiment, as described above, the depth image is a gray scale image of 256 levels having the same width and height as the conversion source 2D image and the same R, G, and B values. The 3D video generation unit 36 acquires the luminance value of each pixel of the depth image, that is, the depth value, and generates a 3D image by moving the corresponding pixel of the conversion source 2D image in the horizontal direction according to the depth value. If the pixel movement amount is shift, the maximum parallax amount is shift_max, and the depth value is p, for example, in the case of two viewpoints, the movement amount shift can be obtained by the following equation (1).

shift=(shift_max×p)/255 ・・・(1)
ここで、2視点の場合、画素の移動方向は、右目用の3D画像が左方向、左目用の3D画像が右方向となる。なお、変換元の2D画像の対象画素を水平方向に移動しただけでは、対象画素の隣の画素の深度値に変化があった場合、生成された3D画像において画素間に隙間が発生してしまう。そこで、3D映像生成部36は、例えば移動量分を変換元の2D画像の対象画素で埋めるなどにより、画素間に隙間が生じないように3D画像を生成することができる。3D映像生成部36は、例えば、深度値0から深度値255の順番等、深度値ごとに上述の処理を行うようにすることができる。
shift = (shift_max × p) / 255 (1)
Here, in the case of two viewpoints, the moving direction of the pixel is the left direction for the 3D image for the right eye and the right direction for the 3D image for the left eye. In addition, if the target pixel of the conversion source 2D image is simply moved in the horizontal direction, if there is a change in the depth value of the pixel adjacent to the target pixel, a gap is generated between the pixels in the generated 3D image. . Therefore, the 3D video generation unit 36 can generate a 3D image so that no gap is generated between pixels, for example, by filling the amount of movement with the target pixel of the conversion source 2D image. The 3D video generation unit 36 can perform the above-described processing for each depth value, for example, the order of the depth value 0 to the depth value 255.

さらに、3D映像生成部36は、輻輳位置を考慮して3D画像を生成することができる。輻輳位置は、スクリーン平面に位置させたい深度値を示すものであるため、深度画像が256段階のグレースケールの画像の場合であれば、輻輳位置の値も0〜255の範囲となる。ここで、輻輳位置をs_posとすると、次式(2)によって移動量を求めることができる。   Furthermore, the 3D video generation unit 36 can generate a 3D image in consideration of the convergence position. Since the convergence position indicates a depth value to be positioned on the screen plane, if the depth image is a 256-level gray scale image, the value of the convergence position is also in the range of 0-255. Here, when the convergence position is s_pos, the movement amount can be obtained by the following equation (2).

shift=(shift_max)×(p−s_pos)/255 ・・・(2)
これにより、深度画像上の輻輳位置と同じ深度値を有する画素の移動幅がゼロとなる。また、深度画像上の他の深度値の画素の移動方向は、輻輳位置を境界として逆方向となる。結果的に生成される3D画像は、深度値が輻輳位置より大きい部分は飛び出し、深度値が輻輳位置より小さい部分は引っ込んだものとなる。
shift = (shift_max) × (ps−pos) / 255 (2)
Thereby, the movement width of the pixel having the same depth value as the convergence position on the depth image becomes zero. In addition, the moving direction of the pixels having other depth values on the depth image is opposite to the convergence position as a boundary. As a result, in the generated 3D image, a portion where the depth value is larger than the convergence position pops out, and a portion where the depth value is smaller than the convergence position is recessed.

簡単な例として2視点の場合について説明したが、3D映像生成部36は、視点ごとに最大視差量を変更して上式に適用することにより、多視点の3D画像を生成することができる。1視点あたりの視差量をshift0、視点数をvnとすると、多視点3D画像を生成する際の最大視差量は0〜(shift0×(vn−1))/2の範囲となる。そして、3D変換による画質劣化を抑えるために、変換元の2D画像を中心位置に配置することとすると、多視点3D画像を生成する際の最大視差量は、−((shift0×(vn−1))/2)〜(shift0×(vn−1))/2の範囲となる。3D映像生成部36は、この範囲を均等に区切った位置を各視点の最大視差量として用いることができる。図9(a)には、視点数が奇数(例えば5視点V1〜V5)の場合の各視点の最大視差量の一例が示されている。また、図9(b)には、視点数が偶数(例えば6視点V1〜V6)の場合の各視点の最大視差量の一例が示されている。   Although the case of two viewpoints has been described as a simple example, the 3D video generation unit 36 can generate a multi-viewpoint 3D image by changing the maximum amount of parallax for each viewpoint and applying it to the above equation. If the amount of parallax per viewpoint is shift0 and the number of viewpoints is vn, the maximum amount of parallax when generating a multi-viewpoint 3D image is in the range of 0 to (shift0 × (vn−1)) / 2. If the conversion source 2D image is arranged at the center position in order to suppress degradation of image quality due to 3D conversion, the maximum amount of parallax when generating a multi-viewpoint 3D image is − ((shift0 × (vn−1)). )) / 2) to (shift0 × (vn−1)) / 2. The 3D video generation unit 36 can use a position obtained by equally dividing the range as the maximum parallax amount of each viewpoint. FIG. 9A shows an example of the maximum parallax amount of each viewpoint when the number of viewpoints is an odd number (for example, five viewpoints V1 to V5). FIG. 9B shows an example of the maximum parallax amount of each viewpoint when the number of viewpoints is an even number (for example, six viewpoints V1 to V6).

図1に戻り、3D映像表示部40は、3D映像生成部36により生成されて3D映像記憶部38に格納される3D映像を参照し、確認用3Dディスプレイ14に表示することができる。なお、3D映像表示部40は、3Dパラメータ調整部32によって3Dパラメータが調整されている際に、その時点での3Dパラメータに基づいて生成された3D映像をリアルタイムで確認用3Dディスプレイ14に表示することができる。すなわち、図5に示すように、作業用2Dディスプレイ12において3Dパラメータを調整している際に、調整された3Dパラメータ値を反映した3D映像を確認用3Dディスプレイ14に表示することができる。また、3D映像表示部40は、作業用2Dディスプレイ12の表示領域110に表示されている深度映像と同期させて3D映像を確認用3Dディスプレイ14に表示することができる。つまり、2D画像の同一のフレームに対応する深度画像と3D画像とを表示することが可能となる。2D画像、深度画像、及び3D画像の間におけるフレームの対応関係は、例えば、対応するフレームにはファイル名の一部に同じ文字列を含めるなど、任意の手法により行うことができる。また、深度映像と3D映像との同期は、例えば、深度映像表示部34が、作業用2Dディスプレイ12に表示中の深度画像のフレームを示す情報を3D映像表示部40に通知するなど、任意の手法により行うことができる。   Returning to FIG. 1, the 3D video display unit 40 can refer to the 3D video generated by the 3D video generation unit 36 and stored in the 3D video storage unit 38 and display the 3D video on the confirmation 3D display 14. When the 3D parameter is adjusted by the 3D parameter adjustment unit 32, the 3D image display unit 40 displays the 3D image generated based on the 3D parameter at that time on the confirmation 3D display 14 in real time. be able to. That is, as shown in FIG. 5, when the 3D parameter is adjusted on the work 2D display 12, the 3D video reflecting the adjusted 3D parameter value can be displayed on the confirmation 3D display 14. In addition, the 3D video display unit 40 can display the 3D video on the confirmation 3D display 14 in synchronization with the depth video displayed in the display area 110 of the work 2D display 12. That is, it is possible to display a depth image and a 3D image corresponding to the same frame of the 2D image. The correspondence between frames between the 2D image, the depth image, and the 3D image can be performed by any method, for example, including the same character string as a part of the file name in the corresponding frame. The depth video and the 3D video can be synchronized with any depth, for example, by the depth video display unit 34 notifying the 3D video display unit 40 of information indicating the frame of the depth image being displayed on the work 2D display 12. This can be done by a technique.

図1に戻り、3D映像出力部42は、3Dパラメータの調整が完了した後に、3D映像のレンダリングを行って出力する。例えば、3D映像出力部42は、図5に示した調整用画面100でレンダリングボタン142が押下されると、3D映像記憶部38から3D映像を読み出し、最終的な3D映像として記憶媒体や外部の情報処理装置に出力する。   Returning to FIG. 1, the 3D video output unit 42 renders and outputs the 3D video after the adjustment of the 3D parameters is completed. For example, when the rendering button 142 is pressed on the adjustment screen 100 shown in FIG. 5, the 3D video output unit 42 reads out the 3D video from the 3D video storage unit 38 and outputs the final 3D video as a storage medium or an external device. Output to the information processing device.

図10は、2D3D変換処理全体の流れの一例を示すフローチャートである。まず、マスク作成部22は、2D映像記憶部20に記憶されている2D映像を読み込み(S1001)、例えばユーザ入力によって各オブジェクトに対するマスクを作成する(S1002)。マスクが作成されると、レイヤーデータ作成部24は、各オブジェクトに対応するレイヤーデータを作成し、レイヤーデータ記憶部26に格納する(S1003)。深度映像生成部28は、レイヤーデータを合成し(S1004)、さらに、深度値を設定した深度映像を生成して深度映像記憶部50に格納する(S1005)。   FIG. 10 is a flowchart illustrating an example of the flow of the entire 2D3D conversion process. First, the mask creation unit 22 reads the 2D video stored in the 2D video storage unit 20 (S1001), and creates a mask for each object by, for example, user input (S1002). When the mask is created, the layer data creation unit 24 creates layer data corresponding to each object and stores it in the layer data storage unit 26 (S1003). The depth video generation unit 28 combines the layer data (S1004), generates a depth video in which the depth value is set, and stores it in the depth video storage unit 50 (S1005).

その後、3Dパラメータ調整部32は、作業用2Dディスプレイ12に調整用画面100を表示し、ユーザからの入力に基づいて、視差調整(S1006)や、輻輳位置調整(S1007)、エッジ補正(S1008)などの3Dパラメータ調整処理を行い、深度映像記憶部50に格納されている深度映像を更新する。このように3Dパラメータの調整が行われている際に、3D映像生成部36は、その時点での3Dパラメータに基づいて3D映像を生成し、3D映像記憶部38に格納する(S1009)。   Thereafter, the 3D parameter adjustment unit 32 displays the adjustment screen 100 on the work 2D display 12, and based on the input from the user, parallax adjustment (S1006), convergence position adjustment (S1007), and edge correction (S1008) 3D parameter adjustment processing such as is performed, and the depth video stored in the depth video storage unit 50 is updated. When the 3D parameters are adjusted as described above, the 3D video generation unit 36 generates a 3D video based on the 3D parameters at that time, and stores the 3D video in the 3D video storage unit 38 (S1009).

そして、3D映像記憶部38に格納される3D映像は、3D映像表示部40によってリアルタイムに参照され、作業用2Dディスプレイ12に表示される深度映像と同期した状態で、確認用3Dディスプレイ14に表示される(S1010)。ユーザは3Dパラメータの調整結果をリアルタイムに確認用3Dディスプレイ14上で確認して3D映像をチェックする。チェック結果がNGである場合(S1011:NG)、3Dパラメータの調整作業が繰り返し実行される。チェック結果がOKとなれば(S1011:OK)、3D映像出力部42は、3D映像記憶部38に格納されている3D映像をレンダリングし、最終的な3D映像を出力する(S1012)。なお、チェック結果がOKであることの判定は、例えば、調整用画面100においてレンダリングボタン142が押下されたことにより行うことができる。   The 3D video stored in the 3D video storage unit 38 is referred to in real time by the 3D video display unit 40 and displayed on the confirmation 3D display 14 in synchronization with the depth video displayed on the work 2D display 12. (S1010). The user checks the 3D image by checking the adjustment result of the 3D parameter on the confirmation 3D display 14 in real time. When the check result is NG (S1011: NG), the 3D parameter adjustment operation is repeatedly executed. If the check result is OK (S1011: OK), the 3D video output unit 42 renders the 3D video stored in the 3D video storage unit 38 and outputs the final 3D video (S1012). The determination that the check result is OK can be made, for example, when the rendering button 142 is pressed on the adjustment screen 100.

以上、本実施形態について説明した。本実施形態によれば、作業用2Dディスプレイ12において調整用画面100を用いて3Dパラメータの調整作業を行いつつ、3Dパラメータの調整結果を反映した3D映像を確認用3Dディスプレイ14においてリアルタイムに確認することが可能である。したがって、3Dパラメータの調整をする際に、調整作業を一旦終了したうえでレンダリングを実行して3D映像を確認し、その確認結果に基づいて再度3Dパラメータの調整を行うなどの煩雑な調整作業が不要となる。これにより、2D3D変換に必要な3Dパラメータの調整作業の効率を高めることが可能となる。   The present embodiment has been described above. According to this embodiment, the 3D parameter adjustment operation is performed on the work 2D display 12 using the adjustment screen 100, and the 3D video reflecting the adjustment result of the 3D parameter is confirmed on the confirmation 3D display 14 in real time. It is possible. Therefore, when adjusting the 3D parameters, the adjustment operation is temporarily finished, and then rendering is performed to check the 3D video, and the 3D parameters are adjusted again based on the confirmation result. It becomes unnecessary. As a result, it is possible to increase the efficiency of adjustment work of 3D parameters necessary for 2D3D conversion.

また、本実施形態では、調整用画面100に深度映像が表示されるため、現在の深度値によって3D映像がどのように表示されているかを把握することが容易である。さらに、本実施形態では、深度映像と3D映像とが同期した状態で表示されるため、現在の深度値と3D映像との関係をより容易に把握することができる。   In the present embodiment, since the depth image is displayed on the adjustment screen 100, it is easy to grasp how the 3D image is displayed based on the current depth value. Furthermore, in this embodiment, since the depth video and the 3D video are displayed in a synchronized state, the relationship between the current depth value and the 3D video can be more easily grasped.

また、本実施形態では、調整用画面100において、深度映像を一時停止可能であるため、深度映像の確認が容易である。そして、一時停止により表示されている深度画像に対する3Dパラメータを調整可能であるため、3Dパラメータの調整作業を行いやすい。   In the present embodiment, since the depth image can be temporarily stopped on the adjustment screen 100, it is easy to check the depth image. Since the 3D parameter for the depth image displayed by the temporary stop can be adjusted, it is easy to perform the 3D parameter adjustment operation.

また、本実施形態では、深度画像内にエッジが存在する場合に、隣接する画素間における深度値の差が小さくなるようにエッジ補正を行うことが可能である。これにより、3D映像の見え方をより自然なものとすることが可能である。   Further, in the present embodiment, when an edge exists in the depth image, it is possible to perform edge correction so that a difference in depth value between adjacent pixels becomes small. Thereby, it is possible to make the appearance of the 3D video more natural.

また、本実施形態では、レイヤーごとに3Dパラメータを調整可能であるため、3Dパラメータの調整作業が容易となり、作業効率を高めることが可能となる。   In the present embodiment, since the 3D parameter can be adjusted for each layer, the adjustment work of the 3D parameter becomes easy, and the work efficiency can be improved.

また、本実施形態では、2D映像と3Dパラメータとに基づいて、3視点以上の多視点の3D映像を生成することが可能である。これにより、2D映像をもとに、より自然な3D映像を生成することができる。   Further, in the present embodiment, it is possible to generate a multi-view 3D video of three or more viewpoints based on the 2D video and the 3D parameters. Accordingly, a more natural 3D video can be generated based on the 2D video.

また、本実施形態では、確認用3Dディスプレイ14から3D表示に関連する仕様を示すディスプレイ情報を取得して、該ディスプレイ情報を用いて3D映像を生成することが可能である。そのため、3Dディスプレイに応じた適切な3D映像が生成され、その表示結果を3Dディスプレイ上で確認しながら、3Dパラメータの調整を行うことが可能となる。   In the present embodiment, it is possible to acquire display information indicating specifications related to 3D display from the confirmation 3D display 14 and generate a 3D video using the display information. Therefore, an appropriate 3D video image corresponding to the 3D display is generated, and the 3D parameter can be adjusted while confirming the display result on the 3D display.

なお、本実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。   Note that this embodiment is intended to facilitate understanding of the present invention and is not intended to limit the present invention. The present invention can be changed / improved without departing from the spirit thereof, and the present invention includes equivalents thereof.

10 画像処理装置
12 作業用2Dディスプレイ
14 確認用3Dディスプレイ
20 2D映像記憶部
22 マスク作成部
24 レイヤーデータ作成部
26 レイヤーデータ記憶部
28 深度映像生成部
30 3Dパラメータ記憶部
32 3Dパラメータ調整部
34 深度映像表示部
36 3D映像生成部
38 3D映像記憶部
40 3D映像表示部
42 3D映像出力部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 12 2D display for work 14 3D display for confirmation 20 2D image | video storage part 22 Mask preparation part 24 Layer data preparation part 26 Layer data storage part 28 Depth image generation part 30 3D parameter storage part 32 3D parameter adjustment part 34 Depth Video display unit 36 3D video generation unit 38 3D video storage unit 40 3D video display unit 42 3D video output unit

Claims (13)

二次元映像を記憶する二次元映像記憶部と、前記二次元映像を三次元映像に変換するために必要となる三次元パラメータを記憶する三次元パラメータ記憶部とを有するコンピュータに、
前記三次元パラメータを調整するための調整用画面を第1のディスプレイに表示し、前記三次元パラメータを調整するためのユーザ入力に応じて、前記三次元パラメータ記憶部に記憶されている前記三次元パラメータを更新する三次元パラメータ調整機能と、
前記二次元映像記憶部に記憶されている二次元映像と、前記三次元パラメータ記憶部に記憶されている三次元パラメータとに基づいて、三次元映像を生成する三次元映像生成機能と、
前記調整用画面を用いて前記三次元パラメータを調整可能な状態において、前記第1のディスプレイとは別の、三次元表示に対応した第2のディスプレイに、前記生成された三次元映像を表示する三次元映像表示機能と、
を実現させるための画像処理プログラム。
A computer having a 2D video storage unit for storing 2D video and a 3D parameter storage unit for storing 3D parameters necessary for converting the 2D video into a 3D video,
An adjustment screen for adjusting the three-dimensional parameter is displayed on a first display, and the three-dimensional parameter stored in the three-dimensional parameter storage unit in response to a user input for adjusting the three-dimensional parameter 3D parameter adjustment function to update parameters,
A 3D video generation function for generating a 3D video based on the 2D video stored in the 2D video storage unit and the 3D parameter stored in the 3D parameter storage unit;
In a state where the three-dimensional parameter can be adjusted using the adjustment screen, the generated three-dimensional video is displayed on a second display corresponding to the three-dimensional display, which is different from the first display. 3D video display function,
An image processing program for realizing
請求項1に記載の画像処理プログラムであって、
前記三次元パラメータには、前記二次元映像における深度値を表す深度映像が含まれ、
前記三次元パラメータ調整機能では、前記調整用画面に前記深度映像を表示可能である、
画像処理プログラム。
An image processing program according to claim 1,
The three-dimensional parameter includes a depth image representing a depth value in the two-dimensional image,
In the three-dimensional parameter adjustment function, the depth image can be displayed on the adjustment screen.
Image processing program.
請求項2に記載の画像処理プログラムであって、
前記深度映像及び前記三次元映像は、同期した状態で、前記第1及び第2のディスプレイに表示される、
画像処理プログラム。
An image processing program according to claim 2,
The depth image and the 3D image are displayed on the first and second displays in a synchronized state.
Image processing program.
請求項2または3に記載の画像処理プログラムであって、
前記第1のディスプレイに表示されている前記深度映像を、該深度映像に含まれる任意の深度画像が表示されている状態で一時停止可能である、
画像処理プログラム。
An image processing program according to claim 2 or 3,
The depth video displayed on the first display can be paused in a state where an arbitrary depth image included in the depth video is displayed.
Image processing program.
請求項4に記載の画像処理プログラムであって、
前記三次元パラメータ調整機能では、前記任意の深度画像に対する前記三次元パラメータを調整可能である、
画像処理プログラム。
An image processing program according to claim 4,
In the three-dimensional parameter adjustment function, the three-dimensional parameter for the arbitrary depth image can be adjusted.
Image processing program.
請求項2〜5の何れか一項に記載のプログラムであって、
前記三次元パラメータ調整機能では、前記深度映像に含まれる深度画像内の隣接する画素間における深度値の差が所定値以上である場合に、該深度値の差が小さくなるように該隣接する画素の深度値を調整可能である、
画像処理プログラム。
A program according to any one of claims 2 to 5,
In the three-dimensional parameter adjustment function, when a difference in depth value between adjacent pixels in a depth image included in the depth image is equal to or greater than a predetermined value, the adjacent pixels are reduced so that the difference in depth value is reduced. The depth value can be adjusted,
Image processing program.
請求項1〜6の何れか一項に記載のプログラムであって、
前記コンピュータは、前記二次元映像におけるレイヤーを表すレイヤーデータを記憶するレイヤーデータ記憶部をさらに有し、
前記三次元パラメータ調整機能では、前記レイヤーデータ記憶部に記憶されているレイヤーデータに基づいて、前記調整用画面で指定されるレイヤーに対する前記三次元パラメータを調整可能である、
画像処理プログラム。
The program according to any one of claims 1 to 6,
The computer further includes a layer data storage unit that stores layer data representing a layer in the 2D video,
The three-dimensional parameter adjustment function is capable of adjusting the three-dimensional parameter for the layer specified on the adjustment screen based on the layer data stored in the layer data storage unit.
Image processing program.
請求項1〜7の何れか一項に記載のプログラムであって、
前記三次元パラメータには、前記三次元映像を生成する際の視差量が含まれる、
画像処理プログラム。
A program according to any one of claims 1 to 7,
The 3D parameter includes an amount of parallax when generating the 3D video.
Image processing program.
請求項1〜8の何れか一項に記載のプログラムであって、
前記三次元パラメータには、前記三次元映像を生成する際の輻輳位置が含まれる、
画像処理プログラム。
A program according to any one of claims 1 to 8,
The 3D parameter includes a convergence position when generating the 3D video,
Image processing program.
請求項1〜9の何れか一項に記載のプログラムであって、
前記三次元映像生成機能では、前記二次元映像と、前記三次元パラメータとに基づいて、3視点以上の視点を有する前記三次元映像を生成可能である、
画像処理プログラム。
A program according to any one of claims 1 to 9,
The 3D video generation function can generate the 3D video having three or more viewpoints based on the 2D video and the 3D parameters.
Image processing program.
請求項1〜10の何れか一項に記載のプログラムであって、
前記三次元映像生成機能では、前記第2のディスプレイにおける三次元表示に関連する仕様を示すディスプレイ情報を前記第2のディスプレイから取得し、前記二次元映像と、前記三次元パラメータと、前記ディスプレイ情報とに基づいて、前記三次元映像を生成可能である、
画像処理プログラム。
It is a program as described in any one of Claims 1-10,
In the 3D video generation function, display information indicating specifications related to 3D display on the second display is acquired from the second display, the 2D video, the 3D parameter, and the display information are acquired. The three-dimensional video can be generated based on
Image processing program.
二次元映像を記憶する二次元映像記憶部と、
前記二次元映像を三次元映像に変換するために必要となる三次元パラメータを記憶する三次元パラメータ記憶部と、
前記三次元パラメータを調整するための調整用画面を第1のディスプレイに表示し、前記三次元パラメータを調整するためのユーザ入力に応じて、前記三次元パラメータ記憶部に記憶されている前記三次元パラメータを更新する三次元パラメータ調整部と、
前記二次元映像記憶部に記憶されている二次元映像と、前記三次元パラメータ記憶部に記憶されている三次元パラメータとに基づいて、三次元映像を生成する三次元映像生成部と、
前記調整用画面を用いて前記三次元パラメータを調整可能な状態において、前記第1のディスプレイとは別の、三次元表示に対応した第2のディスプレイに、前記生成された三次元映像を表示する三次元映像表示部と、
を備える画像処理装置。
A 2D video storage unit for storing 2D video;
A 3D parameter storage unit for storing 3D parameters required to convert the 2D image into a 3D image;
An adjustment screen for adjusting the three-dimensional parameter is displayed on a first display, and the three-dimensional parameter stored in the three-dimensional parameter storage unit in response to a user input for adjusting the three-dimensional parameter A three-dimensional parameter adjustment unit for updating parameters;
A 3D video generation unit that generates a 3D video based on the 2D video stored in the 2D video storage unit and the 3D parameters stored in the 3D parameter storage unit;
In a state where the three-dimensional parameter can be adjusted using the adjustment screen, the generated three-dimensional video is displayed on a second display corresponding to the three-dimensional display, which is different from the first display. A 3D video display,
An image processing apparatus comprising:
二次元映像を記憶する二次元映像記憶部と、前記二次元映像を三次元映像に変換するために必要となる三次元パラメータを記憶する三次元パラメータ記憶部とを有するコンピュータが、
前記三次元パラメータを調整するための調整用画面を第1のディスプレイに表示し、前記三次元パラメータを調整するためのユーザ入力に応じて、前記三次元パラメータ記憶部に記憶されている前記三次元パラメータを更新し、
前記二次元映像記憶部に記憶されている二次元映像と、前記三次元パラメータ記憶部に記憶されている三次元パラメータとに基づいて三次元映像を生成し、
前記調整用画面を用いて前記三次元パラメータを調整可能な状態において、前記第1のディスプレイとは別の、三次元表示に対応した第2のディスプレイに、前記生成された三次元映像を表示する、
画像処理方法。
A computer having a 2D video storage unit for storing a 2D video and a 3D parameter storage unit for storing a 3D parameter required to convert the 2D video into a 3D video,
An adjustment screen for adjusting the three-dimensional parameter is displayed on a first display, and the three-dimensional parameter stored in the three-dimensional parameter storage unit in response to a user input for adjusting the three-dimensional parameter Update the parameters,
Generating a 3D image based on the 2D image stored in the 2D image storage unit and the 3D parameter stored in the 3D parameter storage unit;
In a state where the three-dimensional parameter can be adjusted using the adjustment screen, the generated three-dimensional video is displayed on a second display corresponding to the three-dimensional display, which is different from the first display. ,
Image processing method.
JP2011137211A 2011-06-21 2011-06-21 Image processing program, image processing apparatus, and image processing method Pending JP2013005376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011137211A JP2013005376A (en) 2011-06-21 2011-06-21 Image processing program, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011137211A JP2013005376A (en) 2011-06-21 2011-06-21 Image processing program, image processing apparatus, and image processing method

Publications (1)

Publication Number Publication Date
JP2013005376A true JP2013005376A (en) 2013-01-07

Family

ID=47673420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011137211A Pending JP2013005376A (en) 2011-06-21 2011-06-21 Image processing program, image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP2013005376A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024514534A (en) * 2021-04-04 2024-04-02 レイア、インコーポレイテッド Multi-image generation system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123842A (en) * 2000-10-13 2002-04-26 Takumi:Kk Device for generating stereoscopic image, and medium for recording information
JP2003047027A (en) * 2001-07-31 2003-02-14 Canon Inc Stereo image forming system, stereo image forming method, program, and storage medium
JP2004248213A (en) * 2003-02-17 2004-09-02 Kazunari Era Image processing apparatus, imaging apparatus, and program
WO2011036798A1 (en) * 2009-09-28 2011-03-31 株式会社東芝 Three-dimensional image generation device
JP2012094111A (en) * 2010-09-29 2012-05-17 Sony Corp Image processing device, image processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123842A (en) * 2000-10-13 2002-04-26 Takumi:Kk Device for generating stereoscopic image, and medium for recording information
JP2003047027A (en) * 2001-07-31 2003-02-14 Canon Inc Stereo image forming system, stereo image forming method, program, and storage medium
JP2004248213A (en) * 2003-02-17 2004-09-02 Kazunari Era Image processing apparatus, imaging apparatus, and program
WO2011036798A1 (en) * 2009-09-28 2011-03-31 株式会社東芝 Three-dimensional image generation device
JP2012094111A (en) * 2010-09-29 2012-05-17 Sony Corp Image processing device, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024514534A (en) * 2021-04-04 2024-04-02 レイア、インコーポレイテッド Multi-image generation system and method
US12452397B2 (en) 2021-04-04 2025-10-21 Leia Spv Llc Multiview image creation system and method

Similar Documents

Publication Publication Date Title
KR101697184B1 (en) Apparatus and Method for generating mesh, and apparatus and method for processing image
US20200302688A1 (en) Method and system for generating an image
KR100894874B1 (en) Apparatus and Method for Generating a Stereoscopic Image from a Two-Dimensional Image using the Mesh Map
KR101863767B1 (en) Pseudo-3d forced perspective methods and devices
JP6734620B2 (en) Video processing method and video processing apparatus
US8514275B2 (en) Three-dimensional (3D) display method and system
US9031356B2 (en) Applying perceptually correct 3D film noise
JP4328311B2 (en) Method and program for creating multi-viewpoint image for 3D image display
CN105224288B (en) Binocular three-dimensional method for rendering graph and related system
US8094148B2 (en) Texture processing apparatus, method and program
JP2007096951A (en) Multi-view image creation apparatus, multi-view image creation method, and multi-view image creation program
CN102905145B (en) Stereoscopic image system, image generation method, image adjustment device and method thereof
US9196080B2 (en) Medial axis decomposition of 2D objects to synthesize binocular depth
EP2787734B1 (en) Apparatus and method for forming light field image
JP5446949B2 (en) Image processing apparatus, image processing method, and program
JP2003284093A (en) Stereoscopic image processing method and apparatus therefor
KR20170013704A (en) Method and system for generation user's vies specific VR space in a Projection Environment
WO2013108285A1 (en) Image recording device, three-dimensional image reproduction device, image recording method, and three-dimensional image reproduction method
JP2020005202A (en) Video processing device
US8928673B2 (en) Methods and systems for 3D animation
CN103530859A (en) Method and system for ensuring stereo alignment during pipeline processing
JP2003284095A (en) Stereoscopic image processing method and apparatus therefor
US20240267507A1 (en) System and method for advanced visualization and automated production tools for autostereoscopic 3d, multiview and volumetric displays
KR20130081569A (en) Apparatus and method for outputting 3d image
JP2013005376A (en) Image processing program, image processing apparatus, and image processing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150526