[go: up one dir, main page]

WO2013081281A1 - Image converting apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same - Google Patents

Image converting apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same Download PDF

Info

Publication number
WO2013081281A1
WO2013081281A1 PCT/KR2012/007372 KR2012007372W WO2013081281A1 WO 2013081281 A1 WO2013081281 A1 WO 2013081281A1 KR 2012007372 W KR2012007372 W KR 2012007372W WO 2013081281 A1 WO2013081281 A1 WO 2013081281A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
control point
depth information
setting
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2012/007372
Other languages
French (fr)
Korean (ko)
Inventor
김하윤
김아란
전병기
정원석
박영환
윤민주
김대현
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RD2 CO Ltd
SK Planet Co Ltd
Original Assignee
RD2 CO Ltd
SK Planet Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110125866A external-priority patent/KR101388668B1/en
Priority claimed from KR1020110125865A external-priority patent/KR20130059733A/en
Application filed by RD2 CO Ltd, SK Planet Co Ltd filed Critical RD2 CO Ltd
Publication of WO2013081281A1 publication Critical patent/WO2013081281A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Definitions

  • the present invention relates to an image converting apparatus and method for converting a 2D image into a 3D image and a recording medium thereof. More particularly, the present invention relates to a 3D space in generating a depth map to convert a 2D image into a 3D image.
  • the present invention relates to a video converting apparatus and method for displaying a Z-axis depth information of a grid and providing an interface for inputting or changing depth information by moving an object in the Z-axis direction, and a recording medium thereof.
  • One method of generating a stereoscopic image is to convert a 2D video image into a 3D stereoscopic image.
  • an already made video content can be utilized and a 3D stereoscopic image can be obtained without using a separate recording device.
  • a left image and a right image having different disparity information must be generated from the 2D planar image.
  • depth map is generated by giving depth information to objects displayed on the 2D plane image, and a left and right image are generated based on the depth map to generate a 2D plane image. It is converted to 3D stereoscopic image.
  • the quality of the 3D stereoscopic image is highly dependent on the accuracy of the depth map.
  • a depth map may be generated by calculating pixel values of a 2D image or measuring a motion vector to automatically generate a depth map, and by directly inputting depth information of a 2D object.
  • the automatic generation method has the advantage of reducing the work speed, but there are technical limitations in generating high quality 3D stereoscopic images.
  • the present invention has been made to solve the above problems, when generating a depth map to convert a two-dimensional image to a three-dimensional image, it is displayed as a grid representing the Z-axis depth information of the three-dimensional space, Z-axis direction
  • the present invention provides an image converting apparatus and method for providing an interface for directly inputting or changing depth information by directly moving an object, and a recording medium thereof.
  • the user input unit for setting the Z control point on the selected object in the two-dimensional image and moving the Z control point in the Z-axis direction to input depth information
  • Depth map generator for recognizing the depth information of the object according to the movement to create a depth map
  • Display unit for projecting and displaying the object on the virtual plane according to the two-dimensional image and the input depth information
  • Z control point set on the object There is provided an image conversion apparatus including an image control unit configured to control to display an object on a virtual plane according to the movement of.
  • the image converting apparatus further includes a grid setting unit that displays, as a grid, positions having the same value in the Z-axis direction as the Z control point moves.
  • the grid setting unit may include a grid gap setting module for adjusting grid spacing, a graphic setting module for setting a graphic condition including at least one of color, thickness and line type of the grid, and an activation setting module for setting whether to display the grid. It is configured to include.
  • the image conversion apparatus further includes a 3D image rendering unit generating a left image and a right image having different parallax information with respect to the 2D image based on the depth map, and generating a 3D image by combining the left image and the right image. do.
  • the depth map generator extracts information about the selected object from the user input unit, an depth information setting module that recognizes a Z value change according to the movement of the Z control point as the depth information of the object, and a depth information of the recognized object. And a depth map generation module for generating a depth map accordingly.
  • the image controller controls to display each object on a virtual plane in accordance with the movement of the Z control point set for each object.
  • the step of displaying the input two-dimensional image in the three-dimensional space selecting an object in the two-dimensional image and setting the Z control point to the selected object, moving the Z control point in the Z-axis direction And projecting the virtual object to display the virtual object, and recognizing the change of the Z value according to the movement of the Z control point as the depth information of the object.
  • the step of projecting and displaying a virtual object by moving the Z control point in the Z-axis direction is to display a position having the same value in the Z-axis direction as a grid according to the movement of the Z control point, and projecting the virtual object in the space where the grid is displayed. To display.
  • Selecting an object in the 2D image and setting the Z control point for the selected object sets the Z control point for each object when two or more objects are selected in the 2D image.
  • Selecting an object in the 2D image and setting the Z control point on the selected object keeps only one of the Z control points set on the two or more objects.
  • the step of projecting and displaying the virtual object by moving the Z control point in the Z-axis direction is to project and display two or more virtual objects by moving the Z control points set in the two or more objects, respectively, in the Z-axis direction.
  • the image conversion method may include generating a depth map according to depth information of an object after recognizing a Z value change according to movement of a Z control point as depth information of an object, and rendering a 3D image according to the depth map. It further includes.
  • displaying the input two-dimensional image in a three-dimensional space selecting an object in the two-dimensional image and setting a Z control point to the selected object, Z control point in the Z-axis direction
  • the image conversion method comprising moving and projecting and displaying a virtual object, and recognizing the change of Z value according to the movement of the Z control point as the depth information of the object is recorded by the program and the recording medium readable by the electronic device Is provided.
  • the user when a depth map is generated to convert a 2D image into a 3D image, the user selects an object in the 2D image and moves the selected object directly in the Z-axis direction in the 3D space. Since the information can be input or changed, the depth information of the object can be checked in an intuitive manner.
  • the depth information can be input or changed in detail.
  • FIG. 1 is a block diagram of an image conversion apparatus for converting a 2D image into a 3D image according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a depth map generator according to an embodiment of the present invention.
  • FIG. 3 is a block diagram of a grid setting unit according to an embodiment of the present invention.
  • FIG. 4 is a flowchart of an image conversion method for converting a 2D image into a 3D image according to an embodiment of the present invention.
  • FIG. 5 is a first state diagram of a work screen of an image conversion device according to an embodiment of the present invention.
  • FIG. 6 is a second state diagram of a work screen of an image conversion device according to an embodiment of the present invention.
  • FIG. 7 is a third state diagram of an image conversion device according to an embodiment of the present invention.
  • FIG. 1 is a configuration diagram of an image conversion apparatus for converting a 2D image into a 3D image according to an embodiment of the present invention
  • FIG. 2 is a configuration diagram of a depth map generator according to an embodiment of the present invention
  • FIG. It is a block diagram of a grid setting unit according to an embodiment of the present invention.
  • the image conversion apparatus 100 includes a user input unit 120, a display unit 130, a depth map generator 200, and an image controller 140. It is configured by.
  • the image conversion apparatus 100 may further include a 2D image input unit 110, a grid setting unit 300, or a 3D image rendering unit 160.
  • the image conversion apparatus 100 provides a graphic interface for a user to set depth information on an input 2D image, generates a depth map according to the user's input, and generates a 3D image. Model the.
  • the 2D image input unit 110 receives a 2D image to be converted into a 3D image.
  • the user input unit 120 provides a user interface for selecting and controlling a function of the image conversion apparatus 100.
  • the user input unit 120 sets the Z control point on the object selected in the 2D image and moves the Z control point in the Z axis direction to input depth information.
  • the user may select an object displayed on the 2D image as a closed curve through the user input unit 120 and input depth information to the object.
  • Object selection in two-dimensional images uses image recognition techniques such as automatic edge detection using image contours and edge recognition using predefined user-defined closed curve patterns (eg, faces, circles, squares, etc.).
  • image recognition techniques such as automatic edge detection using image contours and edge recognition using predefined user-defined closed curve patterns (eg, faces, circles, squares, etc.).
  • Bezier curves are irregular curves created by selecting several control points to connect them.
  • the object selection in the two-dimensional image may be selected by the user to edit the object automatically recognized by the above methods.
  • the user input unit 120 may directly input depth information of the selected object or select a Z control point by clicking a predetermined area of the object, and input depth information by dragging in the Z control point Z direction.
  • the display unit 130 projects the object onto a virtual plane based on the 2D image and the input depth information, and displays the object on the 3D space.
  • the display 130 displays a series of work processes, input results, processing results, etc. for inputting depth information for converting the input 2D image and the image to the user.
  • the display 130 displays a 2D image on the x and y planes of the 3D space, and when the Z control point is moved, the object is projected onto a virtual plane including the Z control point.
  • the image controller 140 controls to display the object by projecting the object on the virtual plane according to the movement of the Z control point set in the object. That is, the image controller 140 controls the display unit 130 to display the 2D image input to the 2D image input unit 110.
  • the image controller 140 receives the Z control point through the user input unit 120, displays an object on a virtual plane including the Z control point, and positions the position information of the Z control point on the depth map generator 200, for example. To provide coordinate information.
  • the depth map generator 200 generates a depth map by recognizing depth information of the object according to the movement of the Z control point.
  • the depth map generator 200 extracts object information and generates a depth map by recognizing position information of a Z control point assigned to a corresponding object as depth information.
  • the depth map generator 200 includes an object information extraction module 210, a depth information setting module 220, and a depth map generation module 230.
  • the object information extraction module 210 extracts information on the selected object from the user input unit 120, and the depth information setting module 220 recognizes the Z value change according to the movement of the Z control point as the depth information of the object,
  • the map generation module 230 generates a depth map according to the depth information of the recognized object.
  • the object information extraction module 210 extracts information of the object selected for setting depth information from the 2D image.
  • the object information may include identification information, x, y coordinates, vector values, etc. of the object selected in the 2D image.
  • the depth information setting module 220 may set depth information of the corresponding object according to the Z control point set in the object.
  • the object selected in the 2D image is positioned at a predetermined Z point in the 3D space according to the movement of the Z control point.
  • the depth information setting module 220 may recognize depth information of the corresponding object using the Z value of the object.
  • the depth map generation module 230 generates a depth map of the input 2D image based on the depth information of each object recognized by the depth information setting module 220.
  • the depth map generator 200 may output the depth map by recognizing the depth value input by the user using the Z control point.
  • the 3D image rendering unit 160 converts the input 2D image into a 3D image by using a depth map generated by the depth map generator 200.
  • the 3D image rendering unit 160 generates a left image and a right image having different parallax information by using a depth map, and combines a left image and a right image having different parallax information to generate a 3D image.
  • the image controller 140 displays the 2D image input to the 2D image input unit 110 on the display 130 and displays the object selected in the 2D image according to the object selection signal of the user input to the user input unit 120. Display.
  • the image controller 140 controls the selected object to be displayed on the plane including the Z control point according to the Z control point input so that the user selects a specific object in the two-dimensional image and gives the control point to the object to provide depth information.
  • the input process is displayed on the display 130.
  • the image controller 140 transmits the object selection signal and the Z control point signal to the depth map generator 200 to control the depth map generator 200 to generate a depth map according to the Z control point input by the user.
  • the image controller 140 generates a 3D image by controlling the 3D image rendering unit 160 using a depth map generated by the depth map generator 200 and generates the 3D image on the display 130. Display.
  • the grid setting unit 300 displays the positions having the same value in the Z-axis direction in a grid according to the movement of the Z control point. As shown in FIG. 3, the grid setting unit 300 includes a grid interval setting module 310, a graphic setting module 320, and an activation setting module 330.
  • the grid spacing setting module 210 may set the spacing of the grid displayed in the three-dimensional space according to the user's selection. The user can adjust the grid spacing so that the grid spacing is displayed wide or narrow depending on the size of the object to be edited or the arrangement of the objects.
  • the graphic setting module 220 may change graphic settings such as color, thickness and line type of the grid displayed in the 3D space according to a user's selection. The user may adjust the graphic setting to display the grid more clearly according to the color of the image to be edited, the color of each individual object, or the position of the objects.
  • the activation setting module 230 may display or hide the grid set according to the user's selection.
  • the user can select and use grid spacing, graphics, activation, etc. according to the characteristics of the 2D image being worked on and personal preferences, and the user can easily edit the depth information of the 2D image. Can be done.
  • the image conversion apparatus 100 visually checks the Z value of the object by selecting an object from the input two-dimensional image, giving a Z control point to the object and dragging the depth information. You can enter
  • the image conversion apparatus 100 may automatically set the object to set the depth information through the user input unit 120 and set the depth information of the selected object while visually confirming by moving the Z control point. Compared with the generation method, high quality 3D stereoscopic images can be generated.
  • the depth information set according to the movement of the Z control point is recognized as the depth information of the object automatically selected by the depth map generator 200 without the user directly inputting the depth value, the skill of the operator is compared with the manual generation method. There is an advantage that is not greatly required.
  • the grid displayed by the grid setting unit 300 may be intuitively and objectively compared with the position of the moved Z control point.
  • the depth information can be finely adjusted even without a professional worker, and a high quality 3D stereoscopic image can be generated compared to the automatic generation method.
  • the image conversion apparatus 100 manually adjusts the depth information of the object through the user input unit 120 and generates a semi-automatic 3D stereoscopic image automatically recognizing the depth information adjusted by the depth map generator 200.
  • the device includes a user input unit 120, a depth map generator 200, or a grid setting unit 300, so that even non-skilled users can intuitively generate high quality 3D stereoscopic images, respectively. Can solve the problem.
  • the user input unit 120 sets a Z control point for each object and moves the Z control point to move the Z control point positions of the objects. Can be compared and changed visually, allowing more precise control of the three-dimensional effect between objects.
  • 5 to 7 are first to third state diagrams of work screens of an image conversion apparatus according to an embodiment of the present invention.
  • the object A is selected from the 2D image through the user input unit. For example, you can select objects by forming a Bezier curve by clicking on the area of the object you want to select, by selecting an object by automatic edge detection through image contours, or by selecting a custom closed curve pattern. Can be.
  • the Z control point is set by selecting (for example, clicking a mouse) any point of the region including the selected object, and the (c) of FIG. 5.
  • the Z coordinate of the selected object is moved by dragging the Z control point in the Z-axis direction.
  • a two-dimensional image is positioned on the xy plane and grids of a predetermined interval are displayed in the Z-axis direction.
  • the working environment of the image conversion apparatus may move an object located in the XY plane and each object in the Z-axis direction as illustrated in FIG. 7.
  • the virtual object is projected on the grid and displayed.
  • the user can select the object A in the 2D image and move it in the Z-axis direction to the position of the object B. Accordingly, the object B has the depth information Z '.
  • the user can easily set the depth information using the grid.
  • the user may move the object C on the same grid as the object depth information Z '.
  • the depth information may be input by arranging objects selected in the 2D image in 3D space. This provides an intuitive working environment for easy editing.
  • FIG. 4 is a flowchart of an image conversion method of converting a 2D image into a 3D image according to an exemplary embodiment of the present invention.
  • a 2D image is displayed in a 3D space (S410), an object is selected from the 2D image, and a Z control point is set to the selected object (S420).
  • the Z control point is moved in the Z-axis direction to project a virtual object to be displayed (S430), and the Z value change according to the movement of the Z control point is recognized as depth information of the object (S440).
  • the image conversion method generates depth map information according to the depth information of the object (S450), and renders a 3D image (S460).
  • the display device displays the 2D image input on the XY plane of the 2D image 3D space (S410), and the user checks the 2D image on the display unit, selects an object through the user input unit, and sets a Z control point on the selected object. (S420).
  • depth control may be input or changed by setting a Z control point for each object and moving each object in the Z axis.
  • only one of the Z control points set on the two or more selected objects may be activated and moved in the Z-axis direction to change or input depth information of each object differently.
  • the user input unit drags the Z control point in the Z-axis direction to move the Z control point to a predetermined position in a three-dimensional space, and the image control unit displays the object by projecting the object on a virtual plane including the Z control point set by the user. (S430).
  • step S430 may display a position having the same value in the Z-axis direction as a grid according to the movement of the Z control point, and display the virtual object by projecting the virtual object in the space where the grid is displayed.
  • two or more virtual objects may be projected together and displayed according to the Z coordinate change value of the Z control point set to the two or more objects in operation S430.
  • the depth map generator recognizes the depth information of the object according to the change of the Z control point value set by the user (S440), and generates a depth map using this (S450). Also, the 3D image rendering unit renders the 2D image into the 3D image using the generated depth map.
  • the present invention sets depth information by selecting an object in a two-dimensional plane, dragging a Z control point by setting the object.
  • the Z value of the object becomes the depth information in the three-dimensional space
  • the user can visually recognize the depth information given to the corresponding objects through the Z value of the object, that is, the height from the x and y planes. .
  • the Z value of each object can be checked on one screen so that the difference in depth information between objects can be compared with each other, so that the overall depth information can be easily recognized and edited.
  • displaying the input two-dimensional image in a three-dimensional space selecting an object in the two-dimensional image and setting a Z control point to the selected object, Z control point in the Z-axis direction
  • the image conversion method comprising moving and projecting and displaying a virtual object, and recognizing the change of Z value according to the movement of the Z control point as the depth information of the object is recorded by the program and the recording medium readable by the electronic device Is provided.
  • An image conversion method can be written in a program, and codes and code segments constituting the program can be easily inferred by a programmer in the art.
  • the program of the image conversion method is stored in an information storage medium (Readable Medium) that can be read by the electronic device, it is read and executed by the electronic device can convert a two-dimensional image to a three-dimensional image.
  • an information storage medium Readable Medium
  • an image conversion apparatus for converting a 2D image into a 3D image may include a processor, a memory, a storage device, and an input / output device as components, and these components may be interconnected using, for example, a system bus. have.
  • the processor may process instructions for execution within the device.
  • the processor may be a single-threaded processor, and in other implementations, the processor may be a multi-threaded processor.
  • the processor processes instructions stored on memory or storage devices. It is possible to do
  • the memory stores information in the apparatus.
  • the memory is a computer readable medium.
  • the memory may be a volatile memory unit, and for other implementations, the memory may be a nonvolatile memory unit.
  • the storage device described above can provide a mass storage for the device.
  • the storage device is a computer readable medium.
  • the storage device may include, for example, a hard disk device, an optical disk device, or some other mass storage device.
  • the input / output device provides an input / output operation for the device according to the present invention.
  • the input / output device may include one or more network interface devices such as, for example, an Ethernet card, such as a serial communication device such as an RS-232 port and / or a wireless interface device such as, for example, an 802.11 card.
  • the input / output device can include driver devices, such as keyboards, printers, and display devices, configured to send output data to and receive input data from other input / output devices.
  • the apparatus according to the invention may be driven by instructions that cause one or more processors to perform the functions and processes described above.
  • such instructions may include instructions that are interpreted, for example, script instructions such as JavaScript or ECMAScript instructions, or executable code or other instructions stored on a computer readable medium.
  • the device according to the present invention may be implemented in a distributed manner over a network, such as a server farm, or may be implemented in a single computer device.
  • the specification and drawings describe exemplary device configurations, the functional operations and subject matter implementations described herein may be embodied in other types of digital electronic circuitry, or modified from the structures and structural equivalents disclosed herein. It may be implemented in computer software, firmware or hardware, including, or a combination of one or more of them. Implementations of the subject matter described herein relate to one or more computer program products, ie computer program instructions encoded on a program storage medium of tangible type for controlling or by the operation of an apparatus according to the invention. It may be implemented as the above module.
  • the computer readable medium may be a machine readable storage device, a machine readable storage substrate, a memory device, a composition of materials affecting a machine readable propagated signal, or a combination of one or more thereof.
  • processing system encompass all the instruments, devices and machines for processing data, including, for example, programmable processors, computers or multiple processors or computers.
  • the processing system may include, in addition to hardware, code that forms an execution environment for a computer program on demand, such as code constituting processor firmware, a protocol stack, a database management system, an operating system, or a combination of one or more thereof. .
  • a computer program (also known as a program, software, software application, script or code) mounted on an apparatus according to the invention and executing a method according to the invention is a programming comprising a compiled or interpreted language or a priori or procedural language. It can be written in any form of language, and can be deployed in any form, including stand-alone programs or modules, components, subroutines, or other units suitable for use in a computer environment.
  • a computer program does not necessarily correspond to a file in a file system.
  • a program may be in a single file provided to the requested program, in multiple interactive files (eg, a file that stores one or more modules, subprograms, or parts of code), or part of a file that holds other programs or data. (Eg, one or more scripts stored in a markup language document).
  • the computer program may be deployed to run on a single computer or on multiple computers located at one site or distributed across multiple sites and interconnected by a communication network.
  • Computer-readable media suitable for storing computer program instructions and data include, for example, semiconductor memory devices such as EPROM, EEPROM, and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks, and CD-ROMs. And all forms of nonvolatile memory, media and memory devices, including DVD-ROM discs.
  • semiconductor memory devices such as EPROM, EEPROM, and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks, and CD-ROMs. And all forms of nonvolatile memory, media and memory devices, including DVD-ROM discs.
  • the processor and memory can be supplemented by or integrated with special purpose logic circuitry.
  • Implementations of the subject matter described herein may include, for example, a backend component such as a data server, or include a middleware component such as, for example, an application server, or a web browser or graphical user, for example, where a user may interact with the implementation of the subject matter described herein. It can be implemented in a computing system that includes a front end component such as a client computer having an interface or any combination of one or more of such back end, middleware or front end components. The components of the system may be interconnected by any form or medium of digital data communication such as, for example, a communication network.
  • the present invention is an interface for inputting or changing depth information by adjusting the Z coordinate of an object in a three-dimensional space in order to convert a two-dimensional image into a three-dimensional image or a three-dimensional space in which a grid representing a position having the same depth is displayed in the Z-axis direction. It can be used to provide an interface for inputting or changing depth information by adjusting the Z coordinate of an object on the image, an image converting apparatus and method using the same, and a recording medium thereof.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to an image converting apparatus and method for converting a two-dimensional image to a three-dimensional image, and a recording medium for same. The image converting apparatus includes: a user inputting unit for setting a z control point to an object selected in a two-dimensional image and moving the z control point in a z-axis direction to receive depth information; a depth map generating unit for perceiving depth information on the object according to the movement of the z control point and generating a depth map; a display unit for projecting the object onto a virtual plane according to the 2-dimensional image and the input depth information, and displaying the object; and an image controller for controlling the projection of the object onto the virtual plane according to the movement of the z control point set to the object, and display the object.

Description

2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체Image converting apparatus and method for converting 2D image into 3D image and recording medium thereof

본 발명은 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체에 관한 것으로서, 보다 상세하게는 2차원 영상을 3차원 영상으로 변환하기 위해 깊이 맵 생성시, 3차원 공간의 Z축 깊이정보를 나타내는 그리드로 표시하고, Z축 방향으로 객체를 이동시켜 깊이정보를 입력 또는 변화시킬 수 있는 인터페이스를 제공하는 영상 변환 장치와 방법 및 그에 대한 기록매체에 관한 것이다. The present invention relates to an image converting apparatus and method for converting a 2D image into a 3D image and a recording medium thereof. More particularly, the present invention relates to a 3D space in generating a depth map to convert a 2D image into a 3D image. The present invention relates to a video converting apparatus and method for displaying a Z-axis depth information of a grid and providing an interface for inputting or changing depth information by moving an object in the Z-axis direction, and a recording medium thereof.

3차원 입체 영상(stereoscopic image)에 대한 관심이 높아지면서 입체영상을 생성하기 위한 다양한 방법들이 개발되고 있다. 입체 영상을 생성하는 방법 중에는 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 방법이 있다. 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 경우, 이미 만들어진 비디오 콘텐츠를 활용할 수 있으며 별도의 촬영장비를 이용하지 않고도 3차원 입체 영상을 얻을 수 있다는 장점이 있다.As interest in 3D stereoscopic images increases, various methods for generating stereoscopic images have been developed. One method of generating a stereoscopic image is to convert a 2D video image into a 3D stereoscopic image. When converting a 2D video image into a 3D stereoscopic image, an already made video content can be utilized and a 3D stereoscopic image can be obtained without using a separate recording device.

2차원 평면 영상을 3차원 입체 영상으로 변환시키기 위해서는, 2차원 평면 영상으로부터 서로 다른 시차 정보를 가지는 좌측 영상과 우측 영상을 생성해야 한다. 이에, 2차원 평면 영상에 표시된 객체들에 깊이(depth)정보를 부여하여 깊이 맵(Depth Map)을 생성하고 깊이 맵(depth map)에 기초하여 좌측 영상과 우측 영상을 생성함으로써 2차원 평면 영상을 3차원 입체 영상으로 변환하고 있다. 이에, 3차원 입체 영상의 품질은 깊이 맵(Depth Map)의 정확성에 따라 크게 좌우된다.In order to convert a 2D planar image into a 3D stereoscopic image, a left image and a right image having different disparity information must be generated from the 2D planar image. Thus, depth map is generated by giving depth information to objects displayed on the 2D plane image, and a left and right image are generated based on the depth map to generate a 2D plane image. It is converted to 3D stereoscopic image. As a result, the quality of the 3D stereoscopic image is highly dependent on the accuracy of the depth map.

한편, 깊이 맵(depth map)를 생성하는 방법으로는 2차원 영상의 픽셀 값들을 산출하거나 움직임 벡터를 측정하여 깊이 지도를 자동으로 생성하는 방법과, 사용자가 직접 2차원 객체의 깊이 정보를 입력하는 수동 생성 방법이 있다.Meanwhile, a depth map may be generated by calculating pixel values of a 2D image or measuring a motion vector to automatically generate a depth map, and by directly inputting depth information of a 2D object. There is a manual creation method.

자동 생성 방법의 경우 작업속도를 단축할 수 있다는 장점이 있으나 고품질의 3차원 입체 영상을 생성하는 데에는 기술적 한계가 있다.The automatic generation method has the advantage of reducing the work speed, but there are technical limitations in generating high quality 3D stereoscopic images.

반면, 수동 생성 방법의 경우 상대적으로 고품질의 3차원 입체 영상을 생성할 수 있으나, 작업자의 숙련도에 따라 작업 시간이나 결과물의 품질이 크게 달라질 수 있다는 문제점이 있다.On the other hand, in the case of the manual generation method, it is possible to generate a relatively high quality 3D stereoscopic image, but there is a problem that the work time or the quality of the result may vary greatly according to the skill of the operator.

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 2차원 영상을 3차원 영상으로 변환하기 위해 깊이 맵을 생성하는 경우, 3차원 공간의 Z축 깊이정보를 나타내는 그리드로 표시하고, Z축 방향으로 객체를 직접 이동시켜 깊이정보를 입력 또는 변화시킬 수 있는 인터페이스를 제공하는 영상 변환 장치와 방법 및 그에 대한 기록매체를 제공하는데 그 기술적 과제가 있다.The present invention has been made to solve the above problems, when generating a depth map to convert a two-dimensional image to a three-dimensional image, it is displayed as a grid representing the Z-axis depth information of the three-dimensional space, Z-axis direction The present invention provides an image converting apparatus and method for providing an interface for directly inputting or changing depth information by directly moving an object, and a recording medium thereof.

상술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 2차원 영상에서 선택된 객체에 Z 컨트롤 포인트를 설정하고 Z 컨트롤 포인트를 Z축 방향으로 이동시켜 깊이 정보를 입력하는 사용자 입력부, Z 컨트롤 포인트의 이동에 따라 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성부, 2차원 영상과 입력된 깊이 정보에 따라 객체를 가상의 평면에 투영하여 디스플레이하는 디스플레이부, 및 객체에 설정된 Z 컨트롤 포인트의 이동에 따라 객체를 가상의 평면에 투영하여 표시하도록 제어하는 영상 제어부를 포함하는 영상 변환 장치가 제공된다.According to an aspect of the present invention for achieving the above object, the user input unit for setting the Z control point on the selected object in the two-dimensional image and moving the Z control point in the Z-axis direction to input depth information, Depth map generator for recognizing the depth information of the object according to the movement to create a depth map, Display unit for projecting and displaying the object on the virtual plane according to the two-dimensional image and the input depth information, and Z control point set on the object There is provided an image conversion apparatus including an image control unit configured to control to display an object on a virtual plane according to the movement of.

영상 변환 장치는 Z 컨트롤 포인트의 이동에 따라 Z축 방향으로 동일한 값을 갖는 위치를 그리드로 표시하는 그리드 설정부를 더 포함한다.The image converting apparatus further includes a grid setting unit that displays, as a grid, positions having the same value in the Z-axis direction as the Z control point moves.

여기서, 그리드 설정부는 그리드 간격을 조절하는 그리드 간격 설정모듈, 그리드의 색상, 두께 및 선 종류 중 적어도 하나를 포함하는 그래픽 조건을 설정하는 그래픽 설정모듈, 및 그리드의 표시 여부를 설정하는 활성화 설정모듈을 포함하여 구성된다.The grid setting unit may include a grid gap setting module for adjusting grid spacing, a graphic setting module for setting a graphic condition including at least one of color, thickness and line type of the grid, and an activation setting module for setting whether to display the grid. It is configured to include.

영상 변환 장치는 깊이 맵에 기초하여 2차원 영상에 대해 서로 다른 시차 정보를 갖는 좌측 영상과 우측 영상을 생성하고, 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성하는 3차원 영상 렌더링부를 더 포함한다.The image conversion apparatus further includes a 3D image rendering unit generating a left image and a right image having different parallax information with respect to the 2D image based on the depth map, and generating a 3D image by combining the left image and the right image. do.

깊이 맵 생성부는 사용자 입력부로부터 선택된 객체의 정보를 추출하는 객체정보 추출모듈, Z 컨트롤 포인트의 이동에 따른 Z값 변화를 객체의 깊이 정보로 인식하는 깊이정보 설정모듈, 및 인식된 객체의 깊이 정보에 따라 깊이 맵을 생성하는 깊이 맵 생성모듈을 포함하여 구성된다.The depth map generator extracts information about the selected object from the user input unit, an depth information setting module that recognizes a Z value change according to the movement of the Z control point as the depth information of the object, and a depth information of the recognized object. And a depth map generation module for generating a depth map accordingly.

영상 제어부는 선택된 객체가 2개 이상인 경우, 각 객체에 설정된 Z 컨트롤 포인트의 이동에 따라 각 객체들을 가상의 평면에 투영하여 표시하도록 제어한다.If there are two or more selected objects, the image controller controls to display each object on a virtual plane in accordance with the movement of the Z control point set for each object.

본 발명의 다른 측면에 따르면, 입력된 2차원 영상을 3차원 공간에 표시하는 단계, 2차원 영상에서 객체를 선택하고 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계, Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계, 및 Z 컨트롤 포인트 이동에 따른 Z값 변화를 객체의 깊이 정보로 인식하는 단계를 포함하는 영상 변환 방법이 제공된다.According to another aspect of the invention, the step of displaying the input two-dimensional image in the three-dimensional space, selecting an object in the two-dimensional image and setting the Z control point to the selected object, moving the Z control point in the Z-axis direction And projecting the virtual object to display the virtual object, and recognizing the change of the Z value according to the movement of the Z control point as the depth information of the object.

Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계는 Z 컨트롤 포인트 이동에 따라 Z축 방향으로 동일한 값을 갖는 위치를 그리드로 표시하고 그리드가 표시된 공간에 가상의 객체를 투영하여 표시한다.The step of projecting and displaying a virtual object by moving the Z control point in the Z-axis direction is to display a position having the same value in the Z-axis direction as a grid according to the movement of the Z control point, and projecting the virtual object in the space where the grid is displayed. To display.

2차원 영상에서 객체를 선택하고 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계는 2차원 영상에서 선택한 객체가 2개 이상인 경우 각 객체에 Z 컨트롤 포인트를 설정한다.Selecting an object in the 2D image and setting the Z control point for the selected object sets the Z control point for each object when two or more objects are selected in the 2D image.

2차원 영상에서 객체를 선택하고 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계는 2개 이상의 객체에 설정된 Z 컨트롤 포인트 중 하나만 활성화 상태로 유지한다.Selecting an object in the 2D image and setting the Z control point on the selected object keeps only one of the Z control points set on the two or more objects.

Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계는 2개 이상의 객체에 설정된 Z 컨트롤 포인트를 각각 Z축 방향으로 이동시켜 2개 이상의 가상의 객체를 함께 투영하여 표시한다.The step of projecting and displaying the virtual object by moving the Z control point in the Z-axis direction is to project and display two or more virtual objects by moving the Z control points set in the two or more objects, respectively, in the Z-axis direction.

영상 변환 방법은 Z 컨트롤 포인트 이동에 따른 Z값 변화를 객체의 깊이 정보로 인식하는 단계 이후에, 객체의 깊이 정보에 따라 깊이 맵을 생성하는 단계, 및 깊이 맵에 따라 3차원 영상을 렌더링하는 단계를 더 포함한다.The image conversion method may include generating a depth map according to depth information of an object after recognizing a Z value change according to movement of a Z control point as depth information of an object, and rendering a 3D image according to the depth map. It further includes.

본 발명의 또 다른 측면에 따르면, 입력된 2차원 영상을 3차원 공간에 표시하는 단계, 2차원 영상에서 객체를 선택하고 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계, Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계, 및 Z 컨트롤 포인트 이동에 따른 Z값 변화를 객체의 깊이 정보로 인식하는 단계를 포함하는 영상 변환 방법이 프로그램으로 기록되고 전자장치에서 판독 가능한 기록매체가 제공된다.According to another aspect of the invention, displaying the input two-dimensional image in a three-dimensional space, selecting an object in the two-dimensional image and setting a Z control point to the selected object, Z control point in the Z-axis direction The image conversion method comprising moving and projecting and displaying a virtual object, and recognizing the change of Z value according to the movement of the Z control point as the depth information of the object is recorded by the program and the recording medium readable by the electronic device Is provided.

상술한 바와 같이, 본 발명은 2차원 영상을 3차원 영상으로 변환하기 위해 깊이 맵 생성시, 사용자가 2차원 영상에서 객체를 선택하고, 선택된 객체를 3차원 공간 상의 Z축 방향으로 직접 이동시킴으로써 깊이 정보를 입력 또는 변화시킬 수 있으므로, 직관적인 방법으로 객체의 깊이 정보를 확인할 수 있는 효과가 있다.As described above, in the present invention, when a depth map is generated to convert a 2D image into a 3D image, the user selects an object in the 2D image and moves the selected object directly in the Z-axis direction in the 3D space. Since the information can be input or changed, the depth information of the object can be checked in an intuitive manner.

또한, 영상을 구성하는 각 객체들의 상대적인 깊이 정보를 3차원 공간 상에서 비교할 수 있으므로 깊이 정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있습니다.In addition, it is possible to compare the relative depth information of each object constituting the image in three-dimensional space to enhance the convenience of input depth information and obtain detailed editing results.

또한, 깊이 정보를 입력하는 3차원 공간의 Z축을 동일한 깊이 정보를 나타내는 그리드로 표시함으로써, 깊이 정보를 세밀하게 입력 또는 변화시킬 수 있도록 하는 효과가 있습니다.In addition, by displaying the Z axis of the three-dimensional space in which the depth information is input in a grid representing the same depth information, the depth information can be input or changed in detail.

도 1은 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치의 구성도.1 is a block diagram of an image conversion apparatus for converting a 2D image into a 3D image according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 깊이 맵 생성부의 구성도.2 is a block diagram of a depth map generator according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 그리드 설정부의 구성도.3 is a block diagram of a grid setting unit according to an embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 방법의 흐름도.4 is a flowchart of an image conversion method for converting a 2D image into a 3D image according to an embodiment of the present invention.

도 5는 본 발명의 실시예에 따른 영상 변환 장치의 작업 화면의 제1 상태도.5 is a first state diagram of a work screen of an image conversion device according to an embodiment of the present invention;

도 6은 본 발명의 실시예에 따른 영상 변환 장치의 작업 화면의 제2 상태도.6 is a second state diagram of a work screen of an image conversion device according to an embodiment of the present invention;

도 7은 본 발명의 실시예에 따른 영상 변환 장치의 제3 상태도.7 is a third state diagram of an image conversion device according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다. 첨부 도면을 참조하여 설명함에 있어 동일하거나 대응하는 구성요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same or corresponding components will be given the same reference numerals and redundant description thereof will be omitted.

도 1은 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치의 구성도이고, 도 2는 본 발명의 실시예에 따른 깊이 맵 생성부의 구성도이고, 도 3은 본 발명의 실시예에 따른 그리드 설정부의 구성도이다.1 is a configuration diagram of an image conversion apparatus for converting a 2D image into a 3D image according to an embodiment of the present invention, FIG. 2 is a configuration diagram of a depth map generator according to an embodiment of the present invention, and FIG. It is a block diagram of a grid setting unit according to an embodiment of the present invention.

본 발명의 실시예에 따른 영상 변환 장치(100)는, 도 1에 도시한 바와 같이, 사용자 입력부(120), 디스플레이부(130), 깊이 맵 생성부(200) 및 영상 제어부(140)를 포함하여 구성된다. As illustrated in FIG. 1, the image conversion apparatus 100 according to an exemplary embodiment of the present invention includes a user input unit 120, a display unit 130, a depth map generator 200, and an image controller 140. It is configured by.

또한, 영상 변환 장치(100)는 2차원 영상 입력부(110), 그리드 설정부(300) 또는 3차원 영상 렌더링부(160)를 더 포함하여 구성될 수 있다. The image conversion apparatus 100 may further include a 2D image input unit 110, a grid setting unit 300, or a 3D image rendering unit 160.

본 실시예에 따른 영상 변환 장치(100)는 입력된 2차원 영상에 대해 사용자가 깊이 정보를 설정할 수 있도록 그래픽 인터페이스를 제공하고, 사용자의 입력에 따라 깊이 맵(depth map)을 생성하여 3차원 영상을 모델링한다.The image conversion apparatus 100 according to the present exemplary embodiment provides a graphic interface for a user to set depth information on an input 2D image, generates a depth map according to the user's input, and generates a 3D image. Model the.

2차원 영상 입력부(110)는 3차원 영상으로 변환하고자 하는 2차원 영상을 입력 받는다. The 2D image input unit 110 receives a 2D image to be converted into a 3D image.

사용자 입력부(120)는 영상 변환 장치(100)의 기능 선택 및 제어를 위한 사용자 인터페이스를 제공한다. 사용자 입력부(120)는 2차원 영상에서 선택된 객체에 Z 컨트롤 포인트를 설정하고 Z 컨트롤 포인트를 Z축 방향으로 이동시켜 깊이 정보를 입력한다.The user input unit 120 provides a user interface for selecting and controlling a function of the image conversion apparatus 100. The user input unit 120 sets the Z control point on the object selected in the 2D image and moves the Z control point in the Z axis direction to input depth information.

예를 들어, 사용자는 사용자 입력부(120)를 통해 2차원 영상에 표시된 객체를 폐곡선으로 선택하고 해당 객체에 깊이 정보를 입력할 수 있다. 2차원 영상에서 객체 선택은 이미지 윤곽을 이용한 경계면 자동 탐색 방법과, 미리 정해놓은 사용자 정의 폐곡선 패턴(예를 들어, 얼굴, 원, 사각형 등)을 활용하여 에지 인식하는 방법 등의 영상 인식 기술을 이용하여 자동으로 선택되도록 하거나, 또는 사용자 입력부(120)를 통해 베지어 곡선(Bezier curve)을 설정하여 객체를 선택하는 방법을 사용할 수 있다. 베지어 곡선은 몇 개의 제어점을 선택하여 점과 점 사이가 연결되도록 함으로써 생성되는 불규칙한 곡선을 의미한다. For example, the user may select an object displayed on the 2D image as a closed curve through the user input unit 120 and input depth information to the object. Object selection in two-dimensional images uses image recognition techniques such as automatic edge detection using image contours and edge recognition using predefined user-defined closed curve patterns (eg, faces, circles, squares, etc.). To be automatically selected or a method of selecting an object by setting a Bezier curve through the user input unit 120. Bezier curves are irregular curves created by selecting several control points to connect them.

또한, 2차원 영상에서 객체 선택은 상기의 방법들에 의해 자동 인식된 객체를 사용자가 편집하여 선택할 수도 있다. In addition, the object selection in the two-dimensional image may be selected by the user to edit the object automatically recognized by the above methods.

사용자 입력부(120)는 선택된 객체의 깊이 정보를 직접 입력하거나 또는 객체의 소정 영역을 클릭하여 Z 컨트롤 포인트를 선택하고, Z 컨트롤 포인트 Z축 방향으로 드래그함으로써 깊이 정보를 입력할 수 있다. The user input unit 120 may directly input depth information of the selected object or select a Z control point by clicking a predetermined area of the object, and input depth information by dragging in the Z control point Z direction.

디스플레이부(130)는 2차원 영상과 입력된 깊이 정보에 따라 객체를 가상의 평면에 투영하여 3차원 공간 상에 디스플레이한다. 디스플레이부(130)는 입력된 2차원 영상과 영상변환을 위해 깊이 정보를 입력하는 일련의 작업 과정과 입력 결과, 처리 결과 등을 사용자에게 표시한다. The display unit 130 projects the object onto a virtual plane based on the 2D image and the input depth information, and displays the object on the 3D space. The display 130 displays a series of work processes, input results, processing results, etc. for inputting depth information for converting the input 2D image and the image to the user.

디스플레이부(130)는 3차원 공간의 x, y평면에 2차원 영상이 표시되고, Z 컨트롤 포인트가 이동하면 객체는 Z 컨트롤 포인트를 포함하는 가상의 평면에 투영된다.The display 130 displays a 2D image on the x and y planes of the 3D space, and when the Z control point is moved, the object is projected onto a virtual plane including the Z control point.

영상 제어부(140)는 객체에 설정된 Z 컨트롤 포인트의 이동에 따라 객체를 가상의 평면에 투영하여 표시하도록 제어한다. 즉, 영상 제어부(140)는 2차원 영상 입력부(110)로 입력된 2차원 영상을 디스플레이부(130)에 표시하도록 제어한다. The image controller 140 controls to display the object by projecting the object on the virtual plane according to the movement of the Z control point set in the object. That is, the image controller 140 controls the display unit 130 to display the 2D image input to the 2D image input unit 110.

영상 제어부(140)는 사용자 입력부(120)를 통해 Z 컨트롤 포인트를 입력받아, Z 컨트롤 포인트를 포함하는 가상의 평면에 객체를 표시하고 깊이 맵 생성부(200)에 Z 컨트롤 포인트의 위치 정보, 예컨대, 좌표 정보를 제공하도록 제어한다.The image controller 140 receives the Z control point through the user input unit 120, displays an object on a virtual plane including the Z control point, and positions the position information of the Z control point on the depth map generator 200, for example. To provide coordinate information.

깊이 맵 생성부(200)는 Z 컨트롤 포인트의 이동에 따라 객체의 깊이 정보를 인식하여 깊이 맵을 생성한다. 깊이 맵 생성부(200)는 객체 정보를 추출하고 해당 객체에 부여된 Z 컨트롤 포인트의 위치 정보를 깊이 정보로 인식하여 깊이 맵(depth map)을 생성한다. The depth map generator 200 generates a depth map by recognizing depth information of the object according to the movement of the Z control point. The depth map generator 200 extracts object information and generates a depth map by recognizing position information of a Z control point assigned to a corresponding object as depth information.

구체적으로, 깊이 맵 생성부(200)는, 도 2에 도시한 바와 같이, 객체정보 추출모듈(210), 깊이정보 설정모듈(220) 및 깊이 맵 생성모듈(230)을 포함하여 구성된다. In detail, as illustrated in FIG. 2, the depth map generator 200 includes an object information extraction module 210, a depth information setting module 220, and a depth map generation module 230.

객체정보 추출모듈(210)은 사용자 입력부(120)로부터 선택된 객체의 정보를 추출하고, 깊이정보 설정모듈(220)은 Z 컨트롤 포인트의 이동에 따른 Z값 변화를 객체의 깊이 정보로 인식하고, 깊이 맵 생성모듈(230)은 인식된 객체의 깊이 정보에 따라 깊이 맵을 생성한다. The object information extraction module 210 extracts information on the selected object from the user input unit 120, and the depth information setting module 220 recognizes the Z value change according to the movement of the Z control point as the depth information of the object, The map generation module 230 generates a depth map according to the depth information of the recognized object.

즉, 객체정보 추출모듈(210)은 2차원 영상에서 깊이 정보 설정을 위해 선택된 객체의 정보를 추출한다. 객체 정보는 2차원 영상에서 선택된 객체의 식별정보, x, y좌표, 벡터 값 등을 포함할 수 있다. That is, the object information extraction module 210 extracts information of the object selected for setting depth information from the 2D image. The object information may include identification information, x, y coordinates, vector values, etc. of the object selected in the 2D image.

깊이정보 설정모듈(220)은 객체에 설정된 Z 컨트롤 포인트에 따라 해당 객체의 깊이 정보를 설정할 수 있다. 2차원 영상에서 선택된 객체는 Z 컨트롤 포인트의 이동에 따라 3차원 공간의 소정 Z지점에 위치하게 된다. 깊이정보 설정모듈(220)은 이러한 객체의 Z값을 이용하여 해당 객체의 깊이 정보를 인식할 수 있다. The depth information setting module 220 may set depth information of the corresponding object according to the Z control point set in the object. The object selected in the 2D image is positioned at a predetermined Z point in the 3D space according to the movement of the Z control point. The depth information setting module 220 may recognize depth information of the corresponding object using the Z value of the object.

깊이 맵 생성모듈(230)은 깊이정보 설정모듈(220)에서 인식된 각 객체의 깊이 정보에 기초하여 입력된 2차원 영상의 깊이 맵(depth map)을 생성한다. The depth map generation module 230 generates a depth map of the input 2D image based on the depth information of each object recognized by the depth information setting module 220.

이러한 구성에 따라, 깊이 맵 생성부(200)는 사용자가 Z 컨트롤 포인트를 이용하여 입력한 깊이 값을 인식하여 깊이 맵을 출력할 수 있다. According to this configuration, the depth map generator 200 may output the depth map by recognizing the depth value input by the user using the Z control point.

3차원 영상 렌더링부(160)는 깊이 맵 생성부(200)에서 생성된 깊이 맵(depth map)을 이용하여 입력된 2차원 영상을 3차원 영상으로 변환한다. 3차원 영상 렌더링부(160)는 깊이 맵(depth map)을 이용하여 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 생성하고 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성한다.The 3D image rendering unit 160 converts the input 2D image into a 3D image by using a depth map generated by the depth map generator 200. The 3D image rendering unit 160 generates a left image and a right image having different parallax information by using a depth map, and combines a left image and a right image having different parallax information to generate a 3D image. Create

영상 제어부(140)는 2차원 영상 입력부(110)로 입력된 2차원 영상을 디스플레이부(130)에 표시하고 사용자 입력부(120)로 입력되는 사용자의 객체 선택 신호에 따라 2차원 영상에서 선택된 객체를 표시한다. 영상 제어부(140)는 Z 컨트롤 포인트 입력에 따라 선택된 객체가 Z 컨트롤 포인트를 포함하는 평면에 표시되도록 제어하여 사용자가 2차원 영상에서 특정 객체를 선택하고 해당 객체에 Z 컨트롤 포인트를 부여하여 깊이 정보를 입력하는 과정을 디스플레이부(130)에 표시한다. The image controller 140 displays the 2D image input to the 2D image input unit 110 on the display 130 and displays the object selected in the 2D image according to the object selection signal of the user input to the user input unit 120. Display. The image controller 140 controls the selected object to be displayed on the plane including the Z control point according to the Z control point input so that the user selects a specific object in the two-dimensional image and gives the control point to the object to provide depth information. The input process is displayed on the display 130.

영상 제어부(140)는 객체 선택 신호와 Z 컨트롤 포인트 신호를 깊이 맵 생성부(200)에 전달하여 사용자가 입력한 Z 컨트롤 포인트에 따라 깊이 맵이 생성되도록 깊이 맵 생성부(200)를 제어한다.The image controller 140 transmits the object selection signal and the Z control point signal to the depth map generator 200 to control the depth map generator 200 to generate a depth map according to the Z control point input by the user.

영상 제어부(140)는 깊이 맵 생성부(200)를 통해 생성된 깊이 맵(depth map)을 이용하여 3차원 영상 렌더링부(160)를 제어하여 3차원 영상을 생성하고 이를 디스플레이부(130)에 표시한다.The image controller 140 generates a 3D image by controlling the 3D image rendering unit 160 using a depth map generated by the depth map generator 200 and generates the 3D image on the display 130. Display.

그리드 설정부(300)는 Z 컨트롤 포인트의 이동에 따라 Z축 방향으로 동일한 값을 갖는 위치를 그리드로 표시한다. 그리드 설정부(300)는, 도 3에 도시한 바와 같이, 그리드 간격 설정모듈(310), 그래픽 설정모듈(320) 및 활성화 설정모듈(330)을 포함하여 구성된다. The grid setting unit 300 displays the positions having the same value in the Z-axis direction in a grid according to the movement of the Z control point. As shown in FIG. 3, the grid setting unit 300 includes a grid interval setting module 310, a graphic setting module 320, and an activation setting module 330.

그리드 간격 설정모듈(210)은 사용자의 선택에 따라 3차원 공간에 표시된 그리드의 간격을 설정할 수 있다. 사용자는 편집하고자 하는 객체의 크기나 객체들의 배열상태 등에 따라 그리드의 간격이 넓게 표시되거나 좁게 표시되도록 그리드 간격을 조절할 수 있다.The grid spacing setting module 210 may set the spacing of the grid displayed in the three-dimensional space according to the user's selection. The user can adjust the grid spacing so that the grid spacing is displayed wide or narrow depending on the size of the object to be edited or the arrangement of the objects.

그래픽 설정모듈(220)은 사용자의 선택에 따라 3차원 공간에 표시된 그리드의 색상, 두께, 선 종류 등의 그래픽 설정을 변경할 수 있다. 사용자는 편집하고자 하는 영상의 색상이나 각 개별 객체의 색상, 객체들의 위치 등에 따라 그리드가 더 선명히 표시되도록 그래픽 설정을 조절할 수 있다.The graphic setting module 220 may change graphic settings such as color, thickness and line type of the grid displayed in the 3D space according to a user's selection. The user may adjust the graphic setting to display the grid more clearly according to the color of the image to be edited, the color of each individual object, or the position of the objects.

활성화 설정모듈(230)은 사용자의 선택에 따라 설정된 그리드를 표시하거나 숨길 수 있다.The activation setting module 230 may display or hide the grid set according to the user's selection.

이러한 구성에 따라, 사용자는 작업중인 2차원 영상의 특성과 개인 취향에 따라 그리드의 간격, 그래픽, 활성화 여부 등을 선택하여 사용할 수 있고, 사용자는 2차원 영상에 깊이 정보를 부여하는 편집 작업을 용이하게 수행할 수 있다.According to this configuration, the user can select and use grid spacing, graphics, activation, etc. according to the characteristics of the 2D image being worked on and personal preferences, and the user can easily edit the depth information of the 2D image. Can be done.

이러한 구성에 따라, 본 발명에 따른 영상 변환 장치(100)는 입력된 2차원 영상에서 객체를 선택하고, 객체에 Z 컨트롤 포인트를 부여하여 드래그함으로써 객체의 Z 값을 시각적으로 확인하는 동시에 깊이 정보를 입력할 수 있다.According to such a configuration, the image conversion apparatus 100 according to the present invention visually checks the Z value of the object by selecting an object from the input two-dimensional image, giving a Z control point to the object and dragging the depth information. You can enter

본 발명에 따른 영상 변환 장치(100)는 사용자 입력부(120)를 통해 사용자가 직접 깊이 정보를 설정할 객체를 선택하고, 선택된 객체의 깊이 정보를 Z 컨트롤 포인트를 이동시켜 시각적으로 확인하면서 설정할 수 있으므로 자동 생성 방법과 비교할 때 고품질의 3차원 입체 영상을 생성할 수 있다.The image conversion apparatus 100 according to the present invention may automatically set the object to set the depth information through the user input unit 120 and set the depth information of the selected object while visually confirming by moving the Z control point. Compared with the generation method, high quality 3D stereoscopic images can be generated.

또한, Z 컨트롤 포인트의 이동에 따라 설정된 깊이 정보는 사용자가 직접 깊이 값을 입력하는 과정없이도 깊이 맵 생성부(200)에서 자동적으로 선택된 객체의 깊이 정보로 인식하므로 수동 생성 방법과 비교할 때 작업자의 숙련도가 크게 요구되지 않는 장점이 있다. In addition, since the depth information set according to the movement of the Z control point is recognized as the depth information of the object automatically selected by the depth map generator 200 without the user directly inputting the depth value, the skill of the operator is compared with the manual generation method. There is an advantage that is not greatly required.

또한, 사용자 입력부(120)를 통해 Z 컨트롤 포인트를 이동시킬 때, 그리드 설정부(300)에서 시각적으로 인지할 수 있도록 표시한 그리드와 이동시킨 Z 컨트롤 포인트의 위치를 직관적이고 객관적으로 비교할 수 있으므로 수동 생성 방법에 비하여 전문 작업자가 아니더라도 깊이 정보를 세밀하게 조절할 수 있고 자동 생성 방법에 비하여 고품질의 3차원 입체 영상을 생성할 수 있다. In addition, when the Z control point is moved through the user input unit 120, the grid displayed by the grid setting unit 300 may be intuitively and objectively compared with the position of the moved Z control point. Compared to the generation method, the depth information can be finely adjusted even without a professional worker, and a high quality 3D stereoscopic image can be generated compared to the automatic generation method.

본 발명에 따른 영상 변환 장치(100)는 사용자 입력부(120)를 통해 객체의 깊이 정보를 수동적으로 조절하며, 깊이 맵 생성부(200)에서 조절된 깊이 정보를 자동 인식하는 반자동 3차원 입체 영상 생성 장치로, 사용자 입력부(120), 깊이 맵 생성부(200) 또는 그리드 설정부(300)를 구비함으로써 비숙련자도 직관적으로 고품질의 3차원 입체 영상을 생성할 수 있으므로 자동 생성 방법 및 수동 생성 방법 각각의 문제점을 해결할 수 있다.The image conversion apparatus 100 according to the present invention manually adjusts the depth information of the object through the user input unit 120 and generates a semi-automatic 3D stereoscopic image automatically recognizing the depth information adjusted by the depth map generator 200. The device includes a user input unit 120, a depth map generator 200, or a grid setting unit 300, so that even non-skilled users can intuitively generate high quality 3D stereoscopic images, respectively. Can solve the problem.

특히, 다수의 객체들의 깊이 정보를 설정하여 3차원 입체 영상을 생성하는 경우, 사용자 입력부(120)로 각각의 객체에 Z 컨트롤 포인트를 설정하고 Z 컨트롤 포인트를 이동시켜 객체들의 이동한 Z 컨트롤 포인트 위치를 시각적으로 비교하며 변화시킬 수 있으므로 객체들 사이의 입체감을 더욱 세밀하게 조절할 수 있다.In particular, when generating a 3D stereoscopic image by setting depth information of a plurality of objects, the user input unit 120 sets a Z control point for each object and moves the Z control point to move the Z control point positions of the objects. Can be compared and changed visually, allowing more precise control of the three-dimensional effect between objects.

도 5 내지 도 7은 본 발명의 실시예에 따른 영상 변환 장치의 작업 화면의 제1 내지 제3 상태도이다. 5 to 7 are first to third state diagrams of work screens of an image conversion apparatus according to an embodiment of the present invention.

제1 상태도에 따르면, 도 5의 (a)에 도시한 바와 같이, 사용자 입력부를 통해 2차원 영상에서 객체(A)를 선택한다. 예를 들어, 선택할 객체 영역을 마우스 클릭하여 베지어 곡선을 형성하여 객체를 선택하거나, 이미지 윤곽을 통한 경계면 자동 탐색 방법에 의해 객체를 선택하거나, 또는 미리 설정된 사용자 정의 폐곡선 패턴을 활용하여 객체를 선택할 수 있다. According to the first state diagram, as shown in FIG. 5A, the object A is selected from the 2D image through the user input unit. For example, you can select objects by forming a Bezier curve by clicking on the area of the object you want to select, by selecting an object by automatic edge detection through image contours, or by selecting a custom closed curve pattern. Can be.

다음으로, 도 5의 (b)에 도시한 바와 같이, 선택된 객체가 포함된 영역 중 어느 한 지점을 선택(예를 들어, 마우스 클릭)하여 Z 컨트롤 포인트를 설정하고, 도 5의 (c)에 도시한 바와 같이, Z 컨트롤 포인트를 Z축 방향으로 드래그함으로써 선택한 객체의 Z 좌표를 이동시킨다. Next, as shown in (b) of FIG. 5, the Z control point is set by selecting (for example, clicking a mouse) any point of the region including the selected object, and the (c) of FIG. 5. As shown, the Z coordinate of the selected object is moved by dragging the Z control point in the Z-axis direction.

제2 상태도에 따르면, 도 6에 도시한 바와 같이, 영상 변환 장치의 작업 화면은 2차원 영상이 xy 평면에 위치하고 Z축 방향으로 일정 간격의 그리드가 표시된다.According to the second state diagram, as shown in FIG. 6, in the work screen of the image conversion apparatus, a two-dimensional image is positioned on the xy plane and grids of a predetermined interval are displayed in the Z-axis direction.

제3 상태도에 따르면, 2개 이상의 객체(A, C)가 선택된 경우의 영상 변환 장치의 작업 환경은, 도 7에 도시한 바와 같이, XY 평면에 위치한 객체와 각 객체를 Z축 방향으로 이동시킨 경우 가상의 객체가 그리드 상에 투영되어 표시된 도면이다.According to the third state diagram, when the two or more objects A and C are selected, the working environment of the image conversion apparatus may move an object located in the XY plane and each object in the Z-axis direction as illustrated in FIG. 7. In this case, the virtual object is projected on the grid and displayed.

즉, 사용자는 2차원 영상에서 객체 A를 선택하고 이를 Z축 방향으로 이동시켜 객체 B의 위치로 이동시킬 수 있다. 이에, 객체 B는 깊이 정보 Z'를 갖게 된다. That is, the user can select the object A in the 2D image and move it in the Z-axis direction to the position of the object B. Accordingly, the object B has the depth information Z '.

한편, 2차원 영상에서 객체 C를 선택하고 이에 대해 깊이 정보를 설정하고자 하는 경우, 사용자는 그리드를 이용하여 용이하게 깊이 정보를 설정할 수 있다.On the other hand, when the object C is selected in the 2D image and the depth information is to be set for the user, the user can easily set the depth information using the grid.

객체 C가 객체 A와 동일한 깊이를 갖도록 설정하고자 하는 경우, 사용자는 객체 깊이 정보 Z'와 동일 그리드 상에 객체 C를 이동시킬 수 있다.If the object C is to be set to have the same depth as the object A, the user may move the object C on the same grid as the object depth information Z '.

객체 C의 깊이를 객체 A보다 크거나 작도록 설정하는 경우에도 마찬가지로, Z'를 기준으로 객체 C를 Z'의 위로 이동시키거나 아래로 이동시킴으로써 세밀한 편집이 가능하다.Similarly, when setting the depth of the object C to be larger or smaller than the object A, detailed editing is possible by moving the object C up or down Z 'based on Z'.

이상 설명한 바와 같이, 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상의 객체에 깊이 정보를 입력하고자 하는 경우, 2차원 영상에서 선택된 객체를 3차원 공간에 배열하여 깊이 정보를 입력할 수 있도록 함으로써 직관적인 작업 환경을 제공하여 용이하게 편집할 수 있도록 한다.As described above, when a user wants to input depth information into an object of a 2D image in order to convert the 2D image into a 3D image, the depth information may be input by arranging objects selected in the 2D image in 3D space. This provides an intuitive working environment for easy editing.

또한, 3차원 공간의 Z축 방향에는 깊이가 동일한 위치를 나타내는 그리드를 표시함으로써, 편집작업을 수행하는 사용자의 숙련도와는 관계없이 세밀한 편집 결과물을 얻을 수 있으며, 이에, 변환된 3차원 영상의 품질을 향상시킬 수 있다.In addition, by displaying a grid showing the same position in the Z-axis direction of the three-dimensional space, it is possible to obtain a detailed edit result regardless of the skill of the user performing the editing operation, the quality of the converted three-dimensional image Can improve.

도 4는 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 방법의 흐름도이다.4 is a flowchart of an image conversion method of converting a 2D image into a 3D image according to an exemplary embodiment of the present invention.

본 발명의 실시예에 따른 영상 변환 방법은, 2차원 영상을 3차원 공간에 표시하고(S410), 2차원 영상에서 객체를 선택하고 선택한 객체에 Z 컨트롤 포인트를 설정한다(S420).In the image conversion method according to an embodiment of the present invention, a 2D image is displayed in a 3D space (S410), an object is selected from the 2D image, and a Z control point is set to the selected object (S420).

다음으로, 영상 변환 방법은 Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하고(S430), Z 컨트롤 포인트 이동에 따른 Z값 변화를 객체의 깊이 정보로 인식한다(S440). Next, in the image conversion method, the Z control point is moved in the Z-axis direction to project a virtual object to be displayed (S430), and the Z value change according to the movement of the Z control point is recognized as depth information of the object (S440).

또한, 영상 변환 방법은 객체의 깊이 정보에 따라 깊이 맵 정보를 생성하고(S450), 3차원 영상을 렌더링한다(S460).In addition, the image conversion method generates depth map information according to the depth information of the object (S450), and renders a 3D image (S460).

영상 변환 장치에서 입력된 2차원 영상 3차원 공간의 XY 평면에 디스플레이하고(S410), 사용자는 디스플레이부에서 2차원 영상을 확인하고 사용자 입력부를 통해 객체를 선택하고 선택된 객체에 Z 컨트롤 포인트를 설정한다(S420).The display device displays the 2D image input on the XY plane of the 2D image 3D space (S410), and the user checks the 2D image on the display unit, selects an object through the user input unit, and sets a Z control point on the selected object. (S420).

S420 단계는 2차원 영상에서 선택한 객체가 2개 이상인 경우 각 객체에 Z 컨트롤 포인트를 설정하고 각 객체를 Z축으로 이동시킴으로써 깊이 정보를 입력 또는 변화시킬 수 있다.In operation S420, when two or more objects are selected in the 2D image, depth control may be input or changed by setting a Z control point for each object and moving each object in the Z axis.

이때, 2개 이상의 선택된 객체에 설정된 Z 컨트롤 포인트 중 하나만 활성화하여 Z축 방향으로 이동시킴으로써 각각의 객체의 깊이 정보를 서로 다르게 변화 또는 입력할 수 있다.In this case, only one of the Z control points set on the two or more selected objects may be activated and moved in the Z-axis direction to change or input depth information of each object differently.

사용자 입력부는 Z 컨트롤 포인트를 Z축 방향으로 드래그하여 Z 컨트롤 포인트를 3차원 공간상의 소정 위치로 이동시키고, 영상 제어부는 사용자가 설정한 Z 컨트롤 포인트를 포함하는 가상의 평면에 해당 객체를 투영하여 디스플레이한다(S430). The user input unit drags the Z control point in the Z-axis direction to move the Z control point to a predetermined position in a three-dimensional space, and the image control unit displays the object by projecting the object on a virtual plane including the Z control point set by the user. (S430).

이때, S430 단계는 Z 컨트롤 포인트 이동에 따라 Z 축 방향으로 동일한 값을 갖는 위치를 그리드로 표시하고 그리드가 표시된 공간에 가상의 객체를 투영하여 표시할 수 있다.In this case, step S430 may display a position having the same value in the Z-axis direction as a grid according to the movement of the Z control point, and display the virtual object by projecting the virtual object in the space where the grid is displayed.

또한, 2개 이상의 객체가 선택된 경우, S430 단계에서 2개 이상의 객체에 설정된 Z 컨트롤 포인트의 Z 좌표 변화값에 따라 2개 이상의 가상의 객체를 함께 투영하여 표시할 수 있다.In addition, when two or more objects are selected, two or more virtual objects may be projected together and displayed according to the Z coordinate change value of the Z control point set to the two or more objects in operation S430.

깊이 맵 생성부는 사용자가 설정한 Z 컨트롤 포인트 값의 변화에 따라 객체의 깊이 정보를 인식하고(S440) 이를 이용하여 깊이 맵을 생성한다(S450). 또한, 3차원 영상 렌더링부는 생성된 깊이 맵을 이용하여 2차원 영상을 3차원 영상으로 렌더링한다.The depth map generator recognizes the depth information of the object according to the change of the Z control point value set by the user (S440), and generates a depth map using this (S450). Also, the 3D image rendering unit renders the 2D image into the 3D image using the generated depth map.

이상 설명한 바와 같이, 본 발명은 2차원 평면에서 객체를 선택하고 해당 객체에 Z 컨트롤 포인트를 설정하여 드래그하는 방법으로 깊이 정보를 설정한다. 이에, 3차원 공간에서 객체가 갖는 Z값이 곧 깊이 정보가 되므로 사용자는 객체의 Z값, 즉, x, y 평면으로부터의 높이를 통해 해당 객체들에 부여된 깊이 정보를 시각적으로 인식할 수 있다. As described above, the present invention sets depth information by selecting an object in a two-dimensional plane, dragging a Z control point by setting the object. Thus, since the Z value of the object becomes the depth information in the three-dimensional space, the user can visually recognize the depth information given to the corresponding objects through the Z value of the object, that is, the height from the x and y planes. .

또한, 여러 개의 객체에 각각 Z 컨트롤 포인트를 부여한 경우, 각 객체들의 Z값을 한 화면에서 확인하여 객체들 간 깊이 정보의 차이를 상호 비교할 수 있기 때문에 전체적인 깊이 정보를 용이하게 인식하고 편집할 수 있다.In addition, when a Z control point is assigned to each of several objects, the Z value of each object can be checked on one screen so that the difference in depth information between objects can be compared with each other, so that the overall depth information can be easily recognized and edited. .

본 발명의 또 다른 측면에 따르면, 입력된 2차원 영상을 3차원 공간에 표시하는 단계, 2차원 영상에서 객체를 선택하고 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계, Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계, 및 Z 컨트롤 포인트 이동에 따른 Z값 변화를 객체의 깊이 정보로 인식하는 단계를 포함하는 영상 변환 방법이 프로그램으로 기록되고 전자장치에서 판독 가능한 기록매체가 제공된다.According to another aspect of the invention, displaying the input two-dimensional image in a three-dimensional space, selecting an object in the two-dimensional image and setting a Z control point to the selected object, Z control point in the Z-axis direction The image conversion method comprising moving and projecting and displaying a virtual object, and recognizing the change of Z value according to the movement of the Z control point as the depth information of the object is recorded by the program and the recording medium readable by the electronic device Is provided.

영상 변환 방법이 프로그램으로 작성 가능하며, 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 프로그래머에 의하여 용이하게 추론될 수 있다. An image conversion method can be written in a program, and codes and code segments constituting the program can be easily inferred by a programmer in the art.

또한, 영상 변환 방법의 프로그램은 전자장치가 읽을 수 있는 정보저장매체(Readable Medium)에 저장되고, 전자장치에 의하여 읽혀지고 실행됨으로써 2차원 영상을 3차원 영상으로 변환할 수 있다.In addition, the program of the image conversion method is stored in an information storage medium (Readable Medium) that can be read by the electronic device, it is read and executed by the electronic device can convert a two-dimensional image to a three-dimensional image.

본 발명에 따라 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치는 프로세서, 메모리, 저장 장치 및 입/출력 장치를 컴포넌트로서 포함할 수 있으며, 이들 컴포넌트는 예컨대 시스템 버스를 이용하여 상호 접속될 수 있다. According to the present invention, an image conversion apparatus for converting a 2D image into a 3D image may include a processor, a memory, a storage device, and an input / output device as components, and these components may be interconnected using, for example, a system bus. have.

상기 프로세서는 본 장치 내에서의 실행을 위한 명령을 처리할 수 있다. 일 구현예에서, 이 프로세서는 싱글 쓰레드(Single-threaded) 프로세서일 수 있으며, 다른 구현예에서 본 프로세서는 멀티 쓰레드(Multi0threaded) 프로세서일 수 있다.본 프로세서는 메모리 또는 저장 장치 상에 저장된 명령을 처리하는 것이 가능한다. The processor may process instructions for execution within the device. In one implementation, the processor may be a single-threaded processor, and in other implementations, the processor may be a multi-threaded processor. The processor processes instructions stored on memory or storage devices. It is possible to do

한편, 메모리는 본 장치 내에서 정보를 저장한다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 상술한 저장 장치는 본 장치에 대한 대용량 저장부를 제공할 수 있다. 일 구현예의 경우, 저장 장치는 컴퓨터로 판독 가능한 매체이다. 다양한 서로 다른 구현예에서, 저장 장치는 예컨대 하드디스크 장치, 광학디스크장치, 혹은 어떤 다른 대용량 저장 장치를 포함할 수도 있다. On the other hand, the memory stores information in the apparatus. In one embodiment, the memory is a computer readable medium. In one implementation, the memory may be a volatile memory unit, and for other implementations, the memory may be a nonvolatile memory unit. The storage device described above can provide a mass storage for the device. In one embodiment, the storage device is a computer readable medium. In various different implementations, the storage device may include, for example, a hard disk device, an optical disk device, or some other mass storage device.

상술한 입/출력 장치는 본 발명에 따른 장치에 대한 입/출력 동작을 제공한다. 일 구현예에서, 입/출력 장치는 예컨대 이더넷 카드와 같은 하나 이상의 네트워크 인터페이스 장치, 예컨대 RS-232 포트와 같은 직렬 통신 장치 및/또는 예컨대 802.11 카드와 같은 무선 인터페이스 장치를 포함할 수 있다. 다른 구현예에서, 입/출력 장치는 다른 입/출력 장치로 출력 데이터를 전송하고 입력 데이터를 수신하도록 구성된 드라이버 장치, 예컨대 키보드, 프린터 및 디스플레이 장치를 포함할 수 있다. The above-described input / output device provides an input / output operation for the device according to the present invention. In one implementation, the input / output device may include one or more network interface devices such as, for example, an Ethernet card, such as a serial communication device such as an RS-232 port and / or a wireless interface device such as, for example, an 802.11 card. In other implementations, the input / output device can include driver devices, such as keyboards, printers, and display devices, configured to send output data to and receive input data from other input / output devices.

본 발명에 따른 장치는 하나 이상의 프로세서로 하여금 앞서 설명한 기능들과 프로세스를 수행하도록 하는 명령에 의하여 구동될 수 있다. 예를 들어 그러한 명령으로는, 예컨대 JavaScript나 ECMAScript 명령 등의 스크립트 명령과 같이 해석되는 명령이나 실행 가능한 코드 혹은 컴퓨터로 판독 가능한 매체에 저장되는 기타의 명령이 포함될 수 있다. 나아가 본 발명에 따른 장치는 서버 팜(Sever Farm)과 같이 네트워크에 걸쳐서 분산형으로 구현될 수 있으며, 혹은 단일의 컴퓨터 장치에서 구현될 수도 있다. The apparatus according to the invention may be driven by instructions that cause one or more processors to perform the functions and processes described above. For example, such instructions may include instructions that are interpreted, for example, script instructions such as JavaScript or ECMAScript instructions, or executable code or other instructions stored on a computer readable medium. Furthermore, the device according to the present invention may be implemented in a distributed manner over a network, such as a server farm, or may be implemented in a single computer device.

비록 본 명세서와 도면에서는 예시적인 장치 구성을 기술하고 있지만, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.Although the specification and drawings describe exemplary device configurations, the functional operations and subject matter implementations described herein may be embodied in other types of digital electronic circuitry, or modified from the structures and structural equivalents disclosed herein. It may be implemented in computer software, firmware or hardware, including, or a combination of one or more of them. Implementations of the subject matter described herein relate to one or more computer program products, ie computer program instructions encoded on a program storage medium of tangible type for controlling or by the operation of an apparatus according to the invention. It may be implemented as the above module. The computer readable medium may be a machine readable storage device, a machine readable storage substrate, a memory device, a composition of materials affecting a machine readable propagated signal, or a combination of one or more thereof.

"처리 시스템", "처리 장치" 및 "하위 시스템"이라는 용어는 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 기구, 장치 및 기계를 포괄한다. 처리 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다. The terms "processing system", "processing device" and "subsystem" encompass all the instruments, devices and machines for processing data, including, for example, programmable processors, computers or multiple processors or computers. The processing system may include, in addition to hardware, code that forms an execution environment for a computer program on demand, such as code constituting processor firmware, a protocol stack, a database management system, an operating system, or a combination of one or more thereof. .

본 발명에 따른 장치에 탑재되고 본 발명에 따른 방법을 실행하는 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램이 파일 시스템의 파일에 반드시 대응해야 하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다. A computer program (also known as a program, software, software application, script or code) mounted on an apparatus according to the invention and executing a method according to the invention is a programming comprising a compiled or interpreted language or a priori or procedural language. It can be written in any form of language, and can be deployed in any form, including stand-alone programs or modules, components, subroutines, or other units suitable for use in a computer environment. A computer program does not necessarily correspond to a file in a file system. A program may be in a single file provided to the requested program, in multiple interactive files (eg, a file that stores one or more modules, subprograms, or parts of code), or part of a file that holds other programs or data. (Eg, one or more scripts stored in a markup language document). The computer program may be deployed to run on a single computer or on multiple computers located at one site or distributed across multiple sites and interconnected by a communication network.

컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함한다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.Computer-readable media suitable for storing computer program instructions and data include, for example, semiconductor memory devices such as EPROM, EEPROM, and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks, and CD-ROMs. And all forms of nonvolatile memory, media and memory devices, including DVD-ROM discs. The processor and memory can be supplemented by or integrated with special purpose logic circuitry.

본 명세서에서 설명한 주제의 구현물은 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 데이터 통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.Implementations of the subject matter described herein may include, for example, a backend component such as a data server, or include a middleware component such as, for example, an application server, or a web browser or graphical user, for example, where a user may interact with the implementation of the subject matter described herein. It can be implemented in a computing system that includes a front end component such as a client computer having an interface or any combination of one or more of such back end, middleware or front end components. The components of the system may be interconnected by any form or medium of digital data communication such as, for example, a communication network.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.Although the specification includes numerous specific implementation details, these should not be construed as limiting to any invention or the scope of the claims, but rather as a description of features that may be specific to a particular embodiment of a particular invention. It must be understood. Certain features that are described in this specification in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment can also be implemented in multiple embodiments individually or in any suitable subcombination. Furthermore, while the features may operate in a particular combination and may be initially depicted as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, the claimed combination being a subcombination Or a combination of subcombinations.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a specific order, it should not be understood that such operations must be performed in the specific order or sequential order shown in order to obtain desirable results or that all illustrated operations must be performed. In certain cases, multitasking and parallel processing may be advantageous. Moreover, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products. It should be understood that it can.

본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. Specific embodiments of the subject matter described in this specification have been described. Other embodiments are within the scope of the following claims. For example, the actions recited in the claims can be performed in a different order but still achieve desirable results. As an example, the process depicted in the accompanying drawings does not necessarily require that particular illustrated or sequential order to obtain desirable results. In certain implementations, multitasking and parallel processing may be advantageous.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.The foregoing description presents the best mode of the invention, and provides examples to illustrate the invention and to enable those skilled in the art to make and use the invention. The specification thus produced is not intended to limit the invention to the specific terms presented. Thus, while the present invention has been described in detail with reference to the examples described above, those skilled in the art can make modifications, changes and variations to the examples without departing from the scope of the invention.

본 발명은 2차원 영상을 3차원 영상으로 변환하기 위하여 3차원 공간 상에서 객체의 Z좌표를 조절하여 깊이 정보를 입력 또는 변화시키는 인터페이스 또는 Z축 방향에는 깊이가 동일한 위치를 나타내는 그리드를 표시된 3차원 공간 상에서 객체의 Z좌표를 조절하여 깊이 정보를 입력 또는 변화시키는 인터페이스, 이를 이용한 영상 변환 장치와 방법 및 그에 대한 기록매체를 제공하는데 이용될 수 있다.The present invention is an interface for inputting or changing depth information by adjusting the Z coordinate of an object in a three-dimensional space in order to convert a two-dimensional image into a three-dimensional image or a three-dimensional space in which a grid representing a position having the same depth is displayed in the Z-axis direction. It can be used to provide an interface for inputting or changing depth information by adjusting the Z coordinate of an object on the image, an image converting apparatus and method using the same, and a recording medium thereof.

Claims (14)

2차원 영상에서 선택된 객체에 Z 컨트롤 포인트를 설정하고 상기 Z 컨트롤 포인트를 Z축 방향으로 이동시켜 깊이 정보를 입력하는 사용자 입력부;A user input unit for setting a Z control point on a selected object in a 2D image and inputting depth information by moving the Z control point in a Z axis direction; 상기 Z 컨트롤 포인트의 이동에 따라 상기 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성부;A depth map generator for recognizing depth information of the object according to the movement of the Z control point and generating a depth map; 상기 2차원 영상과 입력된 깊이 정보에 따라 상기 객체를 가상의 평면에 투영하여 디스플레이하는 디스플레이부; 및A display unit configured to display the object by projecting the object onto a virtual plane according to the 2D image and the input depth information; And 상기 객체에 설정된 Z 컨트롤 포인트의 이동에 따라 상기 객체를 가상의 평면에 투영하여 표시하도록 제어하는 영상 제어부;를 포함하는 영상 변환 장치.And an image controller configured to control to display the object by projecting the object on a virtual plane according to the movement of the Z control point set in the object. 제1항에 있어서,The method of claim 1, 상기 Z 컨트롤 포인트의 이동에 따라 상기 Z축 방향으로 동일한 값을 갖는 위치를 그리드로 표시하는 그리드 설정부;를 더 포함하는 영상 변환 장치.And a grid setting unit configured to display a grid having a same value in the Z-axis direction as the Z control point moves. 제2항에 있어서,The method of claim 2, 상기 그리드 설정부는, The grid setting unit, 상기 그리드 간격을 조절하는 그리드 간격 설정모듈;A grid spacing module for adjusting the grid spacing; 상기 그리드의 색상, 두께 및 선 종류 중 적어도 하나를 포함하는 그래픽 조건을 설정하는 그래픽 설정모듈; 및A graphic setting module for setting a graphic condition including at least one of color, thickness and line type of the grid; And 상기 그리드의 표시 여부를 설정하는 활성화 설정모듈;An activation setting module for setting whether to display the grid; 을 포함하는 것을 특징으로 하는 영상 변환 장치.Image conversion apparatus comprising a. 제1항에 있어서,The method of claim 1, 상기 깊이 맵에 기초하여 상기 2차원 영상에 대해 서로 다른 시차 정보를 갖는 좌측 영상과 우측 영상을 생성하고, 상기 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성하는 3차원 영상 렌더링부;를 더 포함하는 영상 변환 장치.A 3D image rendering unit generating a left image and a right image having different parallax information with respect to the 2D image based on the depth map, and generating a 3D image by combining the left image and the right image; Included video conversion device. 제1항에 있어서,The method of claim 1, 상기 깊이 맵 생성부는,The depth map generator, 상기 사용자 입력부로부터 선택된 객체의 정보를 추출하는 객체정보 추출모듈;An object information extraction module for extracting information of the selected object from the user input unit; 상기 Z 컨트롤 포인트의 이동에 따른 Z값 변화를 상기 객체의 깊이 정보로 인식하는 깊이정보 설정모듈; 및A depth information setting module that recognizes a Z value change according to the movement of the Z control point as depth information of the object; And 상기 인식된 객체의 깊이 정보에 따라 깊이 맵을 생성하는 깊이 맵 생성모듈;A depth map generation module generating a depth map according to depth information of the recognized object; 을 포함하는 것을 특징으로 하는 영상 변환 장치.Image conversion apparatus comprising a. 제1항에 있어서,The method of claim 1, 상기 영상 제어부는, The video controller, 상기 선택된 객체가 2개 이상인 경우, 각 객체에 설정된 Z 컨트롤 포인트의 이동에 따라 각 객체들을 가상의 평면에 투영하여 표시하도록 제어하는 것을 특징으로 하는 영상 변환 장치.And when the number of the selected objects is two or more, controlling each object to be displayed by projecting on the virtual plane according to the movement of the Z control point set for each object. 제1항에 있어서,The method of claim 1, 상기 영상 제어부는,The video controller, 상기 사용자의 선택에 따라 각기 다른 깊이 정보가 입력된 적어도 둘 이상의 객체를 깊이에 따라 세로축으로 정렬시켜 표시하는 것을 특징으로 하는 영상 변환 장치.And at least two or more objects in which different depth information is input according to the user's selection, aligned and displayed in the vertical axis according to the depth. 입력된 2차원 영상을 3차원 공간에 표시하는 단계;Displaying the input 2D image in a 3D space; 상기 2차원 영상에서 객체를 선택하고 상기 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계;Selecting an object in the 2D image and setting a Z control point on the selected object; 상기 Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계; 및Moving the Z control point in a Z-axis direction to project and display a virtual object; And 상기 Z 컨트롤 포인트 이동에 따른 Z값 변화를 상기 객체의 깊이 정보로 인식하는 단계;Recognizing a Z value change according to the movement of the Z control point as depth information of the object; 를 포함하는 영상 변환 방법.Image conversion method comprising a. 제8항에 있어서,The method of claim 8, 상기 Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계는, Moving the Z control point in the Z-axis direction to project and display a virtual object, 상기 Z 컨트롤 포인트 이동에 따라 상기 Z축 방향으로 동일한 값을 갖는 위치를 그리드로 표시하고 상기 그리드가 표시된 공간에 상기 가상의 객체를 투영하여 표시하는 것을 특징으로 하는 영상 변환 방법.And displaying positions having the same value in the Z-axis direction as a grid as the Z control point moves and projecting the virtual object in a space where the grid is displayed. 제8항에 있어서,The method of claim 8, 상기 2차원 영상에서 객체를 선택하고 상기 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계는,Selecting an object in the 2D image and setting a Z control point to the selected object, 상기 2차원 영상에서 선택한 객체가 2개 이상인 경우 각 객체에 Z 컨트롤 포인트를 설정하는 것을 특징으로 하는 영상 변환 방법.And Z control point is set to each object when two or more objects are selected from the 2D image. 제10항에 있어서, The method of claim 10, 상기 2차원 영상에서 객체를 선택하고 상기 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계는,Selecting an object in the 2D image and setting a Z control point on the selected object, 상기 2개 이상의 객체에 설정된 Z 컨트롤 포인트 중 하나만 활성화 상태로 유지하는 것을 특징으로 하는 영상 변환 방법.And only one of the Z control points set in the two or more objects is kept active. 제10항에 있어서,The method of claim 10, 상기 Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계는,Moving the Z control point in the Z-axis direction to project and display a virtual object, 상기 2개 이상의 객체에 설정된 Z 컨트롤 포인트를 각각 Z축 방향으로 이동시켜 2개 이상의 가상의 객체를 함께 투영하여 표시하는 것을 특징으로 하는 영상 변환 방법.And moving the Z control points set to the two or more objects in the Z-axis direction to project two or more virtual objects together and displaying the same. 제8항에 있어서,The method of claim 8, 상기 Z 컨트롤 포인트 이동에 따른 Z값 변화를 상기 객체의 깊이 정보로 인식하는 단계 이후에,After the step of recognizing the change of Z value according to the movement of the Z control point as the depth information of the object, 상기 객체의 깊이 정보에 따라 깊이 맵을 생성하는 단계; 및Generating a depth map according to depth information of the object; And 상기 깊이 맵에 따라 3차원 영상을 렌더링하는 단계;Rendering a 3D image according to the depth map; 를 더 포함하는 것을 특징으로 하는 영상 변환 방법.The image conversion method further comprises. 입력된 2차원 영상을 3차원 공간에 표시하는 단계;Displaying the input 2D image in a 3D space; 상기 2차원 영상에서 객체를 선택하고 상기 선택한 객체에 Z 컨트롤 포인트를 설정하는 단계;Selecting an object in the 2D image and setting a Z control point on the selected object; 상기 Z 컨트롤 포인트를 Z축 방향으로 이동시켜 가상의 객체를 투영하여 표시하는 단계; 및Moving the Z control point in a Z-axis direction to project and display a virtual object; And 상기 Z 컨트롤 포인트 이동에 따른 Z값 변화를 상기 객체의 깊이 정보로 인식하는 단계;Recognizing a Z value change according to the movement of the Z control point as depth information of the object; 를 포함하는 영상 변환 방법이 프로그램으로 기록되고 전자장치에서 판독 가능한 기록매체.And a recording medium recorded by the program and readable by the electronic device.
PCT/KR2012/007372 2011-11-29 2012-09-14 Image converting apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same Ceased WO2013081281A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020110125866A KR101388668B1 (en) 2011-11-29 2011-11-29 Conversion device for two dimensional image to three dimensional image, method thereof and recordable medium storing the method
KR10-2011-0125865 2011-11-29
KR1020110125865A KR20130059733A (en) 2011-11-29 2011-11-29 Conversion device for two dimensional image to three dimensional image, method thereof and recordable medium storing the method
KR10-2011-0125866 2011-11-29

Publications (1)

Publication Number Publication Date
WO2013081281A1 true WO2013081281A1 (en) 2013-06-06

Family

ID=48535698

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/007372 Ceased WO2013081281A1 (en) 2011-11-29 2012-09-14 Image converting apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same

Country Status (1)

Country Link
WO (1) WO2013081281A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000041329A (en) * 1998-12-22 2000-07-15 박남은 Stereoscopic image converting method and apparatus
JP2005526477A (en) * 2002-05-17 2005-09-02 ジェー. ヴィサヤセィル,ジョン AC-DC converter with bidirectional thyristor valve
JP2009290905A (en) * 2009-09-10 2009-12-10 Panasonic Corp Displaying apparatus and method
KR20090129175A (en) * 2008-06-12 2009-12-16 성영석 Image conversion method and device
JP2011239398A (en) * 2010-05-03 2011-11-24 Thomson Licensing Method for displaying setting menu, and corresponding device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000041329A (en) * 1998-12-22 2000-07-15 박남은 Stereoscopic image converting method and apparatus
JP2005526477A (en) * 2002-05-17 2005-09-02 ジェー. ヴィサヤセィル,ジョン AC-DC converter with bidirectional thyristor valve
KR20090129175A (en) * 2008-06-12 2009-12-16 성영석 Image conversion method and device
JP2009290905A (en) * 2009-09-10 2009-12-10 Panasonic Corp Displaying apparatus and method
JP2011239398A (en) * 2010-05-03 2011-11-24 Thomson Licensing Method for displaying setting menu, and corresponding device

Similar Documents

Publication Publication Date Title
EP3769509B1 (en) Multi-endpoint mixed-reality meetings
WO2014115953A1 (en) Three-dimensional content producing system and method therefor
WO2019124726A1 (en) Method and system for providing mixed reality service
US8441480B2 (en) Information processing apparatus, information processing system, and computer readable medium
EP2612220A1 (en) Method and apparatus for interfacing
CN101821705A (en) Pointer controlling apparatus
US20200042284A1 (en) Augmented reality audio mixing
CN115061679B (en) Offline RPA element picking method and system
KR102442637B1 (en) System and Method for estimating camera motion for AR tracking algorithm
WO2016080596A1 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
EP4168879B1 (en) Method for remote assistance and device
CN105912101B (en) Projection control method and electronic equipment
JP7173826B2 (en) Programmable logic controller system, programming support device and computer program
WO2024025034A1 (en) Method for simultaneously creating 2d and 3d content and converged creation device therefor
WO2018194340A1 (en) Method and device for providing content for layered hologram
WO2013081281A1 (en) Image converting apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same
WO2013081304A1 (en) Image conversion apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same
US10921977B2 (en) Information processing apparatus and information processing method
JP7179633B2 (en) Measuring method, measuring device and program
US11287789B2 (en) Program development support device, program development support system, program development support method, and non-transitory computer-readable recording medium
JP7212496B2 (en) Programmable logic controller system, programming support device and computer program
US20230196725A1 (en) Image annotation system and method
CN113495162B (en) Control systems for automated optical inspection equipment
CN117666884A (en) Interactive processing method and device
CN117224952A (en) Display control method, display control device, storage medium and electronic equipment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12853740

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12853740

Country of ref document: EP

Kind code of ref document: A1