[go: up one dir, main page]

RU2606875C2 - Method and system for displaying scaled scenes in real time - Google Patents

Method and system for displaying scaled scenes in real time Download PDF

Info

Publication number
RU2606875C2
RU2606875C2 RU2015101179A RU2015101179A RU2606875C2 RU 2606875 C2 RU2606875 C2 RU 2606875C2 RU 2015101179 A RU2015101179 A RU 2015101179A RU 2015101179 A RU2015101179 A RU 2015101179A RU 2606875 C2 RU2606875 C2 RU 2606875C2
Authority
RU
Russia
Prior art keywords
scene
cameras
model
rendering
frames
Prior art date
Application number
RU2015101179A
Other languages
Russian (ru)
Other versions
RU2015101179A (en
Inventor
Владимир Викторович Уфнаровский
Михаил Николаевич Смирнов
Николай Александрович Пенкрат
Алексей Алексеевич Гориловский
Владимир Алексеевич Кочерыжкин
Иван Александрович Богданюк
Сергей Игоревич ФЕДОРЕНКО
Евгений Игоревич Бочаров
Original Assignee
Общество с ограниченной ответственностью "Системы Компьютерного зрения"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "Системы Компьютерного зрения" filed Critical Общество с ограниченной ответственностью "Системы Компьютерного зрения"
Priority to RU2015101179A priority Critical patent/RU2606875C2/en
Publication of RU2015101179A publication Critical patent/RU2015101179A/en
Application granted granted Critical
Publication of RU2606875C2 publication Critical patent/RU2606875C2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

FIELD: image forming devices.
SUBSTANCE: invention relates to displaying scaled scenes in real time. Method of displaying scaled scenes in real time, comprising receiving a video stream of frames from one or more groups of video cameras, each group having a master video camera for synchronisation on shooting parameters, which shoot required scene and located at predetermined fixed positions or on calculated positions; performing reconstruction of dynamic elements of a 3D model of a scene based on obtained video stream of frames so that static model is supplemented with new objects together with pixel by pixel referencing of texture coordinates to frames in a set; and forming and superimposing texture of objects on 3D model of scene in real time; displaying views of displaying 3D model of scene; rendering 3D model of scene in accordance with configuration of display devices; displaying rendering result on least one display device.
EFFECT: reduced computational load on processing device when constructing 3D model.
28 cl, 2 dwg

Description

ОБЛАСТЬ ТЕХНИКИFIELD OF TECHNOLOGY

Изобретение относится, в общем, к графическому отображению многомерных объектов. Более конкретно, изобретение относится к графическому отображению трехмерной реалистичной сцены с разных ракурсов на основе 3D-модели и видеопотоков.The invention relates, in general, to the graphic display of multidimensional objects. More specifically, the invention relates to graphical display of a three-dimensional realistic scene from different angles based on a 3D model and video streams.

УРОВЕНЬ ТЕХНИКИBACKGROUND

Известен способ, описанный в заявке на патент US20140015832 «Система и способ для реализации трехмерных (3D) технологий», дата публикации 16.01.2014, патентообладатель(-и) Dmitry Kozko, Ivan Onuchin. The known method described in patent application US20140015832 "System and method for implementing three-dimensional (3D) technologies", publication date 1/16/2014, patent holder (s) Dmitry Kozko, Ivan Onuchin.

В изобретении раскрывается система реконструкции 3D модели по набору видеофайлов, снимающих одну сцену. Видеофайлы синхронизируются при помощи глобального события (например, вспышки), затем на каждом кадре вычисляется местоположение каждой видеокамеры (предполагается, что видеокамеры не закреплены абсолютно неподвижно), производится реконструкция 3D модели, выделяются и накладываются текстуры на 3D модель, распознаются и симулируются погодные явления. Данная система предназначена в основном для трекинга машин.The invention discloses a 3D model reconstruction system for a set of video files shooting a single scene. Video files are synchronized using a global event (for example, a flash), then on each frame the location of each video camera is calculated (it is assumed that the cameras are not fixed absolutely motionless), the 3D model is reconstructed, textures are selected and superimposed on the 3D model, weather phenomena are recognized and simulated. This system is intended mainly for tracking machines.

Недостатком данного изобретения является невозможность работы в режиме реального времени и с высоким разрешением, вызванная тем, что видеокамеры не располагаются абсолютно фиксировано и реконструкция происходит на каждом кадре.The disadvantage of this invention is the inability to work in real time and with high resolution, due to the fact that the cameras are not located absolutely fixed and reconstruction occurs on each frame.

Известен способ, описанный в патенте US6940538 «Извлечение карты глубины по данным камеры слежения и созданной трехмерной модели», дата публикации 06.09.2005, патентообладатель Sony Electronics Inc. The known method described in patent US6940538 "Removing a depth map according to the security camera and the created three-dimensional model", publication date 09/06/2005, patent holder Sony Electronics Inc.

Система синтеза видео по данным с реальной видеокамеры и с дополнительным синтетическим объектом. Система состоит из одной зафиксированной видеокамеры, которая выдает текстуры для уже подготовленной модели. В модель вводится синтетический объект. Далее синтезируется видео с позиции реальной видеокамеры и полем зрения, совпадающим с реальной видеокамерой, на котором отображается синтетический объект так, как будто он является частью сцены.A video synthesis system based on data from a real video camera and with an additional synthetic object. The system consists of one fixed video camera that provides textures for an already prepared model. A synthetic object is introduced into the model. Next, the video is synthesized from the position of a real video camera and with a field of view matching the real video camera, which displays a synthetic object as if it is part of a scene.

Недостатком данного решения является то, что используется всего одна видеокамера, что не позволяет снимать масштабную сцену и не позволяет менять точку, с которой синтезируется видео.The disadvantage of this solution is that only one video camera is used, which does not allow you to shoot a large-scale scene and does not allow you to change the point from which the video is synthesized.

Известен способ, описанный в патенте US6674461 «Расширенный вид морфинга», дата публикации 06.01.2004, патентообладатель Matthew H. Klapman. The known method described in patent US6674461 "Advanced view of morphing", publication date 01/06/2004, patent holder Matthew H. Klapman.

В изобретении раскрывается принцип съемки сцены, в котором используются несколько видеокамер, с которых берётся изображение и накладывается на синтезированную виртуальную сцену.The invention discloses the principle of shooting a scene in which several cameras are used, from which an image is taken and superimposed on a synthesized virtual scene.

Недостатком данного решения является то, что он ориентирован на съемку одного объекта, а не сцены, поэтому авторы не решают задачу различия освещенности в разных частях сцены и настройки видеокамер в реальном времени. Кроме того, система имеет ограничение в три видеокамеры, что является существенным сужением области применения.The disadvantage of this solution is that it is focused on shooting a single object, not a scene, so the authors do not solve the problem of lighting differences in different parts of the scene and setting up video cameras in real time. In addition, the system has a limitation of three cameras, which is a significant narrowing of the scope.

СУЩНОСТЬ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION

Данное изобретение направлено на устранение недостатков, присущих существующим решениям.The present invention addresses the disadvantages inherent in existing solutions.

Технический результат заключается в повышении эффективности работы системы в реальном времени, при которой снижается вычислительная нагрузка на построение модели, а также достигается максимально возможная точность моделирования до 1 пикселя входного изображения с видеокамеры. Данный технический эффект достигается благодаря использованию одновременно статического и динамического моделирования отдельных частей сцены.The technical result is to increase the efficiency of the system in real time, which reduces the computational load on the construction of the model, and also achieves the highest possible modeling accuracy of up to 1 pixel of the input image from the video camera. This technical effect is achieved through the use of both static and dynamic modeling of individual parts of the scene.

Технический результат достигается благодаря способу отображения масштабных сцен в режиме реального времени, который согласно изобретению реализуется следующим образом: получают видеопоток кадров из одной или более групп видеокамер, причем каждая группа имеет мастер-видеокамеру для синхронизации, снимающих требуемую сцену и расположенных на заранее заданных фиксированных позициях или на вычисленных позициях; проводят реконструкцию динамических элементов 3D модели сцены на основе полученного видеопотока кадров так, что статическая модель дополняется новыми объектами вместе с попиксельной привязкой текстурных координат к кадрам в наборе; формируют и накладывают текстуры объектов на 3D модель в реальном времени; выставляют ракурсы отображения 3D модели; проводят рендеринг 3D модели в соответствии с конфигурацией устройств отображения; выводят результат рендеринга на, по меньшей мере, одно устройство отображения.The technical result is achieved due to the method of displaying large-scale scenes in real time, which according to the invention is implemented as follows: receive a video stream of frames from one or more groups of cameras, each group having a master video camera for synchronization, shooting the desired scene and located at predetermined fixed positions or at calculated positions; reconstruction of the dynamic elements of the 3D scene model based on the received video stream of frames so that the static model is supplemented with new objects along with pixel-by-pixel mapping of texture coordinates to frames in the set; form and impose textures of objects on the 3D model in real time; set the display angles of the 3D model; render 3D models in accordance with the configuration of display devices; outputting the result of rendering to at least one display device.

После получения кадров с нескольких видеокамер проводят комбинирование их для получения набора кадров, соответствующих одному моменту времени жизни сцены.After receiving frames from several cameras, they are combined to obtain a set of frames corresponding to one moment in the life time of the scene.

Для группы видеокамер известно их взаимное расположение и направление съемки в любой момент времени.For a group of cameras, their relative position and direction of shooting at any time are known.

Направление съемки видеокамер выбирается, исходя из необходимости покрыть некоторую сцену, на которой расположены как неподвижные, так и подвижные объекты.The shooting direction of the video cameras is selected based on the need to cover a certain scene, on which both stationary and moving objects are located.

В группе видеокамер выделяют мастер-видеокамеры.In the group of video cameras, master video cameras are allocated.

По меньшей мере, две камеры в наборе синхронизируются по экспозиции, балансу белого и частоте кадров в секунду в выдаваемом изображении.At least two cameras in the set are synchronized in exposure, white balance, and frame rate per second in the output image.

По меньшей мере, две камеры могут регистрировать изображения последовательно с разными настройками.At least two cameras can register images sequentially with different settings.

Возможна одновременная работа, по меньшей мере, двух видеокамер с различными параметрами и настройками объективов, например фокусное расстояние, диафрагма, не ограничиваясь этим.It is possible to simultaneously operate at least two cameras with different parameters and lens settings, for example, focal length, aperture, not limited to this.

Возможна одновременная работа видеокамер, работающих в различном разрешении и с различной частотой кадров.Simultaneous operation of video cameras operating in different resolutions and with different frame rates is possible.

После получения кадров с нескольких видеокамер проводят стыковку изображений, по меньшей мере, двух камер для получения панорамного вида и/или для получения изображения объекта, который не попадает в область видимости одной камерой.After receiving frames from several video cameras, images of at least two cameras are docked to obtain a panoramic view and / or to obtain an image of an object that does not fall into the field of view of one camera.

Составляют статическую и/или динамическую модель сцены на основе данных, полученных от видеокамер, расположенных на заранее заданных фиксированных позициях или на вычисленных позициях.A static and / or dynamic scene model is compiled based on data received from video cameras located at predetermined fixed positions or at calculated positions.

Составляют статическую 3D модель сцены в другом приложении, предназначенном для 3D моделирования.Compose a static 3D model of the scene in another application designed for 3D modeling.

В некоторых вариантах осуществления изобретения, при реконструкции динамических элементов трехмерной модели сцены отделяют объекты от их фона на основании данных о цветах и яркости объектов или фона для моделирования разных планов сцены.In some embodiments of the invention, when reconstructing the dynamic elements of a three-dimensional model of a scene, objects are separated from their background based on data on the colors and brightness of the objects or background to model different plans for the scene.

При реконструкции динамических элементов трехмерной модели, выделяют объекты с использованием данных с нескольких видеокамер при помощи алгоритмов стереозрения.When reconstructing the dynamic elements of a three-dimensional model, objects are selected using data from several cameras using stereo vision algorithms.

При реконструкции динамических элементов трехмерной модели сцены получают карты глубин всей или части сцены при помощи алгоритмов стереозрения.When reconstructing the dynamic elements of a three-dimensional scene model, depth maps of the whole or part of the scene are obtained using stereo-vision algorithms.

При наложении текстуры на трехмерную модель сцены проводят комбинирование фрагментов текстур из нескольких камер.When applying texture to a three-dimensional model of the scene, a combination of texture fragments from several cameras is performed.

При наложении текстуры на трехмерную модель сцены совмещают текстуры одного объекта, по меньшей мере, двух камер в одну текстуру объекта.When applying texture to a three-dimensional model of the scene, the textures of one object, at least two cameras, are combined into one texture of the object.

При выставлении ракурсов отображения модели сцены доступен ручной или автоматический режим выбора.When setting up the viewing angles of the scene model, a manual or automatic selection mode is available.

В автоматическом режиме ракурс задается на основе данных от внешних датчиков.In automatic mode, the angle is set based on data from external sensors.

В ручном режиме пользователь самостоятельно меняет ракурс в процессе работы системы атрибутов модели сцены.In manual mode, the user independently changes the angle during the operation of the system of attributes of the scene model.

При проведении рендеринга трехмерной модели сцены проводят рендеринг с одного или более ракурсов одновременно.When rendering a three-dimensional model of a scene, rendering is performed from one or more angles at the same time.

При выводе результата рендеринга добавляют в созданную модель сцены дополнительные элементы, которые отсутствовали на первоначальных кадрах изображений.When outputting the rendering result, additional elements are added to the created scene model that were not present on the original image frames.

При выводе результата рендеринга изменяют существующие элементы сцены.When outputting the rendering result, existing scene elements are modified.

При выводе результата рендеринга добавляют смоделированные дополнительно погодные явления.When displaying the result of rendering, additionally modeled weather phenomena are added.

Данное изобретение может быть выполнено в виде системы отображения масштабных сцен в режиме реального времени, включающей одну или более групп видеокамер, синхронизированных по параметрам съемки, при этом видеокамеры выполнены с возможностью передачи данных на компьютерную систему и могут быть синхронизированы по параметрам съемки при помощи мастер-видеокамеры, по крайней мере, одну мастер-видеокамеру, в каждой из вышеупомянутых групп видеокамер, выполненную с возможностью передачи данных на компьютерную систему, одно или более устройство обработки команд, одно или более устройство хранения данных, одну или более программ, где одна или более программ хранятся на одном или более устройствах хранения данных и исполняются на одном и более процессорах, причем одна или более программ включают инструкции для реализации способа отображения масштабных сцен в режиме реального времени, описанного выше.This invention can be made in the form of a system for displaying large-scale scenes in real time, including one or more groups of cameras synchronized by shooting parameters, while the cameras are capable of transmitting data to a computer system and can be synchronized by shooting parameters using the master video cameras, at least one master video camera, in each of the aforementioned groups of video cameras, configured to transmit data to a computer system, one or more command processing, one or more storage devices, one or more programs, where one or more programs are stored on one or more storage devices and executed on one or more processors, the one or more programs including instructions for implementing a method for displaying large-scale scenes in real time as described above.

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

На Фиг.1 - пример съемки здания с использованием нескольких видеокамер, включающих мастер-видеокамеру.Figure 1 is an example of a building using several cameras, including a master video camera.

На Фиг.2 показана блок-схема реализации способа.Figure 2 shows a block diagram of an implementation of the method.

ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯDETAILED DESCRIPTION OF THE INVENTION

Ниже будут описаны понятия и определения, необходимые для подробного раскрытия осуществляемого изобретения.Below will be described the concepts and definitions necessary for the detailed disclosure of the invention.

3D-сцена - это часть 3D-мира, подлежащая расчёту и выводу на экран в соответствии с текущей точкой наблюдения. A 3D scene is a part of the 3D world that must be calculated and displayed on the screen in accordance with the current observation point.

SD-модель - комплекс параметров и свойств, который используется для формирования объекта, который называется трёхмерной моделью. SD-model - a set of parameters and properties that is used to form an object called a three-dimensional model.

Статические модели относятся к объектам, практически неизменяющимся во времени или рассматриваемым в отдельные временные сечения. Static models refer to objects that are practically unchanged in time or considered in separate time sections.

Динамическая модель позволяет увидеть изменения объекта во времени. The dynamic model allows you to see changes in the object over time.

Динамические модели воспроизводят изменения состояний («движение») объекта с учетом как внешних, так и внутренних факторов.Dynamic models reproduce changes in states (“movement”) of an object, taking into account both external and internal factors.

Рендеринг — термин в компьютерной графике, обозначающий процесс получения изображения по модели с помощью компьютерной программы. Rendering is a term in computer graphics that denotes the process of obtaining an image from a model using a computer program.

Лидар — технология получения и обработки информации об удалённых объектах с помощью активных оптических систем, использующих явления отражения света и его рассеяния в прозрачных и полупрозрачных средах. Lidar is a technology for obtaining and processing information about distant objects using active optical systems using the phenomena of light reflection and scattering in transparent and translucent media.

Текстура — растровое изображение, накладываемое на поверхность полигональной модели для придания ей цвета, окраски или иллюзии рельефа. Texture - a raster image superimposed on the surface of a polygonal model to give it a color, coloring or illusion of relief.

Мастер-камера - камера, задающая опорные настройки экспозиции и яркости. На основе опорных настроек вычисляются настройки для набора видеокамер, снимающих ту же сцену, что и мастер-камера. Master camera - a camera that sets the reference settings for exposure and brightness. Based on the reference settings, the settings for a set of video cameras shooting the same scene as the master camera are calculated.

Карта глубины (depth map) — это изображение, на котором для каждого пикселя, вместо цвета, хранится его расстояние до камеры. Карта глубины может быть получена с помощью специальной камеры глубины (например, сенсор Kinect является своего рода такой камерой), а также может быть построена по стереопаре изображений. A depth map is an image on which, for each pixel, instead of color, its distance to the camera is stored. The depth map can be obtained using a special depth camera (for example, the Kinect sensor is a kind of such a camera), and can also be built on a stereo pair of images.

В компьютерной графике и компьютерном зрении трехмерная реконструкция (англ. 3D reconstruction) - это процесс получения формы и облика реальных объектов. Процесс может быть выполнен пассивными либо активными методами. В случае если форма модели может меняться во времени, говорят о нежесткой или пространственно-временной реконструкции. Трехмерная реконструкция может применяться для восстановления облика объектов или ландшафтов. Используется для получения трехмерной развертки местности, расстояния до земли, определения скорости.In computer graphics and computer vision, three-dimensional reconstruction (Eng. 3D reconstruction) is the process of obtaining the shape and appearance of real objects. The process can be performed by passive or active methods. If the shape of the model can change over time, they talk about non-rigid or spatio-temporal reconstruction. Three-dimensional reconstruction can be used to restore the appearance of objects or landscapes. Used to obtain a three-dimensional scan of the terrain, distance to the ground, determine the speed.

Данное изобретение в различных своих вариантах осуществления может быть выполнено в виде способа, в том числе реализуемого на компьютере, в виде системы или машиночитаемого носителя, содержащего инструкции для выполнения вышеупомянутого способа.This invention in its various embodiments can be implemented in the form of a method, including that implemented on a computer, in the form of a system or computer-readable medium containing instructions for performing the aforementioned method.

В данном изобретении под системой подразумеваются компьютерная система, ЭВМ (электронно-вычислительная машина), ЧПУ (числовое программное управление), ПЛК (программируемый логический контроллер), компьютеризированные системы управления и любые другие устройства, способные выполнять заданную, чётко определённую последовательность операций (действий, инструкций).In this invention, a system means a computer system, a computer (electronic computer), CNC (numerical control), PLC (programmable logic controller), computerized control systems, and any other devices that can perform a given, well-defined sequence of operations (actions, instructions).

Под устройством обработки команд подразумевается электронный блок либо интегральная схема (микропроцессор), исполняющая машинные инструкции (программы).By a command processing device is meant an electronic unit or an integrated circuit (microprocessor) that executes machine instructions (programs).

Устройство обработки команд считывает и выполняет машинные инструкции (программы) с одного или более устройств хранения данных. В роли устройства хранения данных могут выступать, но не ограничиваясь, жесткие диски (HDD), флеш-память, ПЗУ (постоянное запоминающее устройство), твердотельные накопители (SSD), оптические приводы.The command processing device reads and executes machine instructions (programs) from one or more data storage devices. Hard disk drives (HDD), flash memory, ROM (read only memory), solid state drives (SSD), optical drives can be used as storage devices.

Программа - последовательность инструкций, предназначенных для исполнения устройством управления вычислительной машины или устройством обработки команд.A program is a sequence of instructions intended for execution by a control device of a computer or a device for processing commands.

Для достижения заявленного технического результата предлагается способ отображения масштабных сцен в режиме реального времени, включающий следующие шаги.To achieve the claimed technical result, a method for displaying large-scale scenes in real time is proposed, including the following steps.

Предварительно проводят съемку сцены с тех же позиций, на которых расположены видеокамеры, после чего формируют статическую 3D модель в приложении, предназначенном для 3D моделирования (например, Autodesk 3Dmax studio, но не ограничиваясь).First, the scene is shot from the same positions on which the cameras are located, after which they form a static 3D model in an application designed for 3D modeling (for example, Autodesk 3Dmax studio, but not limited to).

Получают видеопоток кадров из одной или более групп видеокамер, причем каждая группа имеет мастер-видеокамеру для синхронизации, снимающих требуемую сцену и расположенных на заранее заданных фиксированных позициях или на вычисленных позициях.A video stream of frames from one or more groups of video cameras is obtained, each group having a master video camera for synchronization, shooting the desired scene and located at predetermined fixed positions or at calculated positions.

Видеопоток кадров получают из группы видеокамер (Фиг.2), снимающих требуемую сцену. В системе видеокамер могут выделяться группы видеокамер, для которых устанавливаются мастер-видеокамеры. Поле зрения мастер-видеокамеры частично перекрывает поле зрения каждой видеокамеры в группе (Фиг.1). Такие группы видеокамер и мастер-видеокамеры выделяются и устанавливаются, исходя из необходимости синхронизировать параметры съемки видеокамер в группе для съемки отдельных участков сцены. В частном случае такая группа видеокамер может состоять из двух видеокамер с частично перекрывающимся полем зрения и имеющих синхронизированные параметры съемки. Видеопоток кадров обрабатывается и используется для динамического моделирования сцены. Каждому кадру проставляется временная метка. По временным меткам формируются наборы кадров со всех камер, так что каждый набор соответствует одному моменту жизни сцены. Фрагменты кадров, соответствующие участкам сцены, на которых необходимо проводить динамическую реконструкцию, обрабатываются для последующего выделения текстур. Например, если на сцене площадь, по которой ходят люди, то мы можем включить алгоритм вычисления фона (часть BGS например) и «удалить» людей из кадра.A video stream of frames is obtained from a group of cameras (FIG. 2) that shoot the desired scene. In the video camera system, groups of video cameras for which master video cameras are installed can be allocated. The field of view of the master video camera partially overlaps the field of view of each video camera in the group (Figure 1). Such groups of video cameras and master video cameras are allocated and installed based on the need to synchronize the shooting parameters of the video cameras in the group for shooting individual sections of the scene. In the particular case, such a group of cameras may consist of two cameras with a partially overlapping field of view and having synchronized shooting parameters. The video stream of frames is processed and used for dynamic modeling of the scene. Each frame is stamped with a time stamp. By time stamps, sets of frames from all cameras are formed, so that each set corresponds to one moment in the life of the scene. Fragments of the frames corresponding to the parts of the scene where dynamic reconstruction is necessary, are processed for the subsequent selection of textures. For example, if there is an area on which people walk on the stage, then we can turn on the background calculation algorithm (for example, a part of BGS) and “remove” people from the frame.

Видеопоток кадров может передаваться в компрессированном виде, например, при помощи кодеров Н.264, VP8, MJPEG, JPEG, JPEG2000.The video stream of frames can be transmitted in a compressed form, for example, using encoders H.264, VP8, MJPEG, JPEG, JPEG2000.

Видеопоток кадров может передаваться в виде отдельных файлов. При этом могут использоваться стандартные контейнеры, например, WebM, OGV, MKV, MP4, TS, JPG и др.The video stream of frames can be transmitted as separate files. In this case, standard containers can be used, for example, WebM, OGV, MKV, MP4, TS, JPG, etc.

Проводят реконструкцию динамических элементов 3D модели сцены на основе полученного видеопотока кадров так, что статическая модель дополняется новыми объектами вместе с попиксельной привязкой текстурных координат к кадрам в наборе.The dynamic elements of the 3D scene model are reconstructed based on the received video stream of frames so that the static model is supplemented with new objects along with pixel-by-pixel mapping of texture coordinates to frames in the set.

Для динамических фрагментов сцены происходит частичная реконструкция, так что статическая модель сцены дополняется новыми объектами вместе с попиксельной привязкой текстурных координат к кадрам в наборе. Например, человек выделяется по движению, так что мы одновременно получаем текстурные координаты в кадре для него и местоположение его на сцене. Также в модели сцены могут реконструироваться, например, погодные условия.For dynamic fragments of the scene, a partial reconstruction takes place, so that the static model of the scene is supplemented with new objects, along with pixel-by-pixel mapping of texture coordinates to frames in the set. For example, a person stands out by movement, so that we simultaneously get the texture coordinates in the frame for him and his location on the stage. Also in the scene model, for example, weather conditions can be reconstructed.

Формируют и накладывают текстуры объектов на 3D модель, соответствующие текущему моменту времени жизни сцены, в реальном времени.Form and impose textures of objects on a 3D model corresponding to the current moment of the scene’s life in real time.

Для элементов сцены, заданных в статической модели, текстуры также статически привязаны к фрагментам кадров с камер. Например, известно попиксельно, где в кадре дом, так как камера на заранее заданной позиции находится, так что затем можно взять эту часть кадра и натянуть на дом. А для динамических подвижных объектов используется целый ряд алгоритмов, работающих в реальном времени, по крайней мере, на фрагменте сцены, в зависимости от характера ожидаемого объекта. Например, людей и машины выделяют при помощи алгоритмов выделения движения (например, BGS, MOG). Птиц в небе выделяют простым анализом контрастности или при помощи алгоритмов сегментации.For scene elements defined in a static model, textures are also statically linked to fragments of frames from cameras. For example, it is known pixel by pixel where the house is in the frame, since the camera is at a predetermined position, so you can then take this part of the frame and pull it on the house. And for dynamic moving objects, a number of algorithms are used that work in real time, at least on a fragment of the scene, depending on the nature of the expected object. For example, people and machines are distinguished using motion detection algorithms (for example, BGS, MOG). Birds in the sky are isolated by simple contrast analysis or by segmentation algorithms.

Модель обновляется, и на модель накладываются текстуры, соответствующие текущему моменту времени жизни сцены.The model is updated, and textures corresponding to the current moment of the scene's lifetime are superimposed on the model.

Выставляют ракурсы отображения модели.Set the display angles of the model.

Ракурс может задаваться и изменяться вручную пользователем в процессе работы системы для получения желаемого вида. Можно перемещать виртуальную видеокамеру, позволяя пользователю увидеть сцену с наиболее интересных ракурсов в режиме реального времени или позднее в записи.The view can be set and changed manually by the user during the operation of the system to obtain the desired view. You can move the virtual video camera, allowing the user to see the scene from the most interesting angles in real time or later in the recording.

Также ракурс может задаваться автоматически на основе данных от внешних датчиков.Also, the angle can be set automatically based on data from external sensors.

Например, для реализации «виртуального» окна в лифте ракурс задается в зависимости от показаний датчика высоты положения лифта. Перед началом рендеринга считываются показания внешних устройств (Фиг.2), и вычисляется положение виртуальной камеры в соответствии с заданной конфигурацией.For example, to implement a “virtual” window in an elevator, the angle is set depending on the readings of the elevator height sensor. Before the start of rendering, the readings of external devices are read (Figure 2), and the position of the virtual camera is calculated in accordance with the specified configuration.

Проводят рендеринг модели в соответствии с конфигурацией устройств отображения.The model is rendered in accordance with the configuration of the display devices.

Устройства отображения также могут быть сконфигурированы для отображения разных ракурсов сцены. Каждый ракурс может быть отображен сразу группой устройств отображения так, что отрендеренное изображение будет растянуто на них. В настоящем изобретении может применяться несколько технологий рендеринга, но не ограничиваясь, с возможностью комбинирования их вместе: Z-буфер, сканлайн, трассировка лучей, глобальное освещение.Display devices can also be configured to display different views of the scene. Each view can be displayed immediately by a group of display devices so that the rendered image is stretched to them. In the present invention, several rendering technologies can be applied, but not limited to, with the possibility of combining them together: Z-buffer, scanline, ray tracing, global lighting.

Выводят результат рендеринга на, по меньшей мере, одно устройство отображения.The result of rendering to at least one display device is output.

Отображение видеоданных на, по крайней мере, одном устройстве отображения производится через цифрой интерфейс передачи видео High-Definition Multimedia Interface (HDMI), HD-SDI или Low Voltage Differential Signaling (LVDS), сетевой интерфейс Fast Ethernet или Gigabit Ethernet.Video data is displayed on at least one display device via a digital High-Definition Multimedia Interface (HDMI), HD-SDI or Low Voltage Differential Signaling (LVDS) video interface, Fast Ethernet or Gigabit Ethernet network interface.

В подсистему отображения на экранах передается только конечный результат обработки, в то время как подсистема процессинга вычислительного кластера производит захват с камер и всю необходимую обработку.Only the final processing result is transmitted to the display subsystem on the screens, while the processing cluster of the computing cluster performs the capture from the cameras and all the necessary processing.

Предлагаемый способ может быть реализован на системе, описанной ниже, которая включает:The proposed method can be implemented on the system described below, which includes:

- одну или более групп видеокамер, синхронизированных по параметрам съемки, при этом видеокамеры выполнены с возможностью передачи данных на компьютерную систему и синхронизированы по параметрам съемки при помощи мастер-видеокамеры;- one or more groups of cameras synchronized according to the shooting parameters, while the cameras are configured to transmit data to a computer system and synchronized according to the shooting parameters using the master video camera;

- по крайней мере, одну мастер-видеокамеру, в каждой из вышеупомянутых групп видеокамер, выполненную с возможностью передачи данных на компьютерную систему;- at least one master video camera, in each of the aforementioned groups of video cameras, configured to transmit data to a computer system;

- компьютерную систему, включающую:- a computer system including:

(i) одно или более устройств обработки команд;(i) one or more command processing devices;

(ii) одно или более устройств хранения данных;(ii) one or more storage devices;

(iii) одну или более программ,(iii) one or more programs,

где одна или более программ хранятся на одном или более устройствах хранения данных и исполняются на одном и более устройствах обработки команд, причем одна или более программ включают инструкции для выполнения способа по п. 1.where one or more programs are stored on one or more data storage devices and executed on one or more command processing devices, and one or more programs include instructions for performing the method according to claim 1.

Получение видеопотока кадров производится через сетевой интерфейс Fast Ethernet или Gigabit Ethernet, через специализированный интерфейс передачи видео, например, High-Defmition Serial Digital Interface (HD-SDI), композитный аналоговый сигнал PAL/NTSC или последовательный интерфейс Universal Serial Bus (USB).The video stream is received via the Fast Ethernet or Gigabit Ethernet network interface, through a specialized video transmission interface, for example, High-Defmition Serial Digital Interface (HD-SDI), composite PAL / NTSC analog signal or Universal Serial Bus (USB).

Видеопоток кадров может передаваться по беспроводным сетям, таким как GSM (Global System for Mobile Communications), CDMA (Code division multiple access), LTE (Long Term Evolution), Wi-Fi (Wireless Fidelity). В некоторых реализациях настоящего изобретения получение и/или отправка данных осуществляется с использованием нескольких технологий, описанных выше, или технологий приема/передачи данных, которые будут изобретены после подачи заявки на настоящее изобретение.The video stream of frames can be transmitted over wireless networks, such as GSM (Global System for Mobile Communications), CDMA (Code division multiple access), LTE (Long Term Evolution), Wi-Fi (Wireless Fidelity). In some implementations of the present invention, the receipt and / or sending of data is carried out using several technologies described above, or technologies for receiving / transmitting data that will be invented after filing an application for the present invention.

Запись видеоданных может производиться на жесткий диск (Hard Disk Drive, HDD), карту памяти (Memory Card), твердотельный диск (Solid State Drive, SSD) с различной организацией, такой как хранилище с прямым подключением (Direct Attached Storage, DAS), хранилище с сетевым подключением (Network Area Storage, NAS), RAID-массив дисков (Redundant Array of Independent Disks, RAID), диспетчер логических томов (Logical Volume Manager, LVM).Video data can be recorded to a hard disk (Hard Disk Drive, HDD), a memory card (Memory Card), a solid state drive (Solid State Drive, SSD) with various organization, such as direct attached storage (DAS), storage with network connection (Network Area Storage, NAS), RAID-array of disks (Redundant Array of Independent Disks, RAID), Logical Volume Manager (LVM).

Сервер может быть отдельным физическим (выделенным) компьютером или виртуальным, то есть не ограничен реализацией, физической конфигурацией или географическим положением аппаратного обеспечения. В частности, сервер может представлять собой множество компьютеров, объединенных в единый облачный сервер.The server can be a separate physical (dedicated) computer or virtual, that is, it is not limited by the implementation, physical configuration, or geographic location of the hardware. In particular, the server may be a plurality of computers combined into a single cloud server.

Сервер и, по крайней мере, один источник видеоданных могут быть объединены в едином аппаратном и/или программном обеспечении.The server and at least one video source can be combined in a single hardware and / or software.

Отображение результата рендеринга производится через цифрой интерфейс передачи видео High-Definition Multimedia Interface (HDMI), HD-SDI или Low Voltage Differential Signaling (LVDS), сетевой интерфейс Fast Ethernet или Gigabit Ethernet,The rendering result is displayed via the digital video transmission interface High-Definition Multimedia Interface (HDMI), HD-SDI or Low Voltage Differential Signaling (LVDS), Fast Ethernet or Gigabit Ethernet network interface,

По крайней мере, один монитор может быть виртуальным, то есть отображение видеоданных может производиться на виртуализированном оборудовании, не ограниченном реализацией, физической конфигурацией или географическим положением аппаратного обеспечения. Например, виртуальный монитор может быть реализован в виде (соответствовать) видеостены, состоящей из множества мониторов. Виртуальный монитор может быть реализован в виде (соответствовать) группы мониторов различных пользователей (операторов) ситуационного центра.At least one monitor can be virtual, that is, video data can be displayed on virtualized equipment, not limited by the implementation, physical configuration, or geographic location of the hardware. For example, a virtual monitor can be implemented in the form of (match) a video wall consisting of many monitors. A virtual monitor can be implemented as (correspond to) a group of monitors of different users (operators) of a situation center.

Специалисту в данной области очевидно, что конкретные варианты осуществления способа отображения масштабных сцен в режиме реального времени были описаны здесь в целях иллюстрации, допустимы различные модификации, не выходящие за рамки и сущность объема изобретения.It will be apparent to those skilled in the art that specific embodiments of a method for displaying large-scale scenes in real time have been described herein for purposes of illustration, various modifications are permissible without departing from the scope and essence of the scope of the invention.

Claims (41)

1. Способ отображения масштабных сцен в режиме реального времени, включающий следующие шаги:1. A way to display large-scale scenes in real time, including the following steps: - получают видеопоток кадров из одной или более групп видеокамер, причем каждая группа имеет мастер-видеокамеру для синхронизации по параметрам съемки, снимающих требуемую сцену и расположенных на заранее заданных фиксированных позициях или на вычисленных позициях;- receive a video stream of frames from one or more groups of cameras, each group having a master video camera for synchronization according to the shooting parameters that shoot the desired scene and located at predetermined fixed positions or at calculated positions; - проводят реконструкцию динамических элементов 3D модели сцены на основе полученного видеопотока кадров так, что статическая модель дополняется новыми объектами вместе с попиксельной привязкой текстурных координат к кадрам в наборе;- carry out the reconstruction of the dynamic elements of the 3D model of the scene based on the received video stream of frames so that the static model is supplemented with new objects along with pixel-by-pixel mapping of texture coordinates to frames in the set; - формируют и накладывают текстуры объектов на 3D модель сцены в реальном времени;- form and impose textures of objects on the 3D model of the scene in real time; - выставляют ракурсы отображения 3D модели сцены;- set the display angles of the 3D scene model; - проводят рендеринг 3D модели сцены в соответствии с конфигурацией устройств отображения;- render 3D models of the scene in accordance with the configuration of the display devices; - выводят результат рендеринга на по меньшей мере одно устройство отображения.- display the result of rendering on at least one display device. 2. Способ по п. 1, характеризующийся тем, что после получения кадров с нескольких видеокамер проводят их комбинирование для получения кадра объекта целиком.2. The method according to p. 1, characterized in that after receiving frames from several cameras, they are combined to obtain the entire frame of the object. 3. Способ по п. 1, характеризующийся тем, что для группы видеокамер известно их взаимное расположение и направление съемки в любой момент времени.3. The method according to p. 1, characterized in that for a group of cameras their relative position and direction of shooting at any time are known. 4. Способ по п. 1, характеризующийся тем, что направление съемки видеокамер выбирается исходя из необходимости покрыть некоторую сцену, на которой расположены как неподвижные, так и подвижные объекты.4. The method according to p. 1, characterized in that the direction of shooting of the cameras is selected on the basis of the need to cover a certain scene on which both stationary and moving objects are located. 5. Способ по п. 1, характеризующийся тем, что по меньшей мере две камеры в группе синхронизируются по экспозиции, балансу белого и частоте кадров в секунду в выдаваемом изображении.5. The method according to p. 1, characterized in that at least two cameras in the group are synchronized by exposure, white balance and frame rate per second in the output image. 6. Способ по п. 1, характеризующийся тем, что по меньшей мере две камеры могут регистрировать изображения последовательно с разными настройками.6. The method according to p. 1, characterized in that at least two cameras can register images sequentially with different settings. 7. Способ по п. 1, характеризующийся тем, что возможна одновременная работа по меньшей мере двух видеокамер с различными параметрами и настройками объективов, например фокусное расстояние, диафрагма, не ограничиваясь этим.7. The method according to p. 1, characterized in that it is possible the simultaneous operation of at least two cameras with different parameters and lens settings, for example, focal length, aperture, not limited to this. 8. Способ по п. 1, характеризующийся тем, что возможна одновременная работа видеокамер, работающих в различном разрешении и с различной частотой кадров.8. The method according to p. 1, characterized in that it is possible the simultaneous operation of cameras operating in different resolutions and with different frame rates. 9. Способ по п. 1, характеризующийся тем, что после получения кадров с нескольких видеокамер проводят стыковку изображений по меньшей мере двух камер для получения панорамного вида и/или для получения изображения объекта, который не снимается одной камерой.9. The method according to p. 1, characterized in that after receiving frames from several cameras, images of at least two cameras are docked to obtain a panoramic view and / or to obtain an image of an object that is not captured by one camera. 10. Способ по п. 1, характеризующийся тем, что составляют статическую и/или динамическую модель на основе данных, полученных от видеокамер, расположенных на заранее заданных фиксированных позициях или на вычисленных позициях.10. The method according to p. 1, characterized in that they comprise a static and / or dynamic model based on data received from cameras located at predetermined fixed positions or at calculated positions. 11. Способ по п. 1, характеризующийся тем, что предварительно составляют статическую 3D модель сцены в другом приложении, предназначенном для 3D моделирования.11. The method according to p. 1, characterized in that they first make up a static 3D model of the scene in another application designed for 3D modeling. 12. Способ по п. 1, характеризующийся тем, что при реконструкции динамических элементов трехмерной модели сцены отделяют объекты от их фона на основании данных о цветах и яркости объектов или фона для моделирования разных планов сцены.12. The method according to claim 1, characterized in that during the reconstruction of the dynamic elements of the three-dimensional model of the scene, objects are separated from their background based on data on the colors and brightness of the objects or background for modeling different plans of the scene. 13. Способ по п. 1, характеризующийся тем, что при реконструкции динамических элементов трехмерной модели сцены выделяют объекты с использованием данных с нескольких видеокамер при помощи алгоритмов стереозрения.13. The method according to p. 1, characterized in that when reconstructing the dynamic elements of a three-dimensional model of the scene, objects are extracted using data from several cameras using stereo vision algorithms. 14. Способ по п. 1, характеризующийся тем, что при реконструкции динамических элементов трехмерной модели сцены получают карты глубин всей или части сцены при помощи алгоритмов стереозрения.14. The method according to p. 1, characterized in that when reconstructing the dynamic elements of a three-dimensional model of the scene, depth maps of the whole or part of the scene are obtained using stereo-vision algorithms. 15. Способ по п. 1, характеризующийся тем, что при наложении текстуры на трехмерную модель сцены проводят комбинирование фрагментов текстур из нескольких камер.15. The method according to p. 1, characterized in that when applying texture to a three-dimensional model of the scene, combining fragments of textures from several cameras is performed. 16. Способ по п. 1, характеризующийся тем, что при наложении текстуры на трехмерную модель сцены совмещают текстуры одного объекта по меньшей мере двух камер в одну текстуру объекта.16. The method according to p. 1, characterized in that when applying the texture to a three-dimensional model of the scene, the textures of one object are combined with at least two cameras into one object texture. 17. Способ по п. 1, характеризующийся тем, что при выставлении ракурсов отображения модели доступен ручной или автоматический режим выбора.17. The method according to claim 1, characterized in that when setting the display angles of the model, a manual or automatic selection mode is available. 18. Способ по п. 18, характеризующийся тем, что в автоматическом режиме ракурс задается на основе данных от внешних датчиков.18. The method according to p. 18, characterized in that in the automatic mode, the angle is set based on data from external sensors. 19. Способ по п. 18, характеризующийся тем, что в ручном режиме пользователь самостоятельно меняет ракурс в процессе работы системы в конфигурируемых пределах ограничений модели.19. The method according to p. 18, characterized in that in manual mode the user independently changes the angle during the operation of the system within the configurable limits of the model. 20. Способ по п. 1, характеризующийся тем, что при проведении рендеринга трехмерной модели проводят рендеринг для по меньшей мере двух ракурсов одновременно.20. The method according to p. 1, characterized in that when rendering a three-dimensional model, rendering is performed for at least two angles simultaneously. 21. Способ по п. 1, характеризующийся тем, что при проведении рендеринга трехмерной модели сцены проводят рендеринг, используя существующие технологии рендеринга например, Z-буфер, сканлайн, трассировка лучей, глобальное освещение, но не ограничиваясь.21. The method according to p. 1, characterized in that when rendering a three-dimensional model of the scene, rendering is performed using existing rendering technologies, for example, Z-buffer, scanline, ray tracing, global lighting, but not limited to. 22. Способ по п. 1, характеризующийся тем, что при выводе результата рендеринга добавляют в созданную модель сцены дополнительные элементы, которые отсутствовали на первоначальных кадрах изображений.22. The method according to p. 1, characterized in that when outputting the rendering result, additional elements are added to the created scene model that were not present in the original image frames. 23. Способ по п. 1, характеризующийся тем, что при выводе результата рендеринга изменяют существующие элементы сцены.23. The method according to p. 1, characterized in that the output of the rendering result changes the existing elements of the scene. 24. Способ по п. 1, характеризующийся тем, что при выводе результата рендеринга добавляют смоделированные дополнительно погодные явления.24. The method according to p. 1, characterized in that when the output of the rendering is added, additionally simulated weather phenomena are added. 25. Система отображения масштабных сцен в режиме реального времени, включающая:25. A system for displaying large-scale scenes in real time, including: - одну или более групп видеокамер, синхронизированных по параметрам съемки, при этом видеокамеры выполнены с возможностью передачи данных на компьютерную систему и синхронизированы по параметрам съемки при помощи мастер-видеокамеры;- one or more groups of cameras synchronized according to the shooting parameters, while the cameras are configured to transmit data to a computer system and synchronized according to the shooting parameters using the master video camera; - по крайней мере одну мастер-видеокамеру в каждой из вышеупомянутых групп видеокамер, выполненную с возможностью передачи данных на компьютерную систему;- at least one master video camera in each of the aforementioned groups of video cameras configured to transmit data to a computer system; - компьютерную систему, включающую:- a computer system including: (i) одно или более устройств обработки команд;(i) one or more command processing devices; (ii) одно или более устройств хранения данных;(ii) one or more storage devices; (iii) одну или более программ,(iii) one or more programs, где одна или более программ хранятся на одном или более устройствах хранения данных и исполняются на одном и более устройствах обработки команд, причем одна или более программ включают инструкции для выполнения способа по п. 1.where one or more programs are stored on one or more data storage devices and executed on one or more command processing devices, and one or more programs include instructions for performing the method according to claim 1. 26. Система по п. 25, дополнительно включающая по крайней мере одну отдельную видеокамеру для получения вида сцены с независимыми параметрами съемки, выполненную с возможностью передачи данных на компьютерную систему.26. The system of claim 25, further comprising at least one separate video camera for obtaining a scene with independent shooting parameters configured to transmit data to a computer system. 27. Система по п. 25, дополнительно включающая по крайней мере один дисплей для отображения результирующего изображения.27. The system of claim 25, further comprising at least one display for displaying the resulting image. 28. Система по п. 25, дополнительно включающая по крайней мере одну камеру глубины для получения карты глубин при реконструкции динамических элементов трехмерной модели.28. The system of claim 25, further comprising at least one depth camera for obtaining a depth map for reconstructing dynamic elements of a three-dimensional model.
RU2015101179A 2015-01-16 2015-01-16 Method and system for displaying scaled scenes in real time RU2606875C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2015101179A RU2606875C2 (en) 2015-01-16 2015-01-16 Method and system for displaying scaled scenes in real time

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2015101179A RU2606875C2 (en) 2015-01-16 2015-01-16 Method and system for displaying scaled scenes in real time

Publications (2)

Publication Number Publication Date
RU2015101179A RU2015101179A (en) 2016-08-10
RU2606875C2 true RU2606875C2 (en) 2017-01-10

Family

ID=56612538

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2015101179A RU2606875C2 (en) 2015-01-16 2015-01-16 Method and system for displaying scaled scenes in real time

Country Status (1)

Country Link
RU (1) RU2606875C2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU188093U1 (en) * 2018-10-31 2019-03-28 Общество с ограниченной ответственностью "Биганто" Scanner for panoramic shots and three-dimensional models of the surrounding space
WO2021119272A1 (en) * 2019-12-13 2021-06-17 Sony Group Corporation Rendering back plates
US11647177B2 (en) 2018-03-30 2023-05-09 Interdigital Madison Patent Holdings, Sas Method, apparatus and stream for volumetric video format
RU2807582C2 (en) * 2018-03-30 2023-11-16 ИНТЕРДИДЖИТАЛ ВиСи ХОЛДИНГЗ, ИНК. Method, device and stream for 3d video format

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274353B (en) * 2023-11-20 2024-02-20 光轮智能(北京)科技有限公司 Synthetic image data generating method, control device and readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030043270A1 (en) * 2001-08-29 2003-03-06 Rafey Richter A. Extracting a depth map from known camera and model tracking data
US20080181486A1 (en) * 2007-01-26 2008-07-31 Conversion Works, Inc. Methodology for 3d scene reconstruction from 2d image sequences
RU2421933C2 (en) * 2009-03-24 2011-06-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." System and method to generate and reproduce 3d video image
US20140015832A1 (en) * 2011-08-22 2014-01-16 Dmitry Kozko System and method for implementation of three dimensional (3D) technologies

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030043270A1 (en) * 2001-08-29 2003-03-06 Rafey Richter A. Extracting a depth map from known camera and model tracking data
US20080181486A1 (en) * 2007-01-26 2008-07-31 Conversion Works, Inc. Methodology for 3d scene reconstruction from 2d image sequences
RU2421933C2 (en) * 2009-03-24 2011-06-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." System and method to generate and reproduce 3d video image
US20140015832A1 (en) * 2011-08-22 2014-01-16 Dmitry Kozko System and method for implementation of three dimensional (3D) technologies

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11647177B2 (en) 2018-03-30 2023-05-09 Interdigital Madison Patent Holdings, Sas Method, apparatus and stream for volumetric video format
RU2807582C2 (en) * 2018-03-30 2023-11-16 ИНТЕРДИДЖИТАЛ ВиСи ХОЛДИНГЗ, ИНК. Method, device and stream for 3d video format
RU188093U1 (en) * 2018-10-31 2019-03-28 Общество с ограниченной ответственностью "Биганто" Scanner for panoramic shots and three-dimensional models of the surrounding space
WO2021119272A1 (en) * 2019-12-13 2021-06-17 Sony Group Corporation Rendering back plates
US12106427B2 (en) 2019-12-13 2024-10-01 Sony Group Corporation Rendering back plates

Also Published As

Publication number Publication date
RU2015101179A (en) 2016-08-10

Similar Documents

Publication Publication Date Title
TWI813098B (en) Neural blending for novel view synthesis
EP2731082B1 (en) System and method of real time image playback
EP3631602B1 (en) Methods and systems for customizing virtual reality data
JP6599436B2 (en) System and method for generating new user selectable views
US20240296626A1 (en) Method, apparatus, electronic device and storage medium for reconstructing 3d images
CN112446939B (en) Three-dimensional model dynamic rendering method, device, electronic device and storage medium
US10255949B2 (en) Methods and systems for customizing virtual reality data
CN109510975B (en) Video image extraction method, device and system
EP3748573A1 (en) Digital model repair system and method
TWI547901B (en) Simulating stereoscopic image display method and display device
US12347022B2 (en) Method and system for generating a target image from plural multi-plane images
RU2606875C2 (en) Method and system for displaying scaled scenes in real time
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
EP4542344A1 (en) Image signal processing based on occlusion culling
WO2020193703A1 (en) Techniques for detection of real-time occlusion
Kim et al. 3-d virtual studio for natural inter-“acting”
KR20210090180A (en) Image processing device, image processing method, program, and display device
US11682175B2 (en) Previsualization devices and systems for the film industry
JP7665333B2 (en) Information processing device, information processing method, and program
KR101003060B1 (en) How to create video frame for 3D video production
CN114641980A (en) Reconstruction of occlusion views of captured images using arbitrary captured inputs
Ferreira et al. Reconstructing Conimbriga digital cantaber
US20250047830A1 (en) Display method
WO2024174050A1 (en) Video communication method and device
de Sorbier et al. Depth Camera to Generate On-line Content for Auto-Stereoscopic Displays

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20200117

NF4A Reinstatement of patent

Effective date: 20201106