[go: up one dir, main page]

RU2785988C1 - Imaging system and image processing method - Google Patents

Imaging system and image processing method Download PDF

Info

Publication number
RU2785988C1
RU2785988C1 RU2022104320A RU2022104320A RU2785988C1 RU 2785988 C1 RU2785988 C1 RU 2785988C1 RU 2022104320 A RU2022104320 A RU 2022104320A RU 2022104320 A RU2022104320 A RU 2022104320A RU 2785988 C1 RU2785988 C1 RU 2785988C1
Authority
RU
Russia
Prior art keywords
image
optical system
model
abstraction
parameters
Prior art date
Application number
RU2022104320A
Other languages
Russian (ru)
Inventor
Алексей Михайлович ГРУЗДЕВ
Дмитрий Евгеньевич Пискунов
Алексей Александрович Осипов
Анастасия Сергеевна Суворина
Дарья Андреевна ФЕДОРОВА
Original Assignee
Самсунг Электроникс Ко., Лтд.
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Application granted granted Critical
Publication of RU2785988C1 publication Critical patent/RU2785988C1/en

Links

Images

Abstract

FIELD: images capturing and processing.
SUBSTANCE: invention relates to systems for capturing and processing images. The effect is achieved in that the imaging system comprises an optical system, an image sensor and an image processing unit, wherein the optical system is configured to form an intermediate image. The image processing unit is configured to restore the intermediate image to obtain an output image with a desired quality level. To restore the intermediate image, optimized parameters are introduced into the image processing unit, obtained on the basis of minimizing the difference in pairs of images formed by two or more models of the optical system with different levels of abstraction. Abstraction levels differ in the number and type of parameters used in describing the passage of light through an optical system. The imaging method is implemented by the imaging system. A method for designing the parameters of an imaging system based on optimizing the parameters by said reduction of differences in image pairs is also provided.
EFFECT: improving the quality of the image restored or processed based on the optimized parameters of the optical system.
17 cl, 6 dwg

Description

Область техники, к которой относится изобретениеThe technical field to which the invention belongs

Предлагаемое изобретение относится к области оптических систем и более конкретно к способу и системе формирования изображений на основе оптимизированных параметров оптической системы, полученных с применением моделей оптической системы с различными уровнями абстракции.The present invention relates to the field of optical systems, and more particularly to a method and system for imaging based on optimized optical system parameters obtained using optical system models with different levels of abstraction.

Уровень техникиState of the art

Реальная камера (далее также называемая в контексте настоящей заявки «физической» камерой, в противоположность «виртуальной» камере или модели камеры) формирует на своем датчике изображения двухмерное (2D) изображение на основе трехмерной (3D) сцены реального мира. Затем двухмерное изображение, зарегистрированное датчиком (приемником) изображения, обрабатывается блоком обработки изображения для повышения качества изображения. При разработке усовершенствованных камер для формирования изображений перед разработчиками стоит задача одновременной разработки и оптимизации оптической системы камеры с блоком обработки изображений (так называемое сквозное проектирование оптической системы), для решения которой предпочтительно иметь модель, основанную на физической камере. Это позволило бы исключить дорогостоящие работы по созданию прототипов камеры в процессе ее конструирования и доработки, а также отладить алгоритм обработки изображений перед созданием прототипа оптической системы физической камеры.A real camera (hereinafter also referred to in the context of this application as a "physical" camera, as opposed to a "virtual" camera or model camera) forms a two-dimensional (2D) image on its image sensor based on a three-dimensional (3D) scene of the real world. Then, the two-dimensional image registered by the image sensor (receiver) is processed by the image processing unit to improve the image quality. In the development of advanced imaging cameras, developers face the challenge of simultaneously developing and optimizing the optical system of the camera with the image processing unit (so-called end-to-end optical system design), for which it is preferable to have a model based on the physical camera. This would make it possible to exclude expensive work on creating prototypes of the camera in the process of its design and refinement, as well as to debug the image processing algorithm before creating a prototype of the optical system of a physical camera.

На решение данной задачи в настоящее время направлены усилия многих разработчиков оптических систем. Однако в уровне техники технологии компьютерного моделирования трехмерной сцены, формирования двухмерного изображения этой сцены оптической системой и последующей обработки двухмерного изображения по-прежнему основаны главным образом на модели точечной диафрагмы или модели тонкой линзы. Однако эти модели не способны надлежащим образом смоделировать оптическую систему физической камеры и объектива (в частности, такие параметры физической оптической системы, как глубина резкости, размытие, дисторсия). В частности, для моделирования оптической системы физической камеры и блока обработки изображения могут использоваться алгоритмы машинного обучения (ML), основанные на наборах данных в виде наборов изображений, представляющих собой эталонные (ground truth) изображения сцены и изображения после обработки блоком обработки изображений. В этой связи, алгоритмам машинного обучения, моделирующим работу блока обработки изображений, в настоящее время присущ ряд проблем, связанных, в частности, с неестественным размытием заднего и/или переднего плана (эффект «боке»), двоением и размытием в изображениях, формируемых моделируемым блоком обработки изображения. Неестественное размытие выражается в изображении точечных объектов в виде ореолов в форме овалов, колец или полуколец - «бубликов» (в англоязычной литературе известно как donut-shaped bokeh).The efforts of many developers of optical systems are currently focused on solving this problem. However, in the prior art, technologies for computer simulation of a 3D scene, formation of a 2D image of the scene by an optical system, and subsequent processing of the 2D image are still mainly based on a pinhole model or a thin lens model. However, these models are not able to properly model the optical system of a physical camera and lens (in particular, such parameters of a physical optical system as depth of field, blur, distortion). In particular, to model the optical system of the physical camera and the image processing unit, machine learning (ML) algorithms based on data sets in the form of image sets representing the reference (ground truth) images of the scene and images after processing by the image processing unit can be used. In this regard, machine learning algorithms that simulate the operation of an image processing unit currently have a number of problems associated, in particular, with unnatural blurring of the background and / or foreground (“bokeh” effect), ghosting and blurring in images generated by the simulated image processing unit. Unnatural blur is expressed in the image of point objects in the form of halos in the form of ovals, rings or semi-rings - "donuts" (in English literature known as donut-shaped bokeh).

Оптическим системам с широким углом поля зрения, используемым в устройствах виртуальной реальности (VR), также присуща проблема, состоящая в необходимости обеспечения высокого разрешения изображения именно в той части изображения, на которую непосредственно направлен взгляд субъекта (иначе говоря, вокруг точки «фиксации» взгляда субъекта; в англоязычной литературе такое формирование изображения называется термином foveated imaging) при меньшем разрешении изображения на периферии поля зрения. Optical systems with a wide field of view used in virtual reality (VR) devices also have a problem that consists in the need to provide high image resolution precisely in the part of the image that the subject’s gaze is directly directed at (in other words, around the “fixation” point of the gaze). subject; in the English literature, such imaging is called foveated imaging) with a lower image resolution at the periphery of the visual field.

Кроме того, в настоящее время проблематичным является получение набора данных изображений для разработки алгоритма машинного обучения, основанных на параметрах физической оптической системы, на основании трехмерной сцены с учетом распространения оптического излучения от изображаемой сцены, особенностей трансформации изображения посредством конкретной оптической системы, датчика изображения и блока обработки изображения без необходимости изготовления реальной (физической) оптической системы.In addition, at present, it is problematic to obtain a set of image data for developing a machine learning algorithm based on the parameters of a physical optical system, based on a three-dimensional scene, taking into account the propagation of optical radiation from the imaged scene, the features of image transformation through a specific optical system, an image sensor and a block image processing without the need to manufacture a real (physical) optical system.

В источнике US 6028606 (Leland Stanford Junior University, опубликован 22.02.2000) раскрыта система моделирования камеры для рендеринга изображений в компьютерной графике. В известном решении используются, в частности, модели на основе камеры для синтеза двухмерного изображения из данных, представляющих трехмерную сцену. Также известное решение относится к способу моделирования физической камеры в системе компьютерной графики. Основываясь на характеристиках линз физической камеры, включая их размеры, показатели преломления, значения диафрагмы и характеристики затвора, а также ориентацию поверхности фотопленки относительно системы линз и ориентацию камеры в пределах изображаемой сцены, известная модель воспроизводит физические принципы формирования изображений, создавая изображение, приближенное к изображению, формируемому реальной физической камерой. Однако данное известное решение имеет ряд недостатков, среди которых следует отметить отсутствие сведений о способе разработки модели оптической системы (камеры), использование в качестве основы для раскрытой модели камеры только лучевого приближения (без учета волновых свойств света), а также отсутствие возможности формирования набора данных формируемых изображений.US 6,028,606 (Leland Stanford Junior University, published Feb. 22, 2000) discloses a camera simulation system for rendering images in computer graphics. The known solution uses, in particular, camera-based models to synthesize a two-dimensional image from data representing a three-dimensional scene. Also, the known solution relates to a method for modeling a physical camera in a computer graphics system. Based on the characteristics of the lenses of a physical camera, including their sizes, refractive indices, aperture values and shutter characteristics, as well as the orientation of the film surface relative to the lens system and the orientation of the camera within the imaged scene, the known model reproduces the physical principles of imaging, creating an image that approximates the image formed by a real physical camera. However, this well-known solution has a number of disadvantages, among which it should be noted the lack of information about the method of developing an optical system (camera) model, the use of only ray approximation as the basis for the disclosed camera model (without taking into account the wave properties of light), and the inability to generate a data set generated images.

В источнике US 20090102841 (Sony Electronics Inc., опубликован 23.04.2009) раскрыта система виртуальной камеры и объектива в среде трехмерного компьютерного графического моделирования, которая основана на использовании номинального фокусного расстояния. В системе вычисляется истинное фокусное расстояние. Создается объект оптической оси, представляющий оптическую ось системы виртуальной камеры и объектива. К оптической оси прикрепляется объект, расположенный в местоположении, которое воспроизводит расположение системы виртуальной камеры и объектива, определяемое на основании истинного фокусного расстояния. Фокусное расстояние системы виртуальной камеры и объектива устанавливается на вычисленное истинное фокусное расстояние. При этом фокусное расстояние и значение диафрагмы могут определяться на основании ближней и дальней точек фокусировки. К недостаткам данного известного решения можно отнести то, что оно основано на модели идеальной оптической системы, а не реальной (физической) оптической системы. Кроме того, для формирования изображений в известной системе используется только фокальная линза.US 20090102841 (Sony Electronics Inc., published 04/23/2009) discloses a virtual camera and lens system in a 3D computer graphics simulation environment that is based on the use of a nominal focal length. The system calculates the true focal length. An optical axis object is created that represents the optical axis of the virtual camera and lens system. Attached to the optical axis is an object located at a location that reproduces the location of the virtual camera system and lens, determined based on the true focal length. The focal length of the virtual camera system and lens is set to the calculated true focal length. In this case, the focal length and aperture value can be determined based on the near and far focus points. The disadvantages of this well-known solution include the fact that it is based on a model of an ideal optical system, and not a real (physical) optical system. In addition, only the focal lens is used for imaging in the prior art system.

В источнике US 7616842 (Ricoh Co. Ltd., опубликован 10.11.2009) раскрыт способ сквозного проектирования оптической системы, в котором прогнозируются характеристики формирования изображений с использованием пространственной модели для объекта-источника и моделей для оптической подсистемы, подсистемы детектора и подсистемы цифровой обработки изображения. Оптическую подсистему и подсистемы цифровой обработки изображений конструируют вместе с учетом параметров всей системы. Промежуточное изображение, формируемое оптической подсистемой, не требует высокого качества, поскольку качество может быть скорректировано подсистемой цифровой обработки изображения. К недостаткам данного известного решения можно отнести то, что с точки зрения определения показателей рабочих характеристик оптической системы объект-источник является лишь идеальным представлением (в частности, камерой с точечной диафрагмой), в то время как другие варианты компонентов оптической системы (линзы с конкретными параметрами, камеры и т.п.) не учитываются.US 7,616,842 (Ricoh Co. Ltd., published Nov. 10, 2009) discloses an end-to-end optical system design method in which imaging performance is predicted using a spatial model for a source object and models for an optical subsystem, a detector subsystem, and a digital imaging subsystem. . The optical subsystem and the digital imaging subsystems are designed together taking into account the parameters of the entire system. The intermediate image generated by the optical subsystem does not require high quality, since the quality can be corrected by the digital image processing subsystem. The disadvantages of this known solution include the fact that, from the point of view of determining the performance indicators of the optical system, the source object is only an ideal representation (in particular, a camera with a pinhole), while other options for the components of the optical system (lenses with specific parameters , cameras, etc.) are not taken into account.

В источнике WO 2002044650 (Xygent (UK) Ltd., опубликован 06.06.2002) раскрыто устройство для моделирования измерения детали с использованием системы визуальных измерений, причем устройство содержит: компьютер, выполняющий программу, которая принимает цифровую модель детали и рендерирует (отрисовывает) изображение модели детали, причем изображение рендерируется на основании условий, моделирующих систему измерения, и оценивает изображение для получения значения, представляющего физическую характеристику детали. К недостаткам данного известного решения можно отнести то, что в его основе лежит модель, основанная на параметрах идеальной оптической системы, а не реальной (физической) оптической системы.WO 2002044650 (Xygent (UK) Ltd., published 06/06/2002) discloses a device for simulating the measurement of a part using a visual measurement system, the device comprising: a computer executing a program that receives a digital model of the part and renders (draws) an image of the model the part, wherein the image is rendered based on conditions simulating the measurement system and evaluates the image to obtain a value representing a physical characteristic of the part. The disadvantages of this well-known solution include the fact that it is based on a model based on the parameters of an ideal optical system, and not a real (physical) optical system.

Известное решение по US 7616842 может быть рассмотрено в качестве ближайшего аналога (прототипа) для заявляемого изобретения.The known solution according to US 7616842 can be considered as the closest analogue (prototype) for the claimed invention.

Раскрытие изобретенияDisclosure of invention

Данный раздел, раскрывающий различные аспекты и варианты выполнения заявляемого изобретения, предназначен для представления краткой характеристики заявляемых объектов изобретения и вариантов его выполнения. Подробная характеристика технических средств и методов, реализующих сочетания признаков заявляемых изобретений, приведена ниже. Ни данное раскрытие изобретения, ни нижеприведенное подробное описание и сопровождающие чертежи не следует рассматривать как определяющие объем заявляемого изобретения. Объем правовой охраны заявляемого изобретения определяется исключительно прилагаемой формулой изобретения.This section, which discloses various aspects and embodiments of the claimed invention, is intended to provide a brief description of the claimed objects of the invention and embodiments. A detailed description of technical means and methods that implement combinations of features of the claimed inventions is given below. Neither this disclosure nor the following detailed description and accompanying drawings should be construed as defining the scope of the claimed invention. The scope of legal protection of the claimed invention is determined solely by the attached claims.

Учитывая рассмотренные выше известные решения из уровня техники, объективная техническая проблема, решаемая изобретением, состоит в оптимизации параметров оптической системы без необходимости изготовления прототипов оптической системы для оптимизации параметровTaking into account the prior art solutions discussed above, the objective technical problem solved by the invention is to optimize the parameters of the optical system without the need to manufacture prototypes of the optical system to optimize the parameters.

Задача, решаемая настоящим изобретением, состоит в создании способа и системы формирования изображений с повышенным качеством итогового изображения, а также способа проектирования такой системы формирования изображений.The problem solved by the present invention is to provide an imaging method and system with improved quality of the final image, as well as a method for designing such an imaging system.

Технический результат, достигаемый при использовании настоящего изобретения, состоит в повышении качества изображения, восстановленного или обработанного на основе оптимизированных параметров оптической системы.The technical result achieved by using the present invention is to improve the quality of the image restored or processed based on the optimized parameters of the optical system.

В первом аспекте настоящего изобретения указанная задача решается системой формирования изображений, которая содержит оптическую систему, датчик изображения и блок обработки изображений. При этом оптическая система выполнена с возможностью формирования промежуточного изображения. Блок обработки изображений выполнен с возможностью восстановления упомянутого промежуточного изображения. При этом система формирования изображений реализована посредством совместной оптимизации параметров оптической системы и блока обработки изображений посредством минимизации различия в парах изображений, причем различие в парах изображений формируется посредством по меньшей мере двух моделей оптической системы, причем по меньшей мере две модели оптической системы содержат две или более моделей оптической системы с различными уровнями абстракции, выполненные с возможностью формирования изображений, моделирование которых осуществляется путем расчета хода лучей или распространения световой волны через соответствующую оптическую систему. Уровни абстракции по меньшей мере двух моделей оптической системы различаются по количеству и типу параметров, используемых при описании прохождения света через оптическую систему. В одном или более вариантах выполнения изобретения по меньшей мере одно изображение в упомянутых парах изображений формируется с использованием алгоритма распространения световой волны (что иначе можно назвать волновым приближением) и/или алгоритма расчета хода лучей (что иначе можно назвать лучевым или геометрическим приближением) от объектов трехмерной сцены. Алгоритм расчета хода лучей представляет собой алгоритм прямой трассировки лучей или алгоритм обратной трассировки лучей. В одном или более вариантах выполнения изобретения упомянутые по меньшей мере две модели оптической системы содержат модель низкого уровня абстракции, более полно учитывающую поведение физической оптической системы, и по меньшей мере одну модель высокого уровня абстракции, менее полно учитывающую поведение физической оптической системы. Модель высокого уровня абстракции может представлять собой модель точечной диафрагмы, модель тонкой линзы, модель линзы с фовеолярной зоной, модель ахроматической оптической системы, модель дисторзирующей оптической системы без размытия изображения. В одном или более вариантах выполнения при формировании пар изображений могут дополнительно применяться по меньшей мере две модели датчика изображения с различными уровнями абстракции, причем по меньшей мере одна из двух моделей датчика изображения представляет собой модель, учитывающую шум, модель со спектральной селективностью, и/или модель, учитывающую параметры выборки, такие как дискретизация, попиксельное интегрирование и квантование.In the first aspect of the present invention, this problem is solved by an imaging system that includes an optical system, an image sensor and an image processing unit. In this case, the optical system is configured to form an intermediate image. The image processing unit is configured to restore said intermediate image. At the same time, the imaging system is implemented by jointly optimizing the parameters of the optical system and the image processing unit by minimizing the difference in pairs of images, and the difference in pairs of images is formed by at least two models of the optical system, and at least two models of the optical system contain two or more models of an optical system with different levels of abstraction, made with the possibility of forming images, the modeling of which is carried out by calculating the path of rays or the propagation of a light wave through the corresponding optical system. Abstraction levels of at least two models of an optical system differ in the number and type of parameters used in describing the passage of light through an optical system. In one or more embodiments of the invention, at least one image in said pairs of images is formed using a light wave propagation algorithm (which may otherwise be called wave approximation) and/or an algorithm for calculating the path of rays (which may otherwise be called ray or geometric approximation) from objects three-dimensional scene. The ray tracing algorithm is a forward ray tracing algorithm or a reverse ray tracing algorithm. In one or more embodiments of the invention, said at least two models of the optical system comprise a low abstraction level model that more fully takes into account the behavior of the physical optical system, and at least one high abstraction level model that less fully takes into account the behavior of the physical optical system. The high abstraction model can be a pinhole model, a thin lens model, a foveolar lens model, an achromatic optical system model, a non-blurring distortion optical system model. In one or more embodiments, the imaging pairing may additionally employ at least two image sensor models with different levels of abstraction, wherein at least one of the two image sensor models is a noise model, a spectral selectivity model, and/or a model that takes into account sampling parameters such as sampling, pixel-by-pixel integration, and quantization.

Во втором аспекте настоящего изобретения предложен способ проектирования параметров системы формирования изображений, содержащей оптическую систему, датчик изображения и блок обработки изображений, содержащий этапы, на которых: формируют по меньшей мере один набор пар изображений

Figure 00000001
и
Figure 00000002
с использованием по меньшей мере двух моделей оптической системы с различными уровнями абстракции; и минимизируют различия между изображениями в наборе пар изображений
Figure 00000001
и
Figure 00000002
путем оптимизации параметров оптической системы, датчика изображения и/или блока обработки изображений.In the second aspect of the present invention, a method is provided for designing the parameters of an imaging system comprising an optical system, an image sensor and an image processing unit, comprising the steps of: forming at least one set of image pairs
Figure 00000001
and
Figure 00000002
using at least two models of the optical system with different levels of abstraction; and minimize differences between images in a set of image pairs
Figure 00000001
and
Figure 00000002
by optimizing the parameters of the optical system, image sensor and/or image processing unit.

Уровни абстракции упомянутых по меньшей мере двух моделей оптической системы различаются по количеству и типу параметров, используемых при описании прохождения света через оптическую систему. В одном или более вариантах выполнения изобретения по меньшей мере две модели оптической системы содержат модель низкого уровня абстракции, более полно учитывающую поведение физической оптической системы, и по меньшей мере одну модель высокого уровня абстракции, менее полно учитывающую поведение физической оптической системы. В одном или более вариантах выполнения этап минимизации различий между изображениями содержит этап, на котором применяют метрику

Figure 00000003
(также называемую в контексте настоящей заявки нормой невязки, где невязка - разность между эталонным изображением и изображением, полученным физической моделью) для оценки качества изображения, формируемого системой формирования изображений, и получают оптимальные параметры оптической системы, оптимальные параметры датчика изображения и/или оптимальные параметры блока обработки изображений на основании минимизации метрики
Figure 00000004
. По меньшей мере одно изображение в упомянутых парах изображений может формироваться с использованием алгоритма распространения световой волны и/или алгоритма расчета хода лучей от объектов трехмерной сцены.The abstraction levels of the at least two models of the optical system differ in the number and type of parameters used in describing the passage of light through the optical system. In one or more embodiments of the invention, at least two models of the optical system comprise a low abstraction level model that more fully takes into account the behavior of the physical optical system, and at least one high abstraction level model that less fully takes into account the behavior of the physical optical system. In one or more embodiments, the step of minimizing differences between images comprises a step at which a metric is applied
Figure 00000003
(also referred to in the context of this application as the residual norm, where the residual is the difference between the reference image and the image obtained by the physical model) to evaluate the image quality generated by the imaging system, and obtain the optimal parameters of the optical system, the optimal parameters of the image sensor and/or the optimal parameters image processing unit based on metric minimization
Figure 00000004
. At least one image in said pairs of images can be generated using a light wave propagation algorithm and/or an algorithm for calculating the path of rays from objects in a three-dimensional scene.

В третьем аспекте настоящего изобретения предложен способ формирования изображений системой формирования изображений, содержащей оптическую систему, датчик изображения и блок обработки изображений. Способ содержит этапы, на которых: формируют по меньшей мере один набор пар изображений

Figure 00000001
и
Figure 00000002
с использованием по меньшей мере двух моделей оптической системы с различными уровнями абстракции; применяют метрику
Figure 00000003
для оценки качества изображения, формируемого системой формирования изображений, и получают оптимальные параметры оптической системы, оптимальные параметры датчика изображения и оптимальные параметры блока обработки изображений на основании минимизации метрики
Figure 00000004
; применяют полученные оптимальные параметры оптической системы и оптимальные параметры датчика изображения для формирования промежуточного изображения; вводят промежуточное изображение в блок обработки изображений; применяют оптимальные параметры блока обработки изображений в блоке обработки изображений; и выполняют восстановление изображения на основании оптимальных параметров блока обработки изображений для получения изображения высокого качества. При формировании пар изображений могут дополнительно применяться по меньшей мере две модели датчика изображения с различными уровнями абстракции, причем по меньшей мере одна из двух моделей датчика изображения представляет собой модель, учитывающую шум, модель, учитывающую спектральную селективность, и/или модель, учитывающую параметры выборки.In a third aspect of the present invention, an imaging method is provided by an imaging system comprising an optical system, an image sensor, and an image processing unit. The method comprises the steps of: generating at least one set of image pairs
Figure 00000001
and
Figure 00000002
using at least two models of the optical system with different levels of abstraction; apply the metric
Figure 00000003
to evaluate the quality of the image generated by the imaging system, and obtain the optimal parameters of the optical system, the optimal parameters of the image sensor and the optimal parameters of the image processing unit based on the minimization of the metric
Figure 00000004
; applying the obtained optimal parameters of the optical system and the optimal parameters of the image sensor to form an intermediate image; introducing an intermediate image into an image processing unit; applying the optimal parameters of the image processing unit in the image processing unit; and performing image reconstruction based on the optimal parameters of the image processing unit to obtain a high quality image. When generating image pairs, at least two image sensor models with different levels of abstraction can be additionally applied, wherein at least one of the two image sensor models is a noise model, a spectral selectivity model, and/or a sampling parameter model. .

Как будет очевидно специалистам в данной области техники, заявляемое изобретение может быть реализовано также в форме других объектов, таких как, в качестве неограничивающего примера, устройство формирования изображения, оптическая система, система дополненной реальности (AR) или виртуальной реальности (VR), устройство отображения и т.п.As will be apparent to those skilled in the art, the claimed invention may also be embodied in the form of other objects such as, but not limited to, an imaging device, an optical system, an augmented reality (AR) or virtual reality (VR) system, a display device. etc.

Краткое описание чертежейBrief description of the drawings

Чертежи приведены в настоящем документе для облегчения понимания сущности настоящего изобретения. Чертежи являются схематичными и выполнены не в масштабе. Чертежи служат исключительно в качестве иллюстрации и не предназначены для определения объема настоящего изобретения.The drawings are given in this document to facilitate understanding of the essence of the present invention. The drawings are schematic and not to scale. The drawings are for illustrative purposes only and are not intended to define the scope of the present invention.

На Фиг. 1 приведена блок-схема системы формирования изображений согласно изобретению.On FIG. 1 is a block diagram of an imaging system according to the invention.

На Фиг. 2 проиллюстрирован пример наборов параметров для модели оптической системы низкого уровня абстракции (вид А) и модели оптической системы высокого уровня абстракции (вид В), соответственно.On FIG. 2 illustrates an example of parameter sets for a low abstraction level optical system model (View A) and a high abstraction level optical system model (View B), respectively.

На Фиг. 3 показана блок-схема способа формирования изображений согласно изобретению.On FIG. 3 shows a flowchart of an imaging method according to the invention.

На Фиг. 4 схематично проиллюстрирована модель оптической системы с точечной диафрагмой согласно одному из вариантов осуществления изобретения.On FIG. 4 schematically illustrates a model of a pinhole optical system according to one embodiment of the invention.

На Фиг. 5 схематично проиллюстрирована модель «идеальной» линзы согласно одному из вариантов осуществления изобретения.On FIG. 5 schematically illustrates a model of an "ideal" lens according to one embodiment of the invention.

На Фиг. 6 схематично проиллюстрирован примерный профиль линзы с фовеолярной зоной и соответствующие зоны на формируемом изображении согласно одному из вариантов осуществления изобретения.On FIG. 6 schematically illustrates an exemplary lens profile with a foveolar zone and corresponding zones in an image formed according to one embodiment of the invention.

Осуществление изобретенияImplementation of the invention

Предлагаемое изобретение основано на двухуровневой модели для получения оптимизированных параметров оптической системы и компенсации недостатков изображения, характерных для результата работы реальной («физической») оптической системы, таких как размытие (недостаточная резкость), геометрические и хроматические аберрации, дисторсия, двоение изображения, шум и т.п. Результатом применения настоящего изобретения является формирование восстановленного изображения с желаемым качеством за счет применения оптимизированных параметров оптической системы, датчика изображения и блока обработки изображений.The present invention is based on a two-level model for obtaining optimized parameters of the optical system and compensating for image imperfections that are characteristic of the result of the operation of a real ("physical") optical system, such as blur (insufficient sharpness), geometric and chromatic aberrations, distortion, ghosting, noise, and etc. The result of the application of the present invention is the formation of a reconstructed image with the desired quality through the use of optimized parameters of the optical system, image sensor and image processing unit.

Для этого в основе концепции настоящего изобретения лежит подход, основанный на так называемом «сквозном» (называемом в англоязычной литературе термином end-to-end) проектировании оптимизированных параметров системы (устройства) формирования изображения с использованием в качестве источника исходных данных трехмерного (3D) объекта и/или сцены, а не двухмерного изображения, как в известных подходах из уровня техники, рассмотренных выше. В общем случае, в контексте настоящего изобретения для этого используется трехмерная сцена, содержащая геометрические модели одного или более трехмерных объектов с заданными материалами и свойствами поверхностей и один или более источников света с заданными характеристиками.To do this, the concept of the present invention is based on an approach based on the so-called "end-to-end" (called end-to-end in the English literature) design of optimized parameters of the imaging system (device) using a three-dimensional (3D) object as a source of initial data and/or scene, rather than a two-dimensional image, as in the prior art approaches discussed above. In the general case, in the context of the present invention, a three-dimensional scene is used for this, containing geometric models of one or more three-dimensional objects with specified materials and surface properties, and one or more light sources with specified characteristics.

Трехмерная сцена для целей реализации настоящего изобретения может быть, в качестве неограничивающего примера, сценой, заранее созданной с использованием определенной компьютерной программы 3D моделирования, или готовой сценой, выбранной из одной или более баз данных трехмерных моделей и/или сцен. В качестве неограничивающего примера, конкретная трехмерная сцена может быть создана и/или выбрана для использования при реализации изобретения на основании назначения и требуемых характеристик системы (устройства) формирования изображений, для которого осуществляется проектирование параметров в соответствии с изобретением. В качестве неограничивающего примера и исключительно в целях иллюстрации, для устройства формирования изображений, представляющего собой фронтальную камеру телефона, предназначенную в основном для съемки лица человека, которое находится на расстоянии от 200 до 700 мм, трехмерная сцена может включать в себя трехмерную модель, соответствующую лицу человека, а также одну или более моделей трехмерных объектов, представляющих типичный фон, например деревья, здания и т.п., которые могут располагаться за лицом человека на расстоянии более 1000 мм. Взаимное расположение этих объектов в трехмерной сцене также устанавливается в соответствии с конкретной решаемой задачей, пример которой приведен выше.A 3D scene for the purpose of implementing the present invention may be, as a non-limiting example, a scene previously created using a specific 3D modeling computer program, or a finished scene selected from one or more databases of 3D models and/or scenes. As a non-limiting example, a specific 3D scene can be created and/or selected for use in implementing the invention based on the purpose and required characteristics of the imaging system (device) for which the parameters are being designed in accordance with the invention. As a non-limiting example, and solely for illustrative purposes, for an imaging device that is a front camera of a telephone primarily for capturing a person's face that is 200 to 700 mm away, the 3D scene may include a 3D model corresponding to the face. person, as well as one or more models of three-dimensional objects representing a typical background, such as trees, buildings, etc., which can be located behind the person's face at a distance of more than 1000 mm. The mutual arrangement of these objects in a three-dimensional scene is also set in accordance with the specific problem being solved, an example of which is given above.

При этом, согласно изобретательскому замыслу, для проектирования оптимизированных параметров системы формирования изображения не требуется изготовление прототипа реальной («физической») оптической системы и/или системы формирования изображения в целом с целью оценки качества получаемого изображения при рассматриваемом наборе параметров оптической системы. Вместо этого применяются модели оптической системы с различными уровнями абстракции и решается задача оптимизации параметров оптической системы, а также разрабатывается алгоритм обработки изображений для блока обработки изображений, как будет описано ниже.At the same time, according to the inventive concept, for the design of optimized parameters of the imaging system, it is not required to manufacture a prototype of a real (“physical”) optical system and/or the imaging system as a whole in order to assess the quality of the resulting image for the considered set of parameters of the optical system. Instead, optical system models with different levels of abstraction are applied and the problem of optimizing the parameters of the optical system is solved, and an image processing algorithm for the image processing unit is developed, as will be described below.

В результате, кроме проектирования параметров системы формирования изображений, позволяющих получать изображение с желаемым уровнем качества на основе промежуточного изображения, предлагаемое техническое решение также может обеспечивать наборы данных изображений для использования в алгоритме машинного обучения, предназначенном для оптимизации параметров блока обработки изображений, которые в таких вариантах выполнения настоящего изобретения представляют собой параметры нейросети или алгоритма обработки изображений, и т.п. Работа предлагаемого технического решения будет описана ниже.As a result, in addition to designing the parameters of the imaging system to obtain an image with the desired level of quality based on the intermediate image, the proposed technical solution can also provide image data sets for use in a machine learning algorithm designed to optimize the parameters of the image processing unit, which in such cases embodiments of the present invention are the parameters of a neural network or an image processing algorithm, and the like. The work of the proposed technical solution will be described below.

Следует отметить, что в контексте предлагаемого изобретения проектируемая система (устройство) формирования изображений содержит три основных компонента - оптическую систему (в частности, один или более объективов, одну или более линз или групп линз и т.п.), датчик изображения и блок обработки изображений. При проектировании параметров устройства формирования изображений с желаемыми показателями качества получаемых изображений учитываются характеристики части или всех из трех вышеупомянутых компонентов устройства формирования изображений.It should be noted that in the context of the present invention, the designed imaging system (device) contains three main components - an optical system (in particular, one or more lenses, one or more lenses or groups of lenses, etc.), an image sensor and a processing unit images. When designing the parameters of the imaging device with the desired quality of the resulting images, the characteristics of some or all of the three above-mentioned components of the imaging device are taken into account.

В отношении показателей качества изображений, формируемых устройством формирования изображений после оптимизации параметров в соответствии с изобретением необходимо отметить следующее. В контексте настоящего изобретения под показателями качества в различных вариантах выполнения можно понимать различные параметры, в том числе подлежащие объективной количественной оценке. Однако объем настоящего изобретения не ограничен конкретным выбором параметров качества изображений, формируемых устройством (системой) формирования изображений в результате оптимизации параметров в соответствии с изобретением. В качестве неограничивающих примеров и для пояснения смыслового содержания понятия «показатели качества изображений» можно привести следующие критерии, подлежащие количественному выражению, которые наиболее часто используются в данной области техники:With regard to the quality indicators of the images generated by the image forming apparatus after optimizing the parameters in accordance with the invention, the following should be noted. In the context of the present invention, quality indicators in various embodiments can be understood as various parameters, including those that are subject to objective quantitative assessment. However, the scope of the present invention is not limited to the specific selection of image quality parameters generated by the imaging apparatus (system) as a result of parameter optimization in accordance with the invention. As non-limiting examples and to clarify the semantic content of the concept of "image quality indicators", the following criteria to be quantified, which are most often used in this field of technology, can be given:

- контраст изображения (коэффициент контраста) - контраст менее 30% считается указывающим на низкое качество изображения, более 70% - указывающим на высокое качество изображения;- image contrast (contrast ratio) - a contrast of less than 30% is considered to indicate poor image quality, more than 70% - indicating high image quality;

- изменение освещенности по полю - для изображений высокого качества желательно, чтобы изображение было освещено равномерно, то есть чтобы падение освещенности не превышало 10%;- change in illumination across the field - for high quality images, it is desirable that the image be illuminated evenly, that is, that the fall in illumination does not exceed 10%;

- дисторсия менее 2% указывает на высокое качество изображения. Однако для широкоугольных объективов допустимая величина дисторсии может быть значительно больше (>20%);- distortion less than 2% indicates high image quality. However, for wide-angle lenses, the allowable amount of distortion can be much larger (>20%);

- хроматизм - для изображений высокого качества он должен быть меньше полпикселя.- chromatism - for high quality images it should be less than half a pixel.

- PSNR (пиковое отношение сигнала к шуму) - для изображений высокого качества этот показатель, как правило, больше 30 дБ.- PSNR (peak signal to noise ratio) - for high quality images, this figure is usually greater than 30 dB.

Кроме вышеперечисленных неограничивающих примеров объективных количественных показателей оценки качества изображения, следует упомянуть также нечисленные (качественные) показатели качества изображения, которые тоже могут влиять на восприятие итогового изображения, формируемого системой формирования изображений. В качестве неограничивающего примера можно привести упомянутое выше в обзоре уровня техники боке в виде «бубликов», что формирует у наблюдателя ощущение неестественного размытия переднего и/или заднего плана, который находится за пределами области фокусировки. Кроме того, в контексте настоящего изобретения можно упомянуть такие показатели качества, влияющие на оценку итогового изображения наблюдателем, как минимизация «двоения» или размытия, выраженная, например, в том, что боковые лепестки на графике функции рассеяния, вызванные паразитными порядками дифракции от элементов дисплея в камере под дисплеем (UDC), не превышают, например, 10% от максимума функции рассеяния. Кроме вышеперечисленных, специалистам в данной области техники будут очевидны и другие возможные критерии оценки качества итогового изображения, как численные, так и нечисленные (качественные), влияющие на визуальное восприятие итогового изображения наблюдателем.In addition to the above non-limiting examples of objective image quality metrics, mention should also be made of non-numerical (qualitative) image quality metrics that can also affect the perception of the final image generated by the imaging system. As a non-limiting example, the “donut” bokeh mentioned above in the prior art overview, which gives the viewer the impression of an unnatural blur of the foreground and/or background that is outside the focus area. In addition, in the context of the present invention, mention can be made of such quality factors that affect the assessment of the final image by the observer, such as minimizing "ghosting" or blurring, expressed, for example, in the fact that the side lobes in the plot of the scatter function, caused by parasitic diffraction orders from display elements in the camera under the display (UDC), do not exceed, for example, 10% of the maximum of the spread function. In addition to the above, specialists in the art will be aware of other possible criteria for assessing the quality of the final image, both numerical and non-numerical (qualitative), affecting the visual perception of the final image by the observer.

На Фиг. 1 схематично проиллюстрирована система формирования изображений в соответствии с первым аспектом настоящего изобретения, указанная в общем ссылочной позицией 100. Система содержит оптическую систему 110, датчик 120 изображения и блок 130 обработки изображений. Оптическая система 110 выполнена с возможностью формирования промежуточного изображения на датчике 120 изображения. Блок 130 обработки изображений выполнен с возможностью восстановления упомянутого промежуточного изображения с получением в результате выходного изображения 300.On FIG. 1 schematically illustrates an imaging system in accordance with the first aspect of the present invention, indicated generally by reference numeral 100. The system includes an optical system 110, an image sensor 120, and an image processing unit 130. The optical system 110 is configured to form an intermediate image on the image sensor 120 . The image processing unit 130 is configured to restore said intermediate image, resulting in an output image 300.

При этом система 100 формирования изображений выполнена с возможностью совместной оптимизации параметров оптической системы 110 и блока 130 обработки изображений посредством минимизации различия в парах изображений, формируемого посредством по меньшей мере двух моделей 201 и 202 оптической системы, причем по меньшей мере две модели 201 и 202 оптической системы являются моделями оптической системы с различными уровнями абстракции, выполненными с возможностью формирования изображений, моделирование которых осуществляется путем расчета хода лучей или распространения световой волны через соответствующую модель 201 и 202 оптической системы 110. Уровни абстракции упомянутых по меньшей мере двух моделей 201 и 202 оптической системы различаются по количеству и типу параметров, используемых при описании прохождения света через оптическую систему 110. В дальнейшем модель низкого уровня абстракции также будет называться в настоящем описании физической моделью оптической системы, а модель высокого уровня абстракции -идеальной оптической системой. Следует отметить, что в общем случае под идеальной оптической системой в оптике принято понимать безаберрационную оптическую систему. Однако в контексте настоящего описания понятие «идеальной» оптической системы не ограничено безаберрационной оптической системой и, как будет подробно изложено ниже, в различных вариантах выполнения настоящего изобретения предусмотрены различные конкретные модели высокого уровня абстракции, которые также будут называться моделями идеальной оптической системы. Следует понимать, что чем выше уровень абстракции модели, тем меньшее количество параметров «реальной» (физической) оптической системы в ней учитывается, и наоборот.At the same time, the imaging system 100 is configured to jointly optimize the parameters of the optical system 110 and the image processing unit 130 by minimizing the difference in pairs of images formed by at least two models 201 and 202 of the optical system, with at least two models 201 and 202 of the optical system The systems are models of an optical system with different levels of abstraction capable of generating images that are modeled by calculating the path of rays or the propagation of a light wave through the corresponding model 201 and 202 of the optical system 110. The abstraction levels of the at least two models 201 and 202 of the optical system differ in the number and type of parameters used in describing the passage of light through the optical system 110. In the following, the low-level abstraction model will also be referred to in this description as the physical model of the optical system, and the high-level model abstraction level - an ideal optical system. It should be noted that, in the general case, an ideal optical system in optics is commonly understood as an aberration-free optical system. However, in the context of the present description, the concept of an “ideal” optical system is not limited to an aberration-free optical system, and, as will be detailed below, various specific high-level abstraction models, which will also be referred to as ideal optical system models, are provided in various embodiments of the present invention. It should be understood that the higher the level of abstraction of the model, the fewer parameters of the “real” (physical) optical system are taken into account in it, and vice versa.

Для минимизации различия в парах изображений применяют метрику

Figure 00000005
для оценки качества изображения и получают оптимальные параметры системы 100 формирования изображений, минимизируя эту метрику
Figure 00000006
, которые применяют к оптической системе 110, датчику 120 изображения и блоку 130 обработки изображений для восстановления промежуточного изображения с получением выходного изображения 300 с желаемым уровнем качества.To minimize the difference in pairs of images, a metric is used
Figure 00000005
to evaluate image quality and obtain the optimal parameters of the imaging system 100 by minimizing this metric
Figure 00000006
, which are applied to the optical system 110, the image sensor 120, and the image processing unit 130 to reconstruct the intermediate image to obtain an output image 300 with a desired level of quality.

Специалистам в данной области техники будет очевидно, что система 100 формирования изображений может быть реализована на практике с применением различных сочетаний аппаратных и программных средств для реализации соответствующих блоков и/или выполнения соответствующих функций при работе системы. В качестве неограничивающего примера, помимо оптической системы 110, которая может быть выполнена в виде одной или более линзы, групп линз и т.п. в зависимости от конкретного варианта практической реализации настоящего изобретения, и датчика 120 изображения, который, в зависимости от конкретного варианта реализации системы, может представлять собой любой известный в данной области техники датчик изображения, такой как, в качестве неограничивающего примера, датчик CMOS или CCD, в системе может быть задействован по меньшей мере один блок обработки данных, такой как процессор общего назначения или графический процессор (GPU), микропроцессор, программируемая логическая интегральная схема (ASIC) и т.п. Кроме того, система может содержать по меньшей мере одно запоминающее устройство (RAM, ROM и т.п.), в котором хранится программное и/или микропрограммное обеспечение, реализующее соответствующие функции по обработке данных в рамках реализации системы, в частности упомянутые модели оптической системы, алгоритмы моделирования изображений и т.п.Those skilled in the art will appreciate that the imaging system 100 may be practiced using various combinations of hardware and software to implement the respective blocks and/or perform the respective functions in operation of the system. As a non-limiting example, in addition to the optical system 110, which may be in the form of one or more lenses, lens groups, and the like. depending on the specific embodiment of the practical implementation of the present invention, and the image sensor 120, which, depending on the specific implementation of the system, can be any image sensor known in the art, such as, as a non-limiting example, a CMOS or CCD sensor, the system may involve at least one processing unit, such as a general purpose processor or graphics processing unit (GPU), microprocessor, field-programmable logic integrated circuit (ASIC), or the like. In addition, the system may contain at least one storage device (RAM, ROM, etc.), which stores software and/or firmware that implements the appropriate data processing functions within the framework of the system implementation, in particular, the mentioned models of the optical system , image modeling algorithms, etc.

Следует отметить, что объем испрашиваемой правовой охраны не ограничен конкретными материально-техническими средствами, реализующими систему формирования изображений или соответствующие способы, описанные в материалах настоящей заявки. Специалистам в данной области техники будут очевидны различные сочетания аппаратных и/или программных средств, позволяющих реализовать описываемое изобретение в зависимости от конкретных частных вариантов его практической реализации. Кроме того, следует отметить, что по меньшей мере программное и/или микропрограммное обеспечение, реализующее соответствующие функции и/или этапы заявляемых способов, может храниться на по меньшей мере одном машиночитаемом носителе, расположенном физически в том же местоположении, что и система формирования изображений или удаленном от нее и соединенном с ней посредством одной или более проводных или беспроводных сетей связи.It should be noted that the scope of the claimed legal protection is not limited to specific logistical means that implement the imaging system or the corresponding methods described in the materials of this application. Specialists in the art will be aware of various combinations of hardware and/or software that allow you to implement the described invention, depending on specific private options for its practical implementation. In addition, it should be noted that at least software and/or firmware that implements the respective functions and/or steps of the inventive methods may be stored on at least one computer-readable medium located physically in the same location as the imaging system or remote from it and connected to it through one or more wired or wireless communication networks.

Сквозное проектирование оптической системы, датчика изображения и блока обработки изображений осуществляется с использованием двухуровневой модели оптической системы, в которой задействованы модель низкого уровня абстракции (соответствующая «физической» оптической системе), характеризуемой, в частности, параметрами оптических поверхностей

Figure 00000007
, параметрами оптических материалов
Figure 00000008
, положениями оптических элементов
Figure 00000009
, габаритными характеристиками L), модель датчика изображения (характеризуемого такими параметрами, как спектральная селективность
Figure 00000010
, параметры «шума»
Figure 00000011
и параметры выборки (дискретизация, попиксельное интегрирование S, квантование), и модель блока обработки изображения (характеризуемая параметрами цифрового фильтра или весовыми коэффициентами слоев
Figure 00000012
нейронной сети). В отношении оптической системы, помимо модели «физической» («реальной») оптической системы с низким уровнем абстракции, применяется также модель «идеальной» оптической системы с высоким уровнем абстракции, как будет более подробно описано ниже. Каждая из упомянутых двух моделей оптических систем с различными уровнями абстракции дает по одному изображению, т.е. получается пара изображений одного и того же трехмерного объекта или одной и той же трехмерной сцены с различным качеством, поскольку на изображение, получаемое моделью низкого уровня абстракции (моделью «физической» оптической системы, максимально приближенной к реальной оптической системе) влияют особенности данной оптической системы, в то время как модель высокого уровня абстракции (т.е. «идеальной» оптической системы) не имеет соответствующих особенностей и формирует изображение, лишенное ряда недостатков (таких как размытие, дисторсия, аберрации, шум), вносимых в изображение «физической» оптической системой.The end-to-end design of the optical system, image sensor and image processing unit is carried out using a two-level model of the optical system, in which a low-level abstraction model (corresponding to the "physical" optical system) is used, characterized, in particular, by the parameters of optical surfaces
Figure 00000007
, parameters of optical materials
Figure 00000008
, positions of optical elements
Figure 00000009
, overall characteristics L ), image sensor model (characterized by such parameters as spectral selectivity
Figure 00000010
, "noise" parameters
Figure 00000011
and sampling parameters (sampling, pixel-by-pixel integration S , quantization), and an image processing unit model (characterized by digital filter parameters or layer weights
Figure 00000012
neural network). With regard to the optical system, in addition to the "physical"("real") optical system model with a low level of abstraction, the model of the "ideal" optical system with a high level of abstraction is also applied, as will be described in more detail below. Each of the above two models of optical systems with different levels of abstraction gives one image, i.e. a pair of images of the same three-dimensional object or the same three-dimensional scene with different quality is obtained, since the image obtained by a model of a low level of abstraction (a model of a “physical” optical system that is as close as possible to a real optical system) is affected by the features of this optical system, while a model of a high level of abstraction (i.e., an “ideal” optical system) does not have the corresponding features and forms an image devoid of a number of shortcomings (such as blur, distortion, aberrations, noise) introduced into the image by a “physical” optical system .

Более конкретно, оптическая система и датчик изображения в модели низкого уровня абстракции, как и в реальной оптической системе устройства формирования изображений, вносят в изображение некоторое размытие, дисторсию и добавляют «шум». В частности, на датчике изображения упомянутые искажения могут быть вызваны нелинейностями, неравномерностью насыщения, потерями на этапе преобразования аналогового изображения, формируемого оптической системой, в цифровые данные изображения.More specifically, the optical system and image sensor in the low abstraction model, as in the real optical system of the imaging device, introduce some blurring, distortion, and "noise" into the image. In particular, on the image sensor, said distortions can be caused by non-linearities, saturation unevenness, losses at the stage of converting the analog image formed by the optical system into digital image data.

В соответствии с изобретением модель низкого уровня абстракции формирует промежуточное изображение. Далее блок обработки изображений восстанавливает изображение с использованием вышеупомянутых пар изображений, сформированных моделями оптической системы с разными уровнями абстракции.In accordance with the invention, the low abstraction model generates an intermediate image. Next, the image processing unit reconstructs the image using the aforementioned pairs of images generated by the optical system models with different levels of abstraction.

Кроме того, в некоторых вариантах выполнения, как будет более подробно описано ниже, проектируемое устройство формирования изображений может применяться в таких конфигурациях, как «камера под дисплеем» (UDC) или камера с увеличенной глубиной резкости (EDoF), где на входе в оптическую систему также присутствует амплитудно-фазовая маска, которая расширяет функциональность устройства формирования изображений, но при этом также вносит вклад в снижение качества изображения, вызывая такие нежелательные явления, как размытие и двоение изображения (в случае с UDC) или размытие и ненатуральное «боке» (в случае с EDoF).In addition, in some embodiments, as will be described in more detail below, the designed imager may be used in configurations such as under display camera (UDC) or extended depth of field (EDoF) camera, where at the entrance to the optical system an amplitude-phase mask is also present, which enhances the functionality of the imaging device, but also contributes to image quality degradation, causing undesirable phenomena such as blurring and ghosting (in the case of UDC) or blurring and unnatural "bokeh" (in case with EDoF).

Другими словами, в основе предлагаемого изобретения лежит «двухуровневая» модель оптической системы. На первом «уровне» используется модель «физической» оптической системы (другими словами, модель низкого уровня абстракции, приближенная к «реальной» оптической системе), которая формирует изображение

Figure 00000013
трехмерного объекта
Figure 00000014
. Математически процесс формирования изображения
Figure 00000015
может быть представлен в виде оператора от параметров
Figure 00000016
, который отображает объект
Figure 00000017
в изображение
Figure 00000018
, причем функция имеет следующий вид:In other words, the proposed invention is based on a "two-level" model of the optical system. The first "level" uses a model of the "physical" optical system (in other words, a low-level model of abstraction, close to the "real" optical system), which forms the image
Figure 00000013
three-dimensional object
Figure 00000014
. Mathematically, the imaging process
Figure 00000015
can be represented as an operator on parameters
Figure 00000016
The that renders the object
Figure 00000017
into the image
Figure 00000018
, and the function has the following form:

Figure 00000019
(1),
Figure 00000019
(one),

где

Figure 00000020
являются параметрами оптической системы, такими как радиусы кривизны поверхностей линз, расстояния между линзами, толщина линз и т.п.where
Figure 00000020
are parameters of the optical system, such as the radii of curvature of lens surfaces, distances between lenses, lens thickness, etc.

Оператор

Figure 00000021
получают с использованием алгоритма распространения света, который будет более подробно рассмотрен ниже.Operator
Figure 00000021
obtained using a light propagation algorithm, which will be discussed in more detail below.

Датчик изображения «физической» оптической системы преобразует изображение

Figure 00000013
в изображение
Figure 00000022
, характеризуемое следующим оператором:The image sensor of the "physical" optical system transforms the image
Figure 00000013
into the image
Figure 00000022
, characterized by the following operator:

Figure 00000023
(2),
Figure 00000023
(2)

где

Figure 00000024
являются параметрами датчика изображения.where
Figure 00000024
are the image sensor parameters.

Алгоритм обработки изображений преобразует изображение

Figure 00000022
в изображение
Figure 00000025
с применением следующего оператора:The image processing algorithm transforms the image
Figure 00000022
into the image
Figure 00000025
using the following operator:

Figure 00000026
(3),
Figure 00000026
(3)

где

Figure 00000027
являются параметрами алгоритма.where
Figure 00000027
are parameters of the algorithm.

Упрощенная модель оптической системы (то есть модель «идеальной» оптической системы с высоким уровнем абстракции) строит опорное (эталонное) изображение

Figure 00000028
объекта
Figure 00000014
с помощью оператора:A simplified model of an optical system (that is, a model of an “ideal” optical system with a high level of abstraction) builds a reference (reference) image
Figure 00000028
object
Figure 00000014
using the operator:

Figure 00000029
(4),
Figure 00000029
(4),

где

Figure 00000030
- параметры упрощенной модели.where
Figure 00000030
- parameters of the simplified model.

В результате работы упомянутой выше двухуровневой модели формируются два изображения: опорное (эталонное) изображение

Figure 00000028
и изображение
Figure 00000025
, полученное на основе модели низкого уровня абстракции.As a result of the operation of the two-level model mentioned above, two images are formed: a reference (reference) image
Figure 00000028
and image
Figure 00000025
, derived from the low-level abstraction model.

На основе минимизации различий (невязки) между изображением

Figure 00000031
, полученным на основе модели низкого уровня абстракции, и опорным изображением
Figure 00000032
, полученным моделью высокого уровня абстракции, получается выходное изображение
Figure 00000033
, в котором компенсированы такие недостатки, присущие различным конфигурациям «физических» оптических систем и блоков обработки изображения, как размытие изображения, монохроматические и/или хроматические аберрации, двоение изображения, дисторсия, «шум» и т.п., Таким образом решается задача оптимизации для прогнозирования характеристик проектируемого «сквозным» методом устройства формирования изображений в соответствии с изобретением.Based on minimizing differences (residuals) between the image
Figure 00000031
, obtained on the basis of the low-level abstraction model, and the reference image
Figure 00000032
obtained by the high-level abstraction model, the output image is obtained
Figure 00000033
, which compensates for such shortcomings inherent in various configurations of "physical" optical systems and image processing units as blurring of the image, monochromatic and / or chromatic aberrations, ghosting, distortion, "noise", etc., Thus, the optimization problem is solved for predicting the characteristics of the image forming device designed by the "through" method in accordance with the invention.

Опорное (эталонное) изображение

Figure 00000034
, полученное на основе модели высокого уровня абстракции, и изображение
Figure 00000035
, полученное на основе модели низкого уровня абстракции, формируются моделями с различными уровнями абстракции в одной и той же системе. Изображения
Figure 00000036
используются в метрике
Figure 00000037
для оценки качества изображения, формируемого камерой. Путем минимизации различия (выражаемого, например, нормой невязки) между упомянутыми двумя изображениями могут быть получены такие параметры проектирования
Figure 00000038
, которые обеспечивают компенсацию размытия, аберраций и «шума» на получаемом изображении. Это позволяет спроектировать улучшенную систему формирования изображений, в которой уменьшено влияние размытия и «шума» на качество получаемого изображения. Сама по себе упомянутая выше норма невязки может рассматриваться в качестве критерия качества для сравнения итогового изображения, получаемого в соответствии с изобретением после оптимизации параметров оптической системы, с эталонным изображением. В качестве неограничивающего примера, при оптимизации параметров сравниваются один или более доступных алгоритмов обработки изображения для блока обработки изображений, при этом лучшим (и, следовательно, дающим наиболее высокое качество итогового изображения) считается тот алгоритм обработки изображения, который дает меньшее значение нормы невязки. В одном или более неограничивающих вариантах выполнения изобретения, норма невязки (L2 - евклидова) может быть связана со среднеквадратической ошибкой между эталонным изображением и получаемым изображением, при этом чем меньше упомянутая среднеквадратическая ошибка, тем выше качество получаемого изображения.Reference (reference) image
Figure 00000034
, obtained on the basis of a high-level abstraction model, and the image
Figure 00000035
, obtained on the basis of a low-level abstraction model, are formed by models with different levels of abstraction in the same system. Images
Figure 00000036
used in metric
Figure 00000037
to evaluate the quality of the image generated by the camera. By minimizing the difference (expressed, for example, by the residual norm) between the two images mentioned, the following design parameters can be obtained
Figure 00000038
, which provide compensation for blurring, aberrations and "noise" in the resulting image. This allows you to design an improved imaging system that reduces the effect of blur and "noise" on the quality of the resulting image. By itself, the above-mentioned residual norm can be considered as a quality criterion for comparing the final image obtained in accordance with the invention after optimizing the parameters of the optical system with a reference image. As a non-limiting example, parameter optimization compares one or more of the available image processing algorithms for an image processing unit, with the image processing algorithm that yields the smallest value of the residual norm being considered the best (and therefore giving the highest quality of the final image). In one or more non-limiting embodiments of the invention, the residual norm (L2 - Euclidean) may be related to the rms error between the reference image and the resulting image, wherein the smaller the rms error, the higher the quality of the resulting image.

Следует отметить, что понятие невязки представляет собой математический термин (см., например, https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B2%D1%8F%D0%B7%D0%BA%D0%B0), который в контексте настоящего изобретения по существу означает разность между эталонным и полученным изображением. Данный параметр является безразмерным, при этом чем ниже его значение, тем выше качество получаемого изображения и, таким образом, тем лучше тот или иной алгоритм обработки изображения для блока обработки изображений.It should be noted that the concept of residual is a mathematical term (see, for example, https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B2%D1%8F%D0%B7%D0 %BA%D0%B0), which in the context of the present invention essentially means the difference between the reference and the received image. This parameter is dimensionless, and the lower its value, the higher the quality of the resulting image and, thus, the better one or another image processing algorithm for the image processing unit.

Невязка считается минимизированной, если она перестает существенно уменьшаться в процессе оптимизации. В качестве неограничивающего примера, это условие может считаться выполненным, если на последующем шаге оптимизации норма невязки изменяется не более чем на 1% по сравнению с предыдущим шагом оптимизации.The discrepancy is considered to be minimized if it ceases to decrease significantly during the optimization process. As a non-limiting example, this condition can be considered satisfied if, at the next optimization step, the residual norm changes by no more than 1% compared to the previous optimization step.

Алгоритм оптимизации, направленный на минимизацию различий (нормы невязки) между двумя изображениями (упомянутая выше метрика

Figure 00000039
), служит для прогнозирования параметров проектирования устройства формирования изображений
Figure 00000040
Figure 00000041
что может быть записано следующим образом:An optimization algorithm aimed at minimizing the differences (residual norms) between two images (the metric mentioned above
Figure 00000039
), serves to predict the design parameters of the imaging device
Figure 00000040
Figure 00000041
which can be written as follows:

Figure 00000042
(5).
Figure 00000042
(five).

Как указано выше, модель «физической» оптической системы (модель низкого уровня абстракции, приближенная к реальной оптической системе) формирует промежуточное изображение

Figure 00000043
объекта
Figure 00000044
. Математически процесс формирования этого изображения может быть описан как следующий оператор от параметров
Figure 00000045
оптической системы, которая отображает объект
Figure 00000044
в изображение
Figure 00000043
:As stated above, a model of a "physical" optical system (a model of a low level of abstraction that approximates a real optical system) forms an intermediate image
Figure 00000043
object
Figure 00000044
. Mathematically, the process of forming this image can be described as the following operator from the parameters
Figure 00000045
optical system that displays an object
Figure 00000044
into the image
Figure 00000043
:

Figure 00000046
, (6)
Figure 00000046
, (6)

где

Figure 00000047
- параметры амплитудно-фазовой маски (если она имеется),
Figure 00000048
- параметры оптической системы. Датчик изображения преобразует промежуточное изображение
Figure 00000049
в изображение
Figure 00000050
:where
Figure 00000047
- parameters of the amplitude-phase mask (if any),
Figure 00000048
- parameters of the optical system. The image sensor converts the intermediate image
Figure 00000049
into the image
Figure 00000050
:

Figure 00000051
(7)
Figure 00000051
(7)

где

Figure 00000052
- параметры датчика изображения.where
Figure 00000052
- image sensor parameters.

Алгоритм обработки изображений преобразует изображение

Figure 00000053
в изображение на основе модели низкого уровня абстракции
Figure 00000054
:The image processing algorithm transforms the image
Figure 00000053
to an image based on a low-level abstraction model
Figure 00000054
:

Figure 00000055
(8)
Figure 00000055
(eight)

где

Figure 00000056
являются параметрами алгоритма.where
Figure 00000056
are parameters of the algorithm.

Упрощенная модель оптической системы (модель высокого уровня абстракции) формирует опорное (эталонное) изображение

Figure 00000057
объекта
Figure 00000058
:A simplified model of the optical system (a model of a high level of abstraction) forms a reference (reference) image
Figure 00000057
object
Figure 00000058
:

Figure 00000059
(9)
Figure 00000059
(nine)

где

Figure 00000060
являются параметрами упрощенной модели.where
Figure 00000060
are parameters of the simplified model.

В качестве упрощенной модели (также называемой в настоящем документе моделью идеальной оптической системы или моделью высокого уровня абстракции) в различных неограничивающих вариантах выполнения изобретения могут использоваться, например, модель тонкой линзы, модель линзы с фовеолярной зоной, модель с точечной диафрагмой (в англоязычной литературе называемой термином pinhole). Применение упомянутых моделей будет описано ниже для различных неограничивающих вариантов выполнения настоящего изобретения.As a simplified model (also referred to herein as an ideal optical system model or a high level of abstraction model), various non-limiting embodiments of the invention can use, for example, a thin lens model, a foveolar zone lens model, a pinhole model (in the English literature called term pinhole). The use of these models will be described below for various non-limiting embodiments of the present invention.

В результате вышеописанных операций формируются два изображения: опорное изображение

Figure 00000061
на основе модели высокого уровня абстракции и изображение на основе модели низкого уровня абстракции
Figure 00000062
.As a result of the above operations, two images are formed: a reference image
Figure 00000061
based on a high-level abstraction model and an image based on a low-level abstraction model
Figure 00000062
.

После этого для вышеописанных двух изображений осуществляется минимизация различия (нормы невязки) между двумя изображениями на основе метрики

Figure 00000063
путем решения задачи оптимизации. В результате выполнения этой операции могут быть найдены параметры проектирования
Figure 00000064
обеспечивающие оптимальную компенсацию вышеупомянутых недостатков изображения (размытия, аберраций, дисторсии, шума и т.п.), вносимых оптической системой, датчиком изображения и (при ее наличии) амплитудно-фазовой маской. Эти найденные параметры проектирования далее могут использоваться при проектировании усовершенствованного устройства формирования изображений, способного получать изображения, в которых вышеупомянутые недостатки минимизированы.After that, for the above two images, the difference (residual norm) between the two images is minimized based on the metric
Figure 00000063
by solving the optimization problem. As a result of this operation, design parameters can be found
Figure 00000064
providing optimal compensation for the above-mentioned image imperfections (blurring, aberrations, distortion, noise, etc.) introduced by the optical system, image sensor and (if available) amplitude-phase mask. These found design parameters can then be used in designing an improved imaging apparatus capable of obtaining images in which the aforementioned disadvantages are minimized.

На основе вышеописанных двух моделей оптической системы (т.н. модели низкого уровня абстракции и модели высокого уровня абстракции) в способе согласно изобретению по существу формируется «виртуальная» камера, которая используется для формирования изображения на основе трехмерной сцены на этапе формирования алгоритма обработки изображений. Упомянутые модели оптической системы отличаются уровнями абстракции - от низшего уровня абстракции, который в наибольшей степени соответствует «реальной» оптической системе, до высшего уровня абстракции, который соответствует модели «идеальной» оптической системы или, иначе говоря, «упрощенной» модели оптической системы.Based on the two models of the optical system described above (the so-called low abstraction level model and the high abstraction level model), the method according to the invention essentially forms a "virtual" camera, which is used to generate an image based on a three-dimensional scene in the stage of generating an image processing algorithm. The mentioned models of the optical system differ in levels of abstraction - from the lowest level of abstraction, which most closely matches the "real" optical system, to the highest level of abstraction, which corresponds to the model of the "ideal" optical system, or, in other words, the "simplified" model of the optical system.

Уровни абстракции моделей определяют количество информации, содержащейся в модели, причем чем выше уровень абстракции, тем меньше информации содержит модель, и тем дальше эта модель от «реальной» оптической системы и ближе к «идеальной» оптической системе, соответственно. Количество информации в модели уменьшается по мере повышения уровня абстракции.The levels of abstraction of models determine the amount of information contained in the model, and the higher the level of abstraction, the less information the model contains, and the further this model is from the “real” optical system and closer to the “ideal” optical system, respectively. The amount of information in the model decreases as the level of abstraction increases.

В качестве неограничивающих примеров моделей оптической системы с различными уровнями абстракции в различных вариантах выполнения изобретения могут использоваться одна или более из следующих моделей:As non-limiting examples of optical system models with different levels of abstraction, one or more of the following models can be used in various embodiments of the invention:

- модель камеры с точечной диафрагмой («камера-обскура»);- model of a camera with a pinhole aperture ("camera obscura");

- модель идеальной (тонкой) линзы;- model of an ideal (thin) lens;

- модель ахроматической оптической системы;- model of achromatic optical system;

- модель оптической системы с дисторсией без размытия изображения;- model of the optical system with distortion without image blur;

- модель реалистичной оптической системы.- model of a realistic optical system.

Кроме того, в одном или более вариантах выполнения изобретения также могут использоваться одна или более моделей датчика изображения с различными уровнями абстракции, такие как:In addition, one or more embodiments of the invention may also use one or more image sensor models with different levels of abstraction, such as:

- модель датчика изображения без формирования шума;- image sensor model without noise formation;

- модель датчика изображения с избирательностью по длинам волн (спектральной селективностью);- image sensor model with wavelength selectivity (spectral selectivity);

- модель датчика изображения, учитывающая параметры выборки.is an image sensor model that takes into account the sampling parameters.

Для моделирования рабочих характеристик модели оптической системы в соответствии с изобретением могут использоваться следующие методики расчета хода лучей:To model the performance of an optical system model according to the invention, the following ray path calculation techniques can be used:

- прямая трассировка лучей;- direct ray tracing;

- обратная трассировка лучей;- reverse ray tracing;

- алгоритм волнового распространения света; и- algorithm of wave propagation of light; and

- гибридное моделирование с использованием сочетания вышеупомянутых методик.- hybrid modeling using a combination of the above techniques.

Применение упомянутых моделей с различными уровнями абстракции или различными способами моделирования позволяет сформировать пары изображений с размытием, дисторсией, хроматическими аберрациями, влиянием дифракции, зависимостью от глубины резкости, или без этих особенностей. Эти пары изображений могут быть использованы для целей машинного обучения (ML).The use of these models with different levels of abstraction or different modeling methods allows you to create pairs of images with blurring, distortion, chromatic aberrations, diffraction effects, dependence on depth of field, or without these features. These pairs of images can be used for machine learning (ML) purposes.

Алгоритм обратной трассировки лучей состоит в следующем. Для каждого пикселя

Figure 00000065
датчика изображения выполняется трассировка лучей
Figure 00000066
в направлении, ограниченном выходным зрачком оптической системы. Для каждого луча, пока луч не вышел за пределы оптической системы и не превысил установленное количество отражений повторяются следующие операции для каждого линзового элемента: находят точки
Figure 00000067
встречи лучей на оптическими поверхностями линз, находят направление преломленного
Figure 00000068
, отраженного
Figure 00000069
и рассеянного
Figure 00000070
лучей. Затем вычисляют энергию, связанную с соответствующими лучами.The reverse ray tracing algorithm is as follows. For every pixel
Figure 00000065
image sensor is ray tracing
Figure 00000066
in the direction limited by the exit pupil of the optical system. For each beam, until the beam has gone beyond the limits of the optical system and has not exceeded the set number of reflections, the following operations are repeated for each lens element: find points
Figure 00000067
meeting of rays on the optical surfaces of the lenses, find the direction of the refracted
Figure 00000068
reflected
Figure 00000069
and scattered
Figure 00000070
rays. The energy associated with the respective beams is then calculated.

Для каждого луча, пока он не попал на источник света, количество его отражений не превысило определенное число, или он не прошел мимо объектов в сцене для каждого объекта, присутствующего в сцене, повторяются следующие этапы: находят точки пересечения

Figure 00000071
лучей с поверхностями объектов, находят направления преломления
Figure 00000072
, отражения
Figure 00000073
и рассеяния
Figure 00000074
лучей, и вычисляют величины энергии, связанной с упомянутыми выше лучами.For each ray, until it hits the light source, the number of its reflections does not exceed a certain number, or it does not pass by the objects in the scene for each object present in the scene, the following steps are repeated: find the intersection points
Figure 00000071
rays with the surfaces of objects, find the directions of refraction
Figure 00000072
, reflection
Figure 00000073
and scattering
Figure 00000074
beams, and calculate the energy values associated with the above beams.

Алгоритм прямой трассировки лучей выглядит следующим образом. Для каждого луча

Figure 00000066
от источника света, пока луч не попал во входной зрачок оптической системы или не прошел мимо объектов, или количество его отражений не превысило определенное число, или он не поглощен поверхностями объектов, для каждого объекта в сцене повторяют следующие этапы: находят точки
Figure 00000075
падения лучей на поверхности объектов; находят направления преломления
Figure 00000068
, отражения
Figure 00000069
и рассеяния
Figure 00000070
лучей. Затем вычисляются величины энергии, связанной с упомянутыми лучами.The direct ray tracing algorithm is as follows. For every beam
Figure 00000066
from the light source until the beam hits the entrance pupil of the optical system or passes by the objects, or the number of its reflections does not exceed a certain number, or it is not absorbed by the surfaces of the objects, the following steps are repeated for each object in the scene: points are found
Figure 00000075
falling rays on the surface of objects; find directions of refraction
Figure 00000068
, reflection
Figure 00000069
and scattering
Figure 00000070
rays. Then the energy values associated with said beams are calculated.

Для каждого луча, который попадает во входной зрачок оптической системы, пока данный луч не попал на датчик изображения или не было превышено определенное количество отражений, или он не был поглощен поверхностями объектов, для каждого линзового элемента повторяются следующие этапы: находят точки пересечения

Figure 00000076
лучей с оптическими поверхностями линз; находят направления преломления
Figure 00000072
, отражения
Figure 00000073
и рассеяния
Figure 00000074
лучей. Затем вычисляют величины энергии, связанной с упомянутыми выше лучами.For each beam that enters the entrance pupil of the optical system, until this beam hits the image sensor or a certain number of reflections is exceeded, or it is not absorbed by the surfaces of objects, the following steps are repeated for each lens element: the intersection points are found
Figure 00000076
rays with optical surfaces of lenses; find directions of refraction
Figure 00000072
, reflection
Figure 00000073
and scattering
Figure 00000074
rays. The energy values associated with the beams mentioned above are then calculated.

Для вычисления величин энергии, связанной с упомянутыми лучами, используются, в качестве неограничивающего примера, следующие способы.The following methods are used to calculate the energy values associated with said beams, by way of non-limiting example.

Для оценки распространения света через среду используется закон Бугера-Ламберта-Бера, на основании которого оценивают ослабление света вследствие его поглощения в материале, через который распространяется свет:To estimate the propagation of light through a medium, the Bouguer-Lambert-Beer law is used, on the basis of which the attenuation of light due to its absorption in the material through which the light propagates is estimated:

Figure 00000077
(10)
Figure 00000077
(10)

Для непрозрачной поверхности используется уравнение рендеринга, которое описывает общее количество света, испускаемого из точки

Figure 00000078
вдоль определенного направления
Figure 00000079
наблюдения, учитывая функцию для падающего света и двулучевую функцию отражательной способности (BRDF):For an opaque surface, a rendering equation is used that describes the total amount of light emitted from a point
Figure 00000078
along a certain direction
Figure 00000079
observations, taking into account the function for the incident light and the two-beam reflectivity function (BRDF):

Figure 00000080
(11)
Figure 00000080
(eleven)

где:where:

Figure 00000081
- полная спектральная плотность энергетической яркости, направленная во внешнем направлении
Figure 00000082
;
Figure 00000081
- total spectral density of radiance directed in the outer direction
Figure 00000082
;

Figure 00000083
- излучаемая спектральная плотность энергетической яркости в направлении
Figure 00000082
;
Figure 00000083
- radiated spectral density of radiance in the direction
Figure 00000082
;

Figure 00000084
- спектральная плотность энергетической яркости, обусловленная отражением излучения от поверхности в точке
Figure 00000085
;
Figure 00000084
- spectral density of energy brightness, due to the reflection of radiation from the surface at a point
Figure 00000085
;

Figure 00000086
- BRDF (определяемая свойствами непрозрачной поверхности);
Figure 00000086
- BRDF (determined by the properties of an opaque surface);

Figure 00000087
- координаты точки пересечения с поверхностью, в которой свет падает на поверхность;
Figure 00000087
- coordinates of the point of intersection with the surface, in which the light falls on the surface;

Figure 00000088
- координаты точки, в которой свет выходит из материала или поверхности;
Figure 00000088
- coordinates of the point at which light exits the material or surface;

Figure 00000089
- направление выходящего света;
Figure 00000089
- the direction of the outgoing light;

Figure 00000090
- направление падающего света;
Figure 00000090
- the direction of the incident light;

Figure 00000091
- длина волны;
Figure 00000091
- wavelength;

Figure 00000092
- нормаль к поверхности в точке
Figure 00000093
;
Figure 00000092
- normal to the surface at a point
Figure 00000093
;

Ω - полусфера;Ω - hemisphere;

Figure 00000094
- скалярное произведение (равно косинусу угла падения света);
Figure 00000094
- dot product (equal to the cosine of the angle of incidence of light);

Figure 00000095
- коэффициент ослабления; и
Figure 00000095
- attenuation coefficient; and

Figure 00000096
- длина оптического пути в среде.
Figure 00000096
is the length of the optical path in the medium.

В одном или более альтернативных вариантах выполнения изобретения может также использоваться поляриметрическая BRDF, позволяющая также учитывать эффекты поляризации.In one or more alternative embodiments of the invention, a polarimetric BRDF may also be used to also take into account the effects of polarization.

Фиг. 2 иллюстрирует пример двух моделей оптической системой с разными уровнями абстракции - на виде A по Фиг. 2 схематично проиллюстрирована модель низкого уровня абстракции на примере «реальной» линзы, описываемой набором из 5 параметров, а на виде B по Фиг. 2 схематично проиллюстрирована модель высокого уровня абстракции на примере тонкой линзы, характеризуемой всего 1 параметром. Следует отметить, что пример, показанный на Фиг. 2, является лишь схематичным упрощенным примером, предназначенным для облегчения понимания сущности изобретения, и в действительности модель низкого уровня абстракции может быть основана на наборе характеристик не одной линзы, как показано на Фиг. 2, а по меньшей мере одной группы линз с определенным взаимным расположением, с возможностью перемещения с целью фокусировки и/или изменения фокусного расстояния и т.п., как это обычно имеет место в объективах реальных устройств формирования изображения.Fig. 2 illustrates an example of two models of an optical system with different levels of abstraction - in view A of FIG. 2 schematically illustrates the low-level abstraction model using a "real" lens described by a set of 5 parameters as an example, and view B of FIG. 2 schematically illustrates a model of a high level of abstraction using the example of a thin lens characterized by only 1 parameter. Note that the example shown in FIG. 2 is only a schematic simplified example intended to facilitate understanding of the invention, and in fact a low-level abstraction model may be based on a set of characteristics from more than one lens, as shown in FIG. 2, but at least one group of lenses with a certain relative position, with the ability to move to focus and / or change the focal length, etc., as is usually the case in the lenses of real imaging devices.

Как указано выше, модель «физической» оптической системой характеризуется низким уровнем абстракции и набором из по меньшей мере 5 параметров. Эта модель формирует изображение, характеризующееся размытием, аберрациями, дисторсией и т.п.As stated above, the "physical" optical system model is characterized by a low level of abstraction and a set of at least 5 parameters. This model generates an image characterized by blur, aberrations, distortion, and so on.

Моделирование изображения в соответствии с изобретением в упомянутой модели низкого уровня абстракции выполняется на основе алгоритма распространения света. The image modeling according to the invention in said low abstraction model is performed based on the light propagation algorithm.

Что касается модели «идеальной» оптической системы, которая, как указано выше, характеризуется высоким уровнем абстракции и описывается всего одним параметром -

Figure 00000097
(фокусным расстоянием), данная модель формирует «идеальное» изображение, на котором отсутствуют размытие, аберрации, дисторсия и т.п., свойственные изображению, формируемому моделью «физической» оптической системы, как указано выше. Фокусное расстояние идеальной оптической системы определяется по формуле (12):As for the model of the "ideal" optical system, which, as mentioned above, is characterized by a high level of abstraction and is described by only one parameter -
Figure 00000097
(focal length), this model generates an “ideal” image, on which there is no blur, aberration, distortion, etc., inherent in the image generated by the model of the “physical” optical system, as indicated above. The focal length of an ideal optical system is determined by formula (12):

Figure 00000098
(12)
Figure 00000098
(12)

где

Figure 00000099
- радиус первой поверхности;where
Figure 00000099
- radius of the first surface;

Figure 00000100
- радиус второй поверхности;
Figure 00000100
- radius of the second surface;

Figure 00000101
- толщина;
Figure 00000101
- thickness;

Figure 00000102
- показатель преломления;
Figure 00000102
- refractive index;

Figure 00000103
- фокусное расстояние.
Figure 00000103
- focal length.

Моделирование на основе распространения лучей в одном или более неограничивающих вариантах настоящего изобретения может быть описано следующим образом. Моделирование осуществляется на основе вычисления величины энергии для распространяющихся лучей. В частности, для полированных поверхностей объектов в трехмерной сцене может применяться уравнение Френеля, описывающее отражение и пропускание света, падающего на поверхность разделения различных оптических сред:Ray propagation modeling in one or more non-limiting embodiments of the present invention may be described as follows. The simulation is carried out on the basis of calculating the energy value for propagating rays. In particular, for polished surfaces of objects in a three-dimensional scene, the Fresnel equation can be applied, which describes the reflection and transmission of light incident on the separation surface of various optical media:

Figure 00000104
(13)
Figure 00000104
(13)

где R S - коэффициент отражения для s-поляризованного света;where R S is the reflectance for s -polarized light;

Figure 00000105
- коэффициент отражения для
Figure 00000106
-поляризованного света;
Figure 00000105
- reflection coefficient for
Figure 00000106
- polarized light;

Figure 00000107
- коэффициент пропускания для s-поляризованного света;
Figure 00000107
- transmittance for s -polarized light;

Figure 00000108
- коэффициент пропускания для
Figure 00000106
-поляризованного света;
Figure 00000108
- transmittance for
Figure 00000106
- polarized light;

Figure 00000109
- показатели преломления сред, из которой падает излучение и в которую оно проходит, соответственно;
Figure 00000109
are the refractive indices of the media from which the radiation falls and into which it passes, respectively;

Figure 00000110
- угол падения луча;
Figure 00000110
- beam incidence angle;

Figure 00000111
- угол преломления луча;
Figure 00000111
- beam refraction angle;

Figure 00000112
- угол отражения луча;
Figure 00000112
- beam reflection angle;

Figure 00000113
- коэффициент пропускания;
Figure 00000113
- transmittance;

Figure 00000114
- коэффициент отражения;
Figure 00000114
- reflection coefficient;

Figure 00000115
- интенсивность пропускаемого света;
Figure 00000115
- intensity of transmitted light;

Figure 00000116
- интенсивность отражаемого света;
Figure 00000116
- intensity of reflected light;

Figure 00000117
- интенсивность падающего света.
Figure 00000117
is the intensity of the incident light.

Для учета эффектов поляризации при расчете интенсивности света необходимо использовать соответствующие составляющие коэффициентов отражения и пропускания для

Figure 00000118
или
Figure 00000119
поляризованного света, соответственно.To take into account the effects of polarization when calculating the light intensity, it is necessary to use the corresponding components of the reflection and transmission coefficients for
Figure 00000118
or
Figure 00000119
polarized light, respectively.

В случае, если на упомянутые объекты в трехмерной сцене нанесены отражающие покрытия, вместо вышеуказанных уравнений Френеля для каждого состояния поляризации используются следующие зависимости пропускающей и отражающей способности от длины волны и угла падения луча света:In the event that reflective coatings are applied to the mentioned objects in a three-dimensional scene, instead of the above Fresnel equations for each polarization state, the following dependences of the transmittance and reflectivity on the wavelength and angle of incidence of the light beam are used:

Figure 00000120
Figure 00000120

Моделирование на основе алгоритма распространения света, в качестве неограничивающего примера, может быть основано на принципе Гюйгенса-Френеля; поле

Figure 00000121
в точке
Figure 00000122
может быть выражено через следующую формулу дифракции Рэлея-Зоммерфельда (см. Michael Bass “Handbook of optics”, volume I, second edition, New York: McGraw-Hill, 1995):Modeling based on the light propagation algorithm, as a non-limiting example, can be based on the Huygens-Fresnel principle; field
Figure 00000121
at the point
Figure 00000122
can be expressed in terms of the following Rayleigh-Sommerfeld diffraction formula (see Michael Bass “Handbook of optics”, volume I, second edition, New York: McGraw-Hill, 1995):

Figure 00000123
(14)
Figure 00000123
(fourteen)

Figure 00000124
(15)
Figure 00000124
(fifteen)

где

Figure 00000125
- величины для поля на апертуре
Figure 00000126
при
Figure 00000127
;where
Figure 00000125
are the values for the field at the aperture
Figure 00000126
at
Figure 00000127
;

Figure 00000128
- расстояние между точкой в апертуре
Figure 00000129
и точкой наблюдения
Figure 00000130
Figure 00000128
- distance between a point in the aperture
Figure 00000129
and observation point
Figure 00000130

Для приблизительных вычислений могут быть использованы следующие формулы.The following formulas can be used for approximate calculations.

Аппроксимация Фраунгофера:Fraunhofer approximation:

Figure 00000131
(16)
Figure 00000131
(16)

Figure 00000132
(17)
Figure 00000132
(17)

Аппроксимация Френеля:Fresnel approximation:

Figure 00000133
(18)
Figure 00000133
(eighteen)

Кроме того, в одном или более неограничивающих вариантах выполнения изобретения возможно использование так называемого «гибридного» моделирования, представляющего собой наиболее часто используемый алгоритм для оценки рабочих характеристик оптической системы и по существу являющегося сочетанием алгоритма трассировки лучей и алгоритма распространения света. В данном алгоритме на первом этапе выполняется трассировка лучей до выходного зрачка. Результатом первого этапа является функция зрачка, которая описывает то, каким образом на волну света влияет ее прохождение через оптическую систему. На втором этапе используется волновое распространение света от выходного зрачка к плоскости изображения. Используется одна из вышеприведенных формул дифракции. Для каждой точки объекта трассировка лучей выполняется через точки входного зрачка.In addition, in one or more non-limiting embodiments of the invention, it is possible to use the so-called "hybrid" simulation, which is the most commonly used algorithm for estimating the performance of an optical system and is essentially a combination of a ray tracing algorithm and a light propagation algorithm. In this algorithm, at the first stage, ray tracing is performed to the exit pupil. The result of the first stage is the pupil function, which describes how a light wave is affected by its passage through the optical system. The second stage uses the wave propagation of light from the exit pupil to the image plane. One of the above diffraction formulas is used. For each point of the object, ray tracing is performed through the points of the entrance pupil.

Как указано выше, на первом этапе вычисляется функция для зрачка по отношению к распространению лучей:As stated above, the first step is to calculate the function for the pupil with respect to the propagation of the rays:

Figure 00000134
(19)
Figure 00000134
(nineteen)

где

Figure 00000135
- координаты в пределах входного зрачка,
Figure 00000136
- пропускание вдоль оптического пути
Figure 00000137
- волновая аберрация, i - мнимое число.where
Figure 00000135
- coordinates within the entrance pupil,
Figure 00000136
- transmission along the optical path
Figure 00000137
- wave aberration, i - imaginary number.

Поле в выходном зрачке пропорционально функции зрачка:The field in the exit pupil is proportional to the function of the pupil:

Figure 00000138
Figure 00000138

На втором этапе оценивается распространение света в волновом приближении. Здесь применяется одна из вышеуказанных формул дифракции. Для быстрой оценки формула дифракции может быть аппроксимирована через преобразование Фурье:At the second stage, the propagation of light is estimated in the wave approximation. One of the above diffraction formulas is applied here. For quick evaluation, the diffraction formula can be approximated via the Fourier transform:

Figure 00000139
(20)
Figure 00000139
(twenty)

где F - оператор преобразования Фурье, квадрат

Figure 00000140
представляет собой функцию рассеяния:where F is the Fourier transform operator, square
Figure 00000140
is the scattering function:

Figure 00000141
(21)
Figure 00000141
(21)

Кроме того, в соответствии с изобретением при моделировании изображений может выполняться быстрая оценка изображения для плоскостного объекта. Следует отметить, что уровень размытия изображения в оптике описывается функцией рассеяния

Figure 00000142
где x, y - координаты на плоскости датчика изображения или на плоскости изображения. Как указано выше,
Figure 00000143
определяется формой зрачка и аберрационными свойствами такими как волновые аберрации, выражаемыми как разность оптических путей (OPD) лучей в пучке. PSF описывает реакцию оптической системы на точечный объект. Изображение
Figure 00000144
формируемое на части датчика изображения (что соответствует полю, в пределах которого PSF может считаться инвариантной), может быть представлено в виде свертки распределения интенсивностей для объектов
Figure 00000145
и PSF: In addition, in accordance with the invention, image modeling can perform fast image estimation for a planar object. It should be noted that the level of image blur in optics is described by the scattering function
Figure 00000142
where x, y are coordinates on the image sensor plane or on the image plane. As mentioned above,
Figure 00000143
is determined by the shape of the pupil and aberrational properties such as wave aberrations, expressed as the optical path difference (OPD) of the beams in the beam. PSF describes the response of an optical system to a point object. Image
Figure 00000144
formed on a part of the image sensor (which corresponds to the field within which PSF can be considered invariant) can be represented as a convolution of the intensity distribution for objects
Figure 00000145
and PSF:

Figure 00000146
(22)
Figure 00000146
(22)

где подстрочная

Figure 00000147
означает зависимость от длин волн. where subscript
Figure 00000147
means dependence on wavelengths.

Учитывая спектральную чувствительность (избирательность)

Figure 00000148
формируемое изображение вычисляется следующим образом:Given the spectral sensitivity (selectivity)
Figure 00000148
the generated image is calculated as follows:

Figure 00000149
(23)
Figure 00000149
(23)

Изображение

Figure 00000150
, формируемое на датчике изображения, интегрируется по пикселям датчика с добавлением шума, который характеризуется величиной
Figure 00000151
и в результате получается изображение, характеризуемое как:Image
Figure 00000150
, formed on the image sensor, is integrated over the pixels of the sensor with the addition of noise, which is characterized by the value
Figure 00000151
and the result is an image characterized as:

Figure 00000152
(24)
Figure 00000152
(24)

где S - оператор выборки и интегрирования.where S is the sample and integration operator.

Полученное изображение передается в блок обработки изображений.The resulting image is transferred to the image processing unit.

На Фиг. 3 схематично проиллюстрирован способ формирования изображений согласно изобретению в одном или более неограничивающих вариантах его выполнения. На этапе S1 формируют по меньшей мере один набор пар изображений

Figure 00000153
и
Figure 00000154
с использованием по меньшей мере одной модели оптической системы с различными уровнями абстракции. На этапе S2 применяют метрику
Figure 00000155
для оценки качества изображения, формируемого системой формирования изображений, и получают оптимальные параметры оптической системы, оптимальные параметры датчика изображения и оптимальные параметры блока обработки изображений на основании минимизации метрики
Figure 00000156
.On FIG. 3 schematically illustrates an imaging method according to the invention in one or more non-limiting embodiments. In step S1, at least one set of image pairs is generated
Figure 00000153
and
Figure 00000154
using at least one optical system model with different levels of abstraction. In step S2, the metric is applied
Figure 00000155
to evaluate the quality of the image generated by the imaging system, and obtain the optimal parameters of the optical system, the optimal parameters of the image sensor and the optimal parameters of the image processing unit based on the minimization of the metric
Figure 00000156
.

На этапе S3 применяют полученные оптимальные параметры оптической системы и оптимальные параметры датчика изображения. На этапе S4 формируют промежуточное изображение на основании оптимальных параметров оптической системы и оптимальных параметров датчика изображения. На этапе S5 вводят промежуточное изображение в блок обработки изображений и применяют оптимальные параметры блока обработки изображений в блоке обработки изображений. На этапе S6 выполняют восстановление изображения на основании оптимальных параметров блока обработки изображений для получения изображения высокого качества.In step S3, the obtained optimal parameters of the optical system and the optimal parameters of the image sensor are applied. At step S4, an intermediate image is formed based on the optimal parameters of the optical system and the optimal parameters of the image sensor. At step S5, an intermediate image is introduced into the image processing unit, and the optimal parameters of the image processing unit in the image processing unit are applied. In step S6, image reconstruction is performed based on the optimal parameters of the image processing unit to obtain a high quality image.

Ниже будут описаны некоторые неограничивающие варианты выполнения настоящего изобретения. Следует понимать, что, если явным образом не указывает иное, перечисленные варианты выполнения не должны рассматриваться как предпочтительные или иным образом ограничивающие объем испрашиваемой правовой охраны. Кроме того, следует понимать, что помимо описанных в явном виде вариантов выполнения, характеризуемых определенными сочетаниями признаков, возможны и другие варианты выполнения, объединяющие в себе признаки различных вариантов выполнения из тех, что описаны в явном виде, если иное не указано в явном виде или не следует явным образом из технической сущности конкретных признаков.Some non-limiting embodiments of the present invention will be described below. It should be understood that, unless expressly stated otherwise, the listed embodiments should not be construed as preferable or otherwise limiting the scope of the claimed legal protection. In addition, it should be understood that in addition to the explicitly described embodiments characterized by certain combinations of features, other embodiments are possible that combine the features of various embodiments of those that are explicitly described, unless otherwise indicated explicitly or does not follow explicitly from the technical nature of specific features.

В одном или более вариантах выполнения в качестве модели «идеальной» оптической системы для формирования пар изображений

Figure 00000157
может использоваться модель точечной диафрагмы (в англоязычной литературе называется pinhole), которую также можно охарактеризовать как модель «камеры-обскура», в которой свет, представляющий изображаемую сцену, проходит сквозь отверстие очень малого диаметра (0,01-5 мм), и создает перевернутое изображение на некотором экране (в качестве которого в контексте изобретения может рассматриваться, например, плоскость поверхности датчика изображения, и также называется в данном контексте плоскостью анализа).In one or more embodiments, as a model of an "ideal" optical system for imaging pairs
Figure 00000157
a pinhole model can be used (called a pinhole in the English literature), which can also be described as a “camera obscura” model, in which the light representing the imaged scene passes through a hole of a very small diameter (0.01-5 mm), and creates an inverted image on a certain screen (which in the context of the invention can be considered, for example, the surface plane of the image sensor, and is also called the analysis plane in this context).

Преимуществом данной модели является то, что она позволяет формировать изображение на основе трехмерной сцены, которое является резким на всю глубину изображаемой сцены (другими словами, вся трехмерная сцена «в фокусе»), в отличие от двумерного изображения, формируемого на основе той же трехмерной сцены обычной оптической системой, представляющей собой, например, группу линз. Принцип формирования изображения в данной модели схематично проиллюстрирован на Фиг. 4, где слева схематично показана трехмерная сцена, а справа - плоскость анализа.The advantage of this model is that it allows you to generate an image based on a 3D scene that is sharp throughout the entire depth of the depicted scene (in other words, the entire 3D scene is “in focus”), as opposed to a 2D image generated based on the same 3D scene. conventional optical system, which is, for example, a group of lenses. The principle of image formation in this model is schematically illustrated in Fig. 4, where the 3D scene is shown schematically on the left and the analysis plane on the right.

Как проиллюстрировано на Фиг. 4, модель точечной диафрагмы работает следующим образом. Свет от изображаемой трехмерной сцены проходит через апертуру и проецирует перевернутое изображение на плоскости анализа. Для моделирования используются следующие параметры, проиллюстрированные на Фиг. 4:As illustrated in FIG. 4, the pinhole model works as follows. Light from the rendered 3D scene passes through the aperture and projects an inverted image onto the analysis plane. For simulation, the following parameters are used, illustrated in FIG. 4:

Figure 00000158
- поле зрения (FoV) или угловой размер, соответствующий сцене, регистрируемой на плоскости анализа;
Figure 00000159
- высота объекта в сцене;
Figure 00000160
- высота изображения в плоскости анализа;
Figure 00000161
- расстояние от объекта трехмерной сцены до апертуры;
Figure 00000162
- расстояние от апертуры до плоскости анализа;
Figure 00000163
- увеличение, при этом модель может быть описана следующим выражением:
Figure 00000158
- field of view (FoV) or angular size corresponding to the scene recorded on the analysis plane;
Figure 00000159
- the height of the object in the scene;
Figure 00000160
- image height in the analysis plane;
Figure 00000161
- distance from the object of the three-dimensional scene to the aperture;
Figure 00000162
- distance from the aperture to the plane of analysis;
Figure 00000163
- increase, while the model can be described by the following expression:

Figure 00000164
(25)
Figure 00000164
(25)

В другом варианте выполнения в качестве модели высокого уровня абстракции при формировании пар изображений

Figure 00000165
может использоваться модель «идеальной» линзы, схематично проиллюстрированная на Фиг. 5. В соответствии с данным вариантом выполнения изобретения модель «идеальной» линзы описывается следующими параметрами: (i) фокусным расстоянием
Figure 00000166
или оптической силой
Figure 00000167
, и (ii) величиной апертуры, ограниченной диаметром линзы D. Для любого луча, попадающего в апертуру, выполняется трассировка с использованием следующих формул:In another embodiment, as a model of a high level of abstraction in the formation of image pairs
Figure 00000165
the "ideal" lens model illustrated schematically in FIG. 5. In accordance with this embodiment of the invention, the ideal lens model is described by the following parameters: (i) focal length
Figure 00000166
or optical power
Figure 00000167
, and (ii) the aperture value, limited by the lens diameterD. Any ray entering the aperture is traced using the following formulas:

Figure 00000168
Figure 00000168

где

Figure 00000169
- угол падения;where
Figure 00000169
- angle of incidence;

Figure 00000170
- высота луча на линзе;
Figure 00000170
- height of the beam on the lens;

Figure 00000171
- угол за линзой;
Figure 00000171
- angle behind the lens;

Figure 00000172
- высота луча в плоскости анализа;
Figure 00000172
- beam height in the analysis plane;

d - расстояние между линзой и плоскостью анализа.d is the distance between the lens and the analysis plane.

Особенностью данной модели является то, что любой луч света, который не попадает в апертуру идеальной линзы, считается блокированным. При этом в данной модели, в отличие от варианта выполнения модели точечной диафрагмы по Фиг. 4, учитывается диаметр линзы (для оценки освещения). Кроме того, в данной модели также учитывается глубина резкости изображаемого пространства (DoF).A feature of this model is that any light beam that does not enter the aperture of an ideal lens is considered to be blocked. At the same time, in this model, in contrast to the embodiment of the pinhole diaphragm model according to Fig. 4, lens diameter is taken into account (for illumination estimation). In addition, this model also takes into account the depth of field of the imaged space (DoF).

В другом варианте выполнения в качестве модели «идеальной» оптической системы для формирования пар изображений

Figure 00000173
может использоваться модель ахроматической оптической системы. В отличие от модели низкого уровня абстракции, которой свойственны хроматические аберрации, проявляющиеся в снижении резкости изображения, в появлении цветных контуров, полос, пятен - артефактов изображения, в модели ахроматической оптической системы эти хроматические аберрации отсутствуют. Известно, что хроматические аберрации обусловлены зависимостью показателя преломления среды от длины волны проходящего через нее света. В данном варианте выполнения изобретения модель ахроматической оптической системы не учитывает упомянутую выше зависимость показателя преломления от длины волны. Благодаря этому, в отличие от изображения, формируемого моделью низкого уровня абстракции, модель ахроматической оптической системы формирует изображение без хроматических аберраций и, соответственно, получаемые пары изображений могут использоваться для проектирования оптических систем и/или устройств формирования изображений с исправленными хроматическими аберрациями, а также для разработки алгоритмов обработки изображений для компенсации хроматических аберраций, вносимых оптической системой.In another embodiment, as a model of an "ideal" optical system for imaging pairs
Figure 00000173
the model of an achromatic optical system can be used. In contrast to the low-level abstraction model, which is characterized by chromatic aberrations, which manifest themselves in a decrease in image sharpness, in the appearance of color contours, stripes, spots - image artifacts, these chromatic aberrations are absent in the achromatic optical system model. It is known that chromatic aberrations are caused by the dependence of the refractive index of the medium on the wavelength of the light passing through it. In this embodiment of the invention, the model of the achromatic optical system does not take into account the above-mentioned dependence of the refractive index on the wavelength. Due to this, in contrast to the image generated by the low-level abstraction model, the achromatic optical system model forms an image without chromatic aberrations and, accordingly, the resulting image pairs can be used to design optical systems and/or imaging devices with chromatic aberrations corrected, as well as for development of image processing algorithms to compensate for chromatic aberrations introduced by the optical system.

Еще в одном неограничивающем варианте выполнения изобретения в качестве модели высокого уровня абстракции может быть использована модель, исключающая аберрации в формируемом изображении и сохраняющая только дисторсию. В данной модели высокого уровня абстракции в качестве апертурной диафрагмы используется точечная диафрагма, а сама система представляет собой обычную линзу или группу линз аналогично «физической» оптической системе. Такая модель высокого уровня абстракции позволяет формировать изображения без размытия, но с определенной дисторсией (что может быть желательно, например, в случае моделирования широкоугольного или сверхширокоугольного объектива). Получаемые пары изображений могут использоваться при проектировании оптических систем с минимизацией размытия изображения и для разработки алгоритмов для блока обработки изображений, позволяющих устранять размытие в получаемом промежуточном изображении. При этом в данном варианте выполнения размытие и дисторсия могут обрабатываться по отдельности (например, размытие может минимизироваться за счет оптимизации оптической системы, а дисторсия может компенсироваться путем формирования соответствующего алгоритма для блока обработки изображений).In yet another non-limiting embodiment of the invention, a model that excludes aberrations in the generated image and preserves only distortion can be used as a model of a high level of abstraction. In this model of a high level of abstraction, a pinhole is used as the aperture diaphragm, and the system itself is an ordinary lens or a group of lenses, similar to a "physical" optical system. Such a high-level abstraction model allows images to be formed without blur, but with a certain amount of distortion (which may be desirable, for example, in the case of modeling a wide-angle or ultra-wide-angle lens). The resulting pairs of images can be used in the design of optical systems with minimization of image blur and for the development of algorithms for the image processing unit to eliminate blur in the resulting intermediate image. Moreover, in this embodiment, blur and distortion can be processed separately (for example, blur can be minimized by optimizing the optical system, and distortion can be compensated by generating an appropriate algorithm for the image processing unit).

Еще в одном варианте выполнения изобретения модель оптической системы может создаваться на основе сочетания алгоритмов волнового распространения света и трассировки лучей. Обе эти методики уже описаны выше. Следует отметить, что в методике на основе алгоритма волнового распространения света учитывается дифракция света, и в функции рассеяния (PSF) присутствуют боковые лепестки (пики или максимумы), вызванные, например, присутствием решетки перед линзой на пути распространения света. В то же время, в методике трассировки лучей дифракция света не учитывается, и упомянутые боковые лепестки (пики) отсутствуют. Таким образом, в данном варианте выполнения алгоритм распространения света учитывает эффекты, вызываемые наличием решетки на пути света перед линзой, а методика трассировки лучей не учитывает упомянутые эффекты, вызываемые наличием решетки. Это позволяет формировать изображения, в которых присутствует или не присутствует эффект дифракции света, вызываемый наличием решетки перед линзой, и на практике это может использоваться, например, при проектировании устройства формирования изображений типа «камера под дисплеем» (англ. Under Display Camera, UDC), где дисплей можно рассматривать в качестве решетки, расположенной перед объективом устройства формирования изображений.In yet another embodiment of the invention, the model of the optical system can be created based on a combination of light wave propagation and ray tracing algorithms. Both of these techniques have already been described above. It should be noted that the method based on the wave propagation of light algorithm takes into account the diffraction of light, and in the scattering function (PSF) there are side lobes (peaks or maxima) caused, for example, by the presence of a grating in front of the lens in the path of light propagation. At the same time, in the ray tracing technique, light diffraction is not taken into account, and the mentioned side lobes (peaks) are absent. Thus, in this embodiment, the light propagation algorithm takes into account the effects caused by the presence of a grating in the path of light in front of the lens, and the ray tracing technique does not take into account the effects caused by the presence of a grating. This makes it possible to form images in which there is or is not present the effect of light diffraction caused by the presence of a grating in front of the lens, and in practice this can be used, for example, in the design of an imaging device such as an Under Display Camera (English Under Display Camera, UDC) , where the display can be viewed as a grill located in front of the lens of the imaging device.

В качестве неограничивающего примера, для проектирования UDC в качестве изображения, формируемого моделью низкого уровня абстракции, может использоваться изображение

Figure 00000174
, моделируемое с применением алгоритма распространения света, а «опорное» изображение
Figure 00000175
может моделироваться посредством алгоритма трассировки лучей. В таком случае в промежуточном изображении могут присутствовать упомянутые выше «боковые лепестки» или «пики», что вызывает размытие, двоение изображения и т.п., а алгоритм обработки изображения в блоке обработки изображений может быть разработан таким образом, чтобы минимизировать упомянутые «боковые лепестки» (пики), и таким образом в итоговом изображении, формируемом разрабатываемым устройством формирования изображений, будет минимизирован эффект затемнения и дифракции, вызываемый наличием дисплея перед устройством формирования изображений.As a non-limiting example, for designing a UDC, an image generated by a low-level abstraction model can be an image
Figure 00000174
, modeled using the light propagation algorithm, and the "reference" image
Figure 00000175
can be modeled using a ray tracing algorithm. In such a case, the "sidelobes" or "spikes" mentioned above may be present in the intermediate image, which causes blurring, ghosting, etc., and the image processing algorithm in the image processing unit can be designed to minimize the mentioned "sidelobes". petals (peaks), and thus the final image generated by the imaging device under development will minimize the effect of shading and diffraction caused by having the display in front of the imaging device.

Еще в одном неограничивающем варианте выполнения в модели оптической системы может учитываться или не учитываться, соответственно, поляризация света, поступающего в проектируемое устройство формирования изображений. Для этого в оптической системе может быть предусмотрен зависящий от поляризации компонент (например, поляризатор или фазовая пластинка, в частности, полуволновая или четвертьволновая), расположенный на пути света на входе в оптическую систему (перед линзой). Принцип работы зависящего от поляризации компонента может быть основан на двойном лучепреломлении, дихроизме или поляризации света, возникающей на границе раздела сред. Данный компонент может по выбору пропускать и блокировать, соответственно, s-поляризованное или p-поляризованное оптическое излучение, в результате чего упомянутая выше пара изображений может формироваться, например, с наличием или отсутствием «естественной» поляризации (например, поляризации неба или бликов на поверхности воды), соответственно. Это позволяет моделировать пары изображений, в которых учитывается и не учитывается влияние поляризации, соответственно, которые могут быть использованы для разработки алгоритма для моделирования в блоке обработки изображений поляризационного фильтра без необходимости применения реального «физического» поляризационного фильтра в проектируемом устройстве формирования изображений.In yet another non-limiting embodiment, the model of the optical system may or may not take into account, respectively, the polarization of the light entering the designed imaging device. To do this, the optical system can be provided with a polarization-dependent component (for example, a polarizer or a phase plate, in particular half-wave or quarter-wave) located in the path of light at the entrance to the optical system (in front of the lens). The principle of operation of the polarization-dependent component can be based on birefringence, dichroism, or polarization of light that occurs at the interface between media. This component can selectively pass and block, respectively, s-polarized or p-polarized optical radiation, as a result of which the above-mentioned pair of images can be formed, for example, with or without "natural" polarization (for example, sky polarization or glare on the surface water), respectively. This allows the simulation of pairs of images that take into account and do not take into account the influence of polarization, respectively, which can be used to develop an algorithm for modeling a polarizing filter in the image processing unit without the need for a real "physical" polarizing filter in the designed imager.

Еще в одном варианте выполнения изобретения упомянутые моделируемые пары изображений

Figure 00000176
получают путем моделирования получения изображения обычным датчиком изображения и датчиком изображения, выполненным по технологии «линза на чипе» (в англоязычной литературе называется On-Chip Lens (OCL)), в которой, в качестве неограничивающего примера, два или четыре соседних пикселя имеют общую линзу. Следует отметить, что в технологии OCL, в которой два или четыре пикселя имеют общую линзу, если изображение расфокусировано, датчик изображения обнаруживает двойное изображение (в случае с линзой на два пикселя) или четыре изображения одного и того же объекта (в случае с линзой на четыре пикселя), при этом датчики OCL с линзой на два или четыре пикселя используются, как правило, в системах фазовой автофокусировки (AF) и автофокусировка выполняется посредством минимизации упомянутых двоений изображений объектов. Моделирование датчика изображения с OCL позволяет моделировать работу системы автофокусировки в оптической системе, а формируемые пары изображений могут использоваться для компенсации расфокусировки.In yet another embodiment of the invention, said simulated image pairs
Figure 00000176
is obtained by simulating the acquisition of an image by a conventional image sensor and a lens-on-a-chip image sensor (called On-Chip Lens (OCL) in the English literature) in which, as a non-limiting example, two or four adjacent pixels share a lens . It should be noted that in OCL technology, in which two or four pixels share a common lens, if the image is out of focus, the image sensor detects a double image (in the case of a two-pixel lens) or four images of the same object (in the case of a lens on four pixels), while OCL sensors with a lens of two or four pixels are used, as a rule, in phase-detection autofocus (AF) systems and autofocusing is performed by minimizing the said ghost images of objects. Image sensor simulation with OCL allows you to simulate the operation of the autofocus system in the optical system, and the generated image pairs can be used to compensate for defocus.

В других вариантах выполнения настоящего изобретения может осуществляться формирование набора данных изображений с применением более двух различных моделей с разными уровнями абстракции. Так, например, помимо модели с низким и высоким уровнем абстракции может быть дополнительно использована модель со «средним» уровнем абстракции, представляющая собой, в качестве неограничивающего примера, модель, формирующую изображения с дисторсией, но без размытия, как описано выше. В результате различные пары изображений могут использоваться для проектирования различных компонентов устройства (системы) формирования изображений. Так, например, пара из изображения, полученного моделью низкого уровня абстракции (изображения 1) и изображения, полученного моделью высокого уровня абстракции (изображения n) может использоваться для проектирования оптической системы с компенсацией аберраций (размытия), а пара из изображения, полученного моделью «среднего» уровня абстракции (изображения n-1), и изображения n может использоваться для проектирования блока обработки изображений с компенсацией дисторсии.In other embodiments of the present invention, an image data set may be generated using more than two different models with different levels of abstraction. So, for example, in addition to the low and high abstraction model, a "medium" abstraction model can be additionally used, which is, as a non-limiting example, a model that generates images with distortion but without blur, as described above. As a result, different pairs of images can be used to design different components of the imaging device (system). So, for example, a pair from an image obtained by a low abstraction level model (image 1) and an image obtained by a high abstraction level model (image n) can be used to design an optical system with aberration (blurring) compensation, and a pair from an image obtained by the model " middle" level of abstraction (images n-1), and images n can be used to design an image processing unit with distortion compensation.

Кроме того, следует также упомянуть возможные неограничивающие варианты выполнения, связанные с коррекцией ненатурального эффекта «боке», упомянутого выше. Это может быть реализовано способом, включающим в себя проектирование оптической системы и разработку алгоритма для блока обработки изображений, что, в частности, содержит этапы, на которых:In addition, mention should also be made of possible non-limiting embodiments related to the correction of the unnatural "bokeh" effect mentioned above. This can be implemented in a manner including designing an optical system and developing an algorithm for an image processing unit, which in particular comprises the steps of:

- формируют набор данных изображений с использованием моделей с различными уровнями абстракции (в частности, модель «физической» оптической системы и модель «идеальной» линзы или точечной диафрагмы, описанные выше);- forming a set of image data using models with different levels of abstraction (in particular, the model of the "physical" optical system and the model of the "ideal" lens or pinhole, described above);

- минимизируют различие (норму невязки) между изображениями набора данных путем оптимизации характеристик оптической системы, датчика и блока обработки изображений.- minimize the difference (discrepancy rate) between the images of the data set by optimizing the characteristics of the optical system, sensor and image processing unit.

При этом изображение

Figure 00000177
полученное моделью «физической» оптической системы имеет неестественный эффект «боке» в виде «бубликов», который отсутствует на опорном изображении
Figure 00000178
получаемом посредством модели идеальной оптической системы, как описано выше. В результате в реконструированном изображении
Figure 00000179
Figure 00000180
проявляется естественно выглядящий эффект «боке» с сохранением качества изображения как в областях, которые находятся «в фокусе», так и в тех областях, которые находятся за пределами глубины резкости.At the same time, the image
Figure 00000177
obtained by the model of the "physical" optical system has an unnatural "bokeh" effect in the form of "donuts", which is absent in the reference image
Figure 00000178
obtained through the model of an ideal optical system, as described above. As a result, in the reconstructed image
Figure 00000179
Figure 00000180
a natural-looking “bokeh” effect is produced while maintaining image quality both in areas that are “in focus” and in those areas that are outside the depth of field.

В одном или более неограничивающих вариантах выполнения изобретение позволяет реализовать способ так называемой «визуализации на сетчатке» (в англоязычной литературе используется термин foveated imaging), что может быть использовано при применении изобретения в системах виртуальной реальности (VR). При этом в качестве модели с низким уровнем абстракции может быть использована модель любой линзы с любым конкретным уровнем абстракции в зависимости от конкретной решаемой задачи. В то же время, в качестве модели с высоким уровнем абстракции может быть использована специальная составная линза с фовеолярной зоной, которая имеет область (в частности, область определенного размера в центре круглой линзы) с оптической силой, отличной от оптической силы остальной части линзы. Такая конфигурация линзы позволяет формировать изображение, в котором резкость и разрешающая способность оптической системы в центральной части изображения, куда обращен взгляд наблюдателя, выше, чем в периферийных частях изображения. На Фиг. 6 схематично проиллюстрирован примерный профиль линзы с фовеолярной зоной и показаны две зоны на изображении - более плотно заштрихованная круглая зона в центре соответствует области с повышенной резкостью и разрешающей способностью, а менее плотно заштрихованная зона представляет собой периферийную область, где резкость и разрешающая способность меньше. Такая конфигурация в большей степени приближена к восприятию изображения глазом человека, когда в центре внимания (там, куда сфокусирован взгляд наблюдателя) резкость и разрешение выше, чем на периферии. Данный вариант выполнения изобретения позволяет формировать изображения с «визуализацией на сетчатке», что в особенности предпочтительно для применений в системах дополненной реальности (AR) и виртуальной реальности (VR).In one or more non-limiting embodiments, the invention makes it possible to implement a method of so-called "retinal imaging" (the term foveated imaging is used in the English literature), which can be used when applying the invention in virtual reality (VR) systems. In this case, as a model with a low level of abstraction, a model of any lens with any specific level of abstraction, depending on the specific problem being solved, can be used. At the same time, as a model with a high level of abstraction, a special composite lens with a foveolar zone, which has an area (in particular, an area of a certain size in the center of a circular lens) with a power different from that of the rest of the lens, can be used. Such a lens configuration makes it possible to form an image in which the sharpness and resolution of the optical system in the central part of the image, where the eye of the observer is directed, is higher than in the peripheral parts of the image. On FIG. 6 schematically illustrates an exemplary lens profile with a foveolar zone and shows two zones in the image - a more densely shaded circular zone in the center corresponds to an area with increased sharpness and resolution, and a less densely shaded zone represents a peripheral region where sharpness and resolution are less. This configuration is more close to the perception of the image by the human eye, when in the center of attention (where the observer's eye is focused) the sharpness and resolution are higher than at the periphery. This embodiment of the invention enables "retinal imaging" imaging, which is particularly advantageous for augmented reality (AR) and virtual reality (VR) applications.

Еще в одном варианте выполнения для проектирования устройства формирования изображений в системе VR может осуществляться оптимизация параметров блока обработки изображений в соответствии с изобретением на основе пары изображений, первое из которых создается моделью линзы, обычно применяемой в системах VR (модель с низким уровнем абстракции), а второе - моделью линзы с фовеолярной зоной (модель с высоким уровнем абстракции), описанной выше, при этом оптимизация параметров блока обработки изображений осуществляется на основе минимизации метрики

Figure 00000181
, где
Figure 00000182
- изображение, формируемое на сетчатке моделью с низким уровнем абстракции, а
Figure 00000183
- «идеализированное» изображение, формируемое на сетчатке моделью с высоким уровнем абстракции. Применение изобретения при проектировании системы VR обеспечивает полезные эффекты, состоящие, в частности, в компенсации размытия изображения, минимизации «эффекта решетки», повышении разрешения изображения, демонстрируемого пользователю системой VR, обеспечение «визуализации на сетчатке».In yet another embodiment, for designing an imaging device in a VR system, optimization of the parameters of the image processing unit in accordance with the invention can be performed based on a pair of images, the first of which is created by a lens model commonly used in VR systems (low abstraction model), and the second - with a model of a lens with a foveolar zone (a model with a high level of abstraction) described above, while the optimization of the parameters of the image processing unit is carried out on the basis of minimizing the metric
Figure 00000181
, where
Figure 00000182
- an image formed on the retina by a model with a low level of abstraction, and
Figure 00000183
- "idealized" image formed on the retina by a model with a high level of abstraction. The use of the invention in the design of a VR system provides beneficial effects, consisting, in particular, in compensating for image blur, minimizing the "lattice effect", increasing the resolution of the image shown to the user by the VR system, providing "visualization on the retina".

В одном или более неограничивающих вариантах выполнения изобретения предлагаемое техническое решение может использоваться для проектирования дисплея системы дополненной реальности (AR). При этом согласно изобретению формируют набор данных изображений с использованием моделей оптической системы AR с разными уровнями абстракции, а также при моделировании используют различные методы оценки параметров оптической системы - алгоритм волнового распространения света и алгоритм трассировки лучей, как описано выше. Затем осуществляется оптимизация параметров путем минимизации различий в парах изображений, полученных моделированием, путем оптимизации проекционной линзы, комбайнера, который представляет собой устройство совмещения изображения реального мира и изображения, сформированного устройством AR, и в зависимости от конкретного варианта реализации, не ограничивающего объем изобретения, может быть выполнен в виде волновода или светоделительного куба или призмы с полупрозрачным покрытием и компенсатором, и блока обработки изображений. Далее оптимизированные параметры проекционной линзы, комбайнера и блока обработки изображений применяются при реконструкции соответствующих изображений, формируемых на дисплее системы AR, а также изображений реального мира, наблюдаемых пользователем через систему AR. Это позволяет получить в системе AR высокое качество изображения как для изображения реального мира, наблюдаемого через наголовное устройство системы AR, так и изображений дополненной реальности, формируемых на дисплее системы AR.In one or more non-limiting embodiments of the invention, the proposed technical solution can be used to design an augmented reality (AR) system display. At the same time, according to the invention, a set of image data is formed using AR optical system models with different levels of abstraction, and various methods for estimating the parameters of the optical system are used in modeling - the wave propagation algorithm of light and the ray tracing algorithm, as described above. Then, optimization of the parameters is carried out by minimizing the differences in the pairs of images obtained by the simulation, by optimizing the projection lens, the combiner, which is a device for combining the image of the real world and the image generated by the AR device, and depending on the specific implementation, which does not limit the scope of the invention, can be made in the form of a waveguide or a beam-splitting cube or a prism with a translucent coating and a compensator, and an image processing unit. Further, the optimized parameters of the projection lens, combiner and image processing unit are applied in the reconstruction of the corresponding images formed on the display of the AR system, as well as images of the real world observed by the user through the AR system. This makes it possible to obtain high image quality in the AR system for both the image of the real world observed through the head unit of the AR system, and augmented reality images formed on the display of the AR system.

При реализации вышеописанных вариантов выполнения настоящего изобретения достигаются по меньшей мере следующие технические эффекты. При применении изобретения в камерах с увеличенной глубиной резкости изображаемого пространства (в англоязычной литературе используется термин Extended Depth of Field Camera, EDoF) в таких устройствах, как фронтальные и задние камеры смартфонов, планшетных компьютеров, камеры систем безопасности, изобретение позволяет компенсировать размытие изображения в областях сцены, которые не находятся в фокусе. В «камерах под дисплеем» (UDC) изобретение позволяет компенсировать эффекты дифракции и затемнения, вызываемые наличием дисплея перед устройством формирования изображения. В оптических системах дисплеев виртуальной реальности (VR) изобретение позволяет минимизировать аберрации и скорректировать параметры предварительной обработки изображений блоком обработки изображений. В системе дополненной реальности (AR) применение изобретения позволяет минимизировать аберрации, вносимые линзой, и эффекты дифракции, вносимые комбайнером (например, на основе волновода с дифракционными решетками). Следует отметить, что вышеописанные примеры не ограничивают спектр возможных применений изобретения, и специалистам в данной области техники будут очевидны различные другие примеры устройств и систем формирования изображений, которые могут проектироваться путем оптимизации параметров в соответствии с изобретением и реконструировать изображения с повышенным уровнем качества и компенсацией недостатков, вносимых в изображения известными оптическими системами, датчиками изображений и блоками обработки изображений.When implementing the above-described embodiments of the present invention, at least the following technical effects are achieved. When applying the invention in cameras with an increased depth of field of the imaged space (in the English literature, the term Extended Depth of Field Camera, EDoF is used) in such devices as front and rear cameras of smartphones, tablet computers, security cameras, the invention makes it possible to compensate for image blur in areas scenes that are out of focus. In "Under Display Cameras" (UDC) the invention makes it possible to compensate for the effects of diffraction and obscuration caused by having the display in front of the imaging device. In virtual reality (VR) display optical systems, the invention allows aberrations to be minimized and image pre-processing parameters to be corrected by the image processing unit. In an augmented reality (AR) system, the application of the invention makes it possible to minimize the aberrations introduced by the lens and the effects of diffraction introduced by the combiner (for example, based on a waveguide with diffraction gratings). It should be noted that the above examples do not limit the range of possible applications of the invention, and those skilled in the art will recognize various other examples of imaging devices and systems that can be designed by optimizing the parameters in accordance with the invention and reconstruct images with an increased level of quality and compensation for shortcomings. introduced into images by known optical systems, image sensors and image processing units.

Предлагаемое изобретение может быть использовано при проектировании устройств и систем формирования изображений для различных применений, в частности, в качестве неограничивающего примера, в портативных пользовательских устройствах, таких как смартфон, планшетный компьютер, портативный компьютер, ноутбук и т.п., в системах дополненной (AR) и виртуальной реальности (VR), в различных наголовных и нашлемных устройствах отображения, в проекционных дисплеях, в том числе в дисплеях на ветровом стекле и т.п.The present invention can be used in the design of imaging devices and systems for various applications, in particular, as a non-limiting example, in portable user devices such as a smartphone, tablet computer, laptop computer, laptop, etc., in augmented systems ( AR) and virtual reality (VR), in various head-mounted and helmet-mounted display devices, in projection displays, including displays on the windshield, etc.

Другие варианты выполнения, которые могут входить в объем настоящего изобретения, могут быть предусмотрены специалистами в данной области техники после внимательного прочтения вышеприведенного описания с обращением к сопровождающим чертежам, и все такие очевидные модификации, изменения и/или эквивалентные замены считаются входящими в объем настоящего изобретения. При том, что различные признаки изобретения, характеризующие частные варианты его выполнения, изложены в зависимых пунктах формулы изобретения, не исключается объединение признаков различных зависимых пунктов в других сочетаниях, не описанных в явном виде в настоящем документе.Other embodiments that may be within the scope of the present invention may be contemplated by those skilled in the art upon careful reading of the foregoing description with reference to the accompanying drawings, and all such obvious modifications, alterations and/or equivalent substitutions are deemed to be within the scope of the present invention. While the various features of the invention, characterizing private variants of its implementation, are set forth in the dependent claims, the combination of the features of various dependent claims in other combinations not explicitly described in this document is not excluded.

Все источники из уровня техники, приведенные и рассмотренные в настоящем документе, настоящим включены в данное описание путем ссылки, насколько это применимо.All prior art references cited and discussed in this document are hereby incorporated into this specification by reference as far as applicable.

При том, что настоящее изобретение описано и проиллюстрировано с обращением к различным вариантам его выполнения, специалистам в данной области техники будет понятно, что в нем могут быть выполнены различные изменения в его форме и конкретных подробностях, не выходящие за рамки объема настоящего изобретения, который определяется только нижеприведенной формулой изобретения и ее эквивалентами.While the present invention has been described and illustrated with reference to various embodiments thereof, it will be understood by those skilled in the art that various changes may be made to its form and specific details without departing from the scope of the present invention, which is defined only the following claims and their equivalents.

Claims (30)

1. Система формирования изображений, содержащая оптическую систему, датчик изображения и блок обработки изображений, причем:1. An imaging system comprising an optical system, an image sensor and an image processing unit, wherein: оптическая система выполнена с возможностью формирования промежуточного изображения;the optical system is configured to form an intermediate image; блок обработки изображений выполнен с возможностью восстановления упомянутого промежуточного изображения;the image processing unit is configured to restore said intermediate image; при этом система формирования изображений реализована посредством совместной оптимизации параметров оптической системы и блока обработки изображений посредством минимизации различия в парах изображений, причемwherein the imaging system is implemented by jointly optimizing the parameters of the optical system and the image processing unit by minimizing the difference in pairs of images, wherein различие в парах изображений формируется посредством по меньшей мере двух моделей оптической системы, причем по меньшей мере две модели оптической системы содержат две или более моделей оптической системы с различными уровнями абстракции, моделирование которых осуществляется путем расчета хода лучей или распространения световой волны через соответствующую оптическую систему,the difference in pairs of images is formed by at least two models of the optical system, and at least two models of the optical system contain two or more models of the optical system with different levels of abstraction, the modeling of which is carried out by calculating the path of rays or the propagation of a light wave through the corresponding optical system, уровни абстракции по меньшей мере двух моделей оптической системы различаются по количеству и типу параметров, используемых при описании прохождения света через оптическую систему.abstraction levels of at least two models of the optical system differ in the number and type of parameters used in describing the passage of light through the optical system. 2. Система по п. 1, в которой по меньшей мере одно изображение в упомянутых парах изображений формируется с использованием алгоритма распространения световой волны и/или алгоритма трассировки лучей от объектов трехмерной сцены.2. The system of claim. 1, in which at least one image in said pairs of images is formed using a light wave propagation algorithm and/or a ray tracing algorithm from objects of a three-dimensional scene. 3. Система по п. 2, в которой алгоритм расчета хода лучей представляет собой алгоритм прямой трассировки лучей или алгоритм обратной трассировки лучей.3. The system of claim 2, wherein the ray tracing algorithm is a forward ray tracing algorithm or a reverse ray tracing algorithm. 4. Система по п. 1, в которой упомянутые по меньшей мере две модели оптической системы содержат модель низкого уровня абстракции, более полно учитывающую поведение физической оптической системы, и по меньшей мере одну модель высокого уровня абстракции, менее полно учитывающую поведение физической оптической системы.4. The system of claim 1, wherein said at least two optical system models comprise a low abstraction level model more fully taking into account the behavior of the physical optical system, and at least one high abstraction level model less fully taking into account the behavior of the physical optical system. 5. Система по п. 4, в которой модель высокого уровня абстракции представляет собой модель точечной диафрагмы.5. The system of claim 4, wherein the high abstraction model is a pinhole model. 6. Система по п. 4, в которой модель высокого уровня абстракции представляет собой модель тонкой линзы.6. The system of claim 4, wherein the high abstraction model is a thin lens model. 7. Система по п. 4, в которой модель высокого уровня абстракции представляет собой модель линзы с фовеолярной зоной.7. The system of claim 4, wherein the high abstraction model is a foveal lens model. 8. Система по п. 4, в которой модель высокого уровня абстракции представляет собой модель ахроматической оптической системы.8. The system of claim 4, wherein the high abstraction model is a model of an achromatic optical system. 9. Система по п. 4, в которой модель высокого уровня абстракции представляет собой модель дисторзирующей оптической системы без размытия изображения.9. The system of claim. 4, wherein the high abstraction model is a model of a distorting optical system without blurring. 10. Система по п. 1, в которой при формировании пар изображений дополнительно применяются по меньшей мере две модели датчика изображения с различными уровнями абстракции, причем по меньшей мере одна из двух моделей датчика изображения представляет собой модель, учитывающую шум, модель со спектральной селективностью и/или модель, учитывающую параметры выборки, такие как дискретизация, попиксельное интегрирование и квантование.10. The system of claim. 1, in which the formation of pairing images additionally used at least two models of the image sensor with different levels of abstraction, and at least one of the two models of the image sensor is a model that takes into account noise, a model with spectral selectivity and /or a model that takes into account sampling parameters such as sampling, pixel-by-pixel integration, and quantization. 11. Способ проектирования параметров системы формирования изображений, содержащей оптическую систему, датчик изображения и блок обработки изображений, содержащий этапы, на которых:11. A method for designing the parameters of an imaging system containing an optical system, an image sensor and an image processing unit, comprising the steps of: формируют по меньшей мере один набор пар изображений
Figure 00000184
и
Figure 00000185
с использованием по меньшей мере двух моделей оптической системы с различными уровнями абстракции и
form at least one set of image pairs
Figure 00000184
and
Figure 00000185
using at least two optical system models with different levels of abstraction and
минимизируют различия между изображениями в наборе пар изображений
Figure 00000186
путем оптимизации параметров оптической системы, датчика изображения и/или блока обработки изображений.
minimize differences between images in a set of image pairs
Figure 00000186
by optimizing the parameters of the optical system, image sensor and/or image processing unit.
12. Способ по п. 11, в котором уровни абстракции упомянутых по меньшей мере двух моделей оптической системы различаются по количеству и типу параметров, используемых при описании прохождения света через оптическую систему.12. The method of claim 11, wherein the levels of abstraction of the at least two optical system models differ in the number and type of parameters used in describing the passage of light through the optical system. 13. Способ по п. 11, в котором упомянутые по меньшей мере две модели оптической системы содержат модель низкого уровня абстракции, более полно учитывающую поведение физической оптической системы, и по меньшей мере одну модель высокого уровня абстракции, менее полно учитывающую поведение физической оптической системы.13. The method of claim 11, wherein said at least two optical system models comprise a low abstraction level model more fully taking into account the behavior of the physical optical system and at least one high abstraction level model less fully taking into account the behavior of the physical optical system. 14. Способ по п. 11, в котором этап минимизации различий между изображениями содержит этап, на котором применяют метрику в виде нормы невязки
Figure 00000187
для оценки качества изображения, формируемого системой формирования изображений, и получают оптимальные параметры оптической системы, оптимальные параметры датчика изображения и/или оптимальные параметры блока обработки изображений на основании минимизации метрики
Figure 00000188
.
14. The method of claim 11, wherein the step of minimizing differences between images comprises the step of applying a metric in the form of a residual norm
Figure 00000187
to evaluate the quality of the image generated by the imaging system, and obtain the optimal parameters of the optical system, the optimal parameters of the image sensor and/or the optimal parameters of the image processing unit based on the minimization of the metric
Figure 00000188
.
15. Способ по п. 11, в котором по меньшей мере одно изображение в упомянутых парах изображений формируется с использованием алгоритма распространения световой волны и/или алгоритма расчета хода лучей от объектов трехмерной сцены.15. The method according to claim 11, wherein at least one image in said pairs of images is formed using a light wave propagation algorithm and/or an algorithm for calculating the path of rays from objects in a three-dimensional scene. 16. Способ формирования изображений системой формирования изображений, содержащей оптическую систему, датчик изображения и блок обработки изображений, причем способ содержит этапы, на которых:16. A method for imaging by an imaging system comprising an optical system, an image sensor and an image processing unit, the method comprising the steps of: формируют по меньшей мере один набор пар изображений
Figure 00000189
и
Figure 00000190
с использованием по меньшей мере двух моделей оптической системы с различными уровнями абстракции;
form at least one set of image pairs
Figure 00000189
and
Figure 00000190
using at least two models of the optical system with different levels of abstraction;
применяют метрику
Figure 00000191
для оценки качества изображения, формируемого системой формирования изображений, и получают оптимальные параметры оптической системы, оптимальные параметры датчика изображения и оптимальные параметры блока обработки изображений на основании минимизации метрики
Figure 00000192
apply the metric
Figure 00000191
to evaluate the quality of the image generated by the imaging system, and obtain the optimal parameters of the optical system, the optimal parameters of the image sensor and the optimal parameters of the image processing unit based on the minimization of the metric
Figure 00000192
применяют полученные оптимальные параметры оптической системы и оптимальные параметры датчика изображения для формирования промежуточного изображения;applying the obtained optimal parameters of the optical system and the optimal parameters of the image sensor to form an intermediate image; вводят промежуточное изображение в блок обработки изображений;introducing an intermediate image into an image processing unit; применяют оптимальные параметры блока обработки изображений в блоке обработки изображений иapply the optimal parameters of the image processing block in the image processing block, and выполняют восстановление изображения на основании оптимальных параметров блока обработки изображений для получения изображения высокого качества.performing image restoration based on the optimal parameters of the image processing unit to obtain a high quality image. 17. Способ по п. 16, в котором при формировании пар изображений дополнительно применяются по меньшей мере две модели датчика изображения с различными уровнями абстракции, причем по меньшей мере одна из двух моделей датчика изображения представляет собой модель, учитывающую шум, модель со спектральной селективностью и/или модель, учитывающую параметры выборки, такие как дискретизация, попиксельное интегрирование и квантование.17. The method of claim 16, wherein the image pairing further employs at least two image sensor models with different levels of abstraction, wherein at least one of the two image sensor models is a noise-aware model, a spectral selectivity model, and /or a model that takes into account sampling parameters such as sampling, pixel-by-pixel integration, and quantization.
RU2022104320A 2022-02-18 Imaging system and image processing method RU2785988C1 (en)

Publications (1)

Publication Number Publication Date
RU2785988C1 true RU2785988C1 (en) 2022-12-15

Family

ID=

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1734746A1 (en) * 2005-06-17 2006-12-20 Ricoh Company, Ltd. End-to-end design of electro-optic imaging systems
RU2321964C2 (en) * 2003-02-06 2008-04-10 Сони Корпорейшн Device for recording and reproducing an image, device for reading an image and method for correcting a chromatic aberration
EP2419884A1 (en) * 2009-04-18 2012-02-22 Refocus Imaging, Inc. Light field camera image, file and configuration data, and methods of using, storing and communicating same
US8135233B2 (en) * 2008-05-22 2012-03-13 Aptina Imaging Corporation Method and apparatus for the restoration of degraded multi-channel images
RU2523083C2 (en) * 2011-08-19 2014-07-20 Кэнон Кабусики Кайся Image capturing device, image processing device and image processing method for generating auxiliary information for captured image
US8861089B2 (en) * 2009-11-20 2014-10-14 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US9191580B2 (en) * 2008-05-20 2015-11-17 Pelican Imaging Corporation Capturing and processing of images including occlusions captured by camera arrays
US9497380B1 (en) * 2013-02-15 2016-11-15 Red.Com, Inc. Dense field imaging
US10032254B2 (en) * 2010-09-28 2018-07-24 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for recovering a digital image from a sequence of observed digital images

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2321964C2 (en) * 2003-02-06 2008-04-10 Сони Корпорейшн Device for recording and reproducing an image, device for reading an image and method for correcting a chromatic aberration
EP1734746A1 (en) * 2005-06-17 2006-12-20 Ricoh Company, Ltd. End-to-end design of electro-optic imaging systems
US9191580B2 (en) * 2008-05-20 2015-11-17 Pelican Imaging Corporation Capturing and processing of images including occlusions captured by camera arrays
US8135233B2 (en) * 2008-05-22 2012-03-13 Aptina Imaging Corporation Method and apparatus for the restoration of degraded multi-channel images
EP2419884A1 (en) * 2009-04-18 2012-02-22 Refocus Imaging, Inc. Light field camera image, file and configuration data, and methods of using, storing and communicating same
US8861089B2 (en) * 2009-11-20 2014-10-14 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US10032254B2 (en) * 2010-09-28 2018-07-24 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for recovering a digital image from a sequence of observed digital images
RU2523083C2 (en) * 2011-08-19 2014-07-20 Кэнон Кабусики Кайся Image capturing device, image processing device and image processing method for generating auxiliary information for captured image
US9497380B1 (en) * 2013-02-15 2016-11-15 Red.Com, Inc. Dense field imaging

Similar Documents

Publication Publication Date Title
Sun et al. End-to-end complex lens design with differentiable ray tracing
US12462353B2 (en) Imaging system and method for imaging objects with reduced image blur
JP6409006B2 (en) Plenoptic imaging device
CN103826033B (en) Image processing method, image processing equipment, image pick up equipment and storage medium
JP7426118B2 (en) Mixed reality optical system with digital aberration correction
Chen et al. Computational optics for mobile terminals in mass production
CN114897752B (en) A single lens large depth of field computational imaging system and method based on deep learning
CN113489967A (en) Wearable display system and method for calibrating a wearable display
JP2008310828A (en) End-to-end design of electro-optic imaging system
FR2827459A1 (en) Image handling system formats data with sensor characteristics and corrects in processing
EP1442425A1 (en) Method and system for producing formatted information related to defects of appliances
TWI904312B (en) Headset
Itoh et al. Gaussian light field: Estimation of viewpoint-dependent blur for optical see-through head-mounted displays
KR102820618B1 (en) Method for simulating an optical image representation
RU2785988C1 (en) Imaging system and image processing method
CN118075590B (en) Achromatic and extended depth-of-field imaging system and imaging method based on multiple virtual lenses
RU2806729C1 (en) System and method for reconstructing surface properties and determining the position of digital 3d objects
RU2782980C1 (en) Device and method for image formation with provision of increased depth of the depicted space (options)
Miyanishi et al. Observed optical resolution of light field display: Empirical and simulation results
Adelsberger Design guidelines for wavefront coding in broadband optical systems
Liu Plenoptic Modeling and Measurements of Novel Displays
남승우 Computational Imaging using Polarization Optics for Holographic Displays and Omnidirectional Camera
Akpinar et al. Wavefront Coding for Accommodation-Invariant Near-Eye Displays
Zhang et al. Construction methods of deep virtual datasets for single-plane diffractive elements
Tang Modeling and Analysis of Optical Blur for Everyday Photography