RU2707138C1 - Intelligent space system for monitoring buildings and structures - Google Patents
Intelligent space system for monitoring buildings and structures Download PDFInfo
- Publication number
- RU2707138C1 RU2707138C1 RU2018145491A RU2018145491A RU2707138C1 RU 2707138 C1 RU2707138 C1 RU 2707138C1 RU 2018145491 A RU2018145491 A RU 2018145491A RU 2018145491 A RU2018145491 A RU 2018145491A RU 2707138 C1 RU2707138 C1 RU 2707138C1
- Authority
- RU
- Russia
- Prior art keywords
- neural network
- earth
- convolutional neural
- remote sensing
- spacecraft
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
Description
Предлагаемое изобретение относится к области средств и технологий дистанционного зондирования Земли, а именно к применению результатов дистанционного зондирования Земли для мониторинга зданий и сооружений.The present invention relates to the field of means and technologies for remote sensing of the Earth, and in particular to the application of the results of remote sensing of the Earth for monitoring buildings and structures.
Из уровня техники известен способ обработки изображений со спутников [Thomas Blaschke, Stefan Lang, Eric Lorup, Josef Strobl and Peter Zeil. Object-Oriented Image Processing in an Integrated GIS/Remote Sensing Environment and Perspectives for Environmental Applications. EnviroInfo 2000: Umweltinformatik '00 Umweltinformation Planung, Politik und Copyright 2000 Metropolis Verlag, Marburg]. Способ включает обработку спутниковых снимков по различным алгоритмам и сочетание полученных результатов с данными GIS.The prior art method for processing satellite images [Thomas Blaschke, Stefan Lang, Eric Lorup, Josef Strobl and Peter Zeil. Object-Oriented Image Processing in an Integrated GIS / Remote Sensing Environment and Perspectives for Environmental Applications. EnviroInfo 2000: Umweltinformatik '00 Umweltinformation Planung, politik und Copyright 2000 Metropolis Verlag, Marburg]. The method includes processing satellite images by various algorithms and combining the results with GIS data.
В качестве ближайшего аналога предлагаемого изобретения может быть выбрана основанная на использовании нейронной сети система получения и обработки космических снимков, предложенная в заявке на изобретение CN 107945146, Univ. Nanjing Information Science & Tech., публикация 2018 г. Система из CN 107945146 включает совокупность компьютерных средств, структурированных на основе сверточной нейронной сети, связанных с космическими аппаратами дистанционного зондирования Земли программы LandSat и научно-исследовательским космическим аппаратом Aqua с аппаратурой дистанционного зондирования Земли Modis. Сверточная нейронная сеть обеспечивает получение итоговых изображений, сформированных на базе изображений, принятых от космического аппарата дистанционного зондирования Земли, и уточняющих данных дистанционного зондирования Земли.As the closest analogue of the invention, a satellite-based system for acquiring and processing satellite images proposed in the application for the invention CN 107945146, Univ can be selected. Nanjing Information Science & Tech., 2018 publication. The system from CN 107945146 includes a set of computer tools structured on the basis of a convolutional neural network associated with LandSat Earth remote sensing spacecraft and Aqua research spacecraft with Modis Earth remote sensing equipment. The convolutional neural network provides the final images formed on the basis of images received from the spacecraft for remote sensing of the Earth, and refinement data of remote sensing of the Earth.
В свою очередь, в нашем изобретении предложено применить технические возможности сверточной нейронной сети для решения более узкой задачи - мониторинга зданий и сооружений для контроля возведения несанкционированных строительных объектов, с обеспечением быстроты обработки данных и задействовании меньшего количества вычислительных ресурсов. Нами предложена интеллектуальная космическая система мониторинга, включающая совокупность компьютерных средств на основе сверточной нейронной сети, позволяющих обрабатывать данные с космических аппаратов дистанционного зондирования Земли Ресурс-П. Отличие от аналога заключается в структуре нейронной сети и использовании данных с космических аппаратов дистанционного зондирования Земли типа Ресурс-П. Сверточная нейронная сеть обрабатывает изображения строительных объектов, принятые от космических аппаратов дистанционного зондирования Земли указанного типа, с формированием методом скользящего окна прямоугольных матриц пикселей изображения с заданным шагом - кропов, генерацию нескольких отображений для каждой прямоугольной матрицы путем поворота и зеркального отображения с сегментацией каждого отображения средствами сверточной нейронной сети и его классификацией средствами сверточной нейронной сети в качестве одного из строительных объектов и получением итогового изображения.In turn, in our invention, it is proposed to use the technical capabilities of a convolutional neural network to solve a narrower problem - monitoring buildings and structures to control the construction of unauthorized construction objects, ensuring the speed of data processing and using fewer computing resources. We have proposed an intelligent space monitoring system that includes a set of computer tools based on a convolutional neural network that allows you to process data from Resurs-P Earth remote sensing spacecraft. The difference from the analogue lies in the structure of the neural network and the use of data from spacecraft for remote sensing of the Earth of the Resource-P type. A convolutional neural network processes images of building objects received from the Earth’s remote sensing spacecraft of the indicated type, with the help of a sliding window method of creating rectangular image pixel matrices with a given step - crop, generating several images for each rectangular matrix by rotating and mirroring with segmentation of each image using convolutional neural network and its classification by means of the convolutional neural network as one of the systems Yelnia objects and obtain the final image.
Предложенная система поясняется следующими изображениями:The proposed system is illustrated by the following images:
фиг. 1 - схема алгоритма распознавания и классификации строительных сооружений;FIG. 1 is a diagram of an algorithm for recognizing and classifying building structures;
фиг. 2 - архитектура сверточной нейронной сети с отображением последовательности операций кодировки и декодировки;FIG. 2 - architecture of a convolutional neural network with a display of the encoding and decoding process;
фиг. 3 - разбиение исходного снимка на куски фиксированного размера методом скользящего окна.FIG. 3 - splitting the original image into pieces of a fixed size using the sliding window method.
Спутниковые снимки строительных сооружений, полученные с космических аппаратов Ресурс-П поступают на вход сверточной нейронной сети (фиг. 1). В настоящее время используются спутниковые снимки в уровне обработки 4А - комплексированное изображение панхроматического (уровня обработки 2А) и многоспектрального (уровня обработки 2А1) снимков одной и той же территории. Применение сверточной нейронной сети в предлагаемой архитектуре позволит быстрее выполнять обработку данных за счет меньшего количество операций и времени, необходимых для выполнения одного прохода сети, так как нейронная сеть менее требовательна к техническим ресурсам, а также позволяет выполнять обработку в режиме близком к реальному времени. Применение космических аппаратов Ресурс-П позволит задействовать при мониторинге строительных сооружений данные дистанционного зондирования Земли высокого и сверхвысокого разрешения.Satellite images of building structures obtained from Resurs-P spacecraft arrive at the input of a convolutional neural network (Fig. 1). Currently, satellite images are used in processing level 4A - a complex image of panchromatic (processing level 2A) and multispectral (processing level 2A1) images of the same territory. The use of a convolutional neural network in the proposed architecture will allow faster data processing due to fewer operations and time required to complete a single pass of the network, since the neural network is less demanding on technical resources, and also allows processing in close to real time mode. The use of Resurs-P spacecraft will make it possible to use high and ultra-high resolution Earth remote sensing data when monitoring building structures.
Архитектуру предложенной сверточной сети можно описать (фиг. 2) как совокупность последовательностей блоков кодировки и декодировки. Блоки кодировки уменьшают пространственное разрешение исходного изображения в данном случае разрешение кропов - прямоугольных матриц пикселей изображения. Блоки декодировки увеличивают пространственное разрешение, объединяя входные данные с картами признаков, полученных с помощью метода проброса из блоков кодировки соответствующего разрешения, что обеспечивает ансамблирование результатов всех слоев и разрешений.The architecture of the proposed convolutional network can be described (Fig. 2) as a set of sequences of coding and decoding blocks. Encoding blocks reduce the spatial resolution of the original image in this case, the resolution of the crop - rectangular matrix of image pixels. Decoding blocks increase spatial resolution by combining input data with feature maps obtained using the forwarding method from coding blocks of the corresponding resolution, which ensures the ensemble of the results of all layers and resolutions.
Блок кодировки представляет собой набор из трех функциональных подблоков (операций над картами признаков): слой свертки, функция активации ReLU, слой субдискретизации. Блок декодировки представляет собой набор из четырех функциональных подблоков (набор из двух последовательностей двух операций): слой свертки, функция активации ReLU. Слой свертки включает свой фильтр для каждого канала, ядро свертки которого обрабатывает предыдущий слой по фрагментам, суммируя результаты матричного произведения для каждого фрагмента, и обозначается свертка ([k×k], m, n), где k×k - размер ядра свертки, m и n количество входных и выходных фильтров для слоя соответственно. Функция активации ReLU, представляющая собой функцию max(0,x) ReLU=x, позволяет избежать проблем затухающего и взрывающегося градиента, а также является вычислительно несложной, скалярный результат каждой свертки попадает на функцию активации. Слой субдискретизации (слой подвыборки) представляет собой нелинейное уплотнение карты признаков, при этом группа точек (обычно размера 2×2) уплотняется до одной точки, проходя нелинейное преобразование. Наиболее употребительна при этом функция максимума. Преобразования затрагивают непересекающиеся прямоугольники или квадраты, каждый из которых ужимается в одну точку, при этом выбирается точка, имеющая максимальное значение. Операция пулинга (то есть, если на предыдущей операции свертки уже были выявлены некоторые признаки, то для дальнейшей обработки настолько подробное изображение уже не нужно, и оно уплотняется до менее подробного и служит для генерации новых карт признаков большей размерности) позволяет существенно уменьшить пространственный объем изображения.The encoding block is a set of three functional sub-blocks (operations on feature maps): a convolution layer, a ReLU activation function, a subsampling layer. The decoding unit is a set of four functional sub-blocks (a set of two sequences of two operations): a convolution layer, a ReLU activation function. The convolution layer includes its own filter for each channel, the convolution core of which processes the previous layer into fragments, summing up the results of the matrix product for each fragment, and the convolution is indicated ([k × k], m, n), where k × k is the size of the convolution core, m and n are the number of input and output filters for the layer, respectively. The activation function ReLU, which is a function max (0, x) ReLU = x, avoids the problems of a damping and exploding gradient, and is also computationally simple, the scalar result of each convolution falls on the activation function. The subsampling layer (subsampling layer) is a nonlinear compaction of the feature map, while a group of points (usually 2 × 2 in size) is condensed to one point through a nonlinear transformation. The maximum function is most commonly used. Transformations affect disjoint rectangles or squares, each of which is squeezed into one point, while the point with the maximum value is selected. The pooling operation (that is, if some features were already detected in the previous convolution operation, then such a detailed image is no longer needed for further processing, and it is compressed to a less detailed image and serves to generate new feature maps of a larger dimension), it allows to significantly reduce the spatial volume of the image .
Блок декодировки результата представляет собой набор из четырех функциональных подблоков (последовательных операций): пространственное исключение - выключает слой нейронов с вероятностью р; слой свертки с ядром 1×1 - необходим для уменьшения размерности карты признаков; функция активации - скалярный результат каждой свертки попадает на функцию активации, которая представляет собой нелинейную функцию sigmoid=1/(1+e-x), позволяющая усиливать слабые сигналы и не насыщаться от сильных сигналов; линейное увеличение размерности - операция обратная субдискретизации, то есть линейное повторение карты признаков, каждая точка преобразуется в группу точек 2×2, проходя линейное преобразование, преобразования затрагивают все точки, каждая из которых превращается в группу точек, при этом они имеют одинаковое значение, данная операция позволяет увеличить объем изображения.The result decoding block is a set of four functional subblocks (sequential operations): spatial exclusion - turns off the neuron layer with probability p; a convolution layer with a core of 1 × 1 — necessary to reduce the dimension of the feature map; activation function - the scalar result of each convolution falls on the activation function, which is a non-linear function sigmoid = 1 / (1 + e -x ), which allows amplifying weak signals and not saturating from strong signals; linear increase in dimension is the inverse operation of subsampling, that is, linear repetition of the feature map, each point is converted to a group of 2 × 2 points, undergoing a linear transformation, the transformations affect all points, each of which turns into a group of points, while they have the same value, given operation allows you to increase the volume of the image.
Для обработки принятых спутниковых снимков методом скользящего окна формируют кропы - прямоугольные матрицы пикселей изображения (фиг. 3), кропы формируют с заданным шагом, для чего задают размеры скользящего окна HSW×WSW, задают шаг скользящего окна - SH пикселей по вертикали и SW пикселей по горизонтали; исходное изображение I с высотой Н и шириной W дополняют по краям до размера кратного размерам скользящего окна; из дополненного изображения с шагом SH×SW формируют матрицы пикселей - кропы размера HSW×WSW. Предложено использовать HSW×WSW=512 пикселей для обеспечения с одной стороны попадания достаточно крупных объектов в один кроп, что позволит достичь заданной точности, и практической возможности создания программной реализации, с другой стороны, поскольку размер окна напрямую определяет размер слоя нейронной сети, увеличение которого ведет к увеличению требований к размеру памяти и скорости работы аппаратного обеспечения и экспоненциальному увеличению времени обучения. Также, предложено использовать шаг SH=HSW/2=256 пикселей и SW=WSW/2=256 пикселей для обеспечения наложения кропов друг на друга таким образом, чтобы край одного кропа совпадал с центром смежного с ним, что позволит избежать конфликтов на краях кропов при восстановлении сегментации всего снимка из сегментаций отдельных кропов.To process the received satellite images by the method of a sliding window, cropes are formed - rectangular image pixel matrices (Fig. 3), the cropes are formed with a given step, for which the dimensions of the sliding window H SW × W SW are set, the step of the sliding window is set — S H pixels vertically and S W pixels horizontally; the original image I with a height H and a width W is supplemented at the edges to a multiple of the size of the sliding window; from the augmented image with a step S H × S W form a matrix of pixels - crop size H SW × W SW . It is proposed to use H SW × W SW = 512 pixels to ensure that, on the one hand, sufficiently large objects fall into one crop, which will achieve the given accuracy and practical feasibility of creating a software implementation, on the other hand, since the window size directly determines the size of the neural network layer, an increase in which leads to an increase in the requirements for memory size and hardware operation speed and an exponential increase in training time. It is also proposed to use the step S H = H SW / 2 = 256 pixels and S W = W SW / 2 = 256 pixels to ensure that the crop is superimposed so that the edge of one crop coincides with the center adjacent to it, which avoids conflicts at the edges of the crop when restoring the segmentation of the entire image from the segmentation of individual crop.
Для каждой прямоугольной матрицы - кропа генерируют несколько отображений путем поворота и зеркального отображения исходного изображения. Предложено генерировать восемь отображений на каждый кроп, то есть вариации отображения исходного куска с помощью операций поворота на угол π/2 и зеркального отображения. То есть, для кропа изображения С(ϕ(x) - поворот на угол π/2, ψ(x) - зеркальное отображение) множество из восьми отображений О модно представить, как O={С, ϕ(С), ϕ(ϕ(С)), ϕ(ϕ(ϕ(С))), ψ(С), ψ(ϕ(С)), ψ(ϕ(ϕ(С))), ψ(ϕ(ϕ(ϕ(С))))}. Средствами сверточной нейронной сети получают карту сегментов для каждого отображения с последующей классификацией в качестве одного из объектов строительных сооружений для чего через нейронную сеть пропускают исходный кроп С, итоговая функция получения предсказания - P=h(C) на кроп изображения С. В результате, на выходе сегментации сверточной нейронной сети получается набор из восьми (для рассматриваемого примера) карт вероятности того, что каждая точка исходного кропа может быть классифицирована, как изменения строительных сооружений.For each rectangular matrix - crop, several mappings are generated by rotation and mirror image of the original image. It is proposed to generate eight mappings per crop, that is, variations of the display of the original piece using the operations of rotation through the angle π / 2 and mirror image. That is, for the crop of the image C (ϕ (x) is the rotation through the angle π / 2, ψ (x) is the mirror image), it is fashionable to represent the set of eight maps O as O = {C, ϕ (C), ϕ (ϕ (C)), ϕ (ϕ (ϕ (C))), ψ (C), ψ (ϕ (C)), ψ (ϕ (ϕ (C))), ψ (ϕ (ϕ (ϕ (C)) )))}. Using the convolutional neural network, a map of segments is obtained for each display, with subsequent classification as one of the objects of building structures, for which the source crop C is passed through the neural network, the final prediction function is P = h (C) for the crop image C. As a result, the output of the convolutional neural network segmentation results in a set of eight (for the considered example) probability maps that each point of the original crop can be classified as changes in building structures .
К полученному набору карт вероятности применяются операции обратного отображения (поворота на - π/2 и зеркального отображения) с целью получения прообразов используемых образов применительно к выходным картам вероятности. При x=ψ(ψ(x)) и х=ϕ-1(х)=ϕ(ϕ(ϕ(x))), искомое множество Ор имеет вид Ор={Р1, ϕ-1(ϕ-1(ϕ-1)(P2))), ϕ-1(ϕ-1(P3)), ϕ-1(P4), ψ(P5), ψ(ϕ-1(ϕ-1)(ϕ-1)(P6)))), ψ(ϕ-1(ϕ-1)(P7))), ψ(ϕ-1(P8))}. С помощью усреднения предсказаний уточняют границы полученных сегментов. Итоговое предсказание для каждой точки кропа изображения для предложенного варианта вычисляется по следующей формуле Pитог(i,j)=Σk=1 8Pk(i,j)/8. Данный подход позволяет улучшить результаты сегментации, полученные на предыдущем этапе. Объединив полученные пересекающиеся карты предсказаний с помощью взвешенной суммы, используя в качестве весов двумерное распределение Гаусса с нулем в центре кропа и среднеквадратичным отклонением σ=HSW/2⋅3=~85, вычисленное в точках соответствующих центрам пикселей кропа, чтобы получить сегментацию исходного изображения. Это позволит устранить конфликты и артефакты на границах кропов, так как для каждого пикселя наибольший вклад в его значение внесет тот кроп, к центру которого он ближе находится, а вклад крайних точек кропа составит ~0,2.Inverse probability mapping operations (rotation by - π / 2 and mirror image) are applied to the obtained set of probability maps in order to obtain the inverse images of the images used in relation to the output probability maps. For x = ψ (ψ (x)) and x = ϕ -1 (x) = ϕ (ϕ (ϕ (x))), the desired set О p has the form О р = {Р 1 , ϕ -1 (ϕ - 1 (ϕ -1 ) (P 2 ))), ϕ -1 (ϕ -1 (P 3 )), ϕ -1 (P 4 ), ψ (P 5 ), ψ (ϕ -1 (ϕ -1 ) (ϕ -1 ) (P 6 )))), ψ (ϕ -1 (ϕ -1 ) (P 7 ))), ψ (ϕ -1 (P 8 ))}. Using the averaging of predictions, the boundaries of the obtained segments are specified. The final prediction for each point of the crop of the image for the proposed option is calculated by the following formula P total (i, j) = Σ k = 1 8 P k (i, j) / 8. This approach allows us to improve the segmentation results obtained in the previous step. Combining the obtained intersecting prediction maps using the weighted sum, using the two-dimensional Gaussian distribution with weights as zero in the center of the crop and the standard deviation σ = H SW / 2⋅3 = ~ 85 calculated at the points corresponding to the centers of the pixels of the crop to obtain segmentation of the original image . This will eliminate conflicts and artifacts at the borders of the crop, since for each pixel the largest contribution to its value will be made by the crop, to the center of which it is closer, and the contribution of the extreme points of the crop will be ~ 0.2.
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018145491A RU2707138C1 (en) | 2018-12-21 | 2018-12-21 | Intelligent space system for monitoring buildings and structures |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018145491A RU2707138C1 (en) | 2018-12-21 | 2018-12-21 | Intelligent space system for monitoring buildings and structures |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2707138C1 true RU2707138C1 (en) | 2019-11-22 |
Family
ID=68653079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2018145491A RU2707138C1 (en) | 2018-12-21 | 2018-12-21 | Intelligent space system for monitoring buildings and structures |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2707138C1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2733823C1 (en) * | 2019-12-17 | 2020-10-07 | Акционерное общество "Российская корпорация ракетно-космического приборостроения и информационных систем" (АО "Российские космические системы") | System for segmenting images of subsoil resources of open type |
RU2734058C1 (en) * | 2019-12-17 | 2020-10-12 | Акционерное общество "Российская корпорация ракетно-космического приборостроения и информационных систем" (АО "Российские космические системы") | System for segmenting images of buildings and structures |
RU2752246C1 (en) * | 2020-06-15 | 2021-07-23 | Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ | Hardware-software complex designed for processing aerial photographs in visible and far infrared band for detection, localisation and classification of buildings outside of localities |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU98253U1 (en) * | 2010-04-29 | 2010-10-10 | Открытое Акционерное Общество "Российские Железные Дороги" | MONITORING SYSTEM OF POTENTIALLY HAZARDOUS SECTIONS OF RAILWAY |
CN106033594A (en) * | 2015-03-11 | 2016-10-19 | 日本电气株式会社 | Recovery method and apparatus for spatial information based on feature obtained by convolutional neural network |
US20170103081A1 (en) * | 2005-06-27 | 2017-04-13 | Google Inc. | Intelligent Distributed Geographic Information System |
RU173468U1 (en) * | 2017-03-27 | 2017-08-29 | Акционерное общество "ЭЛВИС-НеоТек" | DEVICE FOR CASCADE PROCESSING OF THE IMAGE FLOW USING SURFACE NEURAL NETWORKS |
US20180204314A1 (en) * | 2017-01-18 | 2018-07-19 | Nvidia Corporation | Filtering image data using a neural network |
-
2018
- 2018-12-21 RU RU2018145491A patent/RU2707138C1/en active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170103081A1 (en) * | 2005-06-27 | 2017-04-13 | Google Inc. | Intelligent Distributed Geographic Information System |
RU98253U1 (en) * | 2010-04-29 | 2010-10-10 | Открытое Акционерное Общество "Российские Железные Дороги" | MONITORING SYSTEM OF POTENTIALLY HAZARDOUS SECTIONS OF RAILWAY |
CN106033594A (en) * | 2015-03-11 | 2016-10-19 | 日本电气株式会社 | Recovery method and apparatus for spatial information based on feature obtained by convolutional neural network |
US20180204314A1 (en) * | 2017-01-18 | 2018-07-19 | Nvidia Corporation | Filtering image data using a neural network |
RU173468U1 (en) * | 2017-03-27 | 2017-08-29 | Акционерное общество "ЭЛВИС-НеоТек" | DEVICE FOR CASCADE PROCESSING OF THE IMAGE FLOW USING SURFACE NEURAL NETWORKS |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2733823C1 (en) * | 2019-12-17 | 2020-10-07 | Акционерное общество "Российская корпорация ракетно-космического приборостроения и информационных систем" (АО "Российские космические системы") | System for segmenting images of subsoil resources of open type |
RU2734058C1 (en) * | 2019-12-17 | 2020-10-12 | Акционерное общество "Российская корпорация ракетно-космического приборостроения и информационных систем" (АО "Российские космические системы") | System for segmenting images of buildings and structures |
RU2752246C1 (en) * | 2020-06-15 | 2021-07-23 | Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ | Hardware-software complex designed for processing aerial photographs in visible and far infrared band for detection, localisation and classification of buildings outside of localities |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2703349C1 (en) | Intelligent space system for monitoring forest resources | |
WO2020119661A1 (en) | Target detection method and device and pedestrian detection method and system | |
US20220222776A1 (en) | Multi-Stage Multi-Reference Bootstrapping for Video Super-Resolution | |
CN107525588B (en) | Rapid reconstruction method of dual-camera spectral imaging system based on GPU | |
CN113807361B (en) | Neural network, target detection method, neural network training method and related products | |
US20190130574A1 (en) | Image processing method and image processing device | |
RU2707138C1 (en) | Intelligent space system for monitoring buildings and structures | |
CN115605878A (en) | Image Processing Using Self-Attention-Based Neural Networks | |
CN110163188B (en) | Video processing and method, device and equipment for embedding target object in video | |
CN119107305A (en) | Multiscale Transformer for Image Analysis | |
CN109934247A (en) | Electronic device and control method thereof | |
Liu et al. | Semantic segmentation and photogrammetry of crowdsourced images to monitor historic facades | |
Al-Azzeh et al. | Adaptation of matlab K-means clustering function to create Color Image Features | |
CN114359289B (en) | Image processing method and related device | |
CN114758145A (en) | Image desensitization method and device, electronic equipment and storage medium | |
CN118247711A (en) | Method and system for detecting small target of transducer architecture | |
CN112241745A (en) | A feature point extraction method based on illumination invariant color space | |
Yang et al. | Fast multisensor infrared image super-resolution scheme with multiple regression models | |
US20250037354A1 (en) | Generalizable novel view synthesis guided by local attention mechanism | |
Xian-chuan et al. | Remote sensing image fusion based on integer wavelet transformation and ordered nonnegative independent component analysis | |
CN119211560A (en) | A monitoring video compression processing method and device | |
RU2718419C1 (en) | Intelligent space system for monitoring subsoil management areas of open type | |
Ni et al. | RepCrack: An efficient pavement crack segmentation method based on structural re-parameterization | |
CN112580711A (en) | Video image fusion method based on wind turbine generator fault recognition | |
Wang et al. | Multispectral image fusion approach based on GHM multiwavelet transform |