[go: up one dir, main page]

RU2427914C1 - Method of intellectual information processing in neuron network - Google Patents

Method of intellectual information processing in neuron network Download PDF

Info

Publication number
RU2427914C1
RU2427914C1 RU2010139165/08A RU2010139165A RU2427914C1 RU 2427914 C1 RU2427914 C1 RU 2427914C1 RU 2010139165/08 A RU2010139165/08 A RU 2010139165/08A RU 2010139165 A RU2010139165 A RU 2010139165A RU 2427914 C1 RU2427914 C1 RU 2427914C1
Authority
RU
Russia
Prior art keywords
network
single images
layers
layer
shifts
Prior art date
Application number
RU2010139165/08A
Other languages
Russian (ru)
Inventor
Василий Юрьевич Осипов (RU)
Василий Юрьевич Осипов
Original Assignee
Василий Юрьевич Осипов
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Василий Юрьевич Осипов filed Critical Василий Юрьевич Осипов
Priority to RU2010139165/08A priority Critical patent/RU2427914C1/en
Application granted granted Critical
Publication of RU2427914C1 publication Critical patent/RU2427914C1/en

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

FIELD: information technologies.
SUBSTANCE: method of intellectual information processing in a neuron network, which consists in supplying a signal into a double-layer network with feedbacks, and the signal is divided into components in the basis aligned with an input layer of the network, signal representation in the form of serial combinations of single images in compliance with the preset rules of its recognition with account of reverse recognition results, shifts of single images combinations along the layers with account of their current conditions, memorising results of recognition on network elements, using serial combinations of single images as processing results on the output layer of the network after the reverse conversion into corresponding initial signals, besides, shifts of combinations of single images along the layers are carried out with varied parameters of shifts, and combinations of single images are moved on along the layers following a spiral with variable diameter.
EFFECT: increased intelligence of information processing, improved memorising, recognition and extraction of signals from the network.
7 dwg, 1 tbl

Description

Изобретение относится к бионике, моделированию функциональных аспектов человека и может найти применение в вычислительной технике при построении интеллектуальных машин и систем.The invention relates to bionics, modeling of functional aspects of a person and can find application in computer technology for the construction of intelligent machines and systems.

В настоящее время известны способы интеллектуальной обработки информации в нейронной сети, применяемые для аппроксимации, классификации, распознавания образов, обработки речи, прогнозирования, идентификации, оценивания производственных процессов, ассоциативного управления и для решения других творческих задач (Хайкин С. Нейронные сети: полный курс, 2-е издание. Пер. с англ. М.: Издательский дом «Вильямс», 2006. - 1104 с.; Галушкин А.И. Теория нейронных сетей. Кн. 1: Учебное пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 416 с.).Currently, there are known methods of intelligent information processing in a neural network, used for approximation, classification, pattern recognition, speech processing, forecasting, identification, estimation of production processes, associative control and for solving other creative tasks (Khaikin S. Neural networks: full course, 2nd edition, Translated from English by M .: Williams Publishing House, 2006. - 1104 p .; AI Galushkin, Theory of Neural Networks, Book 1: Textbook for universities / General ed. A.I .Galushkina. - M .: IPRZhR, 2000 .-- 416 p.).

Однако этим способам характерны узкие возможности по запоминанию структурно сложных изменяющихся во времени сигналов, их распознаванию, ассоциированию с другими сигналами, извлечению из памяти сети и воспроизведению в исходной форме. Эти способы не позволяют при обработке информации решать широкий спектр задач одной и той же нейронной сетью.However, these methods are characterized by narrow capabilities for storing structurally complex time-varying signals, their recognition, association with other signals, retrieving from the network memory and reproducing in its original form. These methods do not allow, when processing information, to solve a wide range of problems with the same neural network.

Наиболее близким аналогом изобретения является способ интеллектуальной обработки информации в двухслойной нейронной сети с обратными связями, замыкающими двухслойные контуры с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения. Согласно ему сигнал подают в сеть после разложения на составляющие в базисе, согласованном с входным слоем сети. При этом каждую составляющую перед подачей в сеть преобразуют в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей. Сигнал представляют в сети в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания. При передаче совокупностей единичных образов от слоя к слою их сдвигают вдоль слоев с учетом текущих состояний последних. Результаты распознавания запоминают на элементах сети. В качестве результатов обработки используют последовательные совокупности единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы (Осипов В.Ю. Ассоциативная интеллектуальная машина / Информационные технологии и вычислительные системы. №2, 2010, с.59-67).The closest analogue of the invention is a method of intelligent information processing in a two-layer neural network with feedbacks that close two-layer circuits with a delay time of single images less than the immunity time of network neurons after their excitation. According to it, the signal is fed into the network after decomposition into components in a basis consistent with the input layer of the network. In this case, each component is converted into a sequence of single images with a repetition rate as a predetermined function of the amplitude of the component before being fed into the network. The signal is represented on the network in the form of consecutive sets of single images in accordance with predefined rules for its recognition, taking into account the inverse recognition results. When transferring sets of single images from layer to layer, they are shifted along the layers, taking into account the current states of the latter. Recognition results are stored on network elements. As processing results, sequential sets of single images are used on the output layer of the network after the reverse transformation into the corresponding source signals (Osipov V.Yu. Associative Intelligent Machine / Information Technologies and Computing Systems. No. 2, 2010, pp. 59-67).

Недостатком этого способа является то, что сдвиги совокупностей единичных образов вдоль слоев осуществляют с постоянными параметрами сдвигов на всем пространстве слоев. Не учитывается возможность достижения максимума ассоциативного взаимодействия между единичными образами в сети. Это ограничивает функциональные возможности способа по интеллектуальной обработке информации.The disadvantage of this method is that the shifts of the sets of single images along the layers are carried out with constant parameters of the shifts in the entire space of the layers. The possibility of reaching the maximum of associative interaction between individual images in the network is not taken into account. This limits the functionality of the method for intellectual information processing.

Задачей изобретения является расширение функциональных возможностей по интеллектуальной обработке информации в нейронной сети.The objective of the invention is to expand the functionality of intelligent information processing in a neural network.

Технический результат от использования изобретения заключается в повышении интеллектуальности обработки информации в нейронной сети, улучшении запоминания, распознавания сигналов и извлечения их из сети.The technical result from the use of the invention is to increase the intelligence of processing information in a neural network, to improve the memorization, recognition of signals and their extraction from the network.

Поставленная задача решается тем, что в известном способе интеллектуальной обработки информации в нейронной сети, заключающемся в подаче в двухслойную сеть с обратными связями, замыкающими двухслойные контуры с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения, сигнала, разложенного на составляющие в базисе, согласованном с входным слоем сети, с каждой составляющей, преобразованной в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей, представлении сигнала в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания, сдвигах совокупностей единичных образов вдоль слоев с учетом их текущих состояний, запоминании результатов распознавания на элементах сети, использовании в качестве результатов обработки последовательных совокупностей единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы, согласно изобретению сдвиги совокупностей единичных образов вдоль слоев осуществляют с изменяемыми параметрами сдвигов и продвигают совокупности единичных образов вдоль слоев по спирали с изменяемым диаметром.The problem is solved in that in the known method of intelligent processing of information in a neural network, which consists in supplying a two-layer network with feedbacks that close two-layer circuits with a delay time of single images less than the immunity time of the network neurons after their excitation, a signal decomposed into components in the basis matched with the input network layer, with each component transformed into a sequence of single images with a repetition rate as a predefined function from the amplitude of the component, representing the signal in the form of successive sets of single images in accordance with predefined recognition rules taking into account the inverse recognition results, shifts of sets of single images along the layers taking into account their current states, storing recognition results on network elements, using as processing results successive sets of single images on the output layer of the network after the inverse transformation to the corresponding output signals, the invention shifts aggregates unit images carried out along the layers having variable shifts and promote plurality of unit images along the layers in a spiral with a variable diameter.

Новым существенным признаком изобретения является то, что сдвиги совокупностей единичных образов вдоль слоев предлагается осуществлять с изменяемыми параметрами сдвигов и продвигать совокупности единичных образов вдоль слоев по спирали с изменяемым диаметром. Это позволяет повысить ассоциативное взаимодействие единичных образов в нейронной сети и расширить функциональные возможности по интеллектуальной обработке информации в ней.A new significant feature of the invention is that it is proposed to carry out shifts of sets of single images along layers with variable parameters of shifts and to promote sets of single images along layers in a spiral with a variable diameter. This allows you to increase the associative interaction of single images in a neural network and expand the functionality for intellectual processing of information in it.

Сущность изобретения поясняется фиг.1÷6.The invention is illustrated in figure 1 ÷ 6.

На фиг.1 приведена структурная схема двухслойной рекуррентной нейронной сети, реализующей предложенный способ, где 1, 5 - первый, второй слои нейронов; 2, 6 - первый, второй блоки единичных задержек; 3, 4 - первый, второй блоки динамических синапсов; 7 - блок управления синапсами.Figure 1 shows the structural diagram of a two-layer recurrent neural network that implements the proposed method, where 1, 5 - the first, second layers of neurons; 2, 6 - the first, second blocks of unit delays; 3, 4 - the first, second blocks of dynamic synapses; 7 - control unit synapses.

На фиг.2 а, б представлена линейная схема продвижения совокупностей единичных образов вдоль слоев в двухслойной рекуррентной сети. Эту схему продвижения в дальнейшем будем называть «Бегущая строка».Figure 2 a, b presents a linear diagram of the promotion of sets of single images along the layers in a two-layer recurrent network. This scheme of promotion in the future will be called "Running line".

На фиг.3 приведена схема продвижения в двухслойной рекуррентной сети совокупностей единичных образов по спирали с постоянным диаметром.Figure 3 shows the promotion scheme in a two-layer recurrent network of sets of single images in a spiral with a constant diameter.

На фиг.4 приведен пример схемы продвижения в двухслойной рекуррентной сети совокупностей единичных образов по спирали с изменяемым диаметром.Figure 4 shows an example of a promotion scheme in a two-layer recurrent network of sets of single images in a spiral with a variable diameter.

На фиг.5 приведены результаты оценки эффективности двухслойных рекуррентных сетей со схемой продвижения совокупностей единичных образов «Бегущая строка» и схемой «Спираль 30».Figure 5 shows the results of evaluating the effectiveness of two-layer recurrent networks with a scheme for promoting sets of single images "Running line" and the scheme "Spiral 30".

На фиг.6 показана зависимость эффективности двухслойных рекуррентных нейронных сетей со спиральными схемами продвижения совокупностей единичных образов от числа нейронов в слоях сети.Figure 6 shows the dependence of the efficiency of two-layer recurrent neural networks with spiral schemes for promoting sets of single images on the number of neurons in the network layers.

Способ осуществляется следующим образом.The method is as follows.

Рассмотрим его на примере нейронной сети, структурная схема которой представлена на фиг.1.Consider it on the example of a neural network, a structural diagram of which is presented in figure 1.

Входной сигнал, разложенный на составляющие в базисе, согласованном с первым слоем 1 сети, при этом каждая его составляющая преобразована в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей, подают на этот слой.An input signal, decomposed into components in a basis consistent with the first layer 1 of the network, with each component converted to a sequence of single images with a repetition rate as a predetermined function of the amplitude of the component, is fed to this layer.

После подачи на первый вход первого слоя нейронов такого сигнала на его выходе имеют место последовательные совокупности единичных образов, несущие всю информацию о входном сигнале.After applying such a signal to the first input of the first layer of neurons at its output, there are successive sets of single images that carry all the information about the input signal.

После задержки в первом блоке единичных задержек 2 последовательные совокупности единичных образов поступают на первый блок динамических синапсов 3. Каждый единичный образ из текущей совокупности подается одновременно в первом блоке динамических синапсов 3 на совокупность своих динамических синапсов, обеспечивающих связь каждого нейрона, породившего единичный образ, в общем случае со всеми нейронами второго слоя нейронов 5.After a delay in the first unit of unit delays 2, consecutive sets of unit images arrive at the first block of dynamic synapses 3. Each unit image from the current set is fed simultaneously in the first block of dynamic synapses 3 to the set of its dynamic synapses that provide connection of each neuron that generated a single image in in the general case with all neurons of the second layer of neurons 5.

Особенность динамических синапсов сети в следующем. Амплитуда единичного образа на выходе каждого синапса равна амплитуде входного единичного образа, умноженной на вес wij(t) синапса. Веса wij(t) синапсов определяются через произведение их весовых коэффициентов kij(t) и функций ослабления β(rij(t)),A feature of dynamic network synapses is as follows. The amplitude of a single image at the output of each synapse is equal to the amplitude of the input single image, multiplied by the weight w ij (t) of the synapse. The weights w ij (t) of the synapses are determined through the product of their weights k ij (t) and the attenuation functions β (r ij (t)),

Figure 00000001
Figure 00000001

Весовые коэффициенты, kij(t), изменяются в зависимости от воздействий на синапсы единичных образов и выступают в качестве элементов долговременной памяти сети. При прохождении единичных образов через синапсы они снимают с них информацию о предыдущих воздействиях и оставляют информацию о своем появлении через изменения весовых коэффициентов. Значения весовых коэффициентов могут быть определены по известным правилам (Осипов В.Ю. Ассоциативная интеллектуальная машина / Информационные технологии и вычислительные системы. №2, 2010, с.59-67).Weighting factors, k ij (t), vary depending on the effects on the synapses of a single image and act as elements of a long-term network memory. When single images pass through synapses, they remove information about previous effects from them and leave information about their appearance through changes in weight coefficients. The values of weights can be determined according to well-known rules (V. Osipov, Associative Intelligent Machine / Information Technologies and Computing Systems. No. 2, 2010, pp. 59-67).

Каждая из связей (синапсов) имеет свое значение функции ослабления βij(rij) единичных образов, зависящее от rij - удаленности связываемых через синапсы нейронов (расстояний между ними на плоскости X, Y). Полагается, что расстояние между взаимодействующими слоями нейронной сети стремится к нулю.Each of the connections (synapses) has its own value of the attenuation function β ij (r ij ) of individual images, depending on r ij - the distance of neurons connected via synapses (distances between them on the X, Y plane). It is believed that the distance between the interacting layers of the neural network tends to zero.

Функция β(rij) может определяться как:The function β (r ij ) can be defined as:

Figure 00000002
Figure 00000002

где h - степень корня, чем она выше, тем шире ассоциативное пространственное взаимодействие в сети; α - положительный постоянный коэффициент; N - число нейронов в каждом слое сети.where h is the degree of the root, the higher it is, the wider the associative spatial interaction in the network; α is a positive constant coefficient; N is the number of neurons in each layer of the network.

Входящую в (1) величину rij в единицах нейронов с учетом возможных пространственных сдвигов совокупностей единичных образов вдоль слоев сети можно выразить в виде:Included in (1), the value of r ij in units of neurons, taking into account the possible spatial shifts of the aggregates of individual images along the network layers, can be expressed as:

Figure 00000003
Figure 00000003

Figure 00000004
Figure 00000004

Δхij, Δуij - проекции связи j-го нейрона с i-м на оси X, Y без учета пространственных сдвигов; d, q - величины единичных сдвигов соответственно по координатам X, Y; L, М - число соответственно столбцов и строк, на которые разбивается каждый слой нейронной сети за счет сдвигов.Δх ij , Δу ij - the projection of the connection of the j-th neuron with the i-th on the X, Y axis without taking into account spatial shifts; d, q are the values of unit shifts in X, Y coordinates, respectively; L, M - the number of columns and rows, respectively, into which each layer of the neural network is divided due to shifts.

Изменяя Δхij, Δуij на соответствующие значения nij·d и mij·q, можно менять rij и направление потока совокупностей единичных образов вдоль слоев сети.By changing Δх ij , Δу ij by the corresponding values of n ij · d and m ij · q, we can change r ij and the flow direction of the sets of single images along the network layers.

Такие сдвиги совокупностей единичных образов вдоль слоев реализуются через управление динамическими синапсами с блока управления синапсами 7.Such shifts of the aggregates of single images along the layers are realized through the control of dynamic synapses from the synapse control unit 7.

Для принятия решения в блоке управления синапсами о сдвиге очередной совокупности единичных образов в нем сначала анализируются состояния первого и второго слоев. В случае когда на выходе первого или второго слоя имеет место совокупность единичных образов, которую нельзя передать на другой слой по коротким связям (синапсам с минимальными функциями β(rij(0)) ослабления единичных образов) из-за нахождения соответствующих нейронов этого слоя в состояниях невосприимчивости, осуществляют сдвиг этой совокупности. В случае когда нет препятствий для передачи совокупности единичных образов по коротким связям, сдвиг ее не осуществляют.To make a decision in the synapse control unit about shifting the next set of single images, it first analyzes the states of the first and second layers. In the case when at the output of the first or second layer there is a set of unit images that cannot be transferred to another layer by short connections (synapses with minimal functions β (r ij (0)) of attenuation of single images) due to the finding of the corresponding neurons of this layer in states of immunity, carry out a shift of this aggregate. In the case where there are no obstacles to transmitting the totality of single images via short connections, it is not shifted.

В общем случае смещенные совокупности единичных образов с выхода первого блока динамических синапсов 3 поступают на вход второго слоя нейронов 5.In the general case, the displaced sets of single images from the output of the first block of dynamic synapses 3 are fed to the input of the second layer of neurons 5.

Заметим, что все единичные образы, поступившие на один и тот же нейрон по различным синапсам, суммируются. При превышении этой суммы заданного порога возбуждения нейрона он возбуждается и на его выходе формируется единичный образ. Затем имеемая сумма обнуляется, а сам нейрон затем переходит в состояние невосприимчивости входных сигналов. В нем он находится заданное время, одинаковое для всех нейронов сети, которое больше суммарной задержки единичных образов в блоках 1, 2, 3, 5, 6, 4, входящих в двухслойный многопучковый контур нейронной сети.Note that all single images received on the same neuron at different synapses are summed up. When this sum is exceeded a predetermined threshold of neuron excitation, it is excited and a single image is formed at its output. Then the available amount is reset, and the neuron itself then goes into the immunity state of the input signals. It contains the specified time, the same for all neurons of the network, which is greater than the total delay of single images in blocks 1, 2, 3, 5, 6, 4 included in the two-layer multi-beam circuit of the neural network.

Последовательные совокупности единичных образов с выхода второго слоя 5, после задержки в блоке 6, поступают на второй блок динамических синапсов 4. В блоке 4 они аналогичным образом, как и в блоке 3, обрабатываются и, сдвинутые вдоль первого слоя в зависимости от состояний первого и второго слоев, поступают на второй вход первого слоя нейронов 1.Successive sets of single images from the output of the second layer 5, after a delay in block 6, go to the second block of dynamic synapses 4. In block 4 they are processed in the same way as in block 3 and shifted along the first layer depending on the states of the first and of the second layer, enter the second input of the first layer of neurons 1.

С учетом этого поступающие на первый слой нейронов 1 прямые и обратные совокупности единичных образов в нем корректно связываются, распознаются и порождают на его выходе новые совокупности единичных образов, несущие в себе информацию как о текущих, так и ранее запомненных сетью сигналах, связанных с первыми. При этом за счет соответствующих сдвигов совокупностей единичных образов вдоль слоев исключается наложение обратных результатов распознавания на прямые совокупности.With this in mind, the direct and inverse aggregates of single images arriving at the first layer of neurons 1 are correctly connected, recognized and generate at its output new collections of single images that carry information about both current and previously memorized signals associated with the first ones. At the same time, due to the corresponding shifts of the sets of single images along the layers, the overlapping of inverse recognition results on direct sets is excluded.

За счет приоритетности коротких связей в нейронной сети между входом и выходом сети, реализующей предлагаемый способ, легко устанавливается однозначное соответствие между составляющими входных и выходных сигналов.Due to the priority of short connections in the neural network between the input and output of the network that implements the proposed method, an unambiguous correspondence between the components of the input and output signals is easily established.

С учетом этого соответствия по номерам нейронов, формируемых последовательности единичных образов на выходе устройства, определяют частотные и пространственные характеристики составляющих исходного сигнала. По частотам следования и относительным задержкам единичных образов соответственно устанавливают амплитуды и фазы составляющих исходного сигнала. Затем воспроизводят составляющие исходных сигналов и путем их сложения восстанавливают исходные, например речевые, зрительные и другие сигналы. Для определения амплитуд составляющих исходного сигнала определяют текущее число единичных образов, попадающих в предварительно заданный интервал времени. Для воспроизведения составляющих исходных сигналов применим, например их цифровой синтез по известным параметрам.Given this correspondence, the frequency and spatial characteristics of the components of the initial signal are determined from the numbers of neurons formed by the sequence of single images at the output of the device. According to the repetition frequencies and relative delays of individual images, the amplitudes and phases of the components of the original signal are respectively set. Then reproduce the components of the original signals and by adding them restore the original, for example, speech, visual and other signals. To determine the amplitudes of the components of the source signal, the current number of unit images falling into a predetermined time interval is determined. To reproduce the components of the source signals, we apply, for example, their digital synthesis according to known parameters.

Согласно изобретению сдвиги совокупностей единичных образов вдоль слоев предлагается осуществлять с изменяемыми параметрами nij·d и mij·q сдвигов и продвигать совокупности единичных образов вдоль слоев по спирали с изменяемым диаметром. Для пояснения этого решения рассмотрим сначала схему продвижения совокупностей единичных образов в двухслойной рекуррентной сети с их однонаправленными постоянными сдвигами d вдоль слоев. На фиг.2а показан путь продвижения совокупностей единичных образов между слоями для этого случая.According to the invention, it is proposed to carry out shifts of sets of single images along the layers with variable parameters n ij · d and m ij · q of shifts and to promote sets of single images along the layers in a spiral with a variable diameter. To clarify this solution, we first consider the scheme of advancing sets of single images in a two-layer recurrent network with their unidirectional constant shifts d along the layers. On figa shows the path of promotion of sets of single images between the layers for this case.

За счет цикличности обмена информацией первого слоя со вторым все пространство слоев (фиг.2а, б) разбивается на L полей. На фиг.2б большой стрелкой показано продвижение совокупностей единичных образов вдоль первого и второго слоев. В соответствии с фиг.2 входные сигналы в виде последовательных совокупностей единичных образов подаются на первое поле первого слоя, продвигаются по сети в указанных направлениях, ассоциируются друг с другом. При этом входные последовательные совокупности единичных образов преобразуются в параллельные, а снимаются с сети после ассоциаций снова как последовательные. Имеет место схема продвижения этих совокупностей в виде «Бегущей строки». За счет сдвигов совокупностей единичных образов вдоль слоев по двум координатам можно реализовать продвижение их по спирали (фиг.3) с постоянным диаметром. Недостатком всех этих путей продвижения совокупностей единичных образов в двухслойной нейронной сети выступает то, что они не обеспечивают максимального ассоциативного взаимодействия единичных образов в сети. Это ограничивает возможности по запоминанию, распознаванию и извлечению сигналов из нейронной сети.Due to the cyclical exchange of information of the first layer with the second, the entire space of layers (figa, b) is divided into L fields. On figb large arrow shows the progress of sets of single images along the first and second layers. In accordance with figure 2, the input signals in the form of consecutive sets of single images are applied to the first field of the first layer, move through the network in these directions, are associated with each other. In this case, the input sequential sets of single images are converted to parallel, and removed from the network after associations again as sequential. There is a scheme for promoting these aggregates in the form of a “running line”. Due to shifts of the aggregates of single images along the layers along two coordinates, it is possible to realize their advance in a spiral (Fig. 3) with a constant diameter. The disadvantage of all these ways of promoting aggregates of single images in a two-layer neural network is that they do not provide the maximum associative interaction of single images in the network. This limits the ability to memorize, recognize, and extract signals from the neural network.

Осуществление сдвигов совокупностей единичных образов вдоль слоев с изменяемыми параметрами сдвигов и продвижения совокупностей единичных образов вдоль слоев по спирали с изменяемым диаметром позволяет устранить этот недостаток. Пример схемы продвижения в двухслойной рекуррентной сети совокупностей единичных образов по спирали с изменяемым диаметром приведен на фиг.4.The implementation of shifts of sets of single images along layers with variable parameters of shifts and the advancement of sets of single images along layers in a spiral with a variable diameter eliminates this drawback. An example of a promotion scheme in a two-layer recurrent network of sets of single images in a spiral with a variable diameter is shown in Fig.4.

Для доказательства преимущества предлагаемого способа по сравнению с известными решениями исследовались ассоциативные возможности нейронных сетей со схемами Sz продвижения совокупностей единичных образов вдоль слоев в виде «Бегущей строки» (фиг.2) и спиралей с постоянными диаметрами 12, 30, 60, 120 нейронов. Спиральные схемы с такими диаметрами будем называть в дальнейшем «Спираль 12», «Спираль 30», «Спираль 60», «Спираль 120». Все размеры исследуемых нейронных сетей приведены в таблице. В числителях дробей таблицы дано произведение длины слоя на его ширину в единицах нейронов, а в знаменателях - произведение длины строки (диаметра спирали) в единицах столбцов размером d=6 на число строк (витков) шириной q=6.To prove the advantages of the proposed method in comparison with the known solutions, the associative capabilities of neural networks with schemes S z for advancing sets of single images along the layers in the form of a “Running line” (figure 2) and spirals with constant diameters of 12, 30, 60, 120 neurons were studied. Spiral circuits with such diameters will be called hereinafter “Spiral 12”, “Spiral 30”, “Spiral 60”, “Spiral 120”. All sizes of the studied neural networks are shown in the table. In the numerators of the fractions of the table, the product of the layer length by its width in units of neurons is given, and in the denominators the product of the row length (spiral diameter) in units of columns of size d = 6 and the number of rows (turns) of width q = 6 is given.

Оценка эффективности нейронных сетей осуществлялась по показателюAssessment of the effectiveness of neural networks was carried out according to the indicator

Figure 00000005
Figure 00000005

пространственно-временной связи между единичными образами в сети, гдеspatio-temporal connection between single images in a network, where

βij(rij(Sz) - функция ослабления единичного образа при передаче его от i-го до j-го нейрона при Sz схеме;β ij (r ij (S z ) - the attenuation function of a single image when transferring it from the i-th to the j-th neuron in the S z circuit;

tij - время, равное сумме отдельных тактов работы сети, за которые единичный образ от i-го нейрона дойдет до j-го нейрона в плоскости одного и того же слоя.t ij is the time equal to the sum of the individual clock cycles of the network, during which a single image from the i-th neuron will reach the j-th neuron in the plane of the same layer.

Название структурыStructure name Число нейронов в каждом слое, NThe number of neurons in each layer, N 360360 540540 720720 900900 10801080 12601260 14401440 16201620 18001800 «Бегущая строка»"Ticker"

Figure 00000006
Figure 00000006
Figure 00000007
Figure 00000007
Figure 00000008
Figure 00000008
Figure 00000009
Figure 00000009
Figure 00000010
Figure 00000010
Figure 00000011
Figure 00000011
Figure 00000012
Figure 00000012
Figure 00000013
Figure 00000013
Figure 00000014
Figure 00000014
«Спираль 12»Spiral 12
Figure 00000015
Figure 00000015
--
Figure 00000016
Figure 00000016
--
Figure 00000017
Figure 00000017
--
Figure 00000018
Figure 00000018
--
Figure 00000019
Figure 00000019
«Спираль 30»Spiral 30
Figure 00000020
Figure 00000020
Figure 00000021
Figure 00000021
Figure 00000022
Figure 00000022
Figure 00000023
Figure 00000023
Figure 00000024
Figure 00000024
Figure 00000025
Figure 00000025
Figure 00000026
Figure 00000026
Figure 00000027
Figure 00000027
Figure 00000028
Figure 00000028
«Спираль 60»Spiral 60
Figure 00000029
Figure 00000029
--
Figure 00000030
Figure 00000030
--
Figure 00000031
Figure 00000031
--
Figure 00000032
Figure 00000032
--
Figure 00000033
Figure 00000033
«Спираль 120»"Spiral 120" -- --
Figure 00000034
Figure 00000034
-- -- --
Figure 00000035
Figure 00000035
-- --

Время tij в зависимости от структуры сети при одном и том же расстоянии rij может существенно отличаться. Например, кратчайшие расстояния между нейронами первого и L+1 полей слоев сети на фиг.3 незначительны, однако время преодоления их единичными образами велико. Единичные образы продвигаются вдоль сети не по кратчайшим путям, а в соответствии с указанным направлением. Учитывая, что функция βij(rij) безразмерна и принимает значения только от нуля до единицы, с физической точки зрения используемый показатель можно трактовать также как время активного взаимодействия между единичными образами в плоскостях нейронной сети. Чем меньше ослабление и чем на большем интервале времени осуществляется взаимодействие единичных образов, тем шире ассоциативные возможности сети.The time t ij , depending on the network structure at the same distance r ij, can differ significantly. For example, the shortest distances between the neurons of the first and L + 1 fields of the network layers in Fig. 3 are insignificant, however, the time for overcoming them with single images is long. Single images do not move along the network along the shortest paths, but in accordance with the indicated direction. Considering that the function β ij (r ij ) is dimensionless and takes values only from zero to unity, from a physical point of view, the used indicator can also be interpreted as the time of active interaction between unit images in the planes of a neural network. The less attenuation and the greater the interaction of single images over a longer time interval, the wider the associative capabilities of the network.

В интересах оценки принятого показателя эффективности (3) этих структур была разработана программная модель двухслойной рекуррентной нейронной сети с управляемыми синапсами. Полученные зависимости

Figure 00000036
(N) - среднего времени активного взаимодействия между единичными образами в плоскостях слоев сетей с исследуемыми структурами от числа N нейронов в каждом слое - приведены на фиг.5, 6. Время на этих чертежах приведено в условных единицах.In the interest of evaluating the adopted performance indicator (3) of these structures, a software model of a two-layer recurrent neural network with controlled synapses was developed. Dependencies Received
Figure 00000036
(N) - the average time of active interaction between unit images in the planes of the network layers with the structures under study from the number N of neurons in each layer - are shown in FIGS. 5, 6. The time in these drawings is given in arbitrary units.

Из анализа фиг.5 видно, что наилучшими ассоциативными возможностями обладает сеть со спиральной схемой продвижения совокупностей единичных образов вдоль слоев. Для функции (1) с h=4, α=40 структура «Спираль 30» с диаметром спирали D=30 нейронов при десяти витках, каждый шириной по 6 нейронов, с N=1800 и d=q=6, обеспечивает выигрыш по сравнению с «Бегущей строкой» длиной 300 и шириной 6 нейронов на 29%.From the analysis of Fig. 5 it is seen that the network with a spiral scheme for promoting sets of single images along the layers has the best associative capabilities. For function (1) with h = 4, α = 40, the “Spiral 30” structure with a spiral diameter D = 30 neurons at ten turns, each 6 neurons wide, with N = 1800 and d = q = 6, provides a gain in comparison with a creeping line 300 and 6 neurons wide by 29%.

Сравнение спиральных структур с диаметрами 12, 30, 60, 120 с шириной витков по 6 нейронов при d×q=36 позволило установить следующую особенность. С ростом размеров сети спиральные структуры с меньшим D начинают уступать по эффективности структурам, у которых диаметр больше. На фиг.6 видно, что спиральная структура с D=30 имеет преимущество над структурой с D=60 только для слоев сети с N меньше 1440 нейронов. Затем она проигрывает позиции. Структура с D=12 при N=144 лучше всех. Однако для РНС с N=360 ее эффективность уже ниже, чем у структуры с D=30.A comparison of spiral structures with diameters of 12, 30, 60, 120 with a turn width of 6 neurons at d × q = 36 made it possible to establish the following feature. As the network grows in size, spiral structures with lower D begin to be inferior in efficiency to structures with a larger diameter. Figure 6 shows that the spiral structure with D = 30 has an advantage over the structure with D = 60 only for network layers with N less than 1440 neurons. Then she loses the position. A structure with D = 12 at N = 144 is the best. However, for an RNS with N = 360, its efficiency is already lower than that of a structure with D = 30.

Учитывая, что поступающие в нейронную сеть сигналы заполняют ее и покидают постепенно, только схема продвижения совокупностей единичных образов вдоль ее слоев по спирали с изменяемым диаметром может обеспечить наилучшие ассоциативные возможности сети. Наличие же повышенных ассоциативных возможностей у нейронной сети расширяет в целом ее функциональные возможности по запоминанию, распознаванию и извлечению сигналов из сети. Преимущества интеллектуальной обработки сигналов в рекуррентных нейронных сетях со спиральными структурами с изменяемым диаметром спирали, по сравнению с сетями с постоянными параметрами сдвигов совокупностей единичных образов вдоль слоев, также были подтверждены фактическими результатами их обработки на исследуемых сетях после обучения на одних и тех же примерах.Considering that the signals entering the neural network fill it and leave gradually, only the scheme for advancing sets of single images along its layers in a spiral with a variable diameter can provide the best associative capabilities of the network. The presence of increased associative capabilities of a neural network expands in general its functional capabilities for storing, recognizing and extracting signals from the network. The advantages of intelligent signal processing in recurrent neural networks with spiral structures with a variable spiral diameter, compared with networks with constant parameters of the shifts of sets of single images along the layers, were also confirmed by the actual results of their processing on the studied networks after training on the same examples.

Способ интеллектуальной обработки информации в нейронной сети может быть реализован с использованием известной элементной базы. В качестве нейронов слоев и элементов единичных задержек в блоках единичных задержек нейронной сети, реализующей способ, применимы ждущие мультивибраторы. При этом ждущие мультивибраторы в блоках единичных задержек следует запускать не по переднему, а заднему фронту входного импульса. Блоки динамических синапсов и блок управления ими могут быть реализованы специализированными процессорами, программируемыми интегральными схемами, функционирующими в соответствии с рассмотренными выше правилами.A method of intelligent information processing in a neural network can be implemented using a well-known element base. As the neurons of the layers and elements of the unit delays in the units of the unit delays of the neural network that implements the method, waiting multivibrators are applicable. In this case, the waiting multivibrators in the unit of single delays should be started not on the leading, but on the trailing edge of the input pulse. Dynamic synapse blocks and their control unit can be implemented by specialized processors, programmable integrated circuits, operating in accordance with the rules discussed above.

Способ можно реализовать также путем эмулирования двухслойной рекуррентной нейронной сети с управляемыми синапсами на современных вычислительных машинах.The method can also be implemented by emulating a two-layer recurrent neural network with controlled synapses on modern computers.

Claims (1)

Способ интеллектуальной обработки информации в нейронной сети, заключающийся в подаче в двухслойную сеть с обратными связями, замыкающими двухслойные контуры с временем задержки единичных образов меньше времени невосприимчивости нейронов сети после их возбуждения, сигнала, разложенного на составляющие в базисе, согласованном с входным слоем сети, с каждой составляющей, преобразованной в последовательность единичных образов с частотой повторения как предварительно заданной функцией от амплитуды составляющей, представлении сигнала в виде последовательных совокупностей единичных образов в соответствии с предварительно заданными правилами его распознавания с учетом обратных результатов распознавания, сдвигах совокупностей единичных образов вдоль слоев с учетом их текущих состояний, запоминании результатов распознавания на элементах сети, использовании в качестве результатов обработки последовательных совокупностей единичных образов на выходном слое сети после обратного преобразования в соответствующие им исходные сигналы, отличающийся тем, что сдвиги совокупностей единичных образов вдоль слоев осуществляют с изменяемыми параметрами сдвигов и продвигают совокупности единичных образов вдоль слоев по спирали с изменяемым диаметром. A method of intelligent processing of information in a neural network, which consists in supplying a two-layer network with feedbacks that close two-layer circuits with a delay time of single images less than the immunity time of the network neurons after their excitation, a signal decomposed into components in a basis matched to the input network layer, with each component converted into a sequence of single images with a repetition rate as a predetermined function of the component amplitude, signal representation in the form of consecutive sets of single images in accordance with predefined rules for its recognition, taking into account the inverse recognition results, shifts of sets of single images along the layers taking into account their current states, storing recognition results on network elements, using sequential sets of single images on the output layer as processing results network after the reverse transformation into the corresponding source signals, characterized in that the shovel shifts pnostey unit images carried out along the layers having variable shifts and promote plurality of unit images along the layers in a spiral with a variable diameter.
RU2010139165/08A 2010-09-16 2010-09-16 Method of intellectual information processing in neuron network RU2427914C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2010139165/08A RU2427914C1 (en) 2010-09-16 2010-09-16 Method of intellectual information processing in neuron network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2010139165/08A RU2427914C1 (en) 2010-09-16 2010-09-16 Method of intellectual information processing in neuron network

Publications (1)

Publication Number Publication Date
RU2427914C1 true RU2427914C1 (en) 2011-08-27

Family

ID=44756893

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2010139165/08A RU2427914C1 (en) 2010-09-16 2010-09-16 Method of intellectual information processing in neuron network

Country Status (1)

Country Link
RU (1) RU2427914C1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2483356C1 (en) * 2011-12-06 2013-05-27 Василий Юрьевич Осипов Method for intelligent information processing in neural network
RU2502133C1 (en) * 2012-07-27 2013-12-20 Федеральное государственное бюджетное учреждение науки Санкт-Петербургский институт информатики и автоматизации Российской академии наук Method for intelligent information processing in neural network
RU2514931C1 (en) * 2013-01-14 2014-05-10 Василий Юрьевич Осипов Method for intelligent information processing in neural network
RU2553074C1 (en) * 2014-01-17 2015-06-10 Закрытое акционерное общество "СПИИРАН-Научно-техническое бюро высоких технологий" Method for intelligent information processing in neural network
RU2801063C1 (en) * 2023-03-20 2023-08-01 Николай Александрович Соколов Method for automated classification of search objects in multichannel magnetometric system based on artificial neural network

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2045778C1 (en) * 1990-06-11 1995-10-10 Институт кибернетики им.В.М.Глушкова АН Украины Device for simulating neuron networks
US6363369B1 (en) * 1997-06-11 2002-03-26 University Of Southern California Dynamic synapse for signal processing in neural networks
RU2000111888A (en) * 2000-05-12 2002-03-27 Военный университет ВПВО ВС РФ NEURAL NETWORK DEVICE FOR SOLVING COMBINATION OPTIMIZATION PROBLEMS
US7092923B2 (en) * 2001-11-26 2006-08-15 Exploitation Of Next Generation Co. Ltd. Synapse element with learning function and semiconductor integrated circuit device including the synapse element

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2045778C1 (en) * 1990-06-11 1995-10-10 Институт кибернетики им.В.М.Глушкова АН Украины Device for simulating neuron networks
US6363369B1 (en) * 1997-06-11 2002-03-26 University Of Southern California Dynamic synapse for signal processing in neural networks
RU2000111888A (en) * 2000-05-12 2002-03-27 Военный университет ВПВО ВС РФ NEURAL NETWORK DEVICE FOR SOLVING COMBINATION OPTIMIZATION PROBLEMS
US7092923B2 (en) * 2001-11-26 2006-08-15 Exploitation Of Next Generation Co. Ltd. Synapse element with learning function and semiconductor integrated circuit device including the synapse element

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2483356C1 (en) * 2011-12-06 2013-05-27 Василий Юрьевич Осипов Method for intelligent information processing in neural network
RU2502133C1 (en) * 2012-07-27 2013-12-20 Федеральное государственное бюджетное учреждение науки Санкт-Петербургский институт информатики и автоматизации Российской академии наук Method for intelligent information processing in neural network
RU2514931C1 (en) * 2013-01-14 2014-05-10 Василий Юрьевич Осипов Method for intelligent information processing in neural network
RU2553074C1 (en) * 2014-01-17 2015-06-10 Закрытое акционерное общество "СПИИРАН-Научно-техническое бюро высоких технологий" Method for intelligent information processing in neural network
RU2801063C1 (en) * 2023-03-20 2023-08-01 Николай Александрович Соколов Method for automated classification of search objects in multichannel magnetometric system based on artificial neural network

Similar Documents

Publication Publication Date Title
US12380320B2 (en) Resilient neural network
Denoeux et al. Initializing back propagation networks with prototypes
Fang et al. Encoding, model, and architecture: Systematic optimization for spiking neural network in FPGAs
CN109328362A (en) Progressive Neural Network
CN103675616B (en) The online partial discharge detection signal recognition method of cable
RU2427914C1 (en) Method of intellectual information processing in neuron network
Kuremoto et al. Time series forecasting using restricted boltzmann machine
Wilson et al. Learning to manipulate object collections using grounded state representations
Tieck et al. Towards grasping with spiking neural networks for anthropomorphic robot hands
RU2413304C1 (en) Method and device of intellectual processing of information in neural network
RU2446463C1 (en) Method and apparatus for intelligent information processing in neural network
CN110275147A (en) Human behavior micro-Doppler classification and identification method based on migration depth neural network
Ma Recent advances in deep learning based computer vision
RU2514931C1 (en) Method for intelligent information processing in neural network
Han et al. A new approach for function approximation incorporating adaptive particle swarm optimization and a priori information
Osipov Space-time structures of recurrent neural networks with controlled synapses
Herz Global analysis of recurrent neural networks
RU2502133C1 (en) Method for intelligent information processing in neural network
RU2553074C1 (en) Method for intelligent information processing in neural network
Thiruvarudchelvan et al. Analysis of SpikeProp convergence with alternative spike response functions
RU2483356C1 (en) Method for intelligent information processing in neural network
CN102982372A (en) Neuron oscillator and chaotic neural network based on neuron oscillator
Benderskaya Nonlinear dynamics as a part of soft computing systems: Novel approach to design of data mining systems
RU2737227C1 (en) Method for intelligent multi-level information processing in neural network
Gupta et al. Braids, knots and links: Investigating dynamic human features as geometric proxies for supervised feature extraction in different ocean acoustic applications

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20150917