[go: up one dir, main page]

RU2526049C2 - Method and apparatus for detecting game incidents in field sports in video sequences - Google Patents

Method and apparatus for detecting game incidents in field sports in video sequences Download PDF

Info

Publication number
RU2526049C2
RU2526049C2 RU2012109119/07A RU2012109119A RU2526049C2 RU 2526049 C2 RU2526049 C2 RU 2526049C2 RU 2012109119/07 A RU2012109119/07 A RU 2012109119/07A RU 2012109119 A RU2012109119 A RU 2012109119A RU 2526049 C2 RU2526049 C2 RU 2526049C2
Authority
RU
Russia
Prior art keywords
frame
pixel
green
color
detector
Prior art date
Application number
RU2012109119/07A
Other languages
Russian (ru)
Other versions
RU2012109119A (en
Inventor
Ксения Юрьевна Петрова
Сергей Михайлович Седунов
Михаил Николаевич Рычагов
Original Assignee
Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд."
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." filed Critical Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд."
Priority to RU2012109119/07A priority Critical patent/RU2526049C2/en
Priority to KR1020120125698A priority patent/KR20130105270A/en
Priority to KR1020130008212A priority patent/KR102014443B1/en
Priority to PCT/KR2013/001966 priority patent/WO2013137613A1/en
Priority to US13/795,716 priority patent/US20130237317A1/en
Publication of RU2012109119A publication Critical patent/RU2012109119A/en
Application granted granted Critical
Publication of RU2526049C2 publication Critical patent/RU2526049C2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Processing Of Color Television Signals (AREA)
  • Image Processing (AREA)

Abstract

FIELD: physics, video.SUBSTANCE: invention relates to video processing techniques and specifically to automation of the process of classifying video content by genre and real-time content. The result is achieved by calculating brightness and saturation of each frame pixel described by values in red, green and blue colour channels; calculating the absolute value of brightness gradient for each frame pixel; performing colour classification of each frame pixel; calculating statistics based on results of colour classification for the whole frame; calculating statistics based on results of colour classification for green frame regions; determining if said frame is a game incident in field sports based exclusively on characteristics of the current frame; determining if the current frame belongs to the same scene as the previous frame; using the detection result obtained for the previous frame as a refined detection result if the current frame belongs to the same scene as the previous frame of the video sequence; or using the detection result obtained for the current frame based exclusively on characteristics of the current frame as the refined detection result if the current frame does not belong to the same scene as the previous frame of the video sequence.EFFECT: automatic adjustment of image settings.10 cl, 29 dwg

Description

Настоящее изобретение относится к технологиям обработки видеоизображений, а именно к автоматизации процесса классификации видеоконтента по жанру и содержанию в реальном режиме времени с целью оптимального подбора параметров устройства отображения.The present invention relates to video processing technologies, namely, to automate the process of classifying video content by genre and content in real time in order to optimally select display device parameters.

Из уровня техники известны различные подходы к автоматическому определению жанра видеопоследовательности. Теоретические аспекты разработок в этой области изложены в ряде публикаций, таких как N.Watcharapinchai, S.Aramvith, S.Siddhichai, S.Marukatat, S., A discriminant approach to sports video classification, proc. of the ISCIT '07. International Symposium on Communications and Information Technologies, pp.557-561, 2007 [1], J. Park, S.Han, Y. An, Heuristic Features for Color Correlogram for Image Retrieval, proc. of the ICCSA'08. International Conference on Computational Sciences and Its Applications, pp.9-13, 2008 [2], Automatic feature construction and a simple rule induction algorithm for skin detection, G. Gomez, E. Morales Proceedings of Workshop on Machine Learning in Computer Vision, 2002, pp.31-38 [3].The prior art various approaches to the automatic determination of the genre of a video sequence. Theoretical aspects of developments in this area are described in a number of publications, such as N. Watcharapinchai, S. Aramvith, S. Siddhichai, S. Marukatat, S., A discriminant approach to sports video classification, proc. of the ISCIT '07. International Symposium on Communications and Information Technologies, pp.557-561, 2007 [1], J. Park, S. Han, Y. An, Heuristic Features for Color Correlogram for Image Retrieval, proc. of the ICCSA'08. International Conference on Computational Sciences and Its Applications, pp. 9-13, 2008 [2], Automatic feature construction and a simple rule induction algorithm for skin detection, G. Gomez, E. Morales Proceedings of Workshop on Machine Learning in Computer Vision, 2002, pp.31-38 [3].

Практические разработки в области по автоматическому определению жанра видеопоследовательности отражены в ряде патентных документов.Practical developments in the field of automatic determination of the genre of video sequences are reflected in a number of patent documents.

Так, в патенте США 7831112 [4] предложен способ разделения видеопотока на временные сегменты в зависимости от возгласов публики, присутствующей при спортивном событии. Это изобретение относится к определению жанра мультимедийного контента и состоит из детектора признаков, вычисляющего предопределенные признаки мультимедийного контента, и блока классификации.So, in US patent 7831112 [4] a method for dividing a video stream into time segments is proposed depending on the cries of the audience present at a sporting event. This invention relates to the determination of a genre of multimedia content and consists of a feature detector calculating predetermined features of multimedia content and a classification unit.

В патентной заявке США 20070113248 [5] описаны способ и устройство для определения жанра мультимедийного контента. Устройство включает в себя детектор признаков и детектор жанра, при этом для решения задачи используются как признаки, выделяемые на основе только аудиопотока, так и признаки, выделяемые на основе видеопотока.US patent application 20070113248 [5] describes a method and apparatus for defining a genre of multimedia content. The device includes a feature detector and a genre detector, while for solving the problem, both features highlighted based on the audio stream only and features highlighted based on the video stream are used.

Наиболее близким к заявленному изобретению является решение, известное из патентной заявки США 20080186413 [6] и описывающее конвейер обработки видеоизображений в телевизионном приемнике, настраиваемый в зависимости от жанра просматриваемой передачи. Авторы предлагают использовать различные установки контрастности, уровня усиления деталей, пространственно-временного шумоподавления, гамма-коррекции, овердрайва и задней подсветки в зависимости от жанра демонстрируемого видеоизображения. В качестве примеров в решении-прототипе рассмотрены следующие жанры: спорт, музыка, студийные передачи, кино, телефильмы, мультфильмы. Блок классификации в прототипе [6] состоит из генератора гистограмм, детектора максимальной градации серого, детектора средней градации серого, детектора минимальной градации серого, а также детектора средней яркости.Closest to the claimed invention is a solution known from US patent application 20080186413 [6] and describing the video processing pipeline in a television receiver, customizable depending on the genre of the broadcast being watched. The authors propose using various settings of contrast, gain level of details, spatio-temporal noise reduction, gamma correction, overdrive and backlight depending on the genre of the displayed video image. The following genres are considered as examples in the prototype solution: sports, music, studio broadcasts, films, television films, cartoons. The classification block in the prototype [6] consists of a histogram generator, a maximum gray gradation detector, a medium gray gradation detector, a minimum gray gradation detector, and a medium brightness detector.

При выборе оптимального подхода к решению проблемы автоматического определения жанра видеоконтента необходимо принять во внимание следующие особенности данной проблемы.When choosing the optimal approach to solving the problem of automatically determining the genre of video content, it is necessary to take into account the following features of this problem.

В случае если определение жанра производится исключительно на основании признаков, извлекаемых из аудиопотока, решение задачи не может быть получено с точностью до одного кадра, что является важным требованием при использовании алгоритма детектирования жанра для управления установками устройства отображения.If the genre is determined solely on the basis of features extracted from the audio stream, the solution to the problem cannot be obtained with an accuracy of one frame, which is an important requirement when using the genre detection algorithm to control the settings of the display device.

В случае быстрого движения внутри видеокадра гистограмма может меняться настолько резко, что для соседних кадров одной и той же видеопоследовательности могут быть получены различные результаты классификации.In the case of fast movement within the video frame, the histogram can change so dramatically that for neighboring frames of the same video sequence, different classification results can be obtained.

Видеоизображения обычно подвергаются различным видам предварительной обработки, таким, как улучшение контрастности, которые могут изменить гистограмму, что может повлечь получение различных результатов классификации для одних и тех же кадров видеопоследовательности, подверженных различным видам предварительной обработки. Видеоизображения могут быть обработаны алгоритмами сжатия различного типа и с различными установками качества, что также может существенно повлиять на характеристики изображения.Video images are usually subjected to different types of preprocessing, such as improved contrast, which can change the histogram, which may result in different classification results for the same frames of the video sequence subjected to different types of preprocessing. Video images can be processed by compression algorithms of various types and with various quality settings, which can also significantly affect image characteristics.

Методы детектирования жанра, основанные на динамических признаках (таких, как межкадровая вариация яркости) или на статистическом анализе низкоуровневых признаков внутри сцены, позволяют получить результат классификации только после получения последнего кадра этой сцены. В случае адаптивного управления установками устройства изображения такой тип алгоритма вызвал бы большую (и зависящую от конкретной сцены изображения) задержку, что неприемлемо для приложения в телевизионном приемнике.Methods for detecting a genre based on dynamic features (such as interframe brightness variation) or on a statistical analysis of low-level features within a scene allow you to obtain a classification result only after receiving the last frame of this scene. In the case of adaptive control of the settings of the image device, this type of algorithm would cause a large (and depending on the particular scene of the image) delay, which is unacceptable for an application in a television receiver.

Таким образом, методы определения жанра, использующие признаки, извлекаемые из аудиопотока, не могут быть использованы в приложениях для управления коллекциями мультимедийного контента, в которых аудио- и видеоданные хранятся отдельно.Thus, methods for determining the genre using features extracted from the audio stream cannot be used in applications for managing collections of multimedia content in which audio and video data are stored separately.

Методы искусственного интеллекта требуют переобучения алгоритма при появлении новых ошибочно классифицированных образцов и добавлении их в обучающую выборку.Artificial intelligence methods require retraining of the algorithm when new erroneously classified samples appear and are added to the training set.

Задача, на решение которой направлено заявляемое изобретение, состоит в разработке усовершенствованного способа обнаружении эпизодов, связанных с демонстрацией игровых видов спорта в видеопоследовательности в реальном времени с целью автоматической подстройки настроек изображения в телевизионном приемнике. При этом такой способ должен быть свободен от основных недостатков, присущих известным из уровня техники решениям.The problem to which the claimed invention is directed is to develop an improved method for detecting episodes associated with the demonstration of game sports in real-time video sequences with the aim of automatically adjusting image settings in a television receiver. Moreover, such a method should be free from the main disadvantages inherent in solutions known from the prior art.

Технический результат достигается за счет разработки способа, обнаружения игровых эпизодов в полевых видах спорта в реальном времени, заключающегося в выполнении следующих операций:The technical result is achieved by developing a method for detecting game episodes in field sports in real time, which consists in performing the following operations:

- вычисляют яркость и насыщенность каждого пикселя кадра, описываемого значениями в красном, зеленом и синем цветовых каналах;- calculate the brightness and saturation of each pixel in the frame described by the values in the red, green and blue color channels;

- вычисляют абсолютную величину градиента яркости для каждого пикселя кадра;- calculate the absolute value of the brightness gradient for each pixel of the frame;

- выполняют классификацию по цвету каждого пикселя кадра;- perform classification by color of each pixel of the frame;

- вычисляют статистику по результатам классификации по цветам для всего кадра;- calculate statistics according to the results of the classification by color for the entire frame;

- вычисляют статистику по результатам классификации по цветам для зеленых областей кадра;- calculate statistics according to the results of the classification by color for the green areas of the frame;

- определяют, является ли данный кадр игровым эпизодом в полевых видах спорта на основании исключительно характеристик текущего кадра;- determine whether a given frame is a game episode in field sports based solely on the characteristics of the current frame;

- определяют, принадлежит ли текущий кадр той же сцене, что и предыдущий кадр;- determine whether the current frame belongs to the same scene as the previous frame;

- используют в качестве уточненного результата детектирования результат детектирования, полученный для предыдущего кадра, в случае, если текущий кадр принадлежит той же самой сцене, что и предыдущий кадр видеопоследовательности; или- use as a refined detection result the detection result obtained for the previous frame, if the current frame belongs to the same scene as the previous frame of the video sequence; or

- используют в качестве уточненного результата детектирования результат детектирования, полученный для текущего кадра на основании исключительно характеристик текущего кадра, в случае, если текущий кадр не принадлежит той же самой сцене, что и предыдущий кадр видеопоследовательности.- use as a refined detection result the detection result obtained for the current frame based solely on the characteristics of the current frame, if the current frame does not belong to the same scene as the previous frame of the video sequence.

Заявляемый способ позволяет получить результат классификации для каждого кадра видеопоследовательности, при этом результат постоянен на протяжении всей сцены. Способ работает в реальном времени (время задержки соответствует времени приема одного кадра и составляет от 40 до 67 мс). Способ устойчив как к быстрому движению в кадре, так и к предварительной обработке (например, гамма-коррекции или локальному улучшению контраста). Помимо этого, классификатор представляет собой набор простых правил, понимаемых человеком, поэтому при появлении ошибочно классифицированных образцов не требуется переобучения существующего классификатора, а достаточно добавления нового правила. Классификатор является суперпозицией одномерных и двумерных пороговых функций, линейного классификатора и логических функций, и использует очень простые статистические признаки, позволяющие аппаратную реализацию при помощи блоков сдвига, сумматоров и компараторов.The inventive method allows to obtain a classification result for each frame of a video sequence, while the result is constant throughout the scene. The method works in real time (the delay time corresponds to the reception time of one frame and ranges from 40 to 67 ms). The method is resistant both to fast movement in the frame and to preliminary processing (for example, gamma correction or local improvement in contrast). In addition, the classifier is a set of simple rules that are understood by man, so when erroneously classified samples appear, retraining of the existing classifier is not required, but adding a new rule is enough. The classifier is a superposition of one-dimensional and two-dimensional threshold functions, a linear classifier and logical functions, and uses very simple statistical features that allow hardware implementation using shift blocks, adders and comparators.

По сравнению с существующими методами заявляемое изобретение имеет шесть основных отличий:Compared with existing methods, the claimed invention has six main differences:

- детектирование производится для каждого кадра видеопоследовательности в отдельности, но при этом сохраняется временная гладкость результата детектирования в пределах одной сцены;- detection is performed for each frame of the video sequence separately, but at the same time the temporal smoothness of the detection result within the same scene is maintained;

- детектирование основано на признаках, эмпирически понимаемых человеком;- detection is based on signs empirically understood by a person;

- предложены четыре новых типа детекторов цвета, определяющих цвета сходным с человеческим восприятием образом: желтый, зеленый, белый, яркий и насыщенный цвет;- Four new types of color detectors have been proposed that detect colors in a manner similar to human perception: yellow, green, white, bright and saturated color;

- предложены четыре типа низкоуровневых статистических признака, используемых при классификации: среднее значение градиента яркости в зеленых областях, компактность гистограммы зеленого цветового канала в зеленых областях, средняя яркость в зеленых областях, среднее значение синего цветового канала в зеленых областях;- four types of low-level statistical features used in the classification are proposed: the average value of the brightness gradient in green areas, the compactness of the histogram of the green color channel in green areas, the average brightness in green areas, the average value of the blue color channel in green areas;

- классификатор имеет форму направленного ациклического графа, в узлах которого расположены одномерные и двумерные пороговые функции, линейные классификаторы и логические функции;- the classifier has the form of a directed acyclic graph, in the nodes of which are one-dimensional and two-dimensional threshold functions, linear classifiers and logical functions;

- предложен новый тип детектора смены сцены, основанный на алгоритме сегментации k-средних.- a new type of scene change detector is proposed, based on the k-means segmentation algorithm.

Для лучшего понимания заявленного изобретения далее приводится его подробное описание с соответствующими чертежами.For a better understanding of the claimed invention the following is a detailed description with the corresponding drawings.

Фиг.1. Граф-схема способа обнаружения игровых эпизодов.Figure 1. Graph diagram of a method for detecting game episodes.

Фиг.2. Примеры игровых эпизодов в полевых видах спорта с различной долей зеленых пикселей.Figure 2. Examples of game episodes in field sports with varying amounts of green pixels.

Фиг.3. Насыщенность зеленых пикселей как признак полевой игры.Figure 3. Saturation of green pixels as a sign of field play.

Фиг.4. Изображение с Фиг.3, вид 3.3, в котором средние значения красного, зеленого и синего цветовых каналов в зеленых областях установлены равными средним значениям этих величин в зеленых областях на Фиг.3, вид 3.4.Figure 4. The image from Figure 3, view 3.3, in which the average values of the red, green and blue color channels in the green areas are set equal to the average values of these values in the green areas in Figure 3, view 3.4.

Фиг.5. Изображение с Фиг.3, вид 3.4, в котором средние значение синего цветового канала в зеленых областях установлено равным среднему значению этой величины в зеленых областях на Фиг.3, вид 3.3.Figure 5. The image from Figure 3, view 3.4, in which the average value of the blue color channel in the green areas is set equal to the average value of this value in the green areas in Figure 3, view 3.3.

Фиг.6. Гистограмма зеленого цветового канала в зеленых областях изображения для изображений на Фиг.3, вид 3.3, и Фиг.3, вид 3.4; градиент яркости в зеленых областях для изображений на Фиг.3, вид 3.3 и Фиг.3, вид 3.4.6. The histogram of the green color channel in the green areas of the image for the images in Figure 3, view 3.3, and Figure 3, view 3.4; the brightness gradient in green areas for the images in Figure 3, view 3.3 and Figure 3, view 3.4.

Фиг.7. Эпизод полевой игры с нулевой пропорцией зеленых пикселей. 7. An episode of a field game with a zero proportion of green pixels.

Фиг.8. Дополнительная классификация по пропорции зеленых пикселей и насыщенности зеленых пикселей.Fig. 8. Additional classification according to the proportion of green pixels and the saturation of green pixels.

Фиг.9. Сцена в помещении, не являющаяся игровым эпизодом полевой игры: вид 9.1 - пример кадра, вид 9.2 - график признаков и результат классификации для сцены, состоящей из 300 последовательных кадров.Fig.9. A scene in a room that is not a game episode in a field game: view 9.1 is an example of a frame, view 9.2 is a feature graph and classification result for a scene consisting of 300 consecutive frames.

Фиг.10. Сцена на улице, не являющаяся игровым эпизодом полевой игры: вид 10.1 - пример кадра, вид 10.2 - график признаков и результат классификации для сцены, состоящей из 350 последовательных кадровFigure 10. A scene on the street that is not a game episode of a field game: view 10.1 - frame example, view 10.2 - feature chart and classification result for a scene consisting of 350 consecutive frames

Фиг.11. Сцена, не являющаяся игровым эпизодом полевой игры, содержащая большую пропорцию зеленых пикселей: вид 11.1- пример кадра, вид 11.2 - график признаков и результат классификации для сцены, состоящей из 300 последовательных кадров.11. A scene that is not a game episode of a field game containing a large proportion of green pixels: view 11.1 is an example of a frame, view 11.2 is a feature graph and classification result for a scene consisting of 300 consecutive frames.

Фиг.12. Игровой эпизод полевой игры, содержащий дальний план: вид 12.1 - пример кадра, вид 12.2 - график признаков и результат классификации для сцены, состоящей из 350 последовательных кадров.Fig. 12. A game episode of a field game containing a long-range plan: view 12.1 is an example of a frame, view 12.2 is a feature graph and classification result for a scene consisting of 350 consecutive frames.

Фиг.13. Игровой эпизод полевой игры, содержащий крупный план; вид 13.1 - пример кадра, вид 13.2 - график признаков и результат классификации для сцены, состоящей из 350 последовательных кадров.Fig.13. A close-up gaming episode of a field game; view 13.1 is an example of a frame, view 13.2 is a graph of features and a classification result for a scene consisting of 350 consecutive frames.

Фиг.14. Игровые эпизоды, чередующиеся с неигровыми эпизодами: вид 14.1 пример кадра, не являющегося игровым эпизодом, вид 14.2 - график признаков и результат классификации для видеопоследовательности, состоящей из 850 последовательных кадров (3 сцены).Fig.14. Game episodes alternating with non-game episodes: view 14.1 is an example of a frame that is not a game episode, view 14.2 is a feature graph and classification result for a video sequence consisting of 850 consecutive frames (3 scenes).

Фиг.15. Блок-схема детектора игровых эпизодов полевых игр.Fig.15. Block diagram of a game episode detector for field games.

Фиг.16. Блок-схема детектора признаков низкого уровня.Fig.16. Block diagram of a low level feature detector.

Фиг.17. Способ реализации классификатора пикселей по цвету.Fig.17. A way to implement the color classifier of pixels.

Фиг.18. Область, соответствующая белому цвету в цветовом пространстве RGB.Fig. 18. The area corresponding to white in the RGB color space.

Фиг.19. Пример результатов детектирования пикселей белого цвета.Fig.19. An example of white pixel detection results.

Фиг.20. Область, соответствующая оттенкам кожи в цветовом пространстве RGB. Fig.20. The area corresponding to skin tones in the RGB color space.

Фиг.21. Область, соответствующая желтому цвету в цветовом пространстве RGB.Fig.21. The area corresponding to yellow in the RGB color space.

Фиг.22. Пример результатов детектирования пикселей желтого цвета.Fig.22. An example of yellow pixel detection results.

Фиг.23. Область, соответствующая зеленому цвету в цветовом пространстве RGB.Fig.23. The area corresponding to green in the RGB color space.

Фиг.24. Пример результатов детектирования пикселей зеленого цвета.Fig.24. Example of green pixel detection results.

Фиг.25. Мера компактности гистограммы.Fig.25. A measure of the compactness of a histogram.

Фиг.26. Блок-схема анализатора признаков.Fig.26. Block diagram of the feature analyzer.

Фиг.27. Блок-схема детектора смены сцены.Fig.27. A block diagram of a scene change detector.

Фиг.28. Блок-схема динамического детектора игровых эпизодов.Fig.28. Block diagram of a dynamic game episode detector.

Фиг.29. Возможное применение в области телевидения.Fig.29. Possible application in the field of television.

Способ детектирования игровых эпизодов полевых видов спорта состоит из следующих шагов, показанных на Фиг.1:A method for detecting game episodes of field sports consists of the following steps shown in FIG. 1:

- для каждого пикселя, описываемого значениями в красном, зеленом и синем цветовых каналов, вычисляют яркость и насыщенность (этап 101);- for each pixel described by the values in the red, green and blue color channels, brightness and saturation are calculated (step 101);

- вычисляют абсолютную величину градиента яркости (этап 102)- calculate the absolute value of the brightness gradient (step 102)

- классифицируют каждый пиксель по цвету, а именно: (этап 103)- classify each pixel by color, namely: (step 103)

- является ли пиксель белым?- is the pixel white?

- является ли пиксель ярким и насыщенным?- is the pixel bright and saturated?

- является ли пиксель желтым?- is the pixel yellow?

- является ли пиксель зеленым?- is the pixel green?

- является ли цвет пикселя оттенком кожи?- is the pixel color a skin tone?

- вычисляют статистику по цветам для всего кадра (этап 104);- calculate color statistics for the entire frame (step 104);

- пропорция белых пикселей в кадре- the proportion of white pixels in the frame

- пропорция ярких и насыщенных пикселей в кадре- the proportion of bright and saturated pixels in the frame

- пропорция зеленых пикселей в кадре- the proportion of green pixels in the frame

- пропорция пикселей оттенка кожи в кадре- the proportion of pixels in the skin tone in the frame

- вычисляют статистику по цветам для зеленых областей (этап 105); а именно, для всех пикселей, которые на этапе 103 были классифицированы как зеленые, вычисляют следующие характеристики:- calculate color statistics for green areas (step 105); namely, for all pixels that were classified as green in step 103, the following characteristics are calculated:

- средняя яркость- average brightness

- средняя насыщенность- average saturation

- среднее значение синего цветового канала- average value of the blue color channel

- среднее значение абсолютной величины градиента яркости- average value of the absolute value of the brightness gradient

- для пикселей, классифицированных как зеленые, вычисляют гистограмму зеленого цветового канала (этап 106)- for pixels classified as green, a histogram of the green color channel is calculated (step 106)

- для определения того, является ли текущий кадр игровым эпизодом полевой игры, используют следующие правила (этап 107):- to determine whether the current frame is a game episode of a field game, the following rules are used (step 107):

- если пропорция зеленых пикселей равна нулю или очень низка, то результат детектирования является отрицательным;- if the proportion of green pixels is zero or very low, then the detection result is negative;

- если средняя яркость зеленых пикселей очень низка, то результат детектирования является отрицательным;- if the average brightness of green pixels is very low, then the detection result is negative;

- если средняя насыщенность зеленых пикселей очень низка, то результат детектирования является отрицательным;- if the average saturation of green pixels is very low, then the detection result is negative;

- если средняя насыщенность зеленых пикселей низка и средняя яркость зеленых пикселей низка, то результат детектирования является отрицательным;- if the average saturation of green pixels is low and the average brightness of green pixels is low, then the detection result is negative;

- если средняя насыщенность зеленых пикселей средняя и гистограмма зеленого канала в зеленых областях широка, то результат детектирования является отрицательным;- if the average saturation of green pixels is average and the histogram of the green channel in the green areas is wide, then the detection result is negative;

- если средняя насыщенность зеленых пикселей очень велика и гистограмма зеленого канала в зеленых областях очень узка, то результат детектирования является отрицательным;- if the average saturation of green pixels is very large and the histogram of the green channel in the green areas is very narrow, then the detection result is negative;

- если средняя насыщенность зеленых пикселей низка или велика и среднее значение абсолютной величины градиента яркости в зеленых областях очень низко, то результат детектирования является отрицательным;- if the average saturation of green pixels is low or high and the average value of the absolute value of the brightness gradient in green areas is very low, then the detection result is negative;

- если пропорция зеленых пикселей средняя или небольшая и пропорция ярких и насыщенных пикселей средняя или высокая, а количество пикселей тона человеческой кожи выше нуля и является малым или средним, то результат детектирования является положительным;- if the proportion of green pixels is medium or small and the proportion of bright and saturated pixels is medium or high, and the number of pixels of a human skin tone above zero is small or medium, then the detection result is positive;

- если пропорция зеленых пикселей велика и пропорция ярких и насыщенных пикселей мала, но больше нуля, то результат детектирования является положительным;- if the proportion of green pixels is large and the proportion of bright and saturated pixels is small, but greater than zero, then the detection result is positive;

- для определения того, принадлежит ли текущий кадр той же сцене, что и предыдущий, производят детектирование смены сцены (этап 108),- to determine whether the current frame belongs to the same scene as the previous one, a scene change is detected (step 108),

- в случае если смена сцены не произошла, то результат детектирования устанавливают равным результату детектирования для предыдущего кадра (этап 109).- if the scene change has not occurred, the detection result is set equal to the detection result for the previous frame (step 109).

Далее поясняются детали заявляемого способа.The following explains the details of the proposed method.

Принцип детектирования игровых эпизодов полевых игр основан на том наблюдении, что по сравнению с другими видами сцен пропорция зеленых пикселей в этих кадрах сравнительно велика.The principle of detecting game episodes of field games is based on the observation that, in comparison with other types of scenes, the proportion of green pixels in these frames is relatively large.

Предложенный на основе способа детектор позволяет отличать игровые эпизоды даже в случае, если эта пропорция сильно варьируется (Фиг.2: вид 2.1 - 15%, вид 2.2 - 24%, вид 2.3 - 46%, вид 2.4 - 67%, вид 2.5 - 82%, вид 2.6 - 97%).The detector proposed on the basis of the method makes it possible to distinguish game episodes even if this proportion varies greatly (Figure 2: view 2.1 - 15%, view 2.2 - 24%, view 2.3 - 46%, view 2.4 - 67%, view 2.5 - 82%, species 2.6 - 97%).

Предполагается, что обычно в игровых эпизодах полевых игр насыщенность зеленого цвета SGR относительно высока (Фиг.3, вид 3.1): SGR=93%), а в других типах сцен может быть ниже (Фиг.3, вид 3.2): SGR=15%). Однако в некоторых случаях, в силу различных условий освещения сцены или особенностей использованного алгоритма сжатия, насыщенность зеленых пикселей может быть довольно низка (Фиг.3, вид 3.3);SGR=31%). Причем иногда насыщенность зеленых пикселей может быть даже ниже, чем у сцен другого типа (Фиг.3, вид 3.4): SGR=35%).It is assumed that usually in the game episodes of field games the green saturation S GR is relatively high (Figure 3, view 3.1): S GR = 93%), and in other types of scenes it may be lower (Figure 3, view 3.2): S GR = 15%). However, in some cases, due to different lighting conditions of the scene or the features of the compression algorithm used, the saturation of green pixels can be quite low (Figure 3, view 3.3); S GR = 31%). Moreover, sometimes the saturation of green pixels can be even lower than that of scenes of a different type (Figure 3, view 3.4): S GR = 35%).

Человек легко заметит разницу между оттенками зеленого в этих двух изображениях, в чем легко можно убедиться, нормализовав эти два изображения по средним значениям синего, зеленого и красного каналов в зеленых областях (Фиг.4). При этом видно, что синий цветовой компонент играет ключевую роль и замена его средней величины на среднюю величину синего компонента в зеленых областях футбольного поля дает практически тот же цвет (Фиг.5). Таким образом, для того, чтобы отличить эти две сцены, имеет смысл использовать среднее значение синего канала в зеленых областях изображения. Среднее значение яркости имеет смысл использовать в настоящем изобретении в качестве классификационного признака с целью отличить очень темные сцены и классифицировать их как сцены, не являющиеся игровыми эпизодами, потому как спортивные соревнования обычно проводятся в хорошо освещенных местах.A person can easily notice the difference between shades of green in these two images, which can be easily verified by normalizing these two images by the average values of blue, green and red channels in green areas (Figure 4). It can be seen that the blue color component plays a key role and replacing its average value with the average value of the blue component in the green areas of the football field gives almost the same color (Figure 5). Thus, in order to distinguish between these two scenes, it makes sense to use the average value of the blue channel in the green areas of the image. It makes sense to use the average brightness value in the present invention as a classification feature in order to distinguish between very dark scenes and classify them as scenes that are not game scenes, because sports competitions are usually held in well-lit places.

Фиг.6 (виды 6.1 и 6.2) показывает гистограммы зеленого цветового канала для зеленых областей на изображениях с Фиг.3 (виды 3.3 и 3.4 соответственно). Эти рисунки показывают, что в случае, если гистограмма более компактна, то более вероятно, что кадр является игровым эпизодом, чем когда эта гистограмма размазана. В качестве меры компактности предлагается использовать пропорцию пикселей вблизи максимума гистограммы. В случае, если эта гистограмма размазана, можно считать, что кадр не является игровым эпизодом.6 (views 6.1 and 6.2) shows histograms of the green color channel for green areas in the images of Figure 3 (views 3.3 and 3.4, respectively). These figures show that if the histogram is more compact, it is more likely that the frame is a game episode than when this histogram is blurred. It is proposed to use the proportion of pixels near the maximum of the histogram as a measure of compactness. If this histogram is smeared, we can assume that the frame is not a game episode.

Фиг.6 (виды 6.3 и 6.4) показывает градиент канала яркости в зеленых областях для кадров на Фиг.3 (виды 3.3 и 3.4 соответственно). Видно, что очень низкие значения градиента могут соответствовать кадрам, не являющимся игровыми эпизодами.6 (views 6.3 and 6.4) shows the gradient of the luminance channel in the green areas for the frames in Figure 3 (views 3.3 and 3.4, respectively). It can be seen that very low gradient values may correspond to frames other than game scenes.

Если средняя яркость зеленых пикселей очень низка, то можно сделать вывод о том, что кадр не является игровым эпизодом.If the average brightness of green pixels is very low, then we can conclude that the frame is not a game episode.

Очевидно, что в некоторых игровых эпизодах пропорция зеленых пикселей может быть нулевой (Фиг.7), но даже человек едва ли классифицирует такие кадры, не читая сопровождающего текста (который может и отсутствовать). Для кадров с нулевой пропорцией зеленых пикселей можно считать, что кадр не является игровым эпизодом.Obviously, in some game episodes, the proportion of green pixels may be zero (Fig. 7), but even a person can hardly classify such frames without reading the accompanying text (which may be absent). For frames with a zero proportion of green pixels, we can assume that the frame is not a game episode.

Эффективный классификатор должен отдельно рассматривать кадры с различной пропорцией зеленых пикселей и различным их средним насыщением (Фиг.8). Кадры с очень низкой пропорцией зеленых пикселей и низкой насыщенностью зеленых пикселей классифицируются как не являющиеся игровым эпизодом.An effective classifier should separately consider frames with a different proportion of green pixels and their different average saturation (Fig. 8). Frames with a very low proportion of green pixels and low saturation of green pixels are classified as non-game scenes.

В каждой клетке в таблице на Фиг.8 применяются дополнительные правила, в зависимости от ожидаемого вида сцены. В случае, если число зеленых пикселей очень велико, то предполагается, что представлен дальний вид. В случае, если количество ярких и насыщенных пикселей (которые могут соответствовать форме игроков) низкое или среднее, и количество белых пикселей невелико, но больше нуля, то кадр классифицируется как игровой эпизод.In each cell in the table of FIG. 8, additional rules apply, depending on the expected appearance of the scene. If the number of green pixels is very large, then it is assumed that a distant view is presented. If the number of bright and saturated pixels (which may correspond to the shape of the players) is low or medium, and the number of white pixels is small, but greater than zero, then the frame is classified as a game episode.

В случае если количество зеленых пикселей малое или среднее, то предполагается наличие крупного плана. Если количество ярких и насыщенных пикселей среднее или большое, количество белых пикселей среднее, и количество пикселей тона человеческой кожи больше нуля и невелико или среднее, то кадр классифицируется как игровой эпизод.If the number of green pixels is small or medium, then a close-up is assumed. If the number of bright and saturated pixels is medium or large, the number of white pixels is average, and the number of pixels of a human skin tone is greater than zero and small or medium, then the frame is classified as a game episode.

В случае если не произошло смены сцены и предыдущий кадр был классифицирован как игровой эпизод, то текущий кадр также классифицируется как игровой эпизод.If there was no scene change and the previous frame was classified as a game episode, then the current frame is also classified as a game episode.

Примеры кадров и графики наиболее важных признаков наряду с результатами классификации для игровых эпизодов, не игровых эпизодов и смешанных последовательностей кадров показаны на Фиг.9-14. При этом Фиг.9 показывает результаты для последовательности кадров, снятых в помещении и не являющихся игровым эпизодом. Фиг.10 показывает график признаков и результаты детектирования для последовательности кадров, снятых на улице и не являющихся игровым эпизодом. Фиг.11 показывает график признаков и результаты детектирования для последовательности кадров, не являющихся игровым эпизодом и содержащих большую пропорцию зеленых пикселей. Фиг.12 показывает график признаков и результаты детектирования для игрового эпизода, содержащего дальний план. Фиг.13 показывает график признаков и результаты детектирования для игрового эпизода, содержащего крупный план. Фиг.14 показывает график признаков и результаты детектирования для видеопоследовательности, состоящей из двух игровых эпизодов (как на Фиг.12 (вид 12.1), 13 (вид 13.1)), между которыми расположен один неигровой эпизод (как на Фиг.14 (вид 14.3)).Examples of frames and graphs of the most important features along with the classification results for game episodes, non-game episodes, and mixed frame sequences are shown in FIGS. 9-14. In this case, Fig. 9 shows the results for a sequence of frames shot indoors and which are not a game episode. Figure 10 shows a graph of signs and detection results for a sequence of frames taken on the street and not a game episode. 11 shows a graph of signs and detection results for a sequence of frames that are not a game episode and contain a large proportion of green pixels. 12 shows a graph of signs and detection results for a game episode containing a long-range plan. Fig. 13 shows a graph of features and detection results for a game episode containing a close-up. Fig.14 shows a graph of signs and detection results for a video sequence consisting of two game episodes (as in Fig.12 (view 12.1), 13 (view 13.1)), between which there is one non-game episode (as in Fig.14 (view 14.3 )).

Блок-схема на Фиг.15 содержит структуру системы анализа видеоконтента. Входной видеопоток 1500 сохраняют в кадровом буфере 1501, из которого кадры, представленные в виде последовательностей пикселей в цветовом пространстве RGB, подаются на вычислитель 1503 низкоуровневых признаков и детектор 1505 смены сцены. Выход вычислителя 1503 низкоуровневых признаков соединен с входом анализатора 1504 признаков, который обрабатывает низкоуровневые признаки и делает предварительное заключение о том, относится ли текущий кадр к игровым эпизодам полевых видов спорта. Детектор 1505 смены сцены анализирует видеопоток и делает заключение о том, принадлежит ли текущий кадр к той же сцене, что и предыдущий. Выходы анализатора 1504 признаков и детектора 1505 смены сцены соединены со входами динамического детектора 1506 типа контента, который уточняет предварительное заключение анализатора признаков. В частности, динамический детектор типа контента распространяет решение, полученное для предыдущего кадра, в случае, если смены сцены не произошло.The block diagram of FIG. 15 contains the structure of a video content analysis system. The input video stream 1500 is stored in a frame buffer 1501, from which frames, represented as sequences of pixels in the RGB color space, are supplied to a low-level feature calculator 1503 and a scene change detector 1505. The output of the low-level feature calculator 1503 is connected to the input of the feature analyzer 1504, which processes the low-level features and makes a preliminary conclusion about whether the current frame refers to game episodes of field sports. The scene change detector 1505 analyzes the video stream and concludes whether the current frame belongs to the same scene as the previous one. The outputs of the feature analyzer 1504 and scene change detector 1505 are connected to the inputs of the content type dynamic detector 1506, which clarifies the preliminary conclusion of the feature analyzer. In particular, a dynamic content type detector distributes the solution obtained for the previous frame in the event that a scene change has not occurred.

Блок-схема вычислителя низкоуровневых признаков показана на Фиг.16. Последовательность 1600 пикселей в цветовом пространстве RGB подается на вход блока 1601, который вычисляет насыщенность 5 для каждого пикселя, и на вход блока 1602, который вычисляет яркость У для каждого пикселя, а также к первому входу классификатора 1603 цветов. Значение насыщенности пикселей из блока 1601 подается на второй вход классификатора 1603 цветов. Значение яркости из блока 1602 подается на третий вход классификатора 1603 цветов и на вход блока 1604 вычисления градиента. Выход классификатора 1603 цветов и выход блока 1604 вычисления градиента соединены с первым и вторым входами блока 1605 статистического анализа соответственно. Насыщенность пикселя S вычисляется в блоке 1601 для каждого пикселя в кадре на основании его величин в цветовых каналах R, G, и В по формуле S = { 1 M 0 M 1 , M 1 < 0 0, и н а ч е

Figure 00000001
A block diagram of a low level feature calculator is shown in FIG. 16. A sequence of 1600 pixels in the RGB color space is supplied to the input of block 1601, which calculates the saturation 5 for each pixel, and to the input of block 1602, which calculates the brightness Y for each pixel, and also to the first input of the color classifier 1603. The pixel saturation value from block 1601 is supplied to the second input of the color classifier 1603. The brightness value from block 1602 is supplied to the third input of the color classifier 1603 and to the input of the gradient calculation block 1604. The output of the color classifier 1603 and the output of the gradient calculation unit 1604 are connected to the first and second inputs of the statistical analysis unit 1605, respectively. The saturation of the pixel S is calculated in block 1601 for each pixel in the frame based on its values in the color channels R, G, and B according to the formula S = { one - M 0 M one , M one < 0 0 and n but h e
Figure 00000001

где М0 - минимальное из величин в цветовых каналах M0=MIN(R, G, B) а М1 - максимальное из величин в цветовых каналах M1=MAX(R, G, B).where M0 is the minimum of the values in the color channels M0 = MIN (R, G, B) and M1 is the maximum of the values in the color channels M1 = MAX (R, G, B).

Яркость пикселя Y вычисляется в блоке 1602 для каждого пикселя в кадре на основании его величин в цветовых каналах R, G, и В по формуле The brightness of the pixel Y is calculated in block 1602 for each pixel in the frame based on its values in the color channels R, G, and B according to the formula

Y = 306 R 1024 + 601 G 1024 + 58 B 512

Figure 00000002
Y = 306 R 1024 + 601 G 1024 + 58 B 512
Figure 00000002

Пример реализации классификатора 1603 цветов показан на Фиг.3. На три входа этого блока подаются величины в цветовых каналах R, G, и В (1701), насыщенность (1702) и яркость (1703). Детектор 1704 белых пикселей анализирует величины R, G и В для каждого пикселя и вычисляет логическую величину, означающую, что данный пиксель будет выглядеть для человека белым. Детектор 1705 ярких и насыщенных пикселей анализирует величины R, G и В для каждого пикселя и вычисляет логическую величину, означающую, что данный пиксель будет выглядеть для человека ярким и насыщенным. Детектор 1706 пикселей тона человеческой кожи анализирует величины R, G, и В для каждого пикселя и вычисляет логическую величину, означающую, что данный пиксель будет выглядеть для человека похожим по цвету на человеческую кожу. Детектор 1707 желтых пикселей анализирует величины R,G, и В для каждого пикселя наряду с его насыщенностью (1702) и яркостью (1703) и вычисляет логическую величину, означающую, что данный пиксель будет выглядеть для человека желтым. Детектор 1708 зеленых пикселей анализирует величины R, G и В для каждого пикселя наряду с его яркостью (1703) и результатом детектирования желтого пикселя, и вычисляет логическую величину, означающую, что данный пиксель будет выглядеть для человека зеленым. Мультиплексор 1709 объединяет выходы детектора 1704 белых пикселей, детектора 1705 ярких и насыщенных пикселей, детектора 1706 пикселей тона человеческой кожи и детектора 1708 зеленых пикселей для всех пикселей и представляет в виде четырех каналов.  An example implementation of the classifier 1603 colors shown in Fig.3. The three inputs of this block are supplied with values in the color channels R, G, and B (1701), saturation (1702) and brightness (1703). The white pixel detector 1704 analyzes the values of R, G and B for each pixel and calculates a logical value, meaning that this pixel will look white for a person. Detector 1705 bright and saturated pixels analyzes the values of R, G and B for each pixel and calculates a logical value, meaning that this pixel will look bright and saturated for a person. The human skin tone detector 1706 pixels analyzes R, G, and B values for each pixel and calculates a logical value, meaning that this pixel will look like a human skin in color. The yellow pixel detector 1707 analyzes the R, G, and B values for each pixel along with its saturation (1702) and brightness (1703) and calculates a logical value, which means that this pixel will look yellow for a person. The green pixel detector 1708 analyzes the R, G, and B values for each pixel along with its brightness (1703) and the result of detecting the yellow pixel, and calculates a logical value, which means that this pixel will look green for a person. Multiplexer 1709 combines the outputs of a white pixel detector 1704, a bright and saturated pixel detector 1705, a human skin tone pixel detector 1706 and a green pixel detector 1708 for all pixels and is represented in four channels.

Детектор белых пикселей вычисляет выражение W=SRGB>384^M1-M0<30, где SRGB - сумма величин в цветовых каналах SRGB=R+G+B. B. Область, описываемая этой формулой в цветовом пространстве RGB, показана на Фиг.18. Примеры применения этого детектора показаны на Фиг.19. Детектор 1705 ярких и насыщенных пикселей вычисляет выражение BS=М1>150&M1-М0≥М1/2. Детектор 1706 пикселей тона человеческой кожи вычисляет выражение Sk=(G≠0)⋀ B G + G 2 S R G B > 267 R 2 7 B 83 S R G B 2 8 G 83 S R G B 2 8

Figure 00000003
. The white pixel detector calculates the expression W = S RGB > 384 ^ M1-M0 <30, where S RGB is the sum of the values in the color channels S RGB = R + G + BB The region described by this formula in the RGB color space is shown in Fig. 18 . Examples of the application of this detector are shown in Fig. 19. The detector 1705 bright and saturated pixels calculates the expression B S = M1> 150 & M1-M0≥M1 / 2. A human skin tone detector 1706 pixels computes the expression S k = (G ≠ 0) ⋀ B G + G 2 S R G B > 267 R 2 7 B 83 S R G B 2 8 G 83 S R G B 2 8
Figure 00000003
.

Область, описываемая этой формулой в цветовом пространстве RGB, показана на Фиг.20.The region described by this formula in the RGB color space is shown in FIG.

Детектор 1707 желтых пикселей вычисляет выражение Ye=B<G⋀В<R⋀9·(М1RG-М0RG)<М0RG-В⋀S>0.2⋀Y>110, где максимальное значение между величиной в зеленом канале G в красном канале R, а М0RG - минимальное из этих двух чисел. Область, описываемая этой формулой в цветовом пространстве RGB, показана на Фиг.21. Примеры применения этого детектора показаны на Фиг.22.The yellow pixel detector 1707 calculates the expression Y e = B <G⋀B <R⋀9 · (M1 RG -M0 RG ) <M0 RG -B⋀S>0.2⋀Y> 110, where the maximum value between the value in the green channel G in the red channel R, and M0 RG is the minimum of these two numbers. The region described by this formula in the RGB color space is shown in FIG. Examples of the application of this detector are shown in FIG.

Детектор 1708 зеленых пикселей вычисляет выражение G r = G > M 1 R B S R G B > 80 ( R + B < 3 2 G R + B < 255 R B < 35 ) Y > 80 Y e

Figure 00000004
, где M1RB - максимальное значение между величиной в красном канале R и синем канале В. Область, описываемая этой формулой в цветовом пространстве RGB, показана на Фиг.23. Сравнение результатов детектирования для простого детектора зеленых пикселей и предложенного детектора приведено на Фиг.24.Green pixel detector 1708 calculates an expression G r = G > M one R B S R G B > 80 ( R + B < 3 2 G R + B < 255 R - B < 35 ) Y > 80 Y e
Figure 00000004
where M1 RB is the maximum value between the value in the red channel R and the blue channel B. The region described by this formula in the RGB color space is shown in FIG. 23. A comparison of the detection results for a simple detector of green pixels and the proposed detector is shown in Fig.24.

Блок 1604 вычисления градиента вычисляет производную по яркости DY, производя свертку канала яркости У с линейным ядром K g r a d = [ 0 0 0 1 0 0 1 ]

Figure 00000005
.Gradient calculator 1604 calculates the brightness derivative D Y by convolution of the luminance channel Y with a linear core K g r a d = [ 0 0 0 one 0 0 - one ]
Figure 00000005
.

Блок 1605 статистического анализа вычисляет для каждого кадра следующие низкоуровневые признаки: нормализованное число зеленых пикселей F1, нормализованное число пикселей цвета человеческой кожи F2, среднюю яркость всех пикселей F3, среднюю величину модуля градиента для зеленых пикселей F4, нормализованное число ярких и насыщенных пикселей F5, среднюю насыщенность зеленых пикселей F6, нормализованное число белых пикселей F7, среднюю яркость зеленых пикселей F8, среднюю величину синего канала для зеленых пикселей F9, компактность гистограммы зеленого цветового канала для зеленых пикселей F10.The statistical analysis unit 1605 calculates for each frame the following low-level features: the normalized number of green pixels F 1 , the normalized number of pixels of human skin color F 2 , the average brightness of all pixels F 3 , the average value of the gradient module for green pixels F 4 , the normalized number of bright and saturated F pixels 5, the average saturation of green pixels F 6, the normalized number of white pixels F 7, the average brightness of green pixel F 8, the average value of the blue channel for the green pixels F 9, compactness histo Ranma green color channel for green pixels F 10.

Нормализованное число зеленых пикселей вычисляется согласно выражению F 1 = i = 1 w , j = 1 h δ ( G r ( i , j ) ) w h

Figure 00000006
, где w - ширина кадра в пикселях, h - высота кадра в пикселях, i, j - координаты пикселя, а δ - функция, преобразующая логический тип в вещественный по формуле δ ( x ) = { 0, ¬ x 1, x
Figure 00000007
.The normalized number of green pixels is calculated according to the expression F one = i = one ... w , j = one ... h δ ( G r ( i , j ) ) w h
Figure 00000006
, where w is the width of the frame in pixels, h is the height of the frame in pixels, i, j are the coordinates of the pixel, and δ is a function that converts the logical type to real using the formula δ ( x ) = { 0 ¬ x one, x
Figure 00000007
.

Нормализованное число пикселей цвета человеческой кожи вычисляется согласно выражению F 2 = i = 1 w , j = 1 h δ ( S k ( i , j ) ) w h

Figure 00000008
.The normalized number of pixels of the color of human skin is calculated according to the expression F 2 = i = one ... w , j = one ... h δ ( S k ( i , j ) ) w h
Figure 00000008
.

Средняя яркость всех пикселей вычисляется согласно выражению F 3 = i = 1 w , j = 1 h Y ( i , j ) w h

Figure 00000009
.The average brightness of all pixels is calculated according to the expression F 3 = i = one ... w , j = one ... h Y ( i , j ) w h
Figure 00000009
.

Средняя величина модуля градиента для зеленых пикселей вычисляется согласно выражению F 4 = i = 1 w , j = 1 h | D y ( i , j ) | δ ( G r ( i , j ) ) i = 1 w , j = 1 h δ ( G r ( i , j ) )

Figure 00000010
.The average value of the gradient modulus for green pixels is calculated according to the expression F four = i = one ... w , j = one ... h | | | D y ( i , j ) | | | δ ( G r ( i , j ) ) i = one ... w , j = one ... h δ ( G r ( i , j ) )
Figure 00000010
.

Нормализованное число ярких и насыщенных пикселей вычисляется согласно выражению F 5 = i = 1 w , j = 1 h δ ( B s ( i , j ) ) w h

Figure 00000011
.The normalized number of bright and saturated pixels is calculated according to the expression F 5 = i = one ... w , j = one ... h δ ( B s ( i , j ) ) w h
Figure 00000011
.

Средняя насыщенность зеленых пикселей вычисляется согласно выражению F 6 = i = 1 w , j = 1 h S ( i , j ) δ ( G r ( i , j ) ) i = 1 w , j = 1 h δ ( G r ( i , j ) )

Figure 00000012
.The average saturation of green pixels is calculated according to the expression F 6 = i = one ... w , j = one ... h S ( i , j ) δ ( G r ( i , j ) ) i = one ... w , j = one ... h δ ( G r ( i , j ) )
Figure 00000012
.

Нормализованное число белых пикселей вычисляется согласно выражению F 7 = i = 1 w , j = 1 h δ ( W ( i , j ) ) w h

Figure 00000013
.The normalized number of white pixels is calculated according to the expression F 7 = i = one ... w , j = one ... h δ ( W ( i , j ) ) w h
Figure 00000013
.

Средняя яркость зеленых пикселей вычисляется согласно выражению F 8 = i = 1 w , j = 1 h Y ( i , j ) δ ( G r ( i , j ) ) i = 1 w , j = 1 h δ ( G r ( i , j ) )

Figure 00000014
.The average brightness of green pixels is calculated according to the expression F 8 = i = one ... w , j = one ... h Y ( i , j ) δ ( G r ( i , j ) ) i = one ... w , j = one ... h δ ( G r ( i , j ) )
Figure 00000014
.

Средняя величина синего канала для зеленых пикселей вычисляется согласно выражению F 9 = i = 1 w , j = 1 h B ( i , j ) δ ( G r ( i , j ) ) i = 1 w , j = 1 h δ ( G r ( i , j ) )

Figure 00000015
.The average value of the blue channel for green pixels is calculated according to the expression F 9 = i = one ... w , j = one ... h B ( i , j ) δ ( G r ( i , j ) ) i = one ... w , j = one ... h δ ( G r ( i , j ) )
Figure 00000015
.

Компактность гистограммы зеленого цветового канала для зеленых пикселей Е10 вычисляется за следующие три шага:The compactness of the histogram of the green color channel for green pixels E 10 is calculated in the following three steps:

1) Строится гистограмма НYGr для величин зеленого цветового канала G для пикселей, классифицированных по цвету как зеленые (Фиг.25);1) A histogram H YGr is plotted for the values of the green color channel G for pixels classified by color as green (Fig. 25);

2) Ширина гистограммы D вычисляется как разность между самым правым (MHY1) и самым левым (MHY0) ненулевыми элементами гистограммы;2) Histogram width D It is calculated as the difference between the rightmost (MHY1) and the leftmost (MHY0) nonzero histogram elements;

3) Признак F10 вычисляется как пропорция элементов гистограммы, лежащих на расстоянии не больше восьмой части ширины гистограммы от максимума гистограммы: 3) The sign F 10 is calculated as the proportion of the histogram elements lying at a distance of no more than an eighth of the width of the histogram from the maximum of the histogram:

F 10 = i = P 8 D / 8 P 8 + D / 8 H Y G r ( i ) i = 0 255 H Y G r ( i )

Figure 00000016
. F 10 = i = P 8 - D / 8 P 8 + D / 8 H Y G r ( i ) i = 0 255 H Y G r ( i )
Figure 00000016
.

Выходом блока 1605 статистического анализа является 10- компонентный вектор признаков (F1, F2, F3, F4, F5, F6, F7, F8, F9, F10).The output of statistical analysis block 1605 is a 10-component feature vector (F 1 , F 2 , F 3 , F 4 , F 5 , F 6 , F 7 , F 8 , F 9 , F 10 ).

Блок-схема анализатора 1504 признаков приведена на Фиг.26. Признак 2601 "средняя насыщенность зеленых пикселей" F6 и признак 2602 "нормализованное число зеленых пикселей" F1 подаются на первый и второй входы блока 2620 двумерного порогового преобразования, который вычисляет вектор логических величинA block diagram of a feature analyzer 1504 is shown in FIG. Sign 2601 "average green pixel saturation" F 6 and sign 2602 "normalized number of green pixels" F 1 are fed to the first and second inputs of the block 2620 two-dimensional threshold conversion, which calculates the vector of logical quantities

(y11, y12, y13, y14, y21, y22, y23, y24, y31, y32, y33, y34, y41, y42, y43, y44),(y 11 , y 12 , y 13 , y 14 , y 21 , y 22 , y 23 , y 24 , y 31 , y 32 , y 33 , y 34 , y 41 , y 42 , y 43 , y 44 ),

где каждая из этих величин yij вычисляется по формуле y i j = F 1 T i 1 1 F 1 T i 1 F 6 T j 1 2 F 6 T j 2

Figure 00000017
, где T 0 1
Figure 00000018
, T 1 1
Figure 00000019
, T 2 1
Figure 00000020
, T 3 1
Figure 00000021
, T 4 1
Figure 00000022
, T 0 2
Figure 00000023
, T 1 2
Figure 00000024
, T 2 2
Figure 00000025
, T 3 2
Figure 00000026
, T 4 2
Figure 00000027
- предопределенные пороговые величины, удовлетворяющие условию T 0 1 = 0
Figure 00000028
, T 4 1 = 1
Figure 00000029
, T 0 2 = 0
Figure 00000030
, T 4 2 = 0
Figure 00000031
,where each of these quantities y ij is calculated by the formula y i j = F one T i - one one F one T i one F 6 T j - one 2 F 6 T j 2
Figure 00000017
where T 0 one
Figure 00000018
, T one one
Figure 00000019
, T 2 one
Figure 00000020
, T 3 one
Figure 00000021
, T four one
Figure 00000022
, T 0 2
Figure 00000023
, T one 2
Figure 00000024
, T 2 2
Figure 00000025
, T 3 2
Figure 00000026
, T four 2
Figure 00000027
- predefined threshold values that satisfy the condition T 0 one = 0
Figure 00000028
, T four one = one
Figure 00000029
, T 0 2 = 0
Figure 00000030
, T four 2 = 0
Figure 00000031
,

T 0 1 < T 1 1 < T 2 1 < T 3 1 < T 4 1

Figure 00000032
, T 0 2 < T 1 2 < T 2 2 < T 3 2 < T 4 2
Figure 00000033
. T 0 one < T one one < T 2 one < T 3 one < T four one
Figure 00000032
, T 0 2 < T one 2 < T 2 2 < T 3 2 < T four 2
Figure 00000033
.

Признак 2602 "нормализованное число зеленых пикселей" также подается на вход блока 2611 порогового преобразования, вычисляющего логическую величину N1=F1<T3, где T3 - предопределенная пороговая величина, удовлетворяющая условию 0<T3<1.Sign 2602 "normalized number of green pixels" is also fed to the input of block 2611 threshold conversion, calculating the logical value N 1 = F 1 <T 3 , where T 3 is a predetermined threshold value that satisfies the condition 0 <T 3 <1.

Признак 2603 "нормализованное число пикселей цвета человеческой кожи" подается на вход блока 2612 порогового преобразования, вычисляющего логическую величину N2=F24, где Т4 - предопределенная пороговая величина, удовлетворяющая условию 0<T4<1.Sign 2603 "normalized number of pixels of the color of human skin" is fed to the input of a threshold transform block 2612 that calculates a logical quantity N 2 = F 2 <T 4 , where T 4 is a predetermined threshold value that satisfies the condition 0 <T 4 <1.

Признак 2604 "средняя величина модуля градиента для зеленых пикселей " подается на вход блока 2613 порогового преобразования, вычисляющего логическую величину N3=F4<T5, где Т5 - предопределенная пороговая величина, удовлетворяющая условию 0<Т5<1.Sign 2604 "the average value of the modulus of the gradient for green pixels" is fed to the input of block 2613 of the threshold transformation, which calculates the logical value N 3 = F 4 <T 5 , where T 5 is a predetermined threshold value satisfying the condition 0 <T 5 <1.

Признак 2605 "нормализованное число белых пикселей " подается на вход блока 2614 порогового преобразования, вычисляющего логическую величину N4=F7>T6, где Т6 - предопределенная пороговая величина, удовлетворяющая условию 0<T6<1.Sign 2605 "normalized number of white pixels" is fed to the input of the threshold transform block 2614, which calculates the logical value N 4 = F 7 > T 6 , where T 6 is a predefined threshold value that satisfies the condition 0 <T 6 <1.

Признак 2603 "нормализованное число пикселей цвета человеческой кожи" и признак 2607 "нормализованное число ярких и насыщенных пикселей" подаются на первый и второй входы блока 2621 двумерного порогового преобразования, который вычисляет вектор логических величинSign 2603 "normalized number of pixels of the color of human skin" and sign 2607 "normalized number of bright and saturated pixels" are fed to the first and second inputs of block 2621 two-dimensional threshold transformation, which calculates a vector of logical quantities

(z11, z12, z21, z22), где каждая из этих величин zij i вычисляется по формуле(z 11 , z 12 , z 21 , z 22 ), where each of these quantities z ij i is calculated by the formula

z i j = F 2 T i 1 7 F 2 T i 7 F 5 T j 1 8 F 5 T j 8

Figure 00000034
, где T 0 7
Figure 00000035
, T 1 7
Figure 00000036
, T 2 7
Figure 00000037
, T 0 8
Figure 00000038
, T 1 8
Figure 00000039
, T 2 8
Figure 00000040
- предопределенные пороговые величины, удовлетворяющие условию T 0 7 = 0
Figure 00000041
, T 2 7 = 1
Figure 00000042
, T 0 8 = 0
Figure 00000043
, T 2 8 = 1
Figure 00000044
, T 0 7 < T 1 7 < T 2 7
Figure 00000045
, T 0 8 < T 1 8 < T 2 8
Figure 00000046
. z i j = F 2 T i - one 7 F 2 T i 7 F 5 T j - one 8 F 5 T j 8
Figure 00000034
where T 0 7
Figure 00000035
, T one 7
Figure 00000036
, T 2 7
Figure 00000037
, T 0 8
Figure 00000038
, T one 8
Figure 00000039
, T 2 8
Figure 00000040
- predefined threshold values that satisfy the condition T 0 7 = 0
Figure 00000041
, T 2 7 = one
Figure 00000042
, T 0 8 = 0
Figure 00000043
, T 2 8 = one
Figure 00000044
, T 0 7 < T one 7 < T 2 7
Figure 00000045
, T 0 8 < T one 8 < T 2 8
Figure 00000046
.

Признак 2606 "средняя яркость" F3 и признак 2607 "нормализованное число ярких и насыщенных пикселей" F5 подаются на первый и второй входы блока 2622 линейной классификации, вычисляющего логическую величину Q11·F32·F5+В>0, где K1, К2 и В - предопределенные константы.Sign 2606 "average brightness" F 3 and sign 2607 "normalized number of bright and saturated pixels" F 5 are fed to the first and second inputs of linear classification block 2622, which calculates the logical value Q 1 = K 1 · F 3 + K 2 · F 5 + B> 0, where K 1 , K 2 and B are predefined constants.

Признак 2607 "нормализованное число ярких и насыщенных пикселей" F5 подается на вход блока 2615 порогового преобразования, вычисляющего логическую величину Q2=F59, где Т9 - предопределенная пороговая величина, удовлетворяющая условию 0<T9<1.Sign 2607 "normalized number of bright and saturated pixels" F 5 is fed to the input of a threshold transform block 2615 that calculates a logical quantity Q 2 = F 5 > T 9 , where T 9 is a predetermined threshold value satisfying the condition 0 <T 9 <1.

Признак 2608 "средняя яркость зеленых пикселей" подается на вход блока 2616 порогового преобразования, вычисляющего логическую величину P1=F8>T10, где T10 - предопределенная пороговая величина, удовлетворяющая условию 0<T10<1.Sign 2608 "average brightness of green pixels" is fed to the input of block 2616 of the threshold transform that calculates the logical value P 1 = F 8 > T 10 , where T 10 is a predefined threshold value that satisfies the condition 0 <T 10 <1.

Признак 2608 "средняя яркость зеленых пикселей" подается на вход блока 2617 порогового преобразования, вычисляющего логическую величину P2=F8>T11, где T11 - предопределенная пороговая величина, удовлетворяющая условию 0<T11<1, T11≠T10.Sign 2608 "average brightness of green pixels" is fed to the input of block 2617 of the threshold transformation that calculates the logical value P 2 = F 8 > T 11 , where T 11 is a predefined threshold value satisfying the condition 0 <T 11 <1, T 11 ≠ T 10 .

Признак 2609 "средняя величина синего канала для зеленых пикселей " подается на вход блока 2618 порогового преобразования,Sign 2609 "the average value of the blue channel for green pixels" is supplied to the input of block 2618 threshold conversion,

вычисляющего логическую величину P3=F9<T12, где Т12 - предопределенная пороговая величина, удовлетворяющая условию 0<T12<1.calculating a logical quantity P 3 = F 9 <T 12 , where T 12 is a predetermined threshold value satisfying the condition 0 <T 12 <1.

Признак 2610 "компактность гистограммы зеленого цветового канала для зеленых пикселей" подается на вход блока 2619 порогового преобразования, вычисляющего логическую величину P4=F10<T13, где T13 - предопределенная пороговая величина, удовлетворяющие условию 0<T13<1.The sign 2610 "compactness of the histogram of the green color channel for green pixels" is supplied to the input of the threshold transform unit 2619, which calculates the logical value P 4 = F 10 <T 13 , where T 13 is a predefined threshold value satisfying the condition 0 <T 13 <1.

Выходы блоков 2611, 2612, 2613, 2614, 2615, 2616, 2617, 2618, 2619 порогового преобразования наряду с выходами блоков 2620 и 2621 двумерного порогового преобразования и выходом блока 2622 линейной классификации соединены со входами блока 2623 логического анализа, вычисляющего результат детектирования игрового эпизода полевого вида спорта для текущего кадра исключительно на основании пикселей этого кадра.The outputs of the threshold transform blocks 2611, 2612, 2613, 2614, 2615, 2616, 2617, 2618, 2619, along with the outputs of the two-dimensional threshold transform blocks 2620 and 2621 and the output of the linear classification block 2622 are connected to the inputs of the logical analysis block 2623 that calculates the result of the detection of the game episode a field sport for the current frame solely based on the pixels of that frame.

Блок логического анализа реализует логическую формулу R = ( ¬ V 1 ) P 1 P 4 V 2 ( ¬ P 2 P 3 ) )

Figure 00000047
,The logical analysis unit implements the logical formula R = ( ¬ V one ) P one P four V 2 ( ¬ P 2 P 3 ) )
Figure 00000047
,

где V1=N1⋁N2⋁N3⋁N4⋁z11 и where V 1 = N 1 ⋁ N 2 ⋁ N 3 ⋁ N 4 ⋁z 11 and

V 2 = ( y 22 Q 2 ) y 23 ( y 24 Q 1 ) y 32 y 33 y 34 y 42 y 43 y 44

Figure 00000048
. V 2 = ( y 22 Q 2 ) y 23 ( y 24 Q one ) y 32 y 33 y 34 y 42 y 43 y 44
Figure 00000048
.

Блок-схема детектора 1505 смены сцены показана на Фиг.27. Значения 2701 в цветовых каналах R,G и В текущего кадра и центры кластеров сегментации из предыдущего кадра с выхода блока 2703 задержки подаются на вход блока 2702 кластеризации. Центры кластеров сегментации а:(описываются матрицей размером NK на 3 элемента, где NK - количество кластеров, используемых при сегментации:A block diagram of a scene change detector 1505 is shown in FIG. The values 2701 in the color channels R, G, and B of the current frame and the centers of the segmentation clusters from the previous frame from the output of the delay unit 2703 are supplied to the input of the clustering unit 2702. The centers of the segmentation clusters a: (are described by a matrix of size N K for 3 elements, where N K is the number of clusters used in segmentation:

K C = ( R 1 C R 2 C R 3 C R N K C G 1 C G 2 C G 3 C G N K C B 1 C B 2 C B 3 C B N K C )

Figure 00000049
K C = ( R one C R 2 C R 3 C ... R N K C G one C G 2 C G 3 C ... G N K C B one C B 2 C B 3 C B N K C )
Figure 00000049

Блок 2702 кластеризации выполняет одну итерацию алгоритма K - средних, т.е. каждый пиксель Р(i, j) с координатами i, j и описываемый тремя значениями в цветовых каналах Р(i,j)=(R(i,j) G(i, j) B(i, j)) причисляется к кластеру K ( i , j ) = arg min k = 1 N k P ( i , j ) C k

Figure 00000050
, где C k = ( R k C G k C B k C )
Figure 00000051
- центр k-го кластера, а ∥·∥ - некоторая векторная норма. При этом суммарная ошибка кластеризации вычисляется как E = i = 1 w j = 1 h P ( i , j ) C K ( i , j )
Figure 00000052
. Обновленные центры кластеров вычисляются по формуле K ˜ C = ( R ˜ 1 C R ˜ 2 C R ˜ 3 C R ˜ N K C G ˜ 1 C G ˜ 2 C G ˜ 3 C G N K C B ˜ 1 C B ˜ 2 C B ˜ 3 C B ˜ N K C )
Figure 00000053
, где R ˜ k C = i = 1 w j = 1 h δ ( K ( i , j ) = k ) R ( i , j ) i = 1 w j = 1 h δ ( K ( i , j ) = k )
Figure 00000054
, G ˜ k C = i = 1 w j = 1 h δ ( K ( i , j ) = k ) G ( i , j ) i = 1 w j = 1 h δ ( K ( i , j ) = k )
Figure 00000055
, B ˜ k C = i = 1 w j = 1 h δ ( K ( i , j ) = k ) B ( i , j ) i = 1 w j = 1 h δ ( K ( i , j ) = k )
Figure 00000056
.Clustering block 2702 performs one iteration of the K-means algorithm, i.e. each pixel P (i, j) with coordinates i, j and described by three values in the color channels P (i, j) = (R (i, j) G (i, j) B (i, j)) is assigned to the cluster K ( i , j ) = arg min k = one ... N k P ( i , j ) - C k
Figure 00000050
where C k = ( R k C G k C B k C )
Figure 00000051
is the center of the kth cluster, and ∥ · ∥ is some vector norm. In this case, the total clustering error is calculated as E = i = one ... w j = one ... h P ( i , j ) - C K ( i , j )
Figure 00000052
. Updated cluster centers are calculated by the formula K ˜ C = ( R ˜ one C R ˜ 2 C R ˜ 3 C ... R ˜ N K C G ˜ one C G ˜ 2 C G ˜ 3 C ... G N K C B ˜ one C B ˜ 2 C B ˜ 3 C B ˜ N K C )
Figure 00000053
where R ˜ k C = i = one ... w j = one ... h δ ( K ( i , j ) = k ) R ( i , j ) i = one ... w j = one ... h δ ( K ( i , j ) = k )
Figure 00000054
, G ˜ k C = i = one ... w j = one ... h δ ( K ( i , j ) = k ) G ( i , j ) i = one ... w j = one ... h δ ( K ( i , j ) = k )
Figure 00000055
, B ˜ k C = i = one ... w j = one ... h δ ( K ( i , j ) = k ) B ( i , j ) i = one ... w j = one ... h δ ( K ( i , j ) = k )
Figure 00000056
.

Обновленные центры кластеров с выхода блока 2702 кластеризации подаются на вход блока 2703 задержки. Суммарная ошибка кластеризации с выхода блока 2702 кластеризации подается на вход блока 2705 задержки. Суммарная ошибка кластеризации с выхода блока 2702 кластеризации и выход блока 2705 задержки подаются на вход блока 2706, вычисляющего минимум этих двух величин, и на вход блока 2707, вычисляющего максимум этих двух величин. Выход блока 2706 подается на вход блока 2708 усиления, который производит умножение входной величины на заданную константу, превышающую единицу. Выход блока 2708 и выход блока 2707 соединены с первым и вторым входами блока 2709 вычитания, выход которого соединен со входом 2710 порогового преобразования. Выходом 2710 порогового преобразования является логическая величина, принимающая истинное значение в случае, если текущий кадр не принадлежит той же сцене, что и предыдущий кадр.  Updated cluster centers from the output of block 2702 clustering are fed to the input of block 2703 delay. The total clustering error from the output of block 2702 clustering is fed to the input of block 2705 delay. The total clustering error from the output of the clustering block 2702 and the output of the delay block 2705 are fed to the input of block 2706, which calculates the minimum of these two values, and to the input of block 2707, which calculates the maximum of these two values. The output of block 2706 is fed to the input of gain block 2708, which multiplies the input quantity by a predetermined constant greater than one. The output of block 2708 and the output of block 2707 are connected to the first and second inputs of the subtraction block 2709, the output of which is connected to the threshold conversion input 2710. The threshold transform output 2710 is a logic value that takes a true value if the current frame does not belong to the same scene as the previous frame.

Блок-схема динамического детектора 1506 типа контента показана на Фиг. 28. Выход блока 1605 статистического анализа соединен с первым входом данных переключателя 2802 и первым входом блока 2803 логической дизъюнкции, выход детектора 2801 смены сцены соединен с управляющим входом переключателя 2802. Выход блока 2803 логической дизъюнкции соединен со вторым входом данных переключателя 2802. На выход переключателя 2802 передается сигнал с первого входа данных, если управляющий вход установлен в логическую единицу, и сигнал со второго входа данных, если управляющий вход установлен в логический ноль. Выход переключателя 2802 соединен с входом линии 2804 задержки. Выход линии 2804 задержки соединен с вторым блоком 2803 логической дизъюнкции и представляет собой выход динамического детектора 1506 типа контента.A block diagram of a content type dynamic detector 1506 is shown in FIG. 28. The output of the statistical analysis block 1605 is connected to the first data input of the switch 2802 and the first input of the logical disjunction unit 2803, the output of the scene change detector 2801 is connected to the control input of the switch 2802. The output of the logical disjunction block 2803 is connected to the second data input of the switch 2802. To the output of the switch 2802 a signal is transmitted from the first data input if the control input is set to logic one, and a signal from the second data input if the control input is set to logic zero. The output of switch 2802 is connected to the input of delay line 2804. The output of the delay line 2804 is connected to the second logical disjunction unit 2803 and is the output of a content type dynamic detector 1506.

Одно из возможных приложений данного изобретения в телевизионном приемнике показано на Фиг.29. Видеосигнал 2900 принимается ресивером 2901 и сохраняется в кадровом буфере 2902. Выход ресивера соединяется с устройством 2905 для обнаружения игровых эпизодов в полевых видах спорта в видеопоследовательностях. Выход кадрового буфера 2902 соединен с блоком 2903 улучшения видео изображений, который производит обработку видеоизображения, в частности, подавление шумов, улучшение контраста, обострение и т.п. Выход устройства 2905 для обнаружения игровых эпизодов в полевых видах спорта в видеопоследовательностях соединен с входом блока 2906 адаптации, который передает требуемые для данного типа изображения настройки алгоритмов обработки видеоизображения в блок 2903 улучшения видео изображений. Выход блока 2903 улучшения видео изображений, состоящий из обработанного видеопотока, подается на устройство 2904 отображения.One possible application of the present invention in a television receiver is shown in FIG. The video signal 2900 is received by the receiver 2901 and stored in the frame buffer 2902. The output of the receiver is connected to the device 2905 for detecting game episodes in field sports in video sequences. The output of the frame buffer 2902 is connected to the video image enhancement block 2903, which performs video image processing, in particular, noise reduction, contrast enhancement, sharpening, and the like. The output of the device 2905 for detecting game episodes in field sports in video sequences is connected to the input of the adaptation block 2906, which transmits the settings of the video processing algorithms required for this type of image to the video image enhancement block 2903. The output of video image enhancement unit 2903, consisting of the processed video stream, is supplied to a display device 2904.

Изобретение также может быть использовано при автоматической индексации архивов видеопоследовательностей.The invention can also be used for automatic indexing of archives of video sequences.

Claims (10)

1. Способ обнаружения игровых эпизодов в полевых видах спорта в реальном времени, заключающийся в выполнении следующих операций:
- вычисляют яркость и насыщенность каждого пикселя кадра, описываемого значениями в красном, зеленом и синем цветовых каналах;
- вычисляют абсолютную величину градиента яркости для каждого пикселя кадра;
- выполняют классификацию по цвету каждого пикселя кадра;
- вычисляют статистику по результатам классификации по цветам для всего кадра;
- вычисляют статистику по результатам классификации по цветам для зеленых областей кадра;
- определяют, является ли данный кадр игровым эпизодом в полевых видах спорта на основании исключительно характеристик текущего кадра;
- определяют, принадлежит ли текущий кадр той же сцене, что и предыдущий кадр;
- используют результат детектирования, полученный для предыдущего кадра, в качестве уточненного результата детектирования в случае, если текущий кадр принадлежит той же самой сцене, что и предыдущий кадр видеопоследовательности, или
- используют результат детектирования, полученный для текущего кадра на основании исключительно характеристик текущего кадра, в качестве уточненного результата детектирования в случае, если текущий кадр не принадлежит той же самой сцене, что и предыдущий кадр видеопоследовательности.
1. A method for detecting game episodes in field sports in real time, which consists in performing the following operations:
- calculate the brightness and saturation of each pixel in the frame described by the values in the red, green and blue color channels;
- calculate the absolute value of the brightness gradient for each pixel of the frame;
- perform classification by color of each pixel of the frame;
- calculate statistics according to the results of the classification by color for the entire frame;
- calculate statistics according to the results of the classification by color for the green areas of the frame;
- determine whether a given frame is a game episode in field sports based solely on the characteristics of the current frame;
- determine whether the current frame belongs to the same scene as the previous frame;
- use the detection result obtained for the previous frame as an updated detection result if the current frame belongs to the same scene as the previous frame of the video sequence, or
- use the detection result obtained for the current frame based solely on the characteristics of the current frame, as an updated detection result if the current frame does not belong to the same scene as the previous frame of the video sequence.
2. Способ по п.1, отличающийся тем, что процедура выполнения классификации пикселей по цвету состоит из следующих операций:
- определяют, является ли пиксель белым;
- определяют, является ли пиксель ярким и насыщенным;
- определяют, является ли пиксель желтым;
- определяют, является ли пиксель зеленым;
- определяют, похож ли пиксель по цвету на человеческую кожу.
2. The method according to claim 1, characterized in that the procedure for performing the classification of pixels by color consists of the following operations:
- determine whether the pixel is white;
- determine whether the pixel is bright and saturated;
- determine whether the pixel is yellow;
- determine whether the pixel is green;
- determine whether the pixel is similar in color to human skin.
3. Способ по п.1, отличающийся тем, что процедура вычисления статистики по результатам классификации по цветам для всего кадра заключается в выполнении следующих операций:
- вычисляют пропорцию белых пикселей в кадре;
- вычисляют пропорцию ярких и насыщенных пикселей в кадре;
- вычисляют пропорцию зеленых пикселей в кадре;
- вычисляют пропорцию пикселей, похожих по цвету на человеческую кожу в кадре.
3. The method according to claim 1, characterized in that the procedure for calculating statistics according to the results of color classification for the entire frame consists in performing the following operations:
- calculate the proportion of white pixels in the frame;
- calculate the proportion of bright and saturated pixels in the frame;
- calculate the proportion of green pixels in the frame;
- calculate the proportion of pixels similar in color to human skin in the frame.
4. Способ по п.1, отличающийся тем, что процедура вычисления статистики по результатам классификации по цветам для зеленых областей кадра заключается в выполнении следующих операций:
- вычисляют среднюю яркость в зеленых областях кадра;
- вычисляют среднюю насыщенность в зеленых областях кадра;
- вычисляют среднюю величину в синем цветовом канале в зеленых областях кадра;
- вычисляют среднюю абсолютную величину градиента яркости в зеленых областях кадра;
- вычисляют гистограмму зеленого цветового канала в зеленых областях кадра.
4. The method according to claim 1, characterized in that the procedure for calculating statistics according to the results of color classification for green areas of the frame consists in performing the following operations:
- calculate the average brightness in the green areas of the frame;
- calculate the average saturation in the green areas of the frame;
- calculate the average value in the blue color channel in the green areas of the frame;
- calculate the average absolute value of the brightness gradient in the green areas of the frame;
- calculate the histogram of the green color channel in the green areas of the frame.
5. Устройство для обнаружения игровых эпизодов в полевых видах спорта в реальном времени, состоящее из кадрового буфера, детектора признаков низкого уровня, детектора смены сцены, блока анализа признаков и динамического детектора типа контента, где кадровый буфер соединен с детектором признаков низкого уровня, входом линии задержки и с первым входом детектора смены сцены; выход детектора признаков низкого уровня соединен с блоком анализа признаков, выход линии задержки соединен со вторым входом детектора смены сцены; блок анализа признаков соединен с первым входом динамического детектора типа контента; выход детектора смены сцены соединен со вторым входом динамического детектора типа контента; выход динамического детектора типа контента является выходом устройства.5. A device for detecting game episodes in field sports in real time, consisting of a frame buffer, a low level feature detector, a scene change detector, a feature analysis unit and a dynamic content type detector, where the frame buffer is connected to a low level feature detector, line input delays and with the first input of the scene change detector; the output of the low level feature detector is connected to the feature analysis unit, the delay line output is connected to the second input of the scene change detector; a feature analysis unit is connected to a first input of a content type dynamic detector; the output of the scene change detector is connected to a second input of a content type dynamic detector; the output of a dynamic content type detector is the output of the device. 6. Устройство по п.5, отличающееся тем, что детектор смены сцены выполнен с возможностью определения, принадлежит ли текущий кадр той же сцене, что и предыдущий кадр.6. The device according to claim 5, characterized in that the scene change detector is configured to determine whether the current frame belongs to the same scene as the previous frame. 7. Устройство по п.5, отличающееся тем, что динамический детектор типа контента выполнен с возможностью передачи в качестве уточненного результата детектирования результата, полученного при детектировании предыдущего кадра в случае, если текущий кадр относится к той же сцене, что и предыдущий кадр, и результата детектирования, полученного текущего кадра на основании исключительно характеристик текущего кадра, в случае, если текущий кадр является первым кадром видеопоследовательности или если текущий кадр не относится к той же сцене, что и предыдущий кадр.7. The device according to claim 5, characterized in that the dynamic content type detector is configured to transmit, as an updated result, the detection result obtained by detecting the previous frame if the current frame belongs to the same scene as the previous frame, and the detection result obtained of the current frame based solely on the characteristics of the current frame, if the current frame is the first frame of the video sequence or if the current frame does not belong to the same scene as and the previous frame. 8. Детектор признаков низкого уровня в устройстве для обнаружения игровых эпизодов в полевых видах спорта в реальном времени, состоящий из блока преобразования пикселей, выполненного с возможностью вычисления насыщенности и яркости для каждого пикселя и соединенного с классификатором цвета пикселя, который выполнен с возможностью определения цвета пикселей в соответствии с тем, как он воспринимается человеком; и блока вычисления градиента, который выполнен с возможностью вычисления градиента в канале яркости и выход которого соединен, наряду с выходом классификатора пикселей, с входом блока статистического анализа.8. A low-level feature detector in a device for detecting game episodes in field sports in real time, consisting of a pixel conversion unit configured to calculate saturation and brightness for each pixel and coupled to a pixel color classifier, which is configured to determine pixel color in accordance with how it is perceived by man; and a gradient calculation unit, which is configured to calculate a gradient in the luminance channel and whose output is connected, along with the output of the pixel classifier, with the input of the statistical analysis unit. 9. Детектор признаков низкого уровня по п.8, отличающийся тем, что он выполнен с возможностью классифицирования цвета пикселя путем вычисления вектора, состоящего из следующих логических величин:
- является ли пиксель белым;
- является ли пиксель ярким и насыщенным;
- является ли пиксель желтым;
- является ли пиксель зеленым;
- похож ли пиксель по цвету на человеческую кожу.
9. The low-level feature detector of claim 8, characterized in that it is configured to classify the pixel color by computing a vector consisting of the following logical values:
- whether the pixel is white;
- whether the pixel is bright and saturated;
- whether the pixel is yellow;
- whether the pixel is green;
- Is the pixel similar in color to human skin.
10. Детектор признаков низкого уровня по п.8, отличающийся тем, что содержащийся в детекторе блок статистического анализа выполнен с возможностью вычисления вектора, состоящего из следующих характеристик кадра:
- нормализованное число зеленых пикселей в кадре;
- нормализованное число ярких и насыщенных пикселей в кадре;
- нормализованное число пикселей, похожих по цвету на человеческую кожу в кадре;
- средняя яркость зеленых областей кадра;
- средняя насыщенность зеленых областей кадра;
средняя величина синего цветового канала в зеленых областях кадра;
- средняя абсолютная величина градиента яркости в зеленых областях кадра;
- компактность гистограммы зеленого цветового канала в зеленых областях кадра.
10. The low level feature detector of claim 8, characterized in that the statistical analysis unit contained in the detector is configured to calculate a vector consisting of the following frame characteristics:
- the normalized number of green pixels in the frame;
- the normalized number of bright and saturated pixels in the frame;
- the normalized number of pixels similar in color to human skin in a frame;
- the average brightness of the green areas of the frame;
- average saturation of green areas of the frame;
the average value of the blue color channel in the green areas of the frame;
- the average absolute value of the brightness gradient in the green areas of the frame;
- compactness of the histogram of the green color channel in the green areas of the frame.
RU2012109119/07A 2012-03-12 2012-03-12 Method and apparatus for detecting game incidents in field sports in video sequences RU2526049C2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
RU2012109119/07A RU2526049C2 (en) 2012-03-12 2012-03-12 Method and apparatus for detecting game incidents in field sports in video sequences
KR1020120125698A KR20130105270A (en) 2012-03-12 2012-11-07 Method and apparatus for determining content type of video content
KR1020130008212A KR102014443B1 (en) 2012-03-12 2013-01-24 Method and apparatus for determining content type of video content
PCT/KR2013/001966 WO2013137613A1 (en) 2012-03-12 2013-03-12 Method and apparatus for determining content type of video content
US13/795,716 US20130237317A1 (en) 2012-03-12 2013-03-12 Method and apparatus for determining content type of video content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2012109119/07A RU2526049C2 (en) 2012-03-12 2012-03-12 Method and apparatus for detecting game incidents in field sports in video sequences

Publications (2)

Publication Number Publication Date
RU2012109119A RU2012109119A (en) 2013-09-20
RU2526049C2 true RU2526049C2 (en) 2014-08-20

Family

ID=49182852

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2012109119/07A RU2526049C2 (en) 2012-03-12 2012-03-12 Method and apparatus for detecting game incidents in field sports in video sequences

Country Status (2)

Country Link
KR (2) KR20130105270A (en)
RU (1) RU2526049C2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102801054B1 (en) 2020-02-24 2025-04-29 삼성전자주식회사 Electronice device and control method thereof
KR102828339B1 (en) * 2025-01-24 2025-07-02 (주)아이브리지닷컴 A monitor apparatus for saving the power by analyzing the contents and the method for controling the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7317811B2 (en) * 2001-11-28 2008-01-08 Sony Electronics Inc. Method to decode temporal watermarks in compressed video
JP2008122551A (en) * 2006-11-10 2008-05-29 Matsushita Electric Ind Co Ltd Image display apparatus and image quality adjustment parameter determination method
JP5084615B2 (en) * 2008-06-03 2012-11-28 三菱電機株式会社 Image display device

Also Published As

Publication number Publication date
KR20130105320A (en) 2013-09-25
RU2012109119A (en) 2013-09-20
KR102014443B1 (en) 2019-08-26
KR20130105270A (en) 2013-09-25

Similar Documents

Publication Publication Date Title
Bora Importance of image enhancement techniques in color image segmentation: a comprehensive and comparative study
JP5686800B2 (en) Method and apparatus for processing video
KR100873638B1 (en) Image processing method and device
Zheng et al. Infrared traffic image enhancement algorithm based on dark channel prior and gamma correction
KR20090084563A (en) Method and apparatus for generating depth map of video image
CA2904378C (en) Playfield detection and shot classification in sports video
CN106358029A (en) Video image processing method and device
Kaur et al. Review and analysis of various image enhancement techniques
Cheng et al. A hierarchical airlight estimation method for image fog removal
Jacobson et al. Scale-aware saliency for application to frame rate upconversion
Zhou et al. No-reference quality assessment of DIBR-synthesized videos by measuring temporal flickering
Xian et al. A content-oriented no-reference perceptual video quality assessment method for computer graphics animation videos
RU2526049C2 (en) Method and apparatus for detecting game incidents in field sports in video sequences
Jakhetiya et al. Distortion specific contrast based no-reference quality assessment of DIBR-synthesized views
KR102427039B1 (en) Fine dust detecting solution and system by computing brightness residual based on AI
CN106846260B (en) Video defogging method in a kind of computer
CN111402189B (en) Video image color cast detection device and method
CN109167988B (en) Stereo image visual comfort evaluation method based on D + W model and contrast
Kong et al. Full-reference IPTV image quality assessment by deeply learning structural cues
Tai et al. Underwater image enhancement through depth estimation based on random forest
US20130237317A1 (en) Method and apparatus for determining content type of video content
Wang et al. No-Reference DIBR-Synthesized Video Quality Assessment based on Spatio-Temporal Texture Inconsistency Measurement
KR101337833B1 (en) Method for estimating response of audience concerning content
CN113762014A (en) Method and device for determining similar videos
Lin et al. Video quality enhancement based on visual attention model and multi-level exposure correction

Legal Events

Date Code Title Description
HE9A Changing address for correspondence with an applicant