[go: up one dir, main page]

RU2014110361A - Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях - Google Patents

Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях Download PDF

Info

Publication number
RU2014110361A
RU2014110361A RU2014110361/08A RU2014110361A RU2014110361A RU 2014110361 A RU2014110361 A RU 2014110361A RU 2014110361/08 A RU2014110361/08 A RU 2014110361/08A RU 2014110361 A RU2014110361 A RU 2014110361A RU 2014110361 A RU2014110361 A RU 2014110361A
Authority
RU
Russia
Prior art keywords
segments
interest
foreground
objects
foreground area
Prior art date
Application number
RU2014110361/08A
Other languages
English (en)
Inventor
Иван Леонидович Мазуренко
Денис Владимирович Пархоменко
Павел Александрович Алисейчик
Барретт Брикнер
Дмитрий Николаевич Бабин
Original Assignee
ЭлЭсАй Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлЭсАй Корпорейшн filed Critical ЭлЭсАй Корпорейшн
Priority to RU2014110361/08A priority Critical patent/RU2014110361A/ru
Priority to US14/661,524 priority patent/US9384556B2/en
Publication of RU2014110361A publication Critical patent/RU2014110361A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

1. Способ, содержащий этапы, на которых:получают одно или более изображений;оценивают область переднего плана, представляющую интерес, из одного или более изображений;определяют множество сегментов области переднего плана, представляющей интерес;вычисляют статистические данные амплитуды для соответствующих сегментов из множества сегментов;классифицируют соответствующие сегменты, как соответствующие части статических объектов переднего плана или как соответствующие части динамических объектов переднего плана, на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для известных статических и динамических объектов; иудаляют один или более сегментов, классифицированных как статические объекты переднего плана, из области переднего плана, представляющей интерес;при этом этапы реализуют в процессоре изображений, содержащем процессор, соединенный с памятью.2. Способ по п. 1, дополнительно содержащий этап, на котором вычисляют статистические данные глубины для соответствующих сегментов из множества сегментов, при этом классификация соответствующих сегментов как соответствующих частей статистических объектов переднего плана или как соответствующих частей динамических объектов переднего плана основывается по меньшей мере частично на вычисленных статистических данных амплитуды, вычисленных статистических данных глубины и упомянутых одном или более заданных шаблонов для известных статистических и динамических объектов.3. Способ по п. 1, при этом этап, на котором идентифицируют область переднего плана, представляющую интерес, содержит эта

Claims (20)

1. Способ, содержащий этапы, на которых:
получают одно или более изображений;
оценивают область переднего плана, представляющую интерес, из одного или более изображений;
определяют множество сегментов области переднего плана, представляющей интерес;
вычисляют статистические данные амплитуды для соответствующих сегментов из множества сегментов;
классифицируют соответствующие сегменты, как соответствующие части статических объектов переднего плана или как соответствующие части динамических объектов переднего плана, на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для известных статических и динамических объектов; и
удаляют один или более сегментов, классифицированных как статические объекты переднего плана, из области переднего плана, представляющей интерес;
при этом этапы реализуют в процессоре изображений, содержащем процессор, соединенный с памятью.
2. Способ по п. 1, дополнительно содержащий этап, на котором вычисляют статистические данные глубины для соответствующих сегментов из множества сегментов, при этом классификация соответствующих сегментов как соответствующих частей статистических объектов переднего плана или как соответствующих частей динамических объектов переднего плана основывается по меньшей мере частично на вычисленных статистических данных амплитуды, вычисленных статистических данных глубины и упомянутых одном или более заданных шаблонов для известных статистических и динамических объектов.
3. Способ по п. 1, при этом этап, на котором идентифицируют область переднего плана, представляющую интерес, содержит этап, на котором генерируют двоичную маску области переднего плана, представляющей интерес, в которой все пиксели внутри области переднего плана, представляющей интерес, имеют первое двоичное значение, и все пиксели снаружи области переднего плана, представляющей интерес, имеют второе двоичное значение, комплиментарное первому двоичному значению.
4. Способ по п. 3, при этом:
упомянутые одно или более изображений содержат изображение амплитуды и соответствующее изображение глубины;
соответствующим пикселям в изображении амплитуды, имеющим значения амплитуды выше заданного порога, назначают первое двоичное значение, и соответствующим пикселям, имеющим значения амплитуды ниже заданного порога, назначают второе двоичное значение; и
соответствующим пикселям в изображении глубины, имеющим глубину в пределах заданного порога, назначают первое двоичное значение, и соответствующим пикселям, имеющим глубину за пределами заданного порога, назначают второе двоичное значение.
5. Способ по п. 1, в котором этап, на котором определяют множество сегментов области переднего плана, представляющей интерес, содержит один из этапов, на которых:
сегментируют область переднего плана, представляющую интерес, на предварительно заданное постоянное число сегментов;
сегментируют область переднего плана, представляющую интерес, на сегменты, содержащие соответствующие группы пикселей, так чтобы соответствующее число пикселей в каждой группе пикселей было приблизительно одинаковым; и
сегментируют область переднего плана, представляющую интерес, на зоны заданные прямоугольной сеткой.
6. Способ по п. 1, в котором этап, на котором получают одно или более изображений содержит этапы, на которых получают изображение амплитуды, оценивают статистические данные амплитуды по каждому пикселю для каждого пикселя изображения амплитуды, и сохраняют статистические данные по каждому пикселю в буфере истории амплитуды.
7. Способ по п. 6, в котором этап, на котором вычисляют статистические данные амплитуды для соответствующих сегментов из множества сегментов, основывается на анализе статистических данных по каждому пикселю для пикселей внутри соответствующих сегментов.
8. Способ по п. 7, в котором статистические данные амплитуды данного сегмента содержат среднее арифметическое значение для значений амплитуды по каждому пикселю для пикселей внутри данного сегмента и стандартное отклонение среднего арифметического значения.
9. Способ по п. 1, дополнительно содержащий этап, на котором классифицируют соответствующие сегменты как материал кожи или как материал не кожи на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для материалов кожи и не кожи.
10. Способ по п. 9, дополнительно содержащий этап, на котором удаляют один или более сегментов, классифицированных как материал не кожи, из области переднего плана, представляющей интерес.
11. Способ по п. 9, дополнительно содержащий этап, на котором классифицируют один или более из множества сегментов области переднего плана, представляющей интерес, как область руки, представляющую интерес, в ответ на классификацию одного или более сегментов как динамических объектов и классификацию одного или более объектов как материал кожи.
12. Способ по п. 11, дополнительно содержащий этап, на котором удаляют сегменты области переднего плана, представляющей интерес, не классифицированные как область руки, представляющая интерес.
13. Способ по п. 9, дополнительно содержащий этапы, на которых:
строят граф связности для множества сегментов;
назначают флаг кожи каждому сегменту, при этом флаг кожи идентифицирует, классифицированы ли соответствующие сегменты как материал кожи или материал не кожи;
распространяют флаг кожи на основе графа связности для задания одной или более зон кожи области переднего плана, представляющей интерес;
назначают динамический флаг каждому сегменту, при этом динамический флаг идентифицирует, классифицированы ли соответствующие сегменты как соответствующие части статических объектов или как соответствующие части динамических объектов переднего плана;
распространяют динамический флаг на основе графа связности для задания одной или более динамических зон области переднего плана, представляющей интерес; и
задают зоны динамической кожи области переднего плана, представляющей интерес, как пересечения зоны кожи и динамической зоны.
14. Способ по п. 13, дополнительно содержащий этапы, на которых:
классифицируют по меньшей мере часть зоны динамической кожи как область руки, представляющую интерес; и
удаляют из области переднего плана, представляющей интерес, сегменты, не классифицированные как область руки, представляющая интерес.
15. Изделие, содержащее компьютерно-читаемый запоминающий носитель, содержащий осуществленный в нем компьютерный программный код, при этом компьютерный программный код при исполнении в процессоре изображений предписывает процессору изображений выполнять способ по п. 1.
16. Устройство, содержащее:
процессор изображений, содержащий схему обработки изображений и связанную память;
при этом процессор изображений выполнен с возможностью реализации модуля обработки переднего плана, использующего схему обработки изображений и память;
при этом модуль обработки переднего плана выполнен с возможностью:
получения одного или более изображений;
оценки области переднего плана, представляющей интерес, из упомянутых одного или более изображений;
определения множества сегментов области переднего плана, представляющей интерес;
вычисления статистических данных амплитуды для соответствующих сегментов из множества сегментов;
классификации соответствующих сегментов как соответствующих частей статических объектов переднего плана или как соответствующих части динамических объектов переднего плана, на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для известных статических и динамических объектов; и
удаления одного или более сегментов, классифицированных как статические объекты переднего плана, из области переднего плана, представляющей интерес.
17. Устройство по п. 16, в котором модуль обработки переднего плана дополнительно выполнен с возможностью:
классификации соответствующих сегментов как материала кожи или как материала не кожи на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для материалов кожи и не кожи; и
удаления одного или более сегментов, классифицированных как материал не кожи, из области переднего плана, представляющей интерес.
18. Устройство по п. 17, в котором модуль обработки переднего плана дополнительно выполнен с возможностью:
классификации одного или более из множества сегментов области переднего плана, представляющей интерес, как области руки, представляющей интерес, в ответ на классификацию одного или более сегментов как динамических объектов и классификацию одного или более объектов как материал кожи; и
удаления из области переднего плана, представляющей интерес, сегментов, не классифицированных как область руки, представляющая интерес.
19. Интегральная схема, содержащая устройство по п. 16.
20. Система обработки изображений, содержащая устройство по п. 16.
RU2014110361/08A 2014-03-18 2014-03-18 Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях RU2014110361A (ru)

Priority Applications (2)

Application Number Priority Date Filing Date Title
RU2014110361/08A RU2014110361A (ru) 2014-03-18 2014-03-18 Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях
US14/661,524 US9384556B2 (en) 2014-03-18 2015-03-18 Image processor configured for efficient estimation and elimination of foreground information in images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014110361/08A RU2014110361A (ru) 2014-03-18 2014-03-18 Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях

Publications (1)

Publication Number Publication Date
RU2014110361A true RU2014110361A (ru) 2015-09-27

Family

ID=54142612

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014110361/08A RU2014110361A (ru) 2014-03-18 2014-03-18 Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях

Country Status (2)

Country Link
US (1) US9384556B2 (ru)
RU (1) RU2014110361A (ru)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9524028B2 (en) * 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US9639951B2 (en) * 2014-10-23 2017-05-02 Khalifa University of Science, Technology & Research Object detection and tracking using depth data
US10051344B2 (en) * 2016-09-27 2018-08-14 Clarifai, Inc. Prediction model training via live stream concept association
US10970916B2 (en) * 2016-10-19 2021-04-06 Sony Corporation Image processing apparatus and image processing method
GB2560177A (en) 2017-03-01 2018-09-05 Thirdeye Labs Ltd Training a computational neural network
GB2560387B (en) 2017-03-10 2022-03-09 Standard Cognition Corp Action identification using neural networks
US10650545B2 (en) 2017-08-07 2020-05-12 Standard Cognition, Corp. Systems and methods to check-in shoppers in a cashier-less store
US11200692B2 (en) 2017-08-07 2021-12-14 Standard Cognition, Corp Systems and methods to check-in shoppers in a cashier-less store
US10853965B2 (en) 2017-08-07 2020-12-01 Standard Cognition, Corp Directional impression analysis using deep learning
US10474988B2 (en) * 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US11023850B2 (en) 2017-08-07 2021-06-01 Standard Cognition, Corp. Realtime inventory location management using deep learning
US11250376B2 (en) 2017-08-07 2022-02-15 Standard Cognition, Corp Product correlation analysis using deep learning
US10445694B2 (en) 2017-08-07 2019-10-15 Standard Cognition, Corp. Realtime inventory tracking using deep learning
US11232687B2 (en) 2017-08-07 2022-01-25 Standard Cognition, Corp Deep learning-based shopper statuses in a cashier-less store
US10474991B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Deep learning-based store realograms
US11394898B2 (en) 2017-09-08 2022-07-19 Apple Inc. Augmented reality self-portraits
US10839577B2 (en) * 2017-09-08 2020-11-17 Apple Inc. Creating augmented reality self-portraits using machine learning
US10949700B2 (en) * 2018-01-10 2021-03-16 Qualcomm Incorporated Depth based image searching
US10645357B2 (en) * 2018-03-01 2020-05-05 Motorola Mobility Llc Selectively applying color to an image
CN111131692B (zh) * 2018-10-31 2021-09-10 苹果公司 用于使用机器学习创建增强现实自摄像的方法和系统
US12333739B2 (en) 2019-04-18 2025-06-17 Standard Cognition, Corp. Machine learning-based re-identification of shoppers in a cashier-less store for autonomous checkout
US11232575B2 (en) 2019-04-18 2022-01-25 Standard Cognition, Corp Systems and methods for deep learning-based subject persistence
CN110378946B (zh) * 2019-07-11 2021-10-01 Oppo广东移动通信有限公司 深度图处理方法、装置以及电子设备
US10991130B2 (en) * 2019-07-29 2021-04-27 Verizon Patent And Licensing Inc. Systems and methods for implementing a sensor based real time tracking system
US11416998B2 (en) * 2019-07-30 2022-08-16 Microsoft Technology Licensing, Llc Pixel classification to reduce depth-estimation error
US11361468B2 (en) 2020-06-26 2022-06-14 Standard Cognition, Corp. Systems and methods for automated recalibration of sensors for autonomous checkout
US11303853B2 (en) 2020-06-26 2022-04-12 Standard Cognition, Corp. Systems and methods for automated design of camera placement and cameras arrangements for autonomous checkout
US12288294B2 (en) 2020-06-26 2025-04-29 Standard Cognition, Corp. Systems and methods for extrinsic calibration of sensors for autonomous checkout
KR102857620B1 (ko) * 2021-01-26 2025-09-09 삼성전자주식회사 전자 장치 및 이의 제어 방법
US20230079018A1 (en) 2021-09-08 2023-03-16 Standard Cognition, Corp. Deep learning-based detection of item sizes for autonomous checkout in a cashier-less shopping store

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144426A (en) * 1989-10-13 1992-09-01 Matsushita Electric Industrial Co., Ltd. Motion compensated prediction interframe coding system
WO2007126525A2 (en) * 2006-04-17 2007-11-08 Objectvideo, Inc. Video segmentation using statistical pixel modeling
KR100579890B1 (ko) * 2004-12-30 2006-05-15 삼성전자주식회사 움직임 적응적 영상처리 장치 및 그 방법
EP2093699A1 (en) * 2008-02-19 2009-08-26 British Telecommunications Public Limited Company Movable object status determination
US8503720B2 (en) * 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8941726B2 (en) * 2009-12-10 2015-01-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting moving objects from images using foreground extraction
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8483481B2 (en) * 2010-07-27 2013-07-09 International Business Machines Corporation Foreground analysis based on tracking information
WO2012023639A1 (ko) * 2010-08-17 2012-02-23 엘지전자 주식회사 다수의 센서를 이용하는 객체 계수 방법 및 장치
US8682063B2 (en) * 2010-11-24 2014-03-25 Adobe Systems Incorporated Methods and apparatus for dynamic color flow modeling

Also Published As

Publication number Publication date
US20150269740A1 (en) 2015-09-24
US9384556B2 (en) 2016-07-05

Similar Documents

Publication Publication Date Title
RU2014110361A (ru) Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях
US10192107B2 (en) Object detection method and object detection apparatus
JP6303332B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
EP3032462B1 (en) Method and apparatus for tracking object, and non-transitory computer-readable recording medium
US9294665B2 (en) Feature extraction apparatus, feature extraction program, and image processing apparatus
EP2919162A1 (en) Image processing apparatus and image processing method
US9792507B2 (en) Method and system for ground truth determination in lane departure warning
JP2015529154A5 (ru)
RU2016110434A (ru) Способ и устройство для идентификации области
JP2016534709A5 (ru)
RU2014153987A (ru) Способ и устройство для сегментации изображения
JP2014059875A5 (ru)
RU2014127535A (ru) Автоматизация анализа изображения
Nobre et al. SAR image segmentation with Renyi's entropy
RU2013104895A (ru) Процессор изображений с функциональностью выбора контуров
JP6338429B2 (ja) 被写体検出装置、被写体検出方法及びプログラム
JP6809613B2 (ja) 画像前景の検出装置、検出方法及び電子機器
CN112802015A (zh) 基于模板匹配的工业颗粒连片制品图像切割方法、装置
CN114332949B (zh) 人体行为活动的检测方法、检测装置与行为活动检测系统
JP2017204276A (ja) 目標物体の検出装置及び方法
JP5954212B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
CN106295693A (zh) 一种图像识别方法及装置
CN108242059B (zh) 图像边界查找方法和装置
JP6429323B2 (ja) オブジェクト抽出方法および装置
Yildirim et al. Gender recognition using hog with maximized inter-class difference

Legal Events

Date Code Title Description
FA93 Acknowledgement of application withdrawn (no request for examination)

Effective date: 20170320