RU2014110361A - Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях - Google Patents
Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях Download PDFInfo
- Publication number
- RU2014110361A RU2014110361A RU2014110361/08A RU2014110361A RU2014110361A RU 2014110361 A RU2014110361 A RU 2014110361A RU 2014110361/08 A RU2014110361/08 A RU 2014110361/08A RU 2014110361 A RU2014110361 A RU 2014110361A RU 2014110361 A RU2014110361 A RU 2014110361A
- Authority
- RU
- Russia
- Prior art keywords
- segments
- interest
- foreground
- objects
- foreground area
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
1. Способ, содержащий этапы, на которых:получают одно или более изображений;оценивают область переднего плана, представляющую интерес, из одного или более изображений;определяют множество сегментов области переднего плана, представляющей интерес;вычисляют статистические данные амплитуды для соответствующих сегментов из множества сегментов;классифицируют соответствующие сегменты, как соответствующие части статических объектов переднего плана или как соответствующие части динамических объектов переднего плана, на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для известных статических и динамических объектов; иудаляют один или более сегментов, классифицированных как статические объекты переднего плана, из области переднего плана, представляющей интерес;при этом этапы реализуют в процессоре изображений, содержащем процессор, соединенный с памятью.2. Способ по п. 1, дополнительно содержащий этап, на котором вычисляют статистические данные глубины для соответствующих сегментов из множества сегментов, при этом классификация соответствующих сегментов как соответствующих частей статистических объектов переднего плана или как соответствующих частей динамических объектов переднего плана основывается по меньшей мере частично на вычисленных статистических данных амплитуды, вычисленных статистических данных глубины и упомянутых одном или более заданных шаблонов для известных статистических и динамических объектов.3. Способ по п. 1, при этом этап, на котором идентифицируют область переднего плана, представляющую интерес, содержит эта
Claims (20)
1. Способ, содержащий этапы, на которых:
получают одно или более изображений;
оценивают область переднего плана, представляющую интерес, из одного или более изображений;
определяют множество сегментов области переднего плана, представляющей интерес;
вычисляют статистические данные амплитуды для соответствующих сегментов из множества сегментов;
классифицируют соответствующие сегменты, как соответствующие части статических объектов переднего плана или как соответствующие части динамических объектов переднего плана, на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для известных статических и динамических объектов; и
удаляют один или более сегментов, классифицированных как статические объекты переднего плана, из области переднего плана, представляющей интерес;
при этом этапы реализуют в процессоре изображений, содержащем процессор, соединенный с памятью.
2. Способ по п. 1, дополнительно содержащий этап, на котором вычисляют статистические данные глубины для соответствующих сегментов из множества сегментов, при этом классификация соответствующих сегментов как соответствующих частей статистических объектов переднего плана или как соответствующих частей динамических объектов переднего плана основывается по меньшей мере частично на вычисленных статистических данных амплитуды, вычисленных статистических данных глубины и упомянутых одном или более заданных шаблонов для известных статистических и динамических объектов.
3. Способ по п. 1, при этом этап, на котором идентифицируют область переднего плана, представляющую интерес, содержит этап, на котором генерируют двоичную маску области переднего плана, представляющей интерес, в которой все пиксели внутри области переднего плана, представляющей интерес, имеют первое двоичное значение, и все пиксели снаружи области переднего плана, представляющей интерес, имеют второе двоичное значение, комплиментарное первому двоичному значению.
4. Способ по п. 3, при этом:
упомянутые одно или более изображений содержат изображение амплитуды и соответствующее изображение глубины;
соответствующим пикселям в изображении амплитуды, имеющим значения амплитуды выше заданного порога, назначают первое двоичное значение, и соответствующим пикселям, имеющим значения амплитуды ниже заданного порога, назначают второе двоичное значение; и
соответствующим пикселям в изображении глубины, имеющим глубину в пределах заданного порога, назначают первое двоичное значение, и соответствующим пикселям, имеющим глубину за пределами заданного порога, назначают второе двоичное значение.
5. Способ по п. 1, в котором этап, на котором определяют множество сегментов области переднего плана, представляющей интерес, содержит один из этапов, на которых:
сегментируют область переднего плана, представляющую интерес, на предварительно заданное постоянное число сегментов;
сегментируют область переднего плана, представляющую интерес, на сегменты, содержащие соответствующие группы пикселей, так чтобы соответствующее число пикселей в каждой группе пикселей было приблизительно одинаковым; и
сегментируют область переднего плана, представляющую интерес, на зоны заданные прямоугольной сеткой.
6. Способ по п. 1, в котором этап, на котором получают одно или более изображений содержит этапы, на которых получают изображение амплитуды, оценивают статистические данные амплитуды по каждому пикселю для каждого пикселя изображения амплитуды, и сохраняют статистические данные по каждому пикселю в буфере истории амплитуды.
7. Способ по п. 6, в котором этап, на котором вычисляют статистические данные амплитуды для соответствующих сегментов из множества сегментов, основывается на анализе статистических данных по каждому пикселю для пикселей внутри соответствующих сегментов.
8. Способ по п. 7, в котором статистические данные амплитуды данного сегмента содержат среднее арифметическое значение для значений амплитуды по каждому пикселю для пикселей внутри данного сегмента и стандартное отклонение среднего арифметического значения.
9. Способ по п. 1, дополнительно содержащий этап, на котором классифицируют соответствующие сегменты как материал кожи или как материал не кожи на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для материалов кожи и не кожи.
10. Способ по п. 9, дополнительно содержащий этап, на котором удаляют один или более сегментов, классифицированных как материал не кожи, из области переднего плана, представляющей интерес.
11. Способ по п. 9, дополнительно содержащий этап, на котором классифицируют один или более из множества сегментов области переднего плана, представляющей интерес, как область руки, представляющую интерес, в ответ на классификацию одного или более сегментов как динамических объектов и классификацию одного или более объектов как материал кожи.
12. Способ по п. 11, дополнительно содержащий этап, на котором удаляют сегменты области переднего плана, представляющей интерес, не классифицированные как область руки, представляющая интерес.
13. Способ по п. 9, дополнительно содержащий этапы, на которых:
строят граф связности для множества сегментов;
назначают флаг кожи каждому сегменту, при этом флаг кожи идентифицирует, классифицированы ли соответствующие сегменты как материал кожи или материал не кожи;
распространяют флаг кожи на основе графа связности для задания одной или более зон кожи области переднего плана, представляющей интерес;
назначают динамический флаг каждому сегменту, при этом динамический флаг идентифицирует, классифицированы ли соответствующие сегменты как соответствующие части статических объектов или как соответствующие части динамических объектов переднего плана;
распространяют динамический флаг на основе графа связности для задания одной или более динамических зон области переднего плана, представляющей интерес; и
задают зоны динамической кожи области переднего плана, представляющей интерес, как пересечения зоны кожи и динамической зоны.
14. Способ по п. 13, дополнительно содержащий этапы, на которых:
классифицируют по меньшей мере часть зоны динамической кожи как область руки, представляющую интерес; и
удаляют из области переднего плана, представляющей интерес, сегменты, не классифицированные как область руки, представляющая интерес.
15. Изделие, содержащее компьютерно-читаемый запоминающий носитель, содержащий осуществленный в нем компьютерный программный код, при этом компьютерный программный код при исполнении в процессоре изображений предписывает процессору изображений выполнять способ по п. 1.
16. Устройство, содержащее:
процессор изображений, содержащий схему обработки изображений и связанную память;
при этом процессор изображений выполнен с возможностью реализации модуля обработки переднего плана, использующего схему обработки изображений и память;
при этом модуль обработки переднего плана выполнен с возможностью:
получения одного или более изображений;
оценки области переднего плана, представляющей интерес, из упомянутых одного или более изображений;
определения множества сегментов области переднего плана, представляющей интерес;
вычисления статистических данных амплитуды для соответствующих сегментов из множества сегментов;
классификации соответствующих сегментов как соответствующих частей статических объектов переднего плана или как соответствующих части динамических объектов переднего плана, на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для известных статических и динамических объектов; и
удаления одного или более сегментов, классифицированных как статические объекты переднего плана, из области переднего плана, представляющей интерес.
17. Устройство по п. 16, в котором модуль обработки переднего плана дополнительно выполнен с возможностью:
классификации соответствующих сегментов как материала кожи или как материала не кожи на основе, по меньшей мере частично, вычисленных статистических данных амплитуды и одного или более заданных шаблонов для материалов кожи и не кожи; и
удаления одного или более сегментов, классифицированных как материал не кожи, из области переднего плана, представляющей интерес.
18. Устройство по п. 17, в котором модуль обработки переднего плана дополнительно выполнен с возможностью:
классификации одного или более из множества сегментов области переднего плана, представляющей интерес, как области руки, представляющей интерес, в ответ на классификацию одного или более сегментов как динамических объектов и классификацию одного или более объектов как материал кожи; и
удаления из области переднего плана, представляющей интерес, сегментов, не классифицированных как область руки, представляющая интерес.
19. Интегральная схема, содержащая устройство по п. 16.
20. Система обработки изображений, содержащая устройство по п. 16.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| RU2014110361/08A RU2014110361A (ru) | 2014-03-18 | 2014-03-18 | Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях |
| US14/661,524 US9384556B2 (en) | 2014-03-18 | 2015-03-18 | Image processor configured for efficient estimation and elimination of foreground information in images |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| RU2014110361/08A RU2014110361A (ru) | 2014-03-18 | 2014-03-18 | Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| RU2014110361A true RU2014110361A (ru) | 2015-09-27 |
Family
ID=54142612
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| RU2014110361/08A RU2014110361A (ru) | 2014-03-18 | 2014-03-18 | Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US9384556B2 (ru) |
| RU (1) | RU2014110361A (ru) |
Families Citing this family (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9524028B2 (en) * | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
| US9639951B2 (en) * | 2014-10-23 | 2017-05-02 | Khalifa University of Science, Technology & Research | Object detection and tracking using depth data |
| US10051344B2 (en) * | 2016-09-27 | 2018-08-14 | Clarifai, Inc. | Prediction model training via live stream concept association |
| US10970916B2 (en) * | 2016-10-19 | 2021-04-06 | Sony Corporation | Image processing apparatus and image processing method |
| GB2560177A (en) | 2017-03-01 | 2018-09-05 | Thirdeye Labs Ltd | Training a computational neural network |
| GB2560387B (en) | 2017-03-10 | 2022-03-09 | Standard Cognition Corp | Action identification using neural networks |
| US10650545B2 (en) | 2017-08-07 | 2020-05-12 | Standard Cognition, Corp. | Systems and methods to check-in shoppers in a cashier-less store |
| US11200692B2 (en) | 2017-08-07 | 2021-12-14 | Standard Cognition, Corp | Systems and methods to check-in shoppers in a cashier-less store |
| US10853965B2 (en) | 2017-08-07 | 2020-12-01 | Standard Cognition, Corp | Directional impression analysis using deep learning |
| US10474988B2 (en) * | 2017-08-07 | 2019-11-12 | Standard Cognition, Corp. | Predicting inventory events using foreground/background processing |
| US11023850B2 (en) | 2017-08-07 | 2021-06-01 | Standard Cognition, Corp. | Realtime inventory location management using deep learning |
| US11250376B2 (en) | 2017-08-07 | 2022-02-15 | Standard Cognition, Corp | Product correlation analysis using deep learning |
| US10445694B2 (en) | 2017-08-07 | 2019-10-15 | Standard Cognition, Corp. | Realtime inventory tracking using deep learning |
| US11232687B2 (en) | 2017-08-07 | 2022-01-25 | Standard Cognition, Corp | Deep learning-based shopper statuses in a cashier-less store |
| US10474991B2 (en) | 2017-08-07 | 2019-11-12 | Standard Cognition, Corp. | Deep learning-based store realograms |
| US11394898B2 (en) | 2017-09-08 | 2022-07-19 | Apple Inc. | Augmented reality self-portraits |
| US10839577B2 (en) * | 2017-09-08 | 2020-11-17 | Apple Inc. | Creating augmented reality self-portraits using machine learning |
| US10949700B2 (en) * | 2018-01-10 | 2021-03-16 | Qualcomm Incorporated | Depth based image searching |
| US10645357B2 (en) * | 2018-03-01 | 2020-05-05 | Motorola Mobility Llc | Selectively applying color to an image |
| CN111131692B (zh) * | 2018-10-31 | 2021-09-10 | 苹果公司 | 用于使用机器学习创建增强现实自摄像的方法和系统 |
| US12333739B2 (en) | 2019-04-18 | 2025-06-17 | Standard Cognition, Corp. | Machine learning-based re-identification of shoppers in a cashier-less store for autonomous checkout |
| US11232575B2 (en) | 2019-04-18 | 2022-01-25 | Standard Cognition, Corp | Systems and methods for deep learning-based subject persistence |
| CN110378946B (zh) * | 2019-07-11 | 2021-10-01 | Oppo广东移动通信有限公司 | 深度图处理方法、装置以及电子设备 |
| US10991130B2 (en) * | 2019-07-29 | 2021-04-27 | Verizon Patent And Licensing Inc. | Systems and methods for implementing a sensor based real time tracking system |
| US11416998B2 (en) * | 2019-07-30 | 2022-08-16 | Microsoft Technology Licensing, Llc | Pixel classification to reduce depth-estimation error |
| US11361468B2 (en) | 2020-06-26 | 2022-06-14 | Standard Cognition, Corp. | Systems and methods for automated recalibration of sensors for autonomous checkout |
| US11303853B2 (en) | 2020-06-26 | 2022-04-12 | Standard Cognition, Corp. | Systems and methods for automated design of camera placement and cameras arrangements for autonomous checkout |
| US12288294B2 (en) | 2020-06-26 | 2025-04-29 | Standard Cognition, Corp. | Systems and methods for extrinsic calibration of sensors for autonomous checkout |
| KR102857620B1 (ko) * | 2021-01-26 | 2025-09-09 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
| US20230079018A1 (en) | 2021-09-08 | 2023-03-16 | Standard Cognition, Corp. | Deep learning-based detection of item sizes for autonomous checkout in a cashier-less shopping store |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5144426A (en) * | 1989-10-13 | 1992-09-01 | Matsushita Electric Industrial Co., Ltd. | Motion compensated prediction interframe coding system |
| WO2007126525A2 (en) * | 2006-04-17 | 2007-11-08 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
| KR100579890B1 (ko) * | 2004-12-30 | 2006-05-15 | 삼성전자주식회사 | 움직임 적응적 영상처리 장치 및 그 방법 |
| EP2093699A1 (en) * | 2008-02-19 | 2009-08-26 | British Telecommunications Public Limited Company | Movable object status determination |
| US8503720B2 (en) * | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
| US8941726B2 (en) * | 2009-12-10 | 2015-01-27 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for segmenting moving objects from images using foreground extraction |
| US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
| US8483481B2 (en) * | 2010-07-27 | 2013-07-09 | International Business Machines Corporation | Foreground analysis based on tracking information |
| WO2012023639A1 (ko) * | 2010-08-17 | 2012-02-23 | 엘지전자 주식회사 | 다수의 센서를 이용하는 객체 계수 방법 및 장치 |
| US8682063B2 (en) * | 2010-11-24 | 2014-03-25 | Adobe Systems Incorporated | Methods and apparatus for dynamic color flow modeling |
-
2014
- 2014-03-18 RU RU2014110361/08A patent/RU2014110361A/ru not_active Application Discontinuation
-
2015
- 2015-03-18 US US14/661,524 patent/US9384556B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US20150269740A1 (en) | 2015-09-24 |
| US9384556B2 (en) | 2016-07-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| RU2014110361A (ru) | Процессор изображений, сконфигурированный для эффективной оценки и устранения информации переднего плана на изображениях | |
| US10192107B2 (en) | Object detection method and object detection apparatus | |
| JP6303332B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
| EP3032462B1 (en) | Method and apparatus for tracking object, and non-transitory computer-readable recording medium | |
| US9294665B2 (en) | Feature extraction apparatus, feature extraction program, and image processing apparatus | |
| EP2919162A1 (en) | Image processing apparatus and image processing method | |
| US9792507B2 (en) | Method and system for ground truth determination in lane departure warning | |
| JP2015529154A5 (ru) | ||
| RU2016110434A (ru) | Способ и устройство для идентификации области | |
| JP2016534709A5 (ru) | ||
| RU2014153987A (ru) | Способ и устройство для сегментации изображения | |
| JP2014059875A5 (ru) | ||
| RU2014127535A (ru) | Автоматизация анализа изображения | |
| Nobre et al. | SAR image segmentation with Renyi's entropy | |
| RU2013104895A (ru) | Процессор изображений с функциональностью выбора контуров | |
| JP6338429B2 (ja) | 被写体検出装置、被写体検出方法及びプログラム | |
| JP6809613B2 (ja) | 画像前景の検出装置、検出方法及び電子機器 | |
| CN112802015A (zh) | 基于模板匹配的工业颗粒连片制品图像切割方法、装置 | |
| CN114332949B (zh) | 人体行为活动的检测方法、检测装置与行为活动检测系统 | |
| JP2017204276A (ja) | 目標物体の検出装置及び方法 | |
| JP5954212B2 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
| CN106295693A (zh) | 一种图像识别方法及装置 | |
| CN108242059B (zh) | 图像边界查找方法和装置 | |
| JP6429323B2 (ja) | オブジェクト抽出方法および装置 | |
| Yildirim et al. | Gender recognition using hog with maximized inter-class difference |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FA93 | Acknowledgement of application withdrawn (no request for examination) |
Effective date: 20170320 |