[go: up one dir, main page]

RU2015105744A - Способ и устройство измерения освещенности - Google Patents

Способ и устройство измерения освещенности Download PDF

Info

Publication number
RU2015105744A
RU2015105744A RU2015105744A RU2015105744A RU2015105744A RU 2015105744 A RU2015105744 A RU 2015105744A RU 2015105744 A RU2015105744 A RU 2015105744A RU 2015105744 A RU2015105744 A RU 2015105744A RU 2015105744 A RU2015105744 A RU 2015105744A
Authority
RU
Russia
Prior art keywords
points
marked
point
area
touch screen
Prior art date
Application number
RU2015105744A
Other languages
English (en)
Other versions
RU2628236C2 (ru
Inventor
Цюпин ЦИНЬ
Тао Чжан
Линь ЛЮ
Original Assignee
Сяоми Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сяоми Инк. filed Critical Сяоми Инк.
Publication of RU2015105744A publication Critical patent/RU2015105744A/ru
Application granted granted Critical
Publication of RU2628236C2 publication Critical patent/RU2628236C2/ru

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0414Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using plane or convex mirrors, parallel phase plates, or plane beam-splitters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

1. Способ измерения освещенности, содержащий:- получение данных о точке сенсорного экрана, указанной пользователями и расположенной в области измерения освещенности;- определение начальной области измерения освещенности, содержащей точку сенсорного экрана, на полном изображении, отображаемом на сенсорном экране;- сегментирование изображения, которое содержится в начальной области измерения освещенности, таким образом разделяя фоновую область, в которой не должно происходить измерение освещенности, и область объекта, содержащую точку сенсорного экрана и, в итоге, служащую в качестве области измерения освещенности; и- измерение точек изображения внутри области объекта.2. Способ по п. 1, в котором сегментирование изображения, которое содержится в начальной области измерения освещенности, таким образом разделяя фоновую область, в которой не должно происходить измерение освещенности, и область объекта, содержащую точку сенсорного экрана и, в итоге, служащую в качестве области измерения освещенности, содержит:- вычисление цветовых различий между точкой сенсорного экрана и подлежащими маркировке точками с подлежащими маркировке атрибутами, прилегающими к точке сенсорного экрана по направлениям вверх, вниз, влево или вправо, и вычисление цветовых различий между подлежащими маркировке точками с подлежащими маркировке атрибутами, прилегающими к граничным точкам изображения начальной области измерения освещенности, и граничными точками изображения, причем атрибуты содержат: точки области объекта, точки фоновой области или точки сегментации;- получение данных о первой подлежащей маркировке точке, соответствующей

Claims (9)

1. Способ измерения освещенности, содержащий:
- получение данных о точке сенсорного экрана, указанной пользователями и расположенной в области измерения освещенности;
- определение начальной области измерения освещенности, содержащей точку сенсорного экрана, на полном изображении, отображаемом на сенсорном экране;
- сегментирование изображения, которое содержится в начальной области измерения освещенности, таким образом разделяя фоновую область, в которой не должно происходить измерение освещенности, и область объекта, содержащую точку сенсорного экрана и, в итоге, служащую в качестве области измерения освещенности; и
- измерение точек изображения внутри области объекта.
2. Способ по п. 1, в котором сегментирование изображения, которое содержится в начальной области измерения освещенности, таким образом разделяя фоновую область, в которой не должно происходить измерение освещенности, и область объекта, содержащую точку сенсорного экрана и, в итоге, служащую в качестве области измерения освещенности, содержит:
- вычисление цветовых различий между точкой сенсорного экрана и подлежащими маркировке точками с подлежащими маркировке атрибутами, прилегающими к точке сенсорного экрана по направлениям вверх, вниз, влево или вправо, и вычисление цветовых различий между подлежащими маркировке точками с подлежащими маркировке атрибутами, прилегающими к граничным точкам изображения начальной области измерения освещенности, и граничными точками изображения, причем атрибуты содержат: точки области объекта, точки фоновой области или точки сегментации;
- получение данных о первой подлежащей маркировке точке, соответствующей минимальному цветовому различию;
- определение, в соответствии с атрибутами прилегающих маркированных точек по отношению к первой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо, атрибутов первой подлежащей маркировке точки и генерирование второй маркированной точки;
- вычисление цветовых различий между N-ой маркированной точкой и подлежащими маркировке точками с подлежащими маркировке атрибутами, прилегающими к N-ой маркированной точке по направлениям вверх, вниз, влево или вправо, причем N натуральное число, большее или равное 2.
- получение данных об N-ой подлежащей маркировке точке, соответствующей минимальному цветовому различию; и
- определение, в соответствии с атрибутами прилегающих маркированных точек по отношению к N-ой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо, атрибутов N-ой подлежащей маркировке точки до тех пор, пока атрибуты всех подлежащих маркировке точек не будут определены;
при этом область объекта состоит из точек области объекта, фоновая область - из точек фоновой области, и обе: область объекта и фоновая область - разделены точками сегментации.
3. Способ по п. 2, в котором определение, в соответствии с атрибутами прилегающих маркированных точек по отношению к N-ой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо, атрибутов N-ой подлежащей маркировке точки, содержит:
- проверку, содержат ли прилегающие маркированные точки по отношению к N-ой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо точки области объекта и точки фоновой области;
- определение N-ой подлежащей маркировке точки в качестве точки сегментации в случае, когда прилегающие маркированные точки содержат точки области объекта и точки фоновой области; в противном случае, продолжение проверки на предмет того, содержат ли прилегающие маркированные точки по отношению к N-ой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо только точки области объекта; и
- определение N-ой подлежащей маркировке точки в качестве точки области объекта в случае, когда прилегающие маркированные точки являются только точками области объекта; в противном случае, определение N-ой подлежащей маркировке точки в качестве точки фоновой области.
4. Способ по любому из пп. 1-3, в котором определение начальной области измерения освещенности, содержащей точку сенсорного экрана, на полном изображении, отображаемом на сенсорном экране, содержит:
- определение 1~8% области, содержащей точку сенсорного экрана, на полном изображении, отображаемом на сенсорном экране, в качестве начальной области измерения освещенности.
5. Устройство измерения освещенности, содержащее:
- модуль получения данных о точке сенсорного экрана, выполненный с возможностью получения данных о точке сенсорного экрана, указанной пользователями и расположенной в области измерения освещенности;
- модуль определения начальной области измерения освещенности, выполненный с возможностью определять начальную область измерения освещенности, содержащую точку сенсорного экрана, на полном изображении, отображаемом на сенсорном экране;
- модуль сегментации изображения, выполненный с возможностью сегментировать изображение, содержащееся в начальной области измерения освещенности, таким образом разделяя фоновую область, в которой не должно происходить измерение освещенности, и область объекта, содержащую точку сенсорного экрана и, в итоге, служащую в качестве области измерения освещенности; и
- модуль измерения, выполненный с возможностью измерения точек изображения внутри области объекта.
6. Устройство по п. 5, в котором модуль сегментации изображения содержит:
- блок вычисления первых цветовых различий, выполненный с возможностью вычисления цветовых различий между точкой сенсорного экрана и подлежащими маркировке точками с подлежащими маркировке атрибутами, прилегающими к точке сенсорного экрана по направлениям вверх, вниз, влево или вправо, и вычисления цветовых различий между подлежащими маркировке точками с подлежащими маркировке атрибутами, прилегающими к граничным точкам изображения начальной области измерения освещенности, и граничными точками изображения, причем атрибуты содержат: точки области объекта, точки фоновой области или точки сегментации;
- блок получения данных о первой подлежащей маркировке точке, выполненный с возможностью получать данные о первой подлежащей маркировке точке, соответствующей минимальному цветовому различию;
- блок определения атрибутов первой подлежащей маркировке точки, выполненный с возможностью определять, в соответствии с атрибутами прилегающих маркированных точек по отношению к первой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо, атрибуты первой подлежащей маркировке точки и генерировать вторую маркированную точку;
- блок вычисления N-ого цветового различия, выполненный с возможностью вычислять цветовые различия между N-ой маркированной точкой и подлежащими маркировке точками с подлежащими маркировке атрибутами, прилегающими к N-ой маркированной точке по направлениям вверх, вниз, влево или вправо, причем N - натуральное число, большее или равное 2;
- блок получения данных об N-ой подлежащей маркировке точке, выполненный с возможностью получения данных об N-ой подлежащей маркировке точке, соответствующей минимальному цветовому различию; и
- блок определения атрибутов N-ой подлежащей маркировке точки, выполненный с возможностью определения, в соответствии с атрибутами прилегающих маркированных точек по отношению к N-ой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо, атрибутов N-ой подлежащей маркировке точки до тех пор, пока атрибуты всех подлежащих маркировке точек не будут определены;
при этом область объекта состоит из точек области объекта, фоновая область - из точек фоновой области, и обе: область объекта и фоновая область - разделены точками сегментации.
7. Устройство по п. 6, в котором блок определения атрибутов N-ой подлежащей маркировке точки содержит:
- первый подблок проверки, выполненный с возможностью проверки, содержат ли прилегающие маркированные точки по отношению к N-ой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо точки области объекта и точки фоновой области; и приводить в действие подблок определения точек сегментации в случае, когда прилегающие маркированные точки содержат точки области объекта и точки фоновой области; в противном случае, приводить в действие второй подблок проверки;
- подблок определения точек сегментации, выполненный с возможностью определять N-ую подлежащую маркировке точку в качестве точки сегментации в случае, когда прилегающие маркированные точки содержат точки области объекта и точки фоновой области;
- второй подблок проверки, выполненный с возможностью продолжать проверку на предмет того, являются ли прилегающие маркированные точки по отношению к N-ой подлежащей маркировке точке по направлениям вверх, вниз, влево или вправо только точками области объекта; и приводить в действие подблок определения точек области объекта в случае, когда прилегающие маркированные точки являются только точками области объекта; в противном случае, приводить в действие подблок определения точек фоновой области,
- подблок определения точек области объекта, выполненный с возможностью определять N-ую подлежащую маркировке точку в качестве точки области объекта; и
- подблок определения точек фоновой области, выполненный с возможностью определять N-ую подлежащую маркировке точку в качестве точки фоновой области;
8. Устройство по любому из п.п. 5-7, в котором модуль определения начальной области измерения освещенности выполнен с возможностью определять 1~8% области, содержащей точку сенсорного экрана, на полном изображении, отображаемом на сенсорном экране, в качестве начальной области измерения освещенности.
9. Терминал, содержащий:
- процессор;
- блок памяти, выполненный с возможностью хранить инструкции, выполняемые посредством процессора;
при этом процессор выполнен с возможностью осуществлять:
- получение данных о точке сенсорного экрана, указанной пользователями и расположенной в области измерения освещенности;
- определение начальной области измерения освещенности, содержащей точку сенсорного экрана, на полном изображении, отображаемом на сенсорном экране;
- сегментирование изображения, которое содержится в начальной области измерения освещенности, таким образом разделяя фоновую область, в которой не должно происходить измерение освещенности, и область объекта, содержащую точку сенсорного экрана и, в итоге, служащую в качестве области измерения освещенности; и
- измерение точек изображения в области объекта.
RU2015105744A 2014-07-31 2014-11-19 Способ и устройство измерения освещенности RU2628236C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410373717.0A CN104219518B (zh) 2014-07-31 2014-07-31 测光方法及装置
CN201410373717.0 2014-07-31
PCT/CN2014/091557 WO2016015402A1 (zh) 2014-07-31 2014-11-19 测光方法及装置

Publications (2)

Publication Number Publication Date
RU2015105744A true RU2015105744A (ru) 2016-09-10
RU2628236C2 RU2628236C2 (ru) 2017-08-15

Family

ID=52100598

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2015105744A RU2628236C2 (ru) 2014-07-31 2014-11-19 Способ и устройство измерения освещенности

Country Status (8)

Country Link
EP (1) EP2981065B1 (ru)
JP (1) JP6149162B2 (ru)
KR (1) KR101813194B1 (ru)
CN (1) CN104219518B (ru)
BR (1) BR112015003277A2 (ru)
MX (1) MX352793B (ru)
RU (1) RU2628236C2 (ru)
WO (1) WO2016015402A1 (ru)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105227857B (zh) * 2015-10-08 2018-05-18 广东欧珀移动通信有限公司 一种自动曝光的方法和装置
CN109376588B (zh) * 2018-09-05 2019-08-02 北京达佳互联信息技术有限公司 一种人脸测光点选取方法、装置和拍摄设备
CN114257738B (zh) * 2021-11-30 2024-06-28 上海闻泰信息技术有限公司 自动曝光方法、装置、设备及存储介质
CN115474007A (zh) * 2022-08-12 2022-12-13 北京城市网邻信息技术有限公司 一种拍摄方法、装置、终端设备及存储介质
CN119729225B (zh) * 2025-03-03 2025-05-27 先临三维科技股份有限公司 亮度调节方法及扫描设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
CN100448267C (zh) * 2004-02-06 2008-12-31 株式会社尼康 数码相机
US7847830B2 (en) * 2006-11-21 2010-12-07 Sony Ericsson Mobile Communications Ab System and method for camera metering based on flesh tone detection
JP5386793B2 (ja) * 2006-12-11 2014-01-15 株式会社リコー 撮像装置および撮像装置の露出制御方法
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP2010072619A (ja) * 2008-08-22 2010-04-02 Nikon Corp 露出演算装置およびカメラ
JP2010200057A (ja) * 2009-02-26 2010-09-09 Hitachi Ltd 撮像装置
US20130321687A1 (en) * 2010-12-09 2013-12-05 Dimitri NEGROPONTE Light metering in cameras for backlit scenes
EP2698693B1 (en) * 2011-07-18 2016-01-13 ZTE Corporation Local image translating method and terminal with touch screen
JP6083987B2 (ja) * 2011-10-12 2017-02-22 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP5872395B2 (ja) * 2012-06-29 2016-03-01 セコム株式会社 領域分割装置
KR101918760B1 (ko) * 2012-10-30 2018-11-15 삼성전자주식회사 촬상 장치 및 제어 방법
CN103139481B (zh) * 2012-12-28 2015-07-08 努比亚技术有限公司 一种摄像装置和摄像方法

Also Published As

Publication number Publication date
MX352793B (es) 2017-12-07
MX2015002224A (es) 2016-08-30
JP2016535307A (ja) 2016-11-10
KR101813194B1 (ko) 2017-12-28
CN104219518A (zh) 2014-12-17
BR112015003277A2 (pt) 2017-07-04
KR20160024835A (ko) 2016-03-07
CN104219518B (zh) 2018-09-18
EP2981065A1 (en) 2016-02-03
JP6149162B2 (ja) 2017-06-14
WO2016015402A1 (zh) 2016-02-04
RU2628236C2 (ru) 2017-08-15
EP2981065B1 (en) 2019-02-20

Similar Documents

Publication Publication Date Title
ES2517915T3 (es) Métodos cuantitativos para obtener características de un tejido a partir de imágenes de tomografía por coherencia óptica
RU2015105744A (ru) Способ и устройство измерения освещенности
BR112015020421A2 (pt) aparelho e método para determinar informações sobre sinais vitais de um indivíduo
AR095826A1 (es) Un método y sistema para la detección de la estructura de tejido oftálmico y patologías
IL278660B (en) Metrology of critical optical dimensions
JP2016503167A5 (ru)
GB2558108A (en) Simulated hyperlinks on a mobile device
TW200730825A (en) Method and apparatus for correlating levels of biomarker products with disease
RU2017108265A (ru) Конструирование компоновки интерфейса отображения контента
MX386027B (es) Corrección de perspectiva para pantallas de visualización curvas.
EA201592039A1 (ru) Прямое численное моделирование петрофизических свойств на основе изображений в имитированных условиях напряженно-деформированного состояния
BR112015029986A8 (pt) Método para determinar equipamento óptico
BR112016014226A2 (pt) Sistemas, métodos e aparelho para codificar formações de objeto
MX2017011558A (es) Método de predicción de imagen y aparato relacionado.
MX2017005358A (es) Metodo y aparato para ajustar el brillo de la pantalla.
GB2547838A (en) Method and system for improved classification of constituent materials
MX2024009356A (es) Sistemas y metodos para estimar una posicion tridimensional de un dispositivo de higiene oral con marcadores visuales.
MX2017004892A (es) Metodo, aparato y sistema para inicializar un dispositivo de lectura de medidor.
BR112012013270A2 (pt) processador, aparelho e métodos associados
MX2017012887A (es) Metodo de verificacion de autenticidad de articulo impreso y terminal de procesamiento de datos.
BR112016008229A2 (pt) Sistemas e métodos para derivação rps intercamada com base em dependência de previsão de referência de subcamada
MY188296A (en) Evaluation device for skin texture based on skin blob and method thereof
RU2015145507A (ru) Аппарат поддержки для поддержки пользователя в диагностическом процессе
RU2014152872A (ru) Система и способ генерирования информации о множестве точек интереса
EP3182366A8 (en) Property measurement on a biological tissue sample