RU2823570C1 - Analytical measurement method - Google Patents
Analytical measurement method Download PDFInfo
- Publication number
- RU2823570C1 RU2823570C1 RU2022105963A RU2022105963A RU2823570C1 RU 2823570 C1 RU2823570 C1 RU 2823570C1 RU 2022105963 A RU2022105963 A RU 2022105963A RU 2022105963 A RU2022105963 A RU 2022105963A RU 2823570 C1 RU2823570 C1 RU 2823570C1
- Authority
- RU
- Russia
- Prior art keywords
- image
- camera
- mobile device
- environmental object
- test field
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 140
- 238000004458 analytical method Methods 0.000 title claims abstract description 68
- 238000012360 testing method Methods 0.000 claims abstract description 244
- 230000007613 environmental effect Effects 0.000 claims abstract description 124
- 230000003287 optical effect Effects 0.000 claims abstract description 90
- 239000012530 fluid Substances 0.000 claims abstract description 28
- 238000005755 formation reaction Methods 0.000 claims abstract description 9
- 230000003190 augmentative effect Effects 0.000 claims description 21
- 238000005259 measurement Methods 0.000 abstract description 21
- 239000000126 substance Substances 0.000 abstract description 12
- 230000000694 effects Effects 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 36
- 239000012491 analyte Substances 0.000 description 17
- 210000004369 blood Anatomy 0.000 description 15
- 239000008280 blood Substances 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 14
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 12
- 239000008103 glucose Substances 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 239000000758 substrate Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 210000001124 body fluid Anatomy 0.000 description 5
- 239000010839 body fluid Substances 0.000 description 5
- 239000003153 chemical reaction reagent Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 239000000047 product Substances 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 210000003722 extracellular fluid Anatomy 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000002405 diagnostic procedure Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000003296 saliva Anatomy 0.000 description 3
- 210000002700 urine Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- HVYWMOMLDIMFJA-DPAQBDIFSA-N cholesterol Chemical compound C1C=C2C[C@@H](O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2 HVYWMOMLDIMFJA-DPAQBDIFSA-N 0.000 description 2
- 206010012601 diabetes mellitus Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- JVTAAEKCZFNVCJ-UHFFFAOYSA-M Lactate Chemical compound CC(O)C([O-])=O JVTAAEKCZFNVCJ-UHFFFAOYSA-M 0.000 description 1
- -1 Volume 10 Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- WQZGKKKJIJFFOK-VFUOTHLCSA-N beta-D-glucose Chemical compound OC[C@H]1O[C@@H](O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-VFUOTHLCSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000012000 cholesterol Nutrition 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000004737 colorimetric analysis Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000003743 erythrocyte Anatomy 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011545 laboratory measurement Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000004060 metabolic process Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 150000003626 triacylglycerols Chemical class 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Abstract
Description
Область техникиTechnical field
Настоящая заявка относится к способу проведения аналитического измерения, основанного на реакции формирования цвета в оптической тест-полоске с применением мобильного устройства, имеющего камеру. Настоящее изобретение также относится к компьютерной программе и к машиночитаемому носителю для хранения данных с программными средствами для выполнения способа в соответствии с настоящим изобретением. Кроме того, данное изобретение относится к мобильному устройству и набору для проведения аналитического измерения. Способы, компьютерные программы, мобильные устройства и наборы в соответствии с настоящим изобретением могут применяться в медицинской диагностике, чтобы, например, качественно или количественно определять один или более аналитов в одной или более физиологических жидкостях. Однако практически возможны и другие области применения настоящего изобретения.The present application relates to a method for performing an analytical measurement based on a color formation reaction in an optical test strip using a mobile device having a camera. The present invention also relates to a computer program and a computer readable storage medium with software for performing the method in accordance with the present invention. Furthermore, the present invention relates to a mobile device and an analytical measurement kit. The methods, computer programs, mobile devices and kits in accordance with the present invention can be used in medical diagnostics to, for example, qualitatively or quantitatively determine one or more analytes in one or more physiological fluids. However, other areas of application of the present invention are practically possible.
Уровень техникиState of the art
В области медицинской диагностики во многих случаях необходимо обнаруживать один или более аналитов в образцах физиологической жидкости, такой как кровь, интерстициальная жидкость, моча, слюна или другие типы физиологических жидкостей. Примерами аналитов, подлежащих определению, являются глюкоза, триглицериды, лактат, холестерин или другие типы аналитов, обычно присутствующие в этих физиологических жидкостях. В зависимости от концентрации и/или присутствия аналита при необходимости может быть выбрано соответствующее лечение. Без сужения объема данное изобретение можно конкретно описать в отношении измерений глюкозы в крови. Однако следует отметить, что настоящее изобретение может также применяться для других типов аналитических измерений с применением тестовых элементов.In the field of medical diagnostics, in many cases it is necessary to detect one or more analytes in samples of physiological fluid, such as blood, interstitial fluid, urine, saliva or other types of physiological fluids. Examples of analytes to be determined are glucose, triglycerides, lactate, cholesterol, or other types of analytes typically present in these body fluids. Depending on the concentration and/or presence of the analyte, appropriate treatment can be selected if necessary. Without limiting the scope, the present invention can be specifically described in relation to blood glucose measurements. However, it should be noted that the present invention can also be applied to other types of analytical measurements using test elements.
Как правило, в устройствах и способах, известных специалисту в данной области техники, используют тестовые элементы, содержащие одно или более тестовых химических веществ, которые в присутствии аналита, подлежащего определению, способны выполнять одну или более определяемых реакций определения, таких как реакции определения, определяемые оптически. В качестве примера, ЕР 0821234 А2 описывает носитель диагностического теста для определения аналита в цельной крови с помощью системы реагентов, содержащейся в носителе, и способ определения аналита из цельной крови с помощью носителя диагностического теста. Носитель диагностического теста включает реагент, формирующий цвет. У тестового поля есть сторона нанесения пробы, на которую доставляется проба крови, и сторона обнаружения, где происходит оптически обнаруживаемое изменение в результате реакции аналита с системой реагентов. Кроме того, тестовое поле сконструировано таким образом, что эритроциты, содержащиеся в образце, не достигают стороны обнаружения. Кроме того, тестовое поле включает прозрачную пленку, а также первый и второй наложенные друг на друга пленочные слои, нанесенные на нее, при этом первый слой на прозрачной пленке существенно меньше рассеивает свет во влажном состоянии, чем вышележащий второй слой.Typically, devices and methods known to one skilled in the art employ test cells containing one or more test chemicals that, in the presence of the analyte to be determined, are capable of performing one or more detectable determination reactions, such as determination reactions determined by optically. By way of example, EP 0821234 A2 describes a diagnostic test carrier for the determination of an analyte in whole blood using a reagent system contained in the carrier, and a method for determining an analyte from whole blood using the diagnostic test carrier. The diagnostic test carrier includes a color forming reagent. The test field has a sample application side, where the blood sample is delivered, and a detection side, where an optically detectable change occurs as a result of the reaction of the analyte with the reagent system. In addition, the test field is designed in such a way that red blood cells contained in the sample do not reach the detection side. In addition, the test field includes a transparent film and first and second superimposed film layers deposited thereon, wherein the first layer on the transparent film scatters light significantly less when wet than the overlying second layer.
Что касается тестовых химических веществ, содержащихся в тестовых элементах, можно сделать ссылку, например, на J. Hoenes et al.: The Technology Behind Glucose Meters: Test Strips, Diabetes Technology & Therapeutics, Volume 10, Supplement 1, 2008, S-10 to S-26. Возможны и другие типы тестового химического вещества, которые могут быть использованы для осуществления настоящего изобретения.Regarding the test chemicals contained in the test elements, reference may be made to, for example, J. Hoenes et al.: The Technology Behind Glucose Meters: Test Strips, Diabetes Technology & Therapeutics, Volume 10, Supplement 1, 2008, S-10 to S-26. There are other types of test chemicals that can be used to practice the present invention.
В случае аналитических измерений, особенно аналитических измерений на основании реакций окрашивания, одна из технических проблем заключается в оценке изменения цвета, которое происходит в результате реакции определения. Помимо использования специализированных аналитических устройств, таких как портативные глюкометры, в последние годы все более популярным становится использование общедоступных электронных средств, таких как смартфоны и портативные компьютеры. В WO 2012/131386 А1 описано устройство для тестирования для выполнения анализа, причем устройство для тестирования содержит: емкость, содержащую реагент, причем реагент вступает в реакцию с нанесенным тестовым образцом путем проявления изменения цвета или рисунка; портативное устройство, например мобильный телефон или портативный компьютер, содержащий процессор и устройство для получения изображения, при этом процессор выполнен с возможностью обработки данных, полученных устройством для получения изображения, и вывода результата тестирования для нанесенного тестового образца. Кроме того, доступны для загрузки средства прикладного программного обеспечения для применения со смартфонами, такие как ACCU-CHEK® SugarView Арр от Roche Diabetes Саге GmbH, Германия, доступные по ссылке https://www.accu-chek-sugarview.com.In the case of analytical measurements, especially analytical measurements based on color reactions, one of the technical problems is to evaluate the color change that occurs as a result of the determination reaction. In addition to the use of specialized analytical devices such as portable glucose meters, the use of commonly available electronic devices such as smartphones and laptop computers has become increasingly popular in recent years. WO 2012/131386 A1 describes a testing device for performing an analysis, the testing device comprising: a container containing a reagent, the reagent reacting with an applied test sample by exhibiting a color or pattern change; a portable device, such as a mobile phone or laptop computer, comprising a processor and an imaging device, wherein the processor is configured to process data received by the imaging device and output a test result for the applied test sample. In addition, software applications for use with smartphones are available for download, such as ACCU-CHEK® SugarView App from Roche Diabetes Care GmbH, Germany, available at https://www.accu-chek-sugarview.com.
В отличие от лабораторных измерений и измерений, осуществляемых путем использования специальных устройств для аналитических измерений, при использовании мобильных вычислительных устройств, таких как смартфоны, необходимо учитывать различные влияния. В качестве примера, следует учитывать условия освещения, расположение, вибрации или другие в большей или меньшей степени неконтролируемые условия. В области технологии мобильных вычислительных устройств в последние годы были разработаны различные технические подходы с целью улучшения распознавания изображений и получения дополнительной информации, например, о неизвестных геометрических параметрах установки.Unlike laboratory measurements and measurements made using dedicated analytical measurement devices, when using mobile computing devices such as smartphones, various influences must be taken into account. By way of example, lighting conditions, location, vibration or other more or less uncontrollable conditions should be taken into account. In the field of mobile computing device technology, various technical approaches have been developed in recent years to improve image recognition and obtain additional information, for example, about unknown geometric parameters of the installation.
Таким образом, в качестве примера, в US 9691152 В1 раскрыты пути минимизации изменений в отношении высоты камеры вычислительного устройства при оценке расстояния до объектов, представленных в данных изображения, получаемых камерой. Например, фронтальную камеру вычислительного устройства можно использовать для получения изображения пользователя в режиме реального времени. Приложение может анализировать данные изображения, чтобы найти черты лица пользователя с целью сопоставления пользователя с вычислительным устройством. Поскольку положение и/ориентация устройства изменяется относительно пользователя, данные изображения можно анализировать для выявления того, совпадает ли расположение представления признака пользователя с сопоставляемым элементом. После того, как признак совмещен с сопоставляемым элементом, тыловая камера или другая камера может получать данные второго изображения объекта. Данные второго изображения можно анализировать для определения геометрического соотношения между тыловой камерой и объектом, и геометрическое соотношение можно использовать для определения расстояния до объекта относительно вычислительного устройства.Thus, by way of example, US Pat. No. 9,691,152 B1 discloses ways to minimize variations in the height of a camera of a computing device when estimating the distance to objects represented in image data captured by the camera. For example, the front-facing camera of a computing device can be used to capture a real-time image of the user. The application can analyze image data to find the user's facial features in order to match the user with the computing device. As the position and/orientation of the device changes relative to the user, the image data can be analyzed to determine whether the location of the user's feature representation matches the matched element. Once the feature is aligned with the matched element, the rear camera or another camera can obtain the second image data of the object. The second image data can be analyzed to determine a geometric relationship between the rear camera and the object, and the geometric relationship can be used to determine the distance of the object relative to the computing device.
Кроме того, в US 9934612 В2 раскрыт способ определения положения камеры относительно объекта реальной среды для применения в приложении для создаваемой/дополненной реальности, который включает генерацию первого изображения с помощью камеры, снимающей реальный объект реальной среды, генерацию первых данных об ориентации от по меньшей мере одного датчика ориентации, связанного с камерой, или из алгоритма, который анализирует первое изображение в отношении поиска и определения признаков, указывающих на ориентацию камеры, выделение расстояния камеры до реального объекта, генерацию данных о расстоянии, указывающих на выделенное расстояние, определение положения камеры относительно системы координат, связанной с реальным объектом реальной среды, используя данные о расстоянии и первые данные об ориентации. Способ может быть выполнен с меньшими требованиями к обработке и/или более высокой скоростью обработки в мобильном устройстве, таком как мобильные телефоны, имеющие дисплей, камеру и датчик ориентации.Further, US 9,934,612 B2 discloses a method for determining the position of a camera relative to a real-world object for use in a generated/augmented reality application, which includes generating a first image using a camera capturing a real-world object, generating first orientation data from at least one orientation sensor associated with the camera, or from an algorithm that analyzes the first image with respect to finding and determining features indicating the orientation of the camera, extracting the distance of the camera from the real object, generating distance data indicating the extracted distance, determining the position of the camera relative to the system coordinates associated with a real object in a real environment, using distance data and first orientation data. The method can be implemented with lower processing requirements and/or higher processing speed in a mobile device, such as mobile phones having a display, a camera, and an orientation sensor.
В US 9667860 В2 раскрыт способ, машиночитаемый носитель и устройство для обеспечения компоновки и управления положением камеры. Один способ включает определение изображения, полученного на устройстве съемки. Изображение анализируют для идентификации объектов и определения атрибутов объектов. Предоставляются предложения в отношении регулировки по меньшей мере одного положения или настройки устройства съемки в соответствии с правилами на основе анализа изображения. Регулировка устройства съемки на основе предоставляемых предложений выявляется и используется для получения отрегулированного изображения. Отрегулированное изображение фиксируется устройством съемки.US Pat. No. 9,667,860 B2 discloses a method, computer-readable medium, and apparatus for providing arrangement and position control of a camera. One method involves detecting an image captured on a capture device. The image is analyzed to identify objects and determine object attributes. Suggestions are provided for adjusting at least one position or setting the capture device according to rules based on image analysis. The adjustment of the capture device based on the provided suggestions is detected and used to obtain an adjusted image. The adjusted image is captured by the capture device.
Кроме того, в US 20110254860 A1 раскрывается мобильное устройство, включающее устройство визуального ввода для получения внешней визуальной информации, содержащей реальную визуальную фоновую информацию, и устройство обработки. Устройство обработки предназначено для связывания выбранного приложения с внешней визуальной информацией и для выполнения выбранного приложения на основе внешней визуальной информации и входной информации, относящейся к пользователю. Устройство обработки для генерации выходного визуального сигнала, относящегося к по меньшей мере одному виртуальному визуальному объекту в ответ на приложение, выполнено с дополнительной возможностью подачи выходного визуального сигнала на проекционное устройство, включенное в мобильное устройство таким образом, что проекционное устройство будет выполнено для проецирования указанного выходного визуального сигнала, относящегося к по меньшей мере одному виртуальному визуальному объекту на визуальном фоне, тем самым модифицируя указанную внешнюю визуальную информацию.Moreover, US 20110254860 A1 discloses a mobile device including a visual input device for receiving external visual information containing actual visual background information, and a processing device. The processing device is configured to associate the selected application with external visual information and to execute the selected application based on the external visual information and input information related to the user. A processing device for generating a visual output related to at least one virtual visual object in response to an application is further configured to provide the visual output to a projection device included in the mobile device such that the projection device will be configured to project said output. a visual signal relating to at least one virtual visual object on the visual background, thereby modifying said external visual information.
В WO 2013103912 А1 раскрыты устройства, способы и системы визуальной фиксации транзакций («TVC»), преобразующие передачу информации о координатах местоположения мобильного устройства, визуальную фиксацию реальности в режиме реального времени и фиксацию смешанных жестов с помощью компонентов TVC в информацию, связанную с покупкой товара в режиме реального времени с учетом поведения, уведомления о закупочных операциях и электронные квитанции. В одном варианте осуществления TVC получает информацию о регистрации пользователя с мобильного устройства пользователя при входе пользователя в магазин. TVC извлекает идентификатор пользователя на основе информации о регистрации пользователя и обеспечивает доступ к базе данных для профиля пользователя. TVC определяет предыдущую модель поведения пользователя из профиля пользователя, к которому предоставляется доступ, и получает данные о поведении пользователя в магазине в режиме реального времени с мобильного устройства пользователя.WO 2013103912 A1 discloses devices, methods and systems for visual transaction capture (“TVC”) that convert communication of mobile device location coordinates, real-time visual capture of reality, and capture of mixed gestures using TVC components into information related to the purchase of a product. real-time behavior-based purchasing notifications and electronic receipts. In one embodiment, the TVC receives user registration information from the user's mobile device when the user enters the store. The TVC retrieves the user ID based on the user's registration information and provides database access for the user's profile. The TVC determines the user's previous behavior pattern from the user's profile that is being accessed and receives real-time data about the user's in-store behavior from the user's mobile device.
В US 2018/024049 A1 описывается способ и колориметрическое устройство для проведения колориметрического анализа тестируемой жидкости для оценки связанных физиологических параметров. Изображения тест-полоски на разных высотах получают с помощью калориметрического устройства, и на основе анализа полученных изображений определяют множество геометрических параметров, соответственно связанных с тест-полоской. На основе множества геометрических параметров определяют коэффициент изменения размеров изображения и на основе коэффициента изменения размеров изображения генерируют изображения измененного размера. После создания изображений измененного размера определяют калориметрические значения, соответственно связанные с изображениями измененного размера, на основе которых оценивают физиологические параметры, связанные с тестируемой жидкостью.US 2018/024049 A1 describes a method and colorimetric apparatus for performing a colorimetric analysis of a test fluid to assess associated physiological parameters. Images of the test strip at different heights are obtained using a calorimetric device, and based on the analysis of the resulting images, many geometric parameters corresponding to the test strip are determined. Based on a plurality of geometric parameters, an image resizing factor is determined, and resized images are generated based on the image resizing factor. After generating the resized images, calorimetric values corresponding to the resized images are determined, based on which the physiological parameters associated with the test fluid are estimated.
В ЕР 1801568 А1 описывается способ, включающий в себя размещение камеры возле тест-полоски для графического определения цветового индикатора и эталонной цветовой области. Измеренное значение определяют для относительного положения между камерой и полоской и сравнивают с требуемой областью значений. Камеру перемещают для уменьшения отклонения относительно полоски во время отклонения между измеренным значением и требуемым значением. Область изображения, закрепленную за индикатором, локализуют в цветном изображении, которое определяет камера. Концентрацию аналита в образце определяют с помощью значения для сравнения.EP 1801568 A1 describes a method that involves placing a camera near a test strip to graphically determine a color indicator and a reference color area. The measured value is determined for the relative position between the camera and the strip and compared with the required value range. The camera is moved to reduce the deviation relative to the strip during the deviation between the measured value and the desired value. The image area assigned to the indicator is localized in the color image determined by the camera. The concentration of the analyte in the sample is determined using the reference value.
Несмотря на преимущества, связанные с использованием мобильных вычислительных устройств для проведения аналитического измерения, остается ряд технических задач. В частности, необходимо повысить и обеспечить надежность и точность измерений. Основной проблемой остается наличие и влияние изменяющихся условий окружающей среды, таких как условия освещения. Таким образом, результаты измерений могут сильно зависеть от условий установки и/или фонового освещения и, таким образом, могут изменяться от измерения к измерению, даже при идентичных химических или биохимических условиях. Кроме того, результаты измерений могут зависеть от относительного расположения осветительного устройства и камеры мобильного устройства, которое из-за огромного количества различных мобильных устройств, доступных на рынке, может различаться для разных типов или моделей мобильных устройств. Эти технические сложности усугубляются еще и тем фактом, что, как правило, при проведении аналитического измерения с помощью оптических тест-полосок необходимо сделать и проанализировать по меньшей мере два изображения, причем одно изображение показывает по меньшей мере часть тестового поля без нанесенного на него образца, тогда как по меньшей мере одно второе изображение получают с нанесенным на него образцом, при этом получение второго изображения обычно происходит после определенного времени ожидания, пока не произойдет реакция формирования цвета. Поскольку в этом случае необходимо сравнить по меньшей мере два изображения, при этом тест-полоска обычно обрабатывается и перемещается между получением этих двух изображений, неопределенность измерения дополнительно возрастает.Despite the benefits associated with using mobile computing devices for analytical measurement, a number of technical challenges remain. In particular, it is necessary to improve and ensure the reliability and accuracy of measurements. The main challenge remains the presence and influence of changing environmental conditions, such as lighting conditions. Thus, measurement results may be highly dependent on installation conditions and/or background lighting and thus may vary from measurement to measurement, even under identical chemical or biochemical conditions. Additionally, measurement results may depend on the relative positioning of the lighting device and the camera of the mobile device, which, due to the vast number of different mobile devices available on the market, may vary between different types or models of mobile devices. These technical difficulties are further compounded by the fact that, typically, when performing an analytical measurement with optical test strips, at least two images must be taken and analyzed, with one image showing at least part of the test field without the sample applied to it, while at least one second image is obtained with the sample applied thereto, the acquisition of the second image typically occurring after a certain waiting time until the color formation reaction occurs. Since at least two images must be compared, and the test strip is typically processed and moved between the two images, measurement uncertainty increases further.
Проблема, подлежащая решениюProblem to be solved
Поэтому желательно обеспечить способы и устройства, которые решают вышеупомянутые технические задачи аналитических измерений с помощью мобильных устройств, таких как мобильные устройства бытовой электроники, в частности, многофункциональные мобильные устройства, которые не предназначены для аналитических измерений, такие как смартфоны или планшетные компьютеры. В частности, должны быть предложены способы и устройства, обеспечивающие надежность и точность измерений. Сущность изобретенияIt is therefore desirable to provide methods and apparatuses that solve the aforementioned technical problems of analytical measurements using mobile devices, such as consumer electronics mobile devices, in particular, multifunctional mobile devices that are not designed for analytical measurements, such as smartphones or tablet computers. In particular, methods and devices must be proposed to ensure reliability and accuracy of measurements. The essence of the invention
Эта проблема решается с помощью способов, компьютерных программ, машиночитаемых носителей для хранения данных и устройств с признаками независимых пунктов формулы изобретения. Преимущественные варианты осуществления, которые могут быть реализованы отдельно или в любых произвольных комбинациях, приведены в зависимых пунктах формулы изобретения.This problem is solved by methods, computer programs, computer-readable storage media and devices with the features of independent claims. Advantageous embodiments, which can be implemented separately or in any arbitrary combinations, are given in the dependent claims.
В дальнейшем используемые в данном документе термины «иметь», «содержать» или «включать в себя» или любые их произвольные грамматические вариации используются неисключительным образом. Таким образом, эти термины могут относиться как к ситуации, в которой, помимо признака, представленного этими терминами, в объекте, описанном в данном контексте, отсутствуют другие признаки, так и к ситуации, в которой присутствуют один или более дополнительных признаков. Например, выражения «А имеет В», «А содержит В» и «А включает в себя В» могут относиться как к ситуации, в которой, помимо В, в А отсутствует другой элемент (т.е. ситуации, в которой А состоит только и исключительно из В), так и к ситуации, в которой, помимо В, в объекте А присутствуют один или более дополнительных элементов, таких как элемент С, элементы С и D или еще другие элементы.Hereinafter, as used herein, the terms “have,” “contain,” or “include,” or any arbitrary grammatical variations thereof, are used in a non-exclusive manner. Thus, these terms can refer both to a situation in which, in addition to the feature represented by these terms, there are no other features in the object described in this context, and to a situation in which one or more additional features are present. For example, the expressions “A has B,” “A contains B,” and “A includes B” can refer to both a situation in which, in addition to B, there is no other element in A (i.e., a situation in which A consists only and exclusively from B), and to a situation in which, in addition to B, object A contains one or more additional elements, such as element C, elements C and D, or even other elements.
Кроме того, следует отметить, что термины «по меньшей мере один», «один или более» или аналогичные выражения, указывающие на то, что признак или элемент может присутствовать один раз или более одного раза, обычно будут использоваться только один раз при представлении соответствующего признака или элемента. В дальнейшем, в большинстве случаев, когда речь будет идти о соответствующем признаке или элементе, выражения «по меньшей мере один» или «один или более» не будут повторяться несмотря на то, что соответствующий признак или элемент может присутствовать один раз или более одного раза.In addition, it should be noted that the terms "at least one", "one or more" or similar expressions indicating that a feature or element may be present once or more than once will generally be used only once when presenting the corresponding feature or element. In the following, in most cases, when referring to a corresponding feature or element, the expressions “at least one” or “one or more” will not be repeated, although the corresponding feature or element may be present once or more than once .
Кроме того, в дальнейшем используемые в данном документе термины «предпочтительно», «более предпочтительно», «особенно», «в частности», «более конкретно» или аналогичные термины используются вместе с необязательными признаками, без ограничения альтернативных возможностей. Таким образом, признаки, представленные этими терминами, являются необязательными признаками и никоим образом не предназначены для ограничения объема формулы изобретения. Данное изобретение, как будет понятно специалисту в данной области техники, может быть осуществлено с использованием альтернативных признаков. Аналогичным образом признаки, представленные выражением «в варианте осуществления данного изобретения» или аналогичными выражениями, предназначены для использования в качестве необязательных признаков, без каких-либо ограничений в отношении альтернативных вариантов осуществления данного изобретения, без каких-либо ограничений в отношении объема данного изобретения и без каких-либо ограничений в отношении возможности объединения представленных таким образом признаков с другими опциональными или необязательными признаками данного изобретения.Additionally, as used hereinafter, the terms “preferably”, “more preferably”, “especially”, “in particular”, “more particularly” or similar terms are used in conjunction with optional features, without limiting alternative possibilities. Accordingly, the features represented by these terms are optional features and are in no way intended to limit the scope of the claims. The present invention, as will be understood by one skilled in the art, can be implemented using alternative features. Likewise, the features represented by the expression “in an embodiment of the present invention” or similar expressions are intended to be used as optional features, without any limitation as to alternative embodiments of the present invention, without any limitation as to the scope of the present invention, and without any restrictions on the ability to combine the features so presented with other optional or optional features of the present invention.
В первом аспекте раскрыт способ проведения аналитического измерения, основанного на реакции формирования цвета в оптической тест-полоске с применением мобильного устройства, имеющего камеру. Способ включает в себя следующие шаги, которые, например, можно выполнять в данном порядке. Однако следует отметить, что возможен и другой порядок. Кроме того, также возможно выполнить один или более шагов способа один или более раз. Кроме того, можно выполнять два или более шагов способа одновременно или перекрывающимся по времени образом. Способ может включать в себя дополнительные шаги способа, которые не приведены.A first aspect discloses a method for performing an analytical measurement based on a color formation reaction in an optical test strip using a mobile device having a camera. The method includes the following steps, which, for example, can be performed in this order. However, it should be noted that another order is possible. In addition, it is also possible to perform one or more steps of the method one or more times. In addition, it is possible to perform two or more steps of the method simultaneously or in an overlapping manner. The method may include additional method steps that are not shown.
Как правило, способ включает в себя следующие шаги:Typically, the method includes the following steps:
а) обеспечение оптической тест-полоски, имеющей тестовое поле без нанесенного на него образца;a) providing an optical test strip having a test field without a sample applied to it;
б) получение с помощью камеры по меньшей мере одного первого изображения по меньшей мере части тестового поля оптической тест-полоски без нанесенного на него образца;b) obtaining, using the camera, at least one first image of at least a portion of the test field of the optical test strip without a sample applied thereto;
в) нанесение образца физиологической жидкости на тестовое поле оптической тест-полоски;c) applying a sample of physiological fluid to the test field of the optical test strip;
г) получение с помощью камеры по меньшей мере одного второго изображения по меньшей мере части тестового поля оптической тест-полоски с нанесенным на него образцом физиологической жидкости; иd) obtaining, using the camera, at least one second image of at least part of the test field of the optical test strip with a sample of physiological fluid applied to it; And
д) определение значения результата аналитического измерения с применением первого и второго изображений оптического тестового поля оптической тест-полоски,e) determining the value of the analytical measurement result using the first and second images of the optical test field of the optical test strip,
е) причем мобильным устройством предоставляется указание, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в аналогичных локальных положениях относительно по меньшей мере одного объекта окружающей среды.f) wherein the mobile device provides an indication of where to obtain the second image such that the first and second images are obtained at similar local positions relative to the at least one environmental object.
В данном документе, в частности, шаг е) способа можно выполнять до или во время выполнения шага г) способа, причем остальные шаги способа, в частности, можно выполнять в данном порядке. Однако, как указано выше, возможен также другой порядок, в частности для шагов а)-д) способа.Herein, in particular, method step e) can be performed before or during method step d) and the remaining method steps, in particular, can be performed in this order. However, as indicated above, a different order is also possible, in particular for steps a) to e) of the method.
Используемый в данном документе термин «аналитическое измерение» является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. Данный термин, в частности, может относиться, без ограничения, к количественному и/или качественному определению по меньшей мере одного аналита в произвольном образце. Образец содержит физиологическую жидкость, такую как кровь, интерстициальная жидкость, моча, слюна или физиологические жидкости других типов. Результатом аналитического измерения, например, может быть концентрация аналита и/или присутствие или отсутствие аналита, подлежащего определению. В частности, в качестве примера, аналитическое измерение может быть измерением глюкозы в крови, таким образом, результатом аналитического измерения может быть, например, концентрация глюкозы в крови. В частности, значение результата аналитического измерения может быть определено посредством аналитического измерения. Используемый в данном документе термин «значение результата аналитического измерения» является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. Термин, в частности, может относиться без ограничения к числовому обозначению концентрации аналита в образце.As used herein, the term “analytical measurement” is a broad term and its common and traditional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. The term may specifically refer, without limitation, to the quantitative and/or qualitative determination of at least one analyte in an arbitrary sample. The sample contains a body fluid such as blood, interstitial fluid, urine, saliva, or other types of body fluids. The result of an analytical measurement, for example, may be the concentration of the analyte and/or the presence or absence of the analyte to be determined. Specifically, by way of example, the analytical measurement may be a blood glucose measurement, so the result of the analytical measurement may be, for example, a blood glucose concentration. In particular, the value of an analytical measurement result can be determined by the analytical measurement. As used herein, the term “analytical measurement result value” is a broad term and its common and traditional understanding should be understood by one skilled in the art and should not be limited to special or individual understanding. The term may specifically refer, without limitation, to a numerical designation of the concentration of an analyte in a sample.
По меньшей мере один аналит, например, может быть или может содержать одно или более конкретных химических соединений и/или других параметров. В качестве примера можно определить один или более аналитов, которые принимают участие в метаболизме, например глюкозу в крови. Дополнительно или альтернативно могут быть определены другие типы аналитов или параметров, например значение рН. В частности, по меньшей мере один образец может представлять собой или может содержать по меньшей мере одну физиологическую жидкость, такую как кровь, интерстициальная жидкость, моча, слюна или т.п. Однако дополнительно или в качестве альтернативы можно использовать другие типы образцов, такие как вода.The at least one analyte, for example, may be or may contain one or more specific chemical compounds and/or other parameters. As an example, one or more analytes that are involved in metabolism, such as blood glucose, can be determined. Additionally or alternatively, other types of analytes or parameters, such as pH value, may be determined. In particular, the at least one sample may be or may contain at least one physiological fluid, such as blood, interstitial fluid, urine, saliva, or the like. However, other types of samples, such as water, may additionally or alternatively be used.
Аналитическое измерение, в частности, может быть аналитическим измерением, включающим изменение по меньшей мере одного оптического свойства оптической тест-полоски, это изменение может быть измерено или определено визуально с помощью камеры. В частности, аналитическое измерение может представлять собой или может включать реакцию формирования цвета в присутствии по меньшей мере одного определяемого аналита. Используемый в данном документе термин «реакция формирования цвета» является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. Термин, в частности, может относиться без ограничения к химической, биологической или физической реакции, во время которой цвет, в частности коэффициент отражения по меньшей мере одного элемента, участвующего в реакции, изменяется по мере протекания реакции.The analytical measurement may in particular be an analytical measurement involving a change in at least one optical property of the optical test strip, which change may be measured or determined visually using a camera. In particular, the analytical measurement may be or may include a color formation reaction in the presence of at least one analyte to be determined. As used herein, the term “color formation reaction” is a broad term and its common and conventional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. The term in particular may refer, without limitation, to a chemical, biological or physical reaction during which the color, in particular the reflectance of at least one element involved in the reaction, changes as the reaction proceeds.
Используемый в данном документе термин «оптическая тест-полоска» является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. В частности, термин может относиться без ограничения к произвольному элементу или устройству, содержащему по меньшей мере один носитель в форме полоски, с по меньшей мере одним тестовым полем, нанесенным на него или интегрированным в него, при этом элемент выполнен с возможностью проведения реакции определения изменения цвета. Оптическая тест-полоска также может называться тест-полоской или тестовым элементом. Оптическая тест-полоска, в частности, может иметь тестовое поле, содержащее по меньшей мере одно тестовое химическое вещество для определения по меньшей мере одного аналита. Оптическая тест-полоска, например, может содержать по меньшей мере одну подложку, такую как по меньшей мере один носитель, с нанесенным на нее или интегрированным в нее по меньшей мере одним тестовым полем. В частности, оптическая тест-полоска может дополнительно содержать по меньшей мере одну белую область, такую как белое поле, в частности, в непосредственной близости от тестового поля, например, охватывая или окружая тестовое поле. Белая область может представлять собой отдельное поле, независимо расположенное на подложке или носителе. Однако, дополнительно или альтернативно, сама подложка или носитель может представлять собой или может содержать белую область. Эти тест-полоски обычно широко используются и доступны. Одна тест-полоска может содержать одно тестовое поле или совокупность тестовых полей, содержащих идентичные или разные тестовые химические вещества.As used herein, the term “optical test strip” is a broad term and its common and traditional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. In particular, the term may refer, without limitation, to an arbitrary element or device comprising at least one strip-shaped carrier with at least one test field applied thereto or integrated therein, the element being configured to conduct a change detection reaction colors. An optical test strip may also be called a test strip or test cell. The optical test strip, in particular, may have a test field containing at least one test chemical for determining at least one analyte. An optical test strip, for example, may comprise at least one substrate, such as at least one carrier, with at least one test field applied or integrated therein. In particular, the optical test strip may further comprise at least one white region, such as a white field, in particular in the immediate vicinity of the test field, for example, enclosing or surrounding the test field. The white area may be a separate field independently located on the substrate or media. However, additionally or alternatively, the substrate or carrier itself may be or may contain a white area. These test strips are generally widely used and available. One test strip may contain one test field or a combination of test fields containing identical or different test chemicals.
Используемый далее в данном документе термин «тестовое поле» является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. Данный термин, в частности, может относиться, без ограничения, к когерентному количеству тестового химического вещества, такому как поле, например поле круглой, многоугольной или прямоугольной формы, содержащему один или более слоев материала, с по меньшей мере одним слоем тестового поля, содержащим тестовое химическое вещество.As used hereinafter, the term “test field” is a broad term and its common and conventional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. The term may specifically refer to, without limitation, a coherent amount of a test chemical, such as a field, such as a circular, polygonal or rectangular shaped field, containing one or more layers of material, with at least one test field layer containing a test chemical. Chemical substance.
Используемый в данном документ термин «мобильное устройство» является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. Этот термин, в частности, может относиться, без ограничения, к устройству мобильной электроники, более конкретно к устройству мобильной связи, такому как сотовый телефон или смартфон. Дополнительно или альтернативно, как будет более подробно описано ниже, мобильное устройство может также относиться к планшетному компьютеру или портативному компьютеру другого типа, содержащему по меньшей мере одну камеру.As used herein, the term “mobile device” is a broad term and its common and traditional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. The term may specifically refer, without limitation, to a mobile electronics device, more particularly to a mobile communications device such as a cell phone or smartphone. Additionally or alternatively, as will be described in more detail below, a mobile device may also refer to a tablet computer or other type of laptop computer comprising at least one camera.
Используемый в данном документе термин «камера» является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. Этот термин, в частности, может относиться, без ограничения, к устройству, содержащему по меньшей мере один элемент формирования изображений, выполненный с возможностью записи или получения пространственно разрешенных одномерных, двухмерных или даже трехмерных оптических данных или информации. В качестве примера камера может содержать по меньшей мере одну микросхему камеры, такую как по меньшей мере одна микросхема на приборе с зарядовой связью (ПЗС) и/или по меньшей мере одна микросхема со структурой комплементарного металл-оксидного полупроводника (КМОП), выполненную с возможностью записи изображений. Используемый в данном документе, без ограничения, термин «изображение», в частности, может относиться к данным, записанным с помощью камеры, таким как совокупность электронных показаний устройства формирования изображений, например пиксели микросхемы камеры.As used herein, the term “camera” is a broad term and its common and traditional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. The term may specifically refer, without limitation, to a device comprising at least one imaging element configured to record or obtain spatially resolved one-dimensional, two-dimensional or even three-dimensional optical data or information. As an example, the camera may include at least one camera chip, such as at least one charge-coupled device (CCD) chip and/or at least one complementary metal oxide semiconductor (CMOS) chip, configured to recording images. As used herein, without limitation, the term "image" may specifically refer to data recorded by a camera, such as a collection of electronic readings from an imaging device, such as pixels on a camera chip.
Указанная камера, помимо по меньшей мере одной микросхемы камеры или микросхемы формирования изображений, может содержать дополнительные элементы, такие как один или более оптических элементов, например один или более объективов. В качестве примера камера может представлять собой камеру с постоянным фокусным расстоянием, содержащую по меньшей мере один объектив, который устойчиво отрегулирован по отношению к камере. Однако в качестве альтернативы камера может также содержать один или более регулируемых объективов, которые можно регулировать автоматически или вручную. В частности, изобретение должно быть применимо к камерам, которые обычно используют в устройствах мобильной связи, таких как портативные компьютеры типа «ноутбук», планшеты или, в частности, сотовые телефоны, такие как смартфоны. Таким образом, в частности, камера может представлять собой часть мобильного устройства, которое, помимо по меньшей мере одной камеры, содержит одно или более устройств обработки данных, таких как один или более процессоров для обработки данных. Однако практически возможно применять и другие камеры.Said camera, in addition to at least one camera chip or imaging chip, may contain additional elements, such as one or more optical elements, such as one or more lenses. By way of example, the camera may be a fixed focal length camera including at least one lens that is steadily adjusted relative to the camera. However, as an alternative, the camera may also include one or more adjustable lenses, which can be adjusted automatically or manually. In particular, the invention should be applicable to cameras that are typically used in mobile communication devices, such as portable computers such as laptops, tablets or, in particular, cell phones such as smartphones. Thus, in particular, the camera can be part of a mobile device which, in addition to at least one camera, contains one or more data processing devices, such as one or more data processors. However, it is practically possible to use other cameras.
В частности, камера может представлять собой камеру для цветной съемки. Таким образом, например для каждого пикселя, можно обеспечивать или генерировать информацию о цвете, например значения цвета для трех цветов палитры «красный, зеленый, синий» (R, G, В). Также практически возможно большее количество значений цвета, например четыре цвета для каждого пикселя, например R, G, G, В. Цветные камеры в общем известны специалисту в данной области техники. Таким образом, в качестве примера микросхема камеры может состоять из множества из трех или более различных датчиков цвета каждая, таких как пиксели записи цвета, такие как один пиксель для красного (R), один пиксель для зеленого (G) и один пиксель для синего (В). Для каждого из пикселей, например для R, G, В, пикселями могут быть записаны значения, например цифровые значения в диапазоне от 0 до 255, в зависимости от интенсивности соответствующего цвета. Вместо использования цветовых троек, таких как R, G, В, в качестве примера, можно использовать четверки, такие как R, G, G, В. Цветовая чувствительность пикселей может быть сгенерирована с помощью цветных фильтров или соответствующей собственной чувствительности сенсорных элементов, используемых в пикселях камеры. Эти способы, как правило, известны специалисту в данной области техники.In particular, the camera may be a color camera. Thus, for example, for each pixel, color information, such as color values for the three colors of the red, green, blue (R, G, B) palette, can be provided or generated. It is also practicable to have a larger number of color values, for example four colors for each pixel, for example R, G, G, B. Color cameras are generally known to one skilled in the art. Thus, as an example, a camera chip may consist of a plurality of three or more different color sensors each, such as color recording pixels such as one pixel for red (R), one pixel for green (G), and one pixel for blue ( IN). For each of the pixels, eg R, G, B, values may be recorded by the pixels, eg digital values ranging from 0 to 255, depending on the intensity of the corresponding color. Instead of using color triplets such as R, G, B as an example, quadruples such as R, G, G, B can be used. The color sensitivity of the pixels can be generated using color filters or the corresponding native sensitivity of the sensor elements used in camera pixels. These methods are generally known to one skilled in the art.
Каждый из шагов б) и г) включают получение по меньшей мере одного изображения с помощью камеры. Термин «получение по меньшей мере одного изображения» относится к одному или более из формирования изображения, записи изображения, приема изображения, получения изображения. Термин «получение по меньшей мере одного изображения» может включать в себя получение отдельного изображения и/или совокупности изображений, например последовательности изображений. Например, получение изображения может включать в себя непрерывную запись последовательности изображений, такой как видеофильм или фильм. Получение по меньшей мере одного изображения может быть инициировано действием пользователя или может быть инициировано автоматически, например как только автоматически определяется присутствие по меньшей мере одного объекта в поле зрения и/или в пределах заданного сектора поля зрения камеры. Эти методы автоматического получения изображений известны, например, в области автоматических считывателей штрих-кода, например, из приложений для автоматического считывания штрих-кода. Получение изображений может происходить, например, путем приема потока или «потока в режиме реального времени» изображений с помощью камеры, где одно или более изображений, автоматически или в результате взаимодействия с пользователем, такого как нажатие кнопки, сохраняются и используются в качестве по меньшей мере одного первого изображения или по меньшей мере одного второго изображения, соответственно. Прием изображений может поддерживаться процессором мобильного устройства, а сохранение изображений может происходить в устройстве хранения данных мобильного устройства.Each of steps b) and d) involves obtaining at least one image using a camera. The term “acquiring at least one image” refers to one or more of image formation, image recording, image reception, image acquisition. The term "acquiring at least one image" may include obtaining a single image and/or a collection of images, such as a sequence of images. For example, image acquisition may involve continuously recording a sequence of images, such as a video or film. Acquisition of the at least one image may be initiated by a user action or may be initiated automatically, for example, as soon as the presence of at least one object in the field of view and/or within a specified sector of the camera's field of view is automatically determined. These automatic image acquisition methods are known, for example, in the field of automatic barcode readers, for example from applications for automatic barcode reading. Acquisition of images may occur, for example, by receiving a stream or "live stream" of images using a camera, where one or more images, automatically or as a result of user interaction such as a button press, are stored and used as at least one first image or at least one second image, respectively. Reception of the images may be supported by a processor of the mobile device, and storage of the images may occur in a storage device of the mobile device.
На каждом из шагов б) и г) с помощью камеры получают по меньшей мере одно изображение по меньшей мере части тестового поля. Эти изображения называются «по меньшей мере одно первое изображение» и «по меньшей мере одно второе изображение», где термины «первое» и «второе» используются только в целях номенклатуры, без ранжирования или нумерации этих изображений и без предоставления каких-либо преимуществ. Термин «по меньшей мере часть тестового поля» или «по меньшей мере часть данного тестового поля» в обоих случаях относится к факту, что по меньшей мере одна часть по меньшей мере одного тестового поля должна быть видна на каждом из изображений, при этом на первом и втором изображениях могут быть видны разные части по меньшей мере одного тестового поля. Кроме по меньшей мере одной части тестового поля, в каждом случае могут быть видны дополнительные части оптической тест-полоски, такие как по меньшей мере одна часть подложки тест-полоски.In each of steps b) and d) at least one image of at least part of the test field is obtained using the camera. These images are referred to as "at least one first image" and "at least one second image", where the terms "first" and "second" are used for nomenclature purposes only, without ranking or numbering these images and without providing any advantage. The term "at least a portion of a test field" or "at least a portion of a given test field" in both cases refers to the fact that at least one portion of at least one test field must be visible in each of the images, the first and the second image may show different parts of at least one test field. In addition to at least one portion of the test field, in each case additional portions of the optical test strip may be visible, such as at least one portion of the test strip substrate.
На шаге б) по меньшей мере одно первое изображение получают без образца, нанесенного на тестовое поле. Это по меньшей мере одно первое изображение, как правило, также называется «холостое изображение», и в типичных методах оценки это изображение используется в справочных целях, чтобы учесть изменения цвета или другие оптические свойства тестового поля, что не связано с образцом или самим аналитом. Нанесение образца на шаге в) может происходить, например, непосредственно или опосредованно, например, с помощью по меньшей мере одного капиллярного элемента. По меньшей мере одно второе изображение, полученное после нанесения образца, как правило, также называется «мокрое изображение», даже если образец мог уже высохнуть, когда изображение фактически получено. Второе изображение, как правило, получают после ожидания в течение по меньшей мере заданного времени ожидания, например, через пять секунд или более, чтобы обеспечить возможность протекания реакции определения.In step b) at least one first image is obtained without a sample applied to the test field. This at least one first image is typically also called a "blank image", and in typical evaluation methods this image is used for reference purposes to account for color changes or other optical properties of the test field that are not associated with the sample or the analyte itself. The application of the sample in step c) can take place, for example, directly or indirectly, for example using at least one capillary element. At least one second image taken after the sample has been applied is generally also referred to as a "wet image", even though the sample may have already dried when the image is actually taken. The second image is typically obtained after waiting for at least a predetermined wait time, for example five seconds or more, to allow the detection reaction to occur.
Таким образом, например, способ может включать, между шагами в) и г), ожидание в течение по меньшей мере заданного минимального количества времени. Это заданное минимальное количество времени, в частности, может быть достаточным для протекания реакции определения в тест-полоске. Например, минимальное количество времени ожидания может составлять по меньшей мере 5 с.Thus, for example, the method may include, between steps c) and d), waiting for at least a predetermined minimum amount of time. This predetermined minimum amount of time may in particular be sufficient for the detection reaction in the test strip to proceed. For example, the minimum amount of wait time may be at least 5 seconds.
На шаге в) значение результата аналитического измерения определяют с применением первого и второго изображений оптического тестового поля оптической тест-полоски. Значение результата аналитического измерения, например, может являться индикатором числового значения результата аналитического измерения, таким как показатель концентрации по меньшей мере одного аналита в образце, такой как концентрация глюкозы в крови. Для определения значения результата аналитического измерения из по меньшей мере одного первого изображения и по меньшей мере одного второго изображения, например, заданной или определяемой взаимосвязи между информацией, полученной из первого и второго изображений, такой как информация о цвете или информация об изменении цвета, и может быть получено по меньшей мере одно значение результата аналитического измерения. Эта заданная или определяемая взаимосвязь, например, может храниться в устройстве хранения данных мобильного устройства и/или в процессоре мобильного устройства. Например, процессор может быть выполнен с помощью программного обеспечения для получения по меньшей мере одного элемента информации из первого и второго изображений, например по меньшей мере одной координаты цветности, и для применения заданной или определяемой взаимосвязи для по меньшей мере одного элемента информации. Указанная корреляция, например функция преобразования, таблица преобразования или справочная таблица, может быть определена, например, эмпирически и может, например, сохраняться по меньшей мере в одном устройстве хранения данных мобильного устройства, например посредством программного обеспечения, в частности приложения, скачанного из магазина приложений, или т.п. Например, для получения по меньшей мере одного элемента информации процессор может быть запрограммирован для распознавания, предпочтительно автоматически, например, с помощью распознавания образов и/или других алгоритмов, тестового поля или по меньшей мере одной части тестового поля на изображениях. Следовательно, процессор может быть запрограммирован для определения по меньшей мере одного элемента информации, такого как одна или более координат цветности. Соответствующий по меньшей мере один элемент информации, полученный из холостого изображения, может использоваться для нормализации, например путем деления по меньшей мере одного элемента информации, полученного из мокрого изображения, на по меньшей мере один элемент информации, полученный из соответствующего холостого изображения, или путем вычитания по меньшей мере одного элемента информации, полученного из мокрого изображения, из по меньшей мере одного элемента информации, полученного из холостого изображения, или наоборот. Практически возможно применять и другие способы нормализации. Указанная корреляция, например функция преобразования, таблица преобразования или справочная таблица, может быть определена, например, эмпирически и может, например, сохраняться по меньшей мере в одном устройстве хранения данных мобильного устройства, например посредством программного обеспечения, в частности приложения, скачанного из магазина приложений, или т.п.In step c), the value of the analytical measurement result is determined using the first and second images of the optical test field of the optical test strip. The analytical measurement result value, for example, may be an indicator of the numerical value of the analytical measurement result, such as an indicator of the concentration of at least one analyte in the sample, such as a blood glucose concentration. To determine the value of an analytical measurement result from the at least one first image and the at least one second image, for example, a predetermined or determined relationship between information obtained from the first and second images, such as color information or color change information, and may at least one analytical measurement result value is obtained. This predetermined or definable relationship may, for example, be stored in a storage device of the mobile device and/or in a processor of the mobile device. For example, the processor may be configured in software to obtain at least one element of information from the first and second images, such as at least one chromaticity coordinate, and to apply a specified or definable relationship to the at least one element of information. Said correlation, for example a lookup function, lookup table or lookup table, can be determined, for example, empirically and can, for example, be stored in at least one storage device of the mobile device, for example by software, in particular an application downloaded from an application store , or the like For example, to obtain at least one piece of information, the processor may be programmed to recognize, preferably automatically, such as through pattern recognition and/or other algorithms, a test field or at least one portion of a test field in the images. Therefore, the processor may be programmed to determine at least one element of information, such as one or more chromaticity coordinates. The corresponding at least one information element obtained from the blank image can be used for normalization, for example, by dividing the at least one information element obtained from the wet image by at least one information element obtained from the corresponding blank image, or by subtracting at least one information element obtained from the wet image from at least one information element obtained from the blank image, or vice versa. It is practically possible to use other normalization methods. Said correlation, for example a lookup function, lookup table or lookup table, can be determined, for example, empirically and can, for example, be stored in at least one storage device of the mobile device, for example by software, in particular an application downloaded from an application store , or the like
Способ может дополнительно включать шаг отображения значения результата аналитического измерения, например, на дисплее мобильного устройства. При этом может быть указано, например на дисплее, одно или более числовых значений, указывающих значение результата аналитического измерения. Дополнительно или альтернативно, может быть указан диапазон показаний, относящихся к значению результата аналитического измерения, например путем указания того, находится ли значение результата аналитического измерения в пределах или вне одного или более заданных диапазонов. Например, может быть выполнено отображение диапазонов, таких как высокий диапазон, целевой диапазон или низкий диапазон, без обязательного указания числовой величины значения результата аналитического измерения. Таким образом, отображение не обязательно должно быть отображением числового значения. Практически возможно применять и другие средства отображения значения результата аналитического измерения, при этом отображение может представлять собой одно или более из визуального отображения, звукового отображения или тактильного отображения. Дополнительно или альтернативно способ может включать хранение значения результата аналитического измерения в по меньшей мере одном устройстве хранения данных мобильного устройства. Опять же, дополнительно и альтернативно, способ может дополнительно включать передачу значения результата аналитического измерения через по меньшей мере один интерфейс и/или через по меньшей мере одну сеть передачи данных, например, на другой компьютер, например, для дальнейшей оценки.The method may further include the step of displaying the value of the analytical measurement result, for example, on the display of a mobile device. In this case, one or more numerical values indicating the value of the result of the analytical measurement can be indicated, for example on a display. Additionally or alternatively, a range of indications related to the analytical measurement result value may be specified, for example by indicating whether the analytical measurement result value is within or outside one or more specified ranges. For example, ranges such as high range, target range, or low range can be displayed without necessarily specifying a numerical value of the analytical measurement result value. Thus, the display does not have to be a numeric value display. It is practical to employ other means of displaying the value of the analytical measurement result, which display may be one or more of a visual display, an audio display, or a tactile display. Additionally or alternatively, the method may include storing the value of the analytical measurement result in at least one storage device of the mobile device. Again, additionally and alternatively, the method may further include transmitting the analytical measurement result value through at least one interface and/or through at least one data network, for example, to another computer, for example, for further evaluation.
Как указано выше, способ выполняют так, что мобильным устройством предоставляется указание, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в аналогичных локальных положениях относительно по меньшей мере одного объекта окружающей среды.As stated above, the method is performed such that an indication is provided by the mobile device where to obtain a second image such that the first and second images are acquired at similar local positions relative to the at least one environmental object.
В данном документе термин «объект окружающей среды», как будет также поясняться более подробно ниже, обычно может относиться к любому контрольному элементу и/или контрольной характеристике в поле зрения камеры. Объект окружающей среды, в частности, может быть пригодным для определения местоположения и/или системы координат в пространстве и/или может использоваться как маркер местоположения в поле зрения камеры. Объект окружающей среды, в частности, может представлять собой объект, который между получением первого и второго изображений имеет фиксированное и/или неизменное положение. Фиксированное и/или неизменное положение объекта окружающей среды, в частности, может относиться к фиксированному и/или неизменному абсолютному положению в пространстве. Объект окружающей среды, в частности, может представлять собой объект, который между получением первого и второго изображений, вероятно, не изменит положение. Объект окружающей среды может представлять собой или может содержать изделие или его часть, например, стол, на котором располагают тест-полоску во время измерения, или часть стола, например поверхностная структура стола. По меньшей мере один объект окружающей среды, в частности, может содержать по меньшей мере одно из изделия в поле зрения камеры или структурного признака изделия в поле зрения камеры. Объект окружающей среды или изделие может быть осязаемым. Объект окружающей среды может отличаться от тест-полоски или частей тест-полоски и от мобильного устройства, имеющего камеру, или его частей.As used herein, the term “environmental object,” as will also be explained in more detail below, can generally refer to any reference element and/or reference feature in the camera's field of view. The environmental object in particular may be suitable for defining a location and/or coordinate system in space and/or may be used as a location marker in the camera's field of view. The environmental object may in particular be an object which has a fixed and/or unchanging position between the acquisition of the first and second images. A fixed and/or unchanging position of an environmental object may particularly refer to a fixed and/or unchanging absolute position in space. The environmental object, in particular, may be an object that is not likely to change position between the acquisition of the first and second images. The environmental object may be or may contain the product or part thereof, such as a table on which the test strip is placed during measurement, or a part of a table, such as the surface structure of a table. The at least one environmental object may in particular comprise at least one of an article in the camera's field of view or a structural feature of the article in the camera's field of view. An environmental object or product may be tangible. The environmental object may be different from the test strip or parts of the test strip and from the camera mobile device or parts thereof.
Для определения по меньшей мере одного объекта окружающей среды способ может включать определение по меньшей мере одного объекта окружающей среды в одном или обоих из первого и второго изображений. С этой целью, например, в способе может использоваться распознавание изображения, например, программное автоматическое распознавание изображения и/или распознавание изображения с помощью процессов машинного обучения.To determine at least one environmental object, the method may include determining at least one environmental object in one or both of the first and second images. To this end, for example, the method may use image recognition, for example software automatic image recognition and/or image recognition using machine learning processes.
Следовательно, частичный признак признака е), указывающий на то, что первое и второе изображения получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, как правило, может относиться к тому факту, что по меньшей мере один объект окружающей среды предусматривает систему координат, определяющую первое и/или второе локальные положения. Таким образом, локальное положение получения первого изображения может определяться и/или отслеживаться относительно по меньшей мере одного объекта окружающей среды, или локальное положение получения второго изображения может определяться и/или отслеживаться относительно по меньшей мере одного объекта окружающей среды, или оба случая. Дополнительные иллюстративные варианты осуществления будут приведены более подробно ниже.Therefore, the partial feature of feature e), indicating that the first and second images are acquired at the same local positions relative to the at least one environmental object, generally may refer to the fact that the at least one environmental object provides a system coordinates defining the first and/or second local positions. Thus, the local acquisition position of the first image may be determined and/or tracked relative to at least one environmental object, or the local acquisition position of the second image may be determined and/or tracked relative to at least one environmental object, or both. Additional illustrative embodiments will be described in more detail below.
Предоставление указания, как правило, определяется шагом е) способа, при этом шаг е) способа, как правило, может быть выполнен до или во время выполнения шага г) способа. Фактически, шаг е) способа также может представлять собой часть шага г) способа, например, путем получения или записи изображения в режиме реального времени или потока изображений с помощью камеры мобильного устройства и демонстрации этого потока изображений или изображения в режиме реального времени на дисплее мобильного устройства, при этом мобильным устройством предоставляется указание, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды. В качестве примера и как будет более подробно изложено ниже, дополненная реальность может использоваться, например, путем добавления указания, относящегося к тому, где получить второе изображение, к потоку изображений или изображению в режиме реального времени, отображаемому на дисплее.Providing an indication is typically determined by method step e), wherein method step e) can typically be performed before or during method step d). In fact, method step e) may also be part of method step d), for example by acquiring or recording a real-time image or image stream using the camera of a mobile device and displaying this image stream or real-time image on the display of the mobile device wherein the mobile device provides an indication of where to acquire the second image such that the first and second images are acquired at the same local positions relative to the at least one environmental object. By way of example, and as will be discussed in more detail below, augmented reality can be used, for example, by adding guidance regarding where to obtain a second image to an image stream or real-time image displayed on a display.
Как будет более подробно изложено ниже, термин «локальное положение», используемый в данном документе и конкретно используемый в контексте получения первого и второго изображений, в дальнейшем также просто называемый «положение», является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. В частности, данный термин может относиться без ограничения к по меньшей мере одному элементу информации о пространственных параметрах, относящихся к одному или более из камеры или тестового поля в момент получения изображения, например, при и/или во время получения изображения, при этом информация о по меньшей мере одном пространственном параметре учитывает по меньшей мере один объект окружающей среды, например, путем определения положения по меньшей мере одного объекта окружающей среды в поле зрения камеры. По меньшей мере один элемент информация о пространственных параметрах может относиться к по меньшей мере одному из пространственной координаты и/или пространственной ориентации, например, по меньшей мере одной пространственной координаты и/или по меньшей мере одной пространственной ориентации в по меньшей мере одной системе координат, определяемой по меньшей мере одним объектом окружающей среды. По меньшей мере один элемент информация о пространственных параметрах может относиться к по меньшей мере одному из абсолютного элемента информации о пространственных параметрах или относительного элемента информация о пространственных параметрах, например, относительного элемента информации о пространственных параметрах, относящейся к пространственному отношению между камерой и тестовым полем. Таким образом, например, абсолютный элемент информации о пространственных параметрах может быть определен для камеры или тестового поля в системе координат, определенной с помощью по меньшей мере одного объекта окружающей среды, а относительный элемент информации о пространственных параметрах может быть определен для другого одного из камеры или тестового поля. Альтернативно, абсолютные элементы информации о пространственных параметрах могут быть определены для обоих из камеры и тестового поля в системе координат, определяемой по меньшей мере одним объектом окружающей среды.As will be discussed in more detail below, the term "local position" as used herein and specifically used in the context of acquiring the first and second images, hereinafter also simply referred to as "position", is a broad term and its common and traditional understanding should be understood one skilled in the art and should not be limited to specialist or individual understanding. In particular, the term may refer, without limitation, to at least one piece of spatial parameter information related to one or more of a camera or test field at the time of image acquisition, for example, at and/or during image acquisition, wherein information about the at least one spatial parameter takes into account at least one environmental object, for example, by determining the position of the at least one environmental object in the camera's field of view. The at least one spatial parameter information element may relate to at least one of a spatial coordinate and/or a spatial orientation, for example, at least one spatial coordinate and/or at least one spatial orientation in at least one coordinate system, determined by at least one environmental object. The at least one spatial information element may refer to at least one of an absolute spatial information element or a relative spatial information element, for example, a relative spatial information element relating to a spatial relationship between the camera and the test field. Thus, for example, an absolute element of spatial information may be defined for a camera or test field in a coordinate system defined by at least one environmental object, and a relative element of spatial information may be defined for another one of the camera or test field. Alternatively, absolute elements of spatial parameter information may be determined for both of the camera and the test field in a coordinate system defined by at least one environmental object.
Например, локальные положения могут включать по меньшей мере одно из: абсолютного положения камеры в пространстве относительно по меньшей мере одного объекта окружающей среды; абсолютного положения тестового поля в пространстве относительно по меньшей мере одного объекта окружающей среды; относительного положения между камерой и тестовым полем в системе координат, определяемой по меньшей мере одним объектом окружающей среды в поле зрения камеры; ориентации камеры в пространстве относительно по меньшей мере одного объекта окружающей среды; ориентации тестового поля в пространстве относительно по меньшей мере одного объекта окружающей среды; относительной угловой ориентации между камерой и тестовым полем в системе координат, определяемой по меньшей мере одним объектом окружающей среды; относительной угловой ориентации между камерой и по меньшей мере одним объектом окружающей среды в поле зрения камеры; относительной угловой ориентации между тестовым полем и по меньшей мере одним объектом окружающей среды в поле зрения камеры; относительной угловой ориентации между камерой и тестовым полем в системе координат, определяемой по меньшей мере одним объектом окружающей среды в поле зрения камеры.For example, local positions may include at least one of: an absolute position of the camera in space relative to at least one environmental object; the absolute position of the test field in space relative to at least one environmental object; a relative position between the camera and the test field in a coordinate system defined by at least one environmental object in the camera's field of view; orientation of the camera in space relative to at least one environmental object; orientation of the test field in space relative to at least one environmental object; a relative angular orientation between the camera and the test field in a coordinate system defined by at least one environmental object; a relative angular orientation between the camera and at least one environmental object in the camera's field of view; relative angular orientation between the test field and at least one environmental object in the camera's field of view; the relative angular orientation between the camera and the test field in a coordinate system defined by at least one environmental object in the camera's field of view.
Как будет также изложено ниже в дополнительных иллюстративных подробностях, термин «одинаковый», используемый в данном документе и конкретно используемый в контексте локальных положений первого и второго изображений, является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. В частности, данный термин может относиться без ограничения к тому факту, что первое и второе изображения получают в локальных положениях, которые удовлетворяют по меньшей мере одному заданному или определяемому критерию подобия. Таким образом, например, локальные положения первого и второго изображений могут быть идентичными по меньшей мере в пределах заданного диапазона допустимых значений, например, заданного диапазона допустимых значений, сохраненных в по меньшей мере одном устройстве хранения данных мобильного устройства.As will also be set forth below in further illustrative detail, the term “same” as used herein and specifically used in the context of the local positions of the first and second images is a broad term and its common and conventional understanding will be understood by one skilled in the art and should not be limited to special or individual understanding. In particular, the term may refer, without limitation, to the fact that the first and second images are obtained at local positions that satisfy at least one predetermined or definable similarity criterion. Thus, for example, the local positions of the first and second images may be identical at least within a predetermined range of valid values, for example, a predetermined range of valid values stored in at least one storage device of the mobile device.
Таким образом, шаг е), т.е. предоставление указания, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, может включать предоставление по меньшей мере одного критерия подобия для локальных положений при получении первого и второго изображений. Например, критерий подобия может предоставляться устройством хранения данных мобильного устройства, содержащего сохраненный в нем по меньшей мере один критерий подобия.Thus, step e), i.e. providing an indication of where to obtain the second image such that the first and second images are acquired at the same local positions relative to the at least one environmental object may include providing at least one similarity criterion for the local positions when the first and second images are acquired. For example, the similarity criterion may be provided by a storage device of a mobile device having at least one similarity criterion stored therein.
Способ может дополнительно включать оценку того, удовлетворяется ли критерий подобия. Таким образом, например, процессор может быть выполнен с возможностью оценки локальных положений, в которых получены первое и второе изображения, при этом положение второго изображения может представлять собой текущее положение в способе получения второго изображения, например, путем получения последовательности изображений или потока изображений в режиме реального времени, и процессор может быть выполнен с возможностью определения того, удовлетворяется ли по меньшей мере один критерий подобия или нет.The method may further include assessing whether the similarity criterion is satisfied. Thus, for example, the processor may be configured to estimate local positions at which the first and second images are acquired, wherein the position of the second image may be a current position in a method for acquiring the second image, for example, by obtaining a sequence of images or a stream of images in a mode real time, and the processor may be configured to determine whether the at least one similarity criterion is satisfied or not.
По меньшей мере один критерий подобия, в частности, может включать по меньшей мере одно из критерия подобия освещения и локального критерия подобия. Таким образом, например, подобие положений может относиться к подобию в отношении освещения и/или к подобию в отношении локального подобия.The at least one similarity criterion may particularly include at least one of an illumination similarity criterion and a local similarity criterion. Thus, for example, position similarity may refer to illumination similarity and/or local similarity similarity.
Оценка того, удовлетворяется ли по меньшей мере один критерий подобия, в частности, может включать сравнение локальных положений при получении первого и второго изображений, в частности, сравнение отклонения между локальными положениями с по меньшей мере одним порогом допустимых значений. Таким образом, например, процессор может быть выполнен с возможностью определения отклонения между вторым локальным положением и первым локальным положением и может быть выполнен с возможностью сравнения отклонения с по меньшей мере одним порогом допустимых значений, например, по меньшей мере одним порогом допустимых значений, сохраненных в по меньшей мере одном устройстве хранения данных мобильного устройства.Evaluating whether the at least one similarity criterion is satisfied may in particular include comparing local positions when acquiring the first and second images, in particular comparing the deviation between the local positions with at least one tolerance threshold. Thus, for example, the processor may be configured to determine a deviation between a second local position and a first local position and may be configured to compare the deviation with at least one tolerance threshold, such as at least one tolerance threshold stored in at least one storage device of the mobile device.
Способ может включать определение первого локального положения при получении первого изображения и определение по меньшей мере одного второго локального положения до или при получении второго изображения. В данном документе одно или оба из первого и второго локальных положений могут быть определены относительно по меньшей мере одного объекта окружающей среды, как изложено выше, например, в по меньшей мере одной системе координат, определяемой по меньшей мере одним объектом окружающей среды. Способ может включать сравнение первого и второго локальных положений для определения того, получены ли первое и второе изображения в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды. Таким образом, как изложено выше, процессор может быть выполнен с возможностью определения первого и второго локальных положений и сравнения этих первого и второго локальных положений и/или их отклонения с по меньшей мере одним порогом допустимых значений, для определения того, удовлетворяется ли критерий подобия или нет.The method may include determining a first local position when acquiring a first image and determining at least one second local position before or when acquiring a second image. Herein, one or both of the first and second local positions may be defined relative to at least one environmental object as set forth above, for example, in at least one coordinate system defined by the at least one environmental object. The method may include comparing the first and second local positions to determine whether the first and second images are acquired at the same local positions relative to the at least one environmental object. Thus, as set forth above, the processor may be configured to determine first and second local positions and compare the first and second local positions and/or their deviation with at least one threshold of acceptable values to determine whether a similarity criterion is satisfied or No.
Указание, предоставляемое на шаге е), т.е. указание, предоставляемое мобильным устройством, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, в частности, может включать визуальное указание, более конкретно визуальное указание на дисплее мобильного устройства. В частности, указание может предоставляться по меньшей мере частично в виде дополненной реальности на дисплее мобильного устройства. Термин «дополненная реальность», используемый в данном документе, является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. В частности, данный термин может относиться без ограничения к способу наложения на дисплей текущего изображения, изображения в режиме реального времени или потока изображений объекта съемки с одним или более элементами дополнительной информации, например, одним или более визуальными индикаторами или т.п. Таким образом, например, дополненная реальность на шаге е) может быть обеспечена путем предоставления на дисплее одной или более стрелок, рамок или линий, указывающих на предпочтительное расположение камеры и тест-полоски. Дополнительно или альтернативно, может отображаться текст, указывающий на то, в каком направлении необходимо переместить камеру и/или тест-полоску. Возможна другая дополненная реальность.The indication provided in step e), i.e. the indication provided by the mobile device of where to obtain the second image such that the first and second images are acquired at the same local positions relative to the at least one environmental object may particularly include a visual indication, more particularly a visual indication on the display of the mobile device. In particular, the guidance may be provided at least in part in the form of augmented reality on the display of a mobile device. The term "augmented reality" as used herein is a broad term and its common and traditional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. In particular, the term may refer, without limitation, to a method of overlaying on a display a current image, a real-time image, or a stream of images of a subject with one or more elements of additional information, such as one or more visual indicators or the like. Thus, for example, the augmented reality in step e) can be provided by providing one or more arrows, frames or lines on the display indicating the preferred location of the camera and test strip. Additionally or alternatively, text may be displayed indicating in which direction the camera and/or test strip should be moved. Another augmented reality is possible.
В частности, способ может включать определение и необязательно хранение по меньшей мере одного первого элемента информации о местоположении относительно одного или обоих из положения камеры и положения тестового поля при получении первого изображения. Таким образом, может быть определено и необязательно сохранено положение камеры и/или тестового поля в по меньшей мере один момент времени при получении по меньшей мере одного первого изображения. Для определения положения на практике возможны различные средства, которые будут пояснены более подробно ниже. По меньшей мере один первый элемент информации о местоположении, в частности, может включать по меньшей мере одно из: абсолютного положения тестового поля; абсолютного положения камеры. В данном документе по меньшей мере один первый элемент информации о местоположении, например, одно или более из абсолютных положений, перечисленных ранее, может быть определен относительно по меньшей мере одного объекта окружающей среды, например, в по меньшей мере одной системе координат, определяемой по меньшей мере одним объектом окружающей среды.In particular, the method may include determining and optionally storing at least one first element of location information relative to one or both of a camera position and a test field position when the first image is acquired. Thus, the position of the camera and/or test field at at least one time when the at least one first image is acquired can be determined and optionally stored. Various means are possible for determining the position in practice, which will be explained in more detail below. The at least one first element of location information may specifically include at least one of: an absolute position of the test field; absolute camera position. Herein, at least one first element of position information, for example, one or more of the absolute positions listed previously, may be defined relative to at least one environmental object, for example, in at least one coordinate system defined by at least at least one environmental object.
Определение по меньшей мере одного первого элемента информации о местоположении может включать анализ изображения по меньшей мере одного первого изображения, чтобы обнаружить по меньшей мере один объект окружающей среды на по меньшей мере одном первом изображении. Однако, дополнительно или альтернативно, могут применяться другие средства определения по меньшей мере одного первого элемента информации о местоположении. Таким образом, например, по меньшей мере одно определение по меньшей мере одного первого элемента информации о местоположении может включать применение по меньшей мере одного датчика мобильного устройства, в частности, по меньшей мере одного из датчика местоположения, гироскопического датчика, оптического датчика, датчика угла наклона. Таким образом, для определения по меньшей мере одного первого элемента информации о местоположении могут использоваться один или более датчиков самого мобильного устройства.Determining the at least one first location information item may include analyzing an image of the at least one first image to detect at least one environmental object in the at least one first image. However, additionally or alternatively, other means of determining the at least one first element of location information may be used. Thus, for example, the at least one determination of the at least one first location information element may include the use of at least one mobile device sensor, in particular at least one of a location sensor, a gyro sensor, an optical sensor, an inclination sensor . Thus, one or more sensors of the mobile device itself may be used to determine the at least one first piece of location information.
Как изложено выше, визуальные средства, такие как средства распознавания изображения, могут использоваться для определения по меньшей мере одного первого элемента информации о местоположении. Таким образом, определение по меньшей мере одного первого элемента информации о местоположении, в качестве альтернативы или в дополнение к применению по меньшей мере одного датчика мобильного устройства, может включать обнаружение по меньшей мере одного объекта окружающей среды в локальной среде.As set forth above, visual means, such as image recognition means, can be used to determine at least one first element of location information. Thus, determining the at least one first element of location information, alternatively or in addition to using the at least one sensor of the mobile device, may include detecting at least one environmental object in the local environment.
По меньшей мере один первый элемент информации о местоположении может содержать информацию о местоположении одного или обоих из камеры и тестового поля относительно по меньшей мере одного объекта окружающей среды. Таким образом, например, по меньшей мере один объект окружающей среды может использоваться процессором для определения системы координат в пространстве, при этом информация о местоположении камеры и/или тестового поля может быть определена в этой системе координат. Дополнительно или альтернативно, по меньшей мере один первый элемент информации о местоположении может просто относиться к пространственному расстоянию между одним или более из камеры и тестового поля и объектом окружающей среды.The at least one first location information element may comprise information about the location of one or both of the camera and the test field relative to the at least one environmental object. Thus, for example, at least one environmental object may be used by the processor to define a coordinate system in space, and camera and/or test field location information may be defined in that coordinate system. Additionally or alternatively, the at least one first element of location information may simply relate to a spatial distance between one or more of the camera and test field and an environmental object.
Обнаружение по меньшей мере одного объекта окружающей среды, в частности, может включать распознавание изображения на по меньшей мере одном изображении, предоставляемом камерой, более конкретно на неподвижном изображении во время получения по меньшей мере одного первого изображения и/или на изображении в режиме реального времени и/или потоке изображений. Таким образом, например, само первое изображение может использоваться и может подвергаться распознаванию изображения, тем самым распознавая по меньшей мере один объект окружающей среды. Таким образом, например, процессор может быть выполнен с возможностью проведения анализа гистограммы изображения, например, первого изображения, чтобы определить характерный элемент объекта окружающей среды, который может использоваться в качестве пространственной привязки.Detecting at least one environmental object may in particular include image recognition on at least one image provided by the camera, more particularly on a still image during acquisition of the at least one first image and/or on a real-time image and /or image stream. Thus, for example, the first image itself may be used and may be subjected to image recognition, thereby recognizing at least one environmental object. Thus, for example, the processor may be configured to perform a histogram analysis of an image, such as a first image, to determine a characteristic element of an environmental object that can be used as a spatial reference.
Указание, предоставляемое на шаге е), т.е. указание, предоставляемое мобильным устройством, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, в частности, может предоставляться на основе первого элемента информации о местоположении. Таким образом, мобильное устройство может быть выполнено с возможностью записи положения камеры и/или тестового поля при получении первого изображения, в частности, относительно по меньшей мере одного объекта окружающей среды, чтобы предоставить пользователю указания в отношении того, где получить второе изображение. Данное указание может включать визуальное указание, в частности, визуальное указание на дисплее мобильного устройства, более конкретно визуальное указание по меньшей мере частично с использованием дополненной реальности на дисплее мобильного устройства.The indication provided in step e), i.e. An indication provided by the mobile device of where to obtain the second image such that the first and second images are acquired at the same local positions relative to the at least one environmental object may in particular be provided based on the first location information element. Thus, the mobile device may be configured to record the position of the camera and/or test field when the first image is acquired, particularly in relation to at least one environmental object, to provide the user with directions as to where to obtain the second image. This indication may include visual indication, in particular visual indication on the display of a mobile device, more particularly visual indication at least in part using augmented reality on the display of a mobile device.
Для обеспечения возможности предоставления указания на шаге е) способ может включать определение, в частности определение в режиме реального времени, и необязательно хранение в устройстве хранения данных мобильного устройства, по меньшей мере одного второго элемента информации о местоположении относительно одного или обоих из положения камеры и положения тестового поля и сравнение второго элемента информации о местоположении с первым элементом информации о местоположении. Предоставление указания на шаге е), т.е. указания того, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, может включать предоставление указания таким образом, чтобы второй элемент информации о местоположении при получении второго изображения являлся, по меньшей мере в пределах заданного диапазона допустимых значений, идентичным первому элементу информации о местоположении.To enable the indication to be provided in step e), the method may include determining, in particular determining in real time, and optionally storing in a storage device of the mobile device, at least one second element of location information relative to one or both of the camera position and position test field and comparing the second location information item with the first location information item. Providing instructions at step e), i.e. indicating where to obtain the second image such that the first and second images are acquired at the same local positions relative to at least one environmental object may include providing an indication such that the second element of location information when acquiring the second image is, at least within a specified range of acceptable values, identical to the first element of location information.
Подобно по меньшей мере одному первому элементу информации о местоположении, по меньшей мере один второй элемент информации о местоположении может включать по меньшей мере одно из: абсолютного положения тестового поля; абсолютного положения камеры; относительного положения между камерой и тестовым полем, в частности, в момент времени получения второго изображения и/или перед получением второго изображения. Таким образом, второй элемент информации о местоположении, в частности, может быть определен как поток информации до получения второго изображения, чтобы предоставлять указание непрерывно или повторно, чтобы пользователь мог регулировать положение тестового поля и/или камеры соответственно до получения второго изображения. Опять же, по меньшей мере один второй элемент информации о местоположении может быть определен относительно по меньшей мере одного объекта окружающей среды, например, в по меньшей мере одной системе координат, определяемой по меньшей мере одним объектом окружающей среды.Like the at least one first location information element, the at least one second location information element may include at least one of: an absolute position of the test field; absolute camera position; relative position between the camera and the test field, in particular at the time the second image is acquired and/or before the second image is acquired. Thus, the second position information element may be particularly defined as a flow of information prior to acquisition of the second image to provide guidance continuously or repeatedly so that the user can adjust the position of the test field and/or camera, respectively, prior to acquisition of the second image. Again, the at least one second element of location information may be defined relative to the at least one environmental object, for example, in at least one coordinate system defined by the at least one environmental object.
Для определения по меньшей мере одного второго элемента информации о местоположении в основном существуют те же варианты, что и для определения по меньшей мере одного первого элемента информации о местоположении. Таким образом, например, могут применяться по меньшей мере один внутренний датчик и/или средства распознавания изображения, как пояснялось выше в отношении по меньшей мере одного первого элемента информации о местоположении. Таким образом, определение по меньшей мере одного второго элемента информации о местоположении может включать анализ изображения по меньшей мере одного второго изображения, чтобы обнаружить по меньшей мере один объект окружающей среды на по меньшей мере одном втором изображении. Однако, дополнительно или альтернативно, могут применяться другие средства определения по меньшей мере одного второго элемента информации о местоположении. Таким образом, например, по меньшей мере одно определение по меньшей мере одного второго элемента информации о местоположении может включать применение по меньшей мере одного датчика мобильного устройства, в частности, по меньшей мере одного из датчика местоположения, гироскопического датчика, оптического датчика, датчика угла наклона. Дополнительно или альтернативно, как изложено выше, определение по меньшей мере одного второго элемента информации о местоположении может включать обнаружение по меньшей мере одного объекта окружающей среды в локальной среде, например, того же объекта окружающей среды, что и применяемый для определения по меньшей мере одного первого элемента информации о местоположении. По меньшей мере один второй элемент информации о местоположении может содержать информацию о местоположении одного или обоих из камеры и тестового поля относительно по меньшей мере одного объекта окружающей среды. Обнаружение по меньшей мере одного объекта окружающей среды может включать распознавание изображения на изображении, предоставляемом камерой, более конкретно на изображении в режиме реального времени. Таким образом, как изложено выше, по меньшей мере один второй элемент информации о местоположении может определяться непрерывно и/или повторно до и/или во время получения по меньшей мере одного второго изображения, чтобы позволить пользователю регулировать локальное положение одного или обоих из камеры и тестового поля. Как изложено выше, по меньшей мере один объект окружающей среды может содержать по меньшей мере одно из изделия в поле зрения камеры или структурного признака изделия в поле зрения камеры. Возможны и другие варианты.For determining the at least one second location information element, substantially the same options exist as for determining the at least one first location information element. Thus, for example, at least one internal sensor and/or image recognition means may be used, as explained above with respect to the at least one first element of location information. Thus, determining the at least one second location information item may include analyzing an image of the at least one second image to detect the at least one environmental object in the at least one second image. However, additionally or alternatively, other means of determining the at least one second element of location information may be used. Thus, for example, the at least one determination of the at least one second location information element may include the use of at least one mobile device sensor, in particular at least one of a location sensor, a gyro sensor, an optical sensor, an inclination sensor . Additionally or alternatively, as set forth above, determining the at least one second element of location information may include detecting at least one environmental object in the local environment, for example, the same environmental object as used to determine the at least one first location information element. The at least one second location information element may comprise information about the location of one or both of the camera and the test field relative to the at least one environmental object. Detecting the at least one environmental object may include recognizing an image from an image provided by the camera, more specifically from a real-time image. Thus, as set forth above, the at least one second element of position information may be determined continuously and/or repeatedly before and/or during acquisition of the at least one second image to allow a user to adjust the local position of one or both of the camera and the test image. fields. As set forth above, the at least one environmental object may contain at least one of an article in the camera's field of view or a structural feature of the article in the camera's field of view. Other options are also possible.
В случае, если по меньшей мере один объект окружающей среды находится не в поле зрения камеры при подготовке к получению по меньшей мере одного второго изображения, мобильное устройство может предоставлять пользователю указание, такое как визуальное указание, в частности, с помощью дополненной реальности, в отношении того, как перемещать и/или переориентировать мобильное устройство, чтобы перенести по меньшей мере один объект окружающей среды в поле зрения. Таким образом, например, при получении первого изображения мобильное устройство может определять по меньшей мере одно первое локальное положение относительно по меньшей мере одного объекта окружающей среды, видимого в поле зрения камеры. Для получения по меньшей мере одного второго изображения, при обнаружении мобильным телефоном, что объект окружающей среды не виден, пользователю может предоставляться указание, указывающее на то, куда переместить и/или как переориентировать мобильное устройство, чтобы, опять-таки, перенести тот же по меньшей мере один объект окружающей среды в поле зрения камеры. Поскольку в данном случае объект окружающей среды является, во-первых, недоступным для определения второго локального положения, для предоставления указания могут применяться один или более внутренних и/или внешних датчиков. Таким образом, например, один или более внутренних или внешних датчиков могут применяться для обнаружения того, было ли мобильное устройство, после получения первого изображения, перемещено и/или переориентировано для предоставления указания, например, путем указания пользователю, что мобильное устройство должно быть перемещено обратно и/или переориентировано, чтобы перенести объект окружающей среды в поле зрения. Как только по меньшей мере один объект окружающей среды находится в поле зрения камеры, например, может применяться анализ изображения для определения второго локального положения относительно по меньшей мере одного объекта окружающей среды.In the event that at least one environmental object is not in the camera's field of view in preparation for acquiring the at least one second image, the mobile device may provide the user with guidance, such as visual guidance, in particular using augmented reality, regarding how to move and/or reorient the mobile device to bring at least one environmental object into view. Thus, for example, upon acquiring a first image, the mobile device may determine at least one first local position relative to at least one environmental object visible in the camera's field of view. To obtain at least one second image, when the mobile phone detects that an environmental object is not visible, the user may be provided with an instruction indicating where to move and/or how to reorient the mobile device to, again, move the same at least one environmental object in the camera's field of view. Since in this case the environmental object is, firstly, inaccessible for determining the second local position, one or more internal and/or external sensors may be used to provide an indication. Thus, for example, one or more internal or external sensors may be used to detect whether the mobile device, after receiving the first image, has been moved and/or reoriented to provide an indication, for example, by indicating to the user that the mobile device should be moved back and/or reoriented to bring an environmental object into view. Once the at least one environmental object is in the camera's field of view, for example, image analysis may be applied to determine a second local position relative to the at least one environmental object.
Получение по меньшей мере одного второго изображения может представлять собой один или оба случая из инициируемого пользователем или автоматически инициируемого. В частности, получение может быть автоматически инициируемым, как только мобильное устройство распознает, что выполняется условие получения второго изображения в том же локальном положении, что и до этого для первого изображения. Таким образом, шаг г) может быть инициирован автоматически, когда по меньшей мере одно из камеры и тестового поля находится в заданном положении, таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды.The acquisition of the at least one second image may be one or both of user initiated or automatically initiated. In particular, acquisition may be automatically triggered as soon as the mobile device recognizes that the condition for acquiring a second image at the same local location as previously acquired for the first image is met. Thus, step d) can be initiated automatically when at least one of the camera and the test field is at a predetermined position, such that the first and second images are acquired at the same local positions relative to the at least one environmental object.
Для получения по меньшей мере одного первого изображения могут быть рассмотрены в основном два варианта. Таким образом, первое изображение может быть получено в основном в произвольном и заранее не определенном локальном положении. Как изложено выше, локальное положение при получении первого изображения может быть определено и/или сохранено в устройстве хранения данных. Получение первого изображения, например, может быть инициировано пользователем, например, как только пользователь поместил тест-полоску в подходящее место, например, на столе. В качестве второго варианта, локальное положение одного или обоих из тестового поля и камеры при получении по меньшей мере одного первого изображения может быть определено мобильным устройством, при этом указание может предоставляться пользователю так же, как на шаге е), относительно того, где получить первое изображение. Для возможных вариантов этого указания, может быть выполнена ссылка на описание шага е). Таким образом, перед выполнением шага б), мобильным устройством может предоставляться указание, где получить первое изображение. Например, мобильное устройство может определять подходящий объект окружающей среды на изображении, например, в потоке изображений и/или на изображении в режиме реального времени до получения первого изображения, и, когда обнаружен подходящий объект, может предлагать пользователю положение, близкое к этому объекту, путем предоставления соответствующего указания. Данное указание включает визуальное указание, в частности, визуальное указание на дисплее мобильного устройства, более конкретно визуальное указание по меньшей мере частично с использованием дополненной реальности на дисплее мобильного устройства.To obtain at least one first image, basically two options can be considered. Thus, the first image can be obtained at a generally arbitrary and not predetermined local position. As stated above, the local position when the first image is acquired may be determined and/or stored in a storage device. The acquisition of the first image, for example, can be initiated by the user, for example once the user has placed the test strip in a suitable location, for example on a table. As a second option, the local position of one or both of the test field and the camera when acquiring at least one first image may be determined by the mobile device, wherein an indication may be provided to the user in the same manner as in step e) as to where to obtain the first image. For possible variations of this indication, reference may be made to the description of step e). Thus, before performing step b), an indication may be provided by the mobile device where to obtain the first image. For example, the mobile device may detect a suitable environmental object in an image, such as in an image stream and/or in a real-time image, prior to acquiring the first image, and, when a suitable object is detected, may suggest a position close to that object to the user by providing appropriate instructions. This indication includes visual indication, in particular visual indication on the display of a mobile device, more particularly visual indication at least in part using augmented reality on the display of a mobile device.
Вышеупомянутые варианты также могут использоваться в качестве возможных альтернатив, по усмотрению пользователя. Таким образом, например, пользователь может переопределять предложение, предоставляемое мобильным устройством, и может применять другую локальную настройку для получения первого изображения.The above mentioned options can also be used as possible alternatives, at the discretion of the user. Thus, for example, the user may override the suggestion provided by the mobile device and may apply a different local setting to obtain the first image.
Мобильное устройство может быть выполнено с дополнительной возможностью предоставления указаний пользователю на одном или более шагах процедуры. Таким образом, например, инструкции могут предоставляться на дисплее для выполнения одного или более действий. Например, руководство пользователя для одного или более из шагов а) - г) может предоставляться в визуальном формате и/или с помощью других средств, например, аудиопод сказок.The mobile device may be further configured to provide guidance to the user through one or more steps of a procedure. Thus, for example, instructions may be provided on the display to perform one or more actions. For example, user guidance for one or more of steps a) through d) may be provided in a visual format and/or through other means, such as audio narration.
Например, при нанесении образца на шаге в) может предоставляться руководство пользователя. Таким образом, шаг в) может включать по меньшей мере одно из:For example, when applying the sample in step c) a user manual may be provided. Thus, step c) may include at least one of:
мобильного устройства, подсказывающего пользователю нанести образец, в частности каплю, физиологической жидкости на тестовое поле оптической тест-полоски;a mobile device prompting the user to apply a sample, in particular a drop, of physiological fluid onto the test field of the optical test strip;
мобильного устройства, подсказывающего пользователю подтвердить нанесение образца физиологической жидкости на тестовое поле оптической тест-полоски. Как изложено выше, подсказка может осуществляться мобильным устройством, предоставляющим соответствующие указания пользователю в визуальном формате и/или с помощью других средств, таких как акустические средства. Например, руководство пользователя может предоставляться на дисплее.mobile device prompting the user to confirm the application of a sample of physiological fluid to the test field of the optical test strip. As discussed above, the guidance may be provided by a mobile device providing appropriate guidance to the user in a visual format and/or through other means, such as acoustic means. For example, a user manual may be provided on the display.
Подобным образом, руководство пользователя может предоставляться мобильным устройством для выполнения шага а). Таким образом, шаг а) может включать по меньшей мере одно из:Similarly, a user guide may be provided by the mobile device for performing step a). Thus, step a) may include at least one of:
мобильного устройства, подсказывающего пользователю предоставить оптическую тест-полоску, имеющую тестовое поле без нанесенного на него образца;a mobile device prompting the user to provide an optical test strip having a test field without a sample applied thereto;
мобильного устройства, подсказывающего пользователю подтвердить предоставление оптической тест-полоски, имеющей тестовое поле без нанесенного на него образца;a mobile device prompting the user to confirm the provision of an optical test strip having a test field without a sample applied thereto;
мобильного устройства, автоматически обнаруживающего, в частности, путем распознавания изображения, предоставлена ли тест-полоска.a mobile device that automatically detects, in particular by image recognition, whether a test strip is provided.
В отношении вариантов подсказки можно обратиться к приведенному выше описанию. Таким образом, даже шаги предоставления оптической тест-полоски и нанесения образца на тест-полоску могут по меньшей мере частично поддерживаться мобильным устройством.For hint options, you can refer to the description above. Thus, even the steps of providing an optical test strip and applying a sample to the test strip can be at least partially supported by the mobile device.
Как изложено выше, способ в одном или более из раскрытых вариантов осуществления может быть полностью или частично компьютеризированным. Таким образом, в дополнительном аспекте предложена компьютерная программа, содержащая инструкции, которые при выполнении программы мобильным устройством, имеющим камеру, в частности процессором мобильного устройства, заставляют мобильное устройство выполнять способ, описанный в данном документе, более конкретно по меньшей мере шаги б), г), д) и е) способа, при этом также шаги а) и в) могут быть по меньшей мере частично компьютеризированными или с компьютерной поддержкой.As set forth above, the method in one or more of the disclosed embodiments may be fully or partially computerized. Thus, in a further aspect, there is provided a computer program comprising instructions that, when executed by a mobile device having a camera, particularly a processor of the mobile device, cause the mobile device to perform a method described herein, more specifically at least steps b), d ), e) and f) of the method, wherein also steps a) and c) can be at least partially computerized or computer-assisted.
В частности, компьютерная программа может быть разработана как приложение. Приложение, например, может быть загружено с сервера загрузки.In particular, a computer program may be developed as an application. The application, for example, can be downloaded from a download server.
Как обычно здесь используется, «компьютер» может относиться к устройству, имеющему по меньшей мере один процессор и необязательно дополнительные элементы, например, один или более интерфейсов, одно или более устройств хранения данных, один или более пользовательских интерфейсов и т.п. Термин «процессор», используемый в данном документе, является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. В частности, термин может относиться без ограничения к произвольным логическим схемам, выполненным с возможностью осуществления базовых операций компьютера или системы, и/или, как правило, к устройству, которое выполнено с возможностью осуществления расчетов или логических операций. В частности, процессор может быть выполнен с возможностью обработки базовых инструкций, которые управляют компьютером или системой. Например, процессор может содержать по меньшей мере одно арифметико-логическое устройство (АЛУ), по меньшей мере одно устройство для выполнения операций с плавающей запятой (FPU), такое как сопроцессор или математический сопроцессор, множество регистров, в частности, регистров, выполненных с возможностью предоставления операндов для АЛУ и сохранения результатов операций, и память, например, кэш-память L1 и L2. В частности, процессор может представлять собой многоядерный процессор. В частности, процессор может представлять собой или может содержать центральное процессорное устройство (ЦПУ). Дополнительно или альтернативно, процессор может представлять собой или может содержать микропроцессор, таким образом, в частности, элементы процессора могут содержаться в одной отдельной интегральной схеме (ИС). Дополнительно или альтернативно, процессор может представлять собой или может содержать одну или более интегральных схем специального назначения (ASIC) и/или одну или более программируемых пользователем вентильных матриц (ППВМ) или т.п.As commonly used herein, "computer" may refer to a device having at least one processor and optionally additional elements, such as one or more interfaces, one or more storage devices, one or more user interfaces, and the like. The term “processor” as used herein is a broad term and its common and traditional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. In particular, the term may refer, without limitation, to arbitrary logic circuits configured to perform basic computer or system operations, and/or generally to a device that is configured to perform calculations or logical operations. In particular, the processor may be configured to process basic instructions that control a computer or system. For example, the processor may comprise at least one arithmetic logic unit (ALU), at least one floating point unit (FPU), such as a coprocessor or math coprocessor, a plurality of registers, in particular registers configured to providing operands to the ALU and storing the results of operations, and memory, such as L1 and L2 cache. In particular, the processor may be a multi-core processor. In particular, the processor may be or may comprise a central processing unit (CPU). Additionally or alternatively, the processor may be or may comprise a microprocessor, such that, in particular, elements of the processor may be contained in one discrete integrated circuit (IC). Additionally or alternatively, the processor may be or may include one or more application-specific integrated circuits (ASICs) and/or one or more field programmable gate arrays (FPGAs) or the like.
Компьютерная программа может дополнительно содержать инструкции, которые при выполнении программы мобильным устройством, могут дополнительно предлагать пользователю выполнить шаги а) и/или в) или подтвердить выполнение шагов а) и/или в). В отношении возможных вариантов, можно обратиться к приведенному выше описанию способа.The computer program may further comprise instructions that, when executed by the mobile device, may further prompt the user to perform steps a) and/or c) or to confirm completion of steps a) and/or c). Regarding possible options, you can refer to the above description of the method.
В дополнительном аспекте раскрыт машиночитаемый носитель для хранения данных, в частности носитель, предназначенный для долговременного хранения данных, содержащий инструкции, которые при выполнении мобильным устройством, имеющим камеру, в частности процессором мобильного устройства, заставляют мобильное устройство выполнять способ в соответствии с настоящим изобретением, например, в соответствии с любым из раскрытых выше вариантов осуществления и/или в соответствии с любым из вариантов осуществления, раскрытых подробно далее. В частности, как изложено выше, могут быть выполнены по меньшей мере шаги б), г), д) и е), при этом также один или оба из шагов а) и в) могут по меньшей мере частично быть компьютеризированными или по меньшей мере с компьютерной поддержкой, как изложено выше. Таким образом, как обсуждалось выше, машиночитаемый носитель для хранения данных может дополнительно содержать инструкции, которые при выполнении мобильным устройством дополнительно предлагают пользователю выполнить шаги а) и/или в) или подтвердить выполнение шагов а) и/или в).In a further aspect, a computer-readable storage medium is disclosed, in particular a medium intended for non-transitory storage of data, comprising instructions that, when executed by a mobile device having a camera, in particular a processor of the mobile device, cause the mobile device to perform a method in accordance with the present invention, e.g. , in accordance with any of the embodiments disclosed above and/or in accordance with any of the embodiments disclosed in detail below. In particular, as set out above, at least steps b), d), e) and f) may be performed, wherein also one or both of steps a) and c) may be at least partially computerized or at least with computer support as outlined above. Thus, as discussed above, the computer-readable storage medium may further comprise instructions that, when executed by the mobile device, further prompt the user to perform steps a) and/or c) or to confirm completion of steps a) and/or c).
Используемые в данном документе термины «машиночитаемый носитель данных» и «машиночитаемый носитель для хранения данных», в частности, могут относиться к средствам, предназначенным для долговременного хранения данных, например, аппаратному носителю для хранения данных, содержащему сохраненные на нем выполняемые компьютером инструкции. Машиночитаемый носитель данных или носитель для хранения данных, в частности, может представлять собой носитель для хранения данных, например, запоминающее устройство с произвольным доступом (ЗУПД) и/или постоянное запоминающее устройство (ПЗУ), или может содержать его.As used herein, the terms “computer-readable storage medium” and “computer-readable storage medium” may specifically refer to media intended for long-term storage of data, such as hardware storage media containing computer-executable instructions stored thereon. The computer-readable storage medium or data storage medium may in particular be or contain a data storage medium such as a random access memory (RAM) and/or a read only memory (ROM).
Компьютерная программа также может быть реализована как компьютерный программный продукт. Используемый в данном документе термин «компьютерный программный продукт» может относиться к программе как к рыночному продукту. Данный продукт, как правило, может существовать в произвольном формате, например, в бумажном формате или на машиночитаемом носителе данных и/или на машиночитаемом носителе для хранения данных. В частности, компьютерный программный продукт можно передавать по сети передачи данных.The computer program may also be implemented as a computer software product. As used herein, the term “computer software product” may refer to the program as a marketable product. The product typically may exist in any format, such as a paper format or a computer-readable storage medium and/or a computer-readable storage medium. In particular, the computer program product may be transmitted over a data network.
В дополнительном аспекте описано мобильное устройство для выполнения аналитического измерения. В отношении определений и вариантов мобильного устройства можно обратиться к приведенному выше описанию способа. Мобильное устройство содержит по меньшей мере одну камеру и может содержать один или более процессоров. Мобильное устройство выполнено с возможностью осуществления по меньшей мере шагов б), г), д) и е) способа проведения аналитического измерения в соответствии с настоящим изобретением, например, в соответствии с любым из раскрытых выше вариантов осуществления и/или в соответствии с любым из вариантов осуществления, раскрытых подробно далее. Таким образом, процессор мобильного устройства может быть программно конфигурируемым для выполнения и/или управления выполнением способа, по меньшей мере шагов б), г), д) и е) способа, при этом также шаги а) и/или в) могут по меньшей мере частично контролироваться и/или поддерживаться процессором, как изложено выше.In a further aspect, a mobile device for performing an analytical measurement is described. For definitions and embodiments of a mobile device, reference may be made to the above description of the method. The mobile device includes at least one camera and may include one or more processors. The mobile device is configured to perform at least steps b), d), e) and f) of a method for performing an analytical measurement in accordance with the present invention, for example, in accordance with any of the embodiments disclosed above and/or in accordance with any of embodiments disclosed in detail below. Thus, the processor of the mobile device may be software configurable to perform and/or control execution of the method of at least steps b), d), e) and f) of the method, wherein also steps a) and/or c) may at least at least partially controlled and/or supported by the processor as described above.
Мобильное устройство может содержать дополнительные элементы. Таким образом, например, мобильное устройство может дополнительно содержать по меньшей мере один источник освещения, выполненный с возможностью освещения тестового поля. Например, мобильное устройство может содержать по меньшей мере один светодиод. Процессор также может быть выполнен с возможностью осуществления управления источником света, например, во время шагов б) и/или г) получения изображения.The mobile device may contain additional elements. Thus, for example, the mobile device may further comprise at least one illumination source configured to illuminate the test field. For example, the mobile device may include at least one LED. The processor may also be configured to control the light source, for example, during steps b) and/or d) of image acquisition.
Как изложено выше, мобильное устройство может содержать по меньшей мере один процессор, запрограммированный для управления по меньшей мере одним из шагов б), г), д) и е). В отношении определений и вариантов, относящихся к конструкции процессора, можно обратиться к приведенному выше описанию.As discussed above, the mobile device may include at least one processor programmed to control at least one of steps b), d), e) and f). For definitions and options related to processor design, reference may be made to the above description.
В дополнительном аспекте раскрыт набор для проведения аналитического измерения. Набор содержит:In a further aspect, a kit for performing an analytical measurement is disclosed. Set contains:
- по меньшей мере одно мобильное устройство в соответствии с любым из предыдущих пунктов, относящихся к мобильному устройству; и- at least one mobile device in accordance with any of the previous paragraphs relating to a mobile device; And
- по меньшей мере одну оптическую тест-полоску, имеющую по меньшей мере одно тестовое поле.- at least one optical test strip having at least one test field.
Термин «набор», используемый в данном документе, является широким термином, и его обычное и традиционное понимание должно быть понятно специалисту в данной области техники и не должно ограничиваться специальным или индивидуальным пониманием. Термин, в частности, может относиться без ограничения к сборке из множества компонентов, в которой каждый из компонентов может функционировать и с ними можно работать независимо друг от друга, при этом компоненты набора могут взаимодействовать для выполнения общей функции.The term “kit” as used herein is a broad term and its common and traditional understanding should be understood by one skilled in the art and should not be limited to a specialized or individual understanding. The term may specifically refer, without limitation, to an assembly of multiple components in which each of the components can function and be handled independently of each other, but the components of the assembly can interact to perform a common function.
Настоящее изобретение в любом из описанных в данном документе аспектов может обеспечивать большое количество преимуществ по сравнению с известными способами и устройствами этого типа. Таким образом, в частности, настоящее изобретение может решать вышеупомянутые технические задачи. Как изложено выше, в способах на основе смартфона, как правило, требуется получение по меньшей мере двух изображений, при этом по меньшей мере одно изображение получают до нанесения образца и по меньшей мере одно - после этого, которое может называться «мокрым» или окончательным изображением. Настоящее изобретение может обеспечивать возможность применения дополненной реальности для улучшения позиционирования во время получения первого и второго изображений. Таким образом, может обеспечиваться одинаковое или по меньшей мере подобное расположение тест-полоски во время получения первого или холостого изображения и приема по меньшей мере одного второго или окончательного изображения после нанесения образца.The present invention, in any of the aspects described herein, may provide many advantages over known methods and devices of this type. Thus, in particular, the present invention can solve the above-mentioned technical problems. As stated above, smartphone-based methods typically require at least two images to be acquired, with at least one image acquired before sample application and at least one image acquired thereafter, which may be referred to as a "wet" or final image. . The present invention may enable the use of augmented reality to improve positioning during acquisition of the first and second images. In this way, the same or at least similar positioning of the test strip can be ensured during the acquisition of the first or blank image and the acquisition of at least one second or final image after application of the sample.
Как правило, настоящее изобретение может значительно повышать эффективность измерения аналитических измерений. Таким образом, эффективность измерения оптического анализа тест-полосок на основе смартфона, как правило, может сильно зависеть от условий, при которых получают изображения до и после нанесения образца. В идеальном случае условия являются одинаковыми для обоих изображений. Дополненная реальность может применяться для того, чтобы направлять пользователя для получения обоих изображений при очень похожих условиях. В отношении позиционирования датчики положения мобильного устройства-телефона и/или методики распознавания изображения могут применяться для определения условий для повышения эффективности измерений.Generally, the present invention can greatly improve the measurement efficiency of analytical measurements. Thus, the optical analysis measurement performance of smartphone-based test strips can generally be highly dependent on the conditions under which images are acquired before and after sample application. Ideally, the conditions are the same for both images. Augmented reality can be used to guide the user to obtain both images under very similar conditions. In relation to positioning, mobile phone position sensors and/or image recognition techniques can be used to determine conditions to improve measurement efficiency.
При этом существует несколько вариантов. Таким образом, может применяться заданное положение для получения как холостого изображения, так и окончательного изображения. Дополнительно или альтернативно, холостое изображение может быть получено в основном в произвольном первом локальном положении, при этом мобильное устройство может определять и/или обозначать первое локальное положение и позднее может использовать первое локальное положение для предоставления руководства пользователя таким образом, чтобы направлять пользователя в правильное положение для получения второго изображения.There are several options. Thus, a predetermined position can be applied to obtain both a blank image and a final image. Additionally or alternatively, the blank image may be acquired generally at an arbitrary first local position, wherein the mobile device may determine and/or indicate the first local position and may later use the first local position to provide user guidance so as to guide the user to the correct position to obtain a second image.
Обобщая и не исключая дополнительные возможные варианты осуществления, можно предусмотреть следующие варианты осуществления:To summarize and not exclude additional possible embodiments, the following embodiments can be envisaged:
Вариант осуществления 1: Способ проведения аналитического измерения, основанного на реакции формирования цвета в оптической тест-полоске, с применением мобильного устройства, имеющего камеру, причем способ включает:Embodiment 1: A method for performing an analytical measurement based on a color formation reaction in an optical test strip using a mobile device having a camera, the method comprising:
а) обеспечение оптической тест-полоски, имеющей тестовое поле без нанесенного на него образца физиологической жидкости;a) providing an optical test strip having a test field without a physiological fluid sample applied to it;
б) получение с помощью камеры по меньшей мере одного первого изображения по меньшей мере части тестового поля оптической тест-полоски без нанесенного на него образца физиологической жидкости;b) obtaining, using the camera, at least one first image of at least a portion of the test field of the optical test strip without a physiological fluid sample applied to it;
в) нанесение образца физиологической жидкости на тестовое поле оптической тест-полоски;c) applying a sample of physiological fluid to the test field of the optical test strip;
г) получение с помощью камеры по меньшей мере одного второго изображения по меньшей мере части тестового поля оптической тест-полоски с нанесенным на него образцом физиологической жидкости; иd) obtaining, using the camera, at least one second image of at least part of the test field of the optical test strip with a sample of physiological fluid applied to it; And
д) определение значения результата аналитического измерения с применением первого изображения (214) и второго изображения (222) оптического тестового поля оптической тест-полоски,e) determining the value of the analytical measurement result using the first image (214) and the second image (222) of the optical test field of the optical test strip,
е) причем мобильным устройством предоставляется указание, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в аналогичных локальных положениях относительно по меньшей мере одного объекта окружающей среды.f) wherein the mobile device provides an indication of where to obtain the second image such that the first and second images are obtained at similar local positions relative to the at least one environmental object.
Вариант осуществления 2: Способ в соответствии с предыдущим вариантом осуществления, причем способ дополнительно включает между шагами в) и г) ожидание в течение по меньшей мере заданного минимального периода времени.Embodiment 2: The method according to the previous embodiment, the method further comprising between steps c) and d) waiting for at least a predetermined minimum period of time.
Вариант осуществления 3: Способ в соответствии с предыдущим вариантом осуществления, в котором минимальный период времени ожидания составляет по меньшей мере 5 с. Embodiment 3: The method according to the previous embodiment, wherein the minimum waiting time period is at least 5 seconds.
Вариант осуществления 4: Способ в соответствии с любым из предыдущих вариантов осуществления, в котором локальные положения включают по меньшей мере одно из: абсолютного положения камеры в пространстве относительно по меньшей мере одного объекта окружающей среды; абсолютного положения тестового поля в пространстве относительно по меньшей мере одного объекта окружающей среды; относительного положения между камерой и тестовым полем в системе координат, определяемой по меньшей мере одним объектом окружающей среды в поле зрения камеры; ориентации камеры в пространстве относительно по меньшей мере одного объекта окружающей среды; ориентации тестового поля в пространстве относительно по меньшей мере одного объекта окружающей среды; относительной угловой ориентации между камерой и тестовым полем в системе координат, определяемой по меньшей мере одним объектом окружающей среды; относительной угловой ориентации между камерой и по меньшей мере одним объектом окружающей среды в поле зрения камеры; относительной угловой ориентации между тестовым полем и по меньшей мере одним объектом окружающей среды в поле зрения камеры; относительной угловой ориентации между камерой и тестовым полем в системе координат, определяемой по меньшей мере одним объектом окружающей среды в поле зрения камеры.Embodiment 4: The method according to any of the previous embodiments, wherein the local positions include at least one of: an absolute position of the camera in space relative to at least one environmental object; the absolute position of the test field in space relative to at least one environmental object; a relative position between the camera and the test field in a coordinate system defined by at least one environmental object in the camera's field of view; orientation of the camera in space relative to at least one environmental object; orientation of the test field in space relative to at least one environmental object; a relative angular orientation between the camera and the test field in a coordinate system defined by at least one environmental object; a relative angular orientation between the camera and at least one environmental object in the camera's field of view; relative angular orientation between the test field and at least one environmental object in the camera's field of view; the relative angular orientation between the camera and the test field in a coordinate system defined by at least one environmental object in the camera's field of view.
Вариант осуществления 5: Способ в соответствии с любым из предыдущих вариантов осуществления, в котором указание, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, включает предоставление по меньшей мере одного критерия подобия для локальных положений при получении первого и второго изображений.Embodiment 5: A method according to any of the previous embodiments, wherein indicating where to obtain a second image such that the first and second images are obtained at the same local positions relative to at least one environmental object includes providing at least one similarity criterion for local positions when obtaining the first and second images.
Вариант осуществления 6: Способ в соответствии с предыдущим вариантом осуществления, причем способ включает оценку того, удовлетворяется ли критерий подобия.Embodiment 6: A method according to the previous embodiment, the method including judging whether a similarity criterion is satisfied.
Вариант осуществления 7: Способ в соответствии с любым из двух предыдущих вариантов осуществления, в котором по меньшей мере один критерий подобия включает по меньшей мере один из критерия подобия освещения и локального критерия подобия.Embodiment 7: The method according to any of the previous two embodiments, wherein the at least one similarity criterion includes at least one of an illumination similarity criterion and a local similarity criterion.
Вариант осуществления 8: Способ в соответствии с любым из трех предыдущих вариантов осуществления, в котором по меньшей мере один критерий подобия включает сравнение локальных положений при получении первого и второго изображений, в частности, сравнение отклонения между локальными положениями с по меньшей мере одним порогом допустимых значений.Embodiment 8: Method according to any of the previous three embodiments, wherein the at least one similarity criterion includes a comparison of local positions when acquiring the first and second images, in particular, a comparison of the deviation between local positions with at least one threshold of acceptable values .
Вариант осуществления 9: Способ в соответствии с любым из предыдущих вариантов осуществления, причем способ включает определение первого локального положения при получении первого изображения и определение по меньшей мере одного второго локального положения до или во время получения второго изображения, при этом способ включает сравнение первого и второго локальных положений для определения того, получены ли первое и второе изображения в аналогичных локальных положениях относительно по меньшей мере одного объекта окружающей среды.Embodiment 9: A method according to any of the previous embodiments, wherein the method includes determining a first local position when acquiring a first image and determining at least one second local position before or during acquisition of a second image, wherein the method includes comparing the first and second local positions to determine whether the first and second images are obtained at similar local positions relative to the at least one environmental object.
Вариант осуществления 10: Способ в соответствии с любым из предыдущих вариантов осуществления, в котором указание, предоставляемое мобильным устройством, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, включает визуальное указание, в частности визуальное указание на дисплее мобильного устройства.Embodiment 10: The method according to any of the previous embodiments, wherein the indication provided by the mobile device where to obtain the second image such that the first and second images are acquired at the same local positions relative to the at least one environmental object includes visual indication, in particular visual indication on the display of a mobile device.
Вариант осуществления 11: Способ в соответствии с любым из предыдущих вариантов осуществления, в котором указание, предоставляемое мобильным устройством, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в аналогичных локальных положениях относительно по меньшей мере одного объекта окружающей среды, предоставляется по меньшей мере частично в виде дополненной реальности на дисплее мобильного устройства.Embodiment 11: A method according to any of the previous embodiments, wherein an indication provided by the mobile device where to obtain a second image such that the first and second images are acquired at similar local positions relative to the at least one environmental object is provided at least partially in the form of augmented reality on the display of a mobile device.
Вариант осуществления 12: Способ в соответствии с любым из предыдущих вариантов осуществления, причем способ включает определение и необязательно хранение по меньшей мере одного первого элемента информации о местоположении относительно одного или обоих из положения камеры и положения тестового поля при получении первого изображения.Embodiment 12: A method according to any of the previous embodiments, wherein the method includes determining and optionally storing at least one first element of position information relative to one or both of a camera position and a test field position when the first image is acquired.
Вариант осуществления 13: Способ в соответствии с предыдущим вариантом осуществления, в котором по меньшей мере один первый элемент информации о местоположении включает по меньшей мере одно из: абсолютного положения тестового поля; абсолютного положения камеры.Embodiment 13: The method according to the previous embodiment, wherein the at least one first position information element includes at least one of: an absolute position of the test field; absolute camera position.
Вариант осуществления 14: Способ в соответствии с любым из двух предыдущих вариантов осуществления, в котором определение по меньшей мере одного первого элемента информации о местоположении включает применение по меньшей мере одного датчика мобильного устройства, в частности, по меньшей мере одного из датчика местоположения, гироскопического датчика, оптического датчика, датчика угла наклона.Embodiment 14: Method according to any of the previous two embodiments, wherein determining at least one first element of location information includes using at least one mobile device sensor, in particular at least one of a location sensor, a gyro sensor , optical sensor, tilt angle sensor.
Вариант осуществления 15: Способ в соответствии с любым из трех предыдущих вариантов осуществления, в котором определение по меньшей мере одного первого элемента информации о местоположении включает обнаружение по меньшей мере одного объекта окружающей среды в локальной среде, причем по меньшей мере один первый элемент информации о местоположении содержит информацию о местоположении одного или обоих из камеры и тестового поля относительно по меньшей мере одного объекта окружающей среды.Embodiment 15: The method according to any of the previous three embodiments, wherein determining the at least one first location information element includes detecting at least one environmental object in the local environment, wherein the at least one first location information element contains information about the location of one or both of the camera and the test field relative to at least one environmental object.
Вариант осуществления 16: Способ в соответствии с предыдущим вариантом осуществления, в котором обнаружение по меньшей мере одного объекта окружающей среды включает распознавание изображения на изображении, предоставляемом камерой, более конкретно на изображении в режиме реального времени.Embodiment 16: The method according to the previous embodiment, wherein detecting at least one environmental object includes recognizing an image in an image provided by a camera, more specifically in a real-time image.
Вариант осуществления 17: Способ в соответствии с любым из двух предыдущих вариантов осуществления, в котором по меньшей мере один объект окружающей среды включает по меньшей мере одно из изделия в поле зрения камеры или структурного признака изделия в поле зрения камеры.Embodiment 17: The method according to any of the previous two embodiments, wherein the at least one environmental object includes at least one of an article in the camera's field of view or a structural feature of the article in the camera's field of view.
Вариант осуществления 18: Способ в соответствии с любым из шести предыдущих вариантов осуществления, в котором указание, предоставляемое мобильным устройством, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, предоставляется на основе первого элемента информации о местоположении.Embodiment 18: The method according to any of the previous six embodiments, wherein an indication provided by the mobile device where to obtain a second image such that the first and second images are acquired at the same local positions relative to the at least one environmental object, provided based on the first element of location information.
Вариант осуществления 19: Способ в соответствии с предыдущим вариантом осуществления, в котором указание включает визуальное указание, в частности, визуальное указание на дисплее мобильного устройства, более конкретно визуальное указание по меньшей мере частично с использованием дополненной реальности на дисплее мобильного устройства.Embodiment 19: The method according to the previous embodiment, wherein the guidance includes visual guidance, in particular visual guidance on the display of a mobile device, more particularly visual guidance at least in part using augmented reality on the display of a mobile device.
Вариант осуществления 20: Способ в соответствии с любым из двух предыдущих вариантов осуществления, причем способ включает определение, в частности определение в режиме реального времени, и необязательно хранение по меньшей мере одного второго элемента информации о местоположении относительно одного или обоих из положения камеры и положения тестового поля и сравнение второго элемента информации о местоположении с первым элементом информации о местоположении.Embodiment 20: A method according to any of the previous two embodiments, wherein the method includes determining, in particular real-time determining, and optionally storing at least one second element of position information relative to one or both of a camera position and a test position fields and comparing the second location information item with the first location information item.
Вариант осуществления 21: Способ в соответствии с предыдущим вариантом осуществления, в котором предоставление указания того, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды, включает предоставление указания таким образом, чтобы второй элемент информации о местоположении при получении второго изображения являлся, по меньшей мере в пределах заданного диапазона допустимых значений, идентичным первому элементу информации о местоположении.Embodiment 21: The method according to the previous embodiment, wherein providing an indication of where to obtain a second image such that the first and second images are obtained at the same local positions relative to at least one environmental object includes providing an indication in this manner such that the second location information element when acquiring the second image is, at least within a predetermined range of acceptable values, identical to the first location information element.
Вариант осуществления 22: Способ в соответствии с любым из двух предыдущих вариантов осуществления, в котором по меньшей мере один второй элемент информации о местоположении включает по меньшей мере одно из: абсолютного положения тестового поля; абсолютного положения камеры.Embodiment 22: The method according to any of the previous two embodiments, wherein the at least one second position information element includes at least one of: an absolute position of the test field; absolute camera position.
Вариант осуществления 23: Способ в соответствии с любым из трех предыдущих вариантов осуществления, в котором определение по меньшей мере одного второго элемента информации о местоположении включает применение по меньшей мере одного датчика мобильного устройства, в частности, по меньшей мере одного из датчика местоположения, гироскопического датчика, оптического датчика, датчика угла наклона.Embodiment 23: A method according to any of the three previous embodiments, wherein determining the at least one second element of location information includes using at least one mobile device sensor, in particular at least one of a location sensor, a gyro sensor , optical sensor, tilt angle sensor.
Вариант осуществления 24: Способ в соответствии с любым из четырех предыдущих вариантов осуществления, в котором определение по меньшей мере одного второго элемента информации о местоположении включает обнаружение по меньшей мере одного объекта окружающей среды в локальной среде, в частности, того же объекта окружающей среды, что и используемый для определения по меньшей мере одного первого элемента информации о местоположении, причем по меньшей мере один второй элемент информации о местоположении содержит информацию о местоположении одного или обоих из камеры и тестового поля относительно по меньшей мере одного объекта окружающей среды.Embodiment 24: A method according to any of the previous four embodiments, wherein determining the at least one second location information element includes detecting at least one environmental object in the local environment, in particular, the same environmental object as and used to determine at least one first element of location information, wherein the at least one second element of location information comprises information about the location of one or both of the camera and the test field relative to the at least one environmental object.
Вариант осуществления 25: Способ в соответствии с предыдущим вариантом осуществления, в котором обнаружение по меньшей мере одного объекта окружающей среды включает распознавание изображения на изображении, предоставляемом камерой, более конкретно на изображении в режиме реального времени.Embodiment 25: The method according to the previous embodiment, wherein detecting at least one environmental object includes recognizing an image in an image provided by a camera, more specifically in a real-time image.
Вариант осуществления 26: Способ в соответствии с любым из двух предыдущих вариантов осуществления, в котором по меньшей мере один объект окружающей среды включает по меньшей мере одно из изделия в поле зрения камеры или структурного признака изделия в поле зрения камеры.Embodiment 26: The method according to any of the previous two embodiments, wherein the at least one environmental object includes at least one of an article in the camera's field of view or a structural feature of the article in the camera's field of view.
Вариант осуществления 27: Способ в соответствии с любым из шести предыдущих вариантов осуществления, в котором шаг г) инициируется автоматически, когда по меньшей мере одно из камеры и тестового поля находится в заданном положении, таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды.Embodiment 27: The method according to any of the previous six embodiments, wherein step d) is initiated automatically when at least one of the camera and the test field is at a predetermined position, such that the first and second images are obtained in the same local positions relative to at least one environmental object.
Вариант осуществления 28: Способ в соответствии с любым из предыдущих вариантов осуществления, причем способ дополнительно включает до выполнения шага б) предоставление мобильным устройством указания, где получить первое изображение.Embodiment 28: A method according to any of the previous embodiments, the method further comprising, before performing step b), providing the mobile device with an indication of where to obtain the first image.
Вариант осуществления 29: Способ в соответствии с предыдущим вариантом осуществления, в котором указание включает визуальное указание, в частности, визуальное указание на дисплее мобильного устройства, более конкретно визуальное указание по меньшей мере частично с использованием дополненной реальности на дисплее мобильного устройства.Embodiment 29: The method according to the previous embodiment, wherein the guidance includes visual guidance, in particular visual guidance on the display of a mobile device, more particularly visual guidance at least in part using augmented reality on the display of a mobile device.
Вариант осуществления 30: Способ в соответствии с любым из предыдущих вариантов осуществления, причем шаг в) включает по меньшей мере одно из:Embodiment 30: The method according to any of the previous embodiments, wherein step c) includes at least one of:
- мобильного устройства, подсказывающего пользователю нанести образец, в частности каплю, физиологической жидкости на тестовое поле оптической тест-полоски;- a mobile device that prompts the user to apply a sample, in particular a drop, of physiological fluid onto the test field of the optical test strip;
- мобильного устройства, подсказывающего пользователю подтвердить нанесение образца физиологической жидкости на тестовое поле оптической тест-полоски.- a mobile device that prompts the user to confirm the application of a sample of physiological fluid to the test field of the optical test strip.
Вариант осуществления 31: Способ в соответствии с любым из предыдущих вариантов осуществления, причем шаг в) включает по меньшей мере одно из:Embodiment 31: The method according to any of the previous embodiments, wherein step c) includes at least one of:
- мобильного устройства, подсказывающего пользователю предоставить оптическую тест-полоску, имеющую тестовое поле без нанесенного на него образца;- a mobile device prompting the user to provide an optical test strip having a test field without a sample applied to it;
- мобильного устройства, подсказывающего пользователю подтвердить предоставление оптической тест-полоски, имеющей тестовое поле без нанесенного на него образца;- a mobile device prompting the user to confirm the provision of an optical test strip having a test field without a sample applied to it;
- мобильного устройства, автоматически обнаруживающего, в частности, путем распознавания изображения, предоставлена ли тест-полоска.- a mobile device that automatically detects, in particular by image recognition, whether a test strip is provided.
Вариант осуществления 32: Компьютерная программа, содержащая инструкции, которые при выполнении программы мобильным устройством, имеющим камеру, в частности процессором мобильного устройства, заставляют мобильное устройство выполнять способ в соответствии с любым из предыдущих вариантов осуществления, более конкретно по меньшей мере шаги б), г), д) и е) способа в соответствии с любым из предыдущих вариантов осуществления.Embodiment 32: A computer program comprising instructions that, when executed by a mobile device having a camera, particularly a processor of the mobile device, cause the mobile device to execute a method in accordance with any of the previous embodiments, more specifically at least steps b), d ), e) and f) the method in accordance with any of the previous embodiments.
Вариант осуществления 33: Компьютерная программа в соответствии с предыдущим вариантом осуществления, причем компьютерная программа дополнительно содержит инструкции, которые при выполнении программы мобильным устройством дополнительно предлагают пользователю выполнить шаги а) и/или в) или подтвердить выполнение шагов а) и/или в).Embodiment 33: A computer program according to the previous embodiment, wherein the computer program further comprises instructions that, upon execution of the program by the mobile device, further prompt the user to perform steps a) and/or c) or to confirm execution of steps a) and/or c).
Вариант осуществления 34: Машиночитаемый носитель для хранения данных, в частности носитель, предназначенный для долговременного хранения данных, содержащий инструкции, которые при выполнении мобильным устройством, имеющим камеру, в частности процессором мобильного устройства, заставляют мобильное устройство выполнять способ в соответствии с любым из предыдущих вариантов осуществления способа, более конкретно по меньшей мере шаги б), г), д) и е) способа в соответствии с любым из предыдущих вариантов осуществления способа.Embodiment 34: A computer-readable storage medium, in particular a medium intended for long-term storage of data, comprising instructions that, when executed by a mobile device having a camera, in particular a processor of the mobile device, cause the mobile device to perform a method in accordance with any of the previous embodiments implementing the method, more specifically at least steps b), d), e) and f) of the method in accordance with any of the previous embodiments of the method.
Вариант осуществления 35: Машиночитаемый носитель для хранения данных в соответствии с предыдущим вариантом осуществления, при этом носитель для хранения данных дополнительно содержит инструкции, которые при выполнении мобильным устройством дополнительно предлагают пользователю выполнить шаги а) и/или в) или подтвердить выполнение шагов а) и/или в).Embodiment 35: The computer-readable data storage medium according to the previous embodiment, wherein the data storage medium further comprises instructions that, when executed by the mobile device, further prompt the user to perform steps a) and/or c) or confirm execution of steps a) and /or in).
Вариант осуществления 36: Мобильное устройство для проведения аналитического измерения, причем мобильное устройство имеет по меньшей мере одну камеру, при этом мобильное устройство выполнено с возможностью выполнения по меньшей мере шагов б), г), д) и е) способа проведения аналитического измерения в соответствии с любым из предыдущих вариантов осуществления, относящихся к способу проведения аналитического измерения.Embodiment 36: A mobile device for performing an analytical measurement, wherein the mobile device has at least one camera, wherein the mobile device is configured to perform at least steps b), d), e) and f) of a method for performing an analytical measurement according to with any of the previous embodiments relating to a method for performing an analytical measurement.
Вариант осуществления 37: Мобильное устройство в соответствии с предыдущим вариантом осуществления, причем мобильное устройство дополнительно содержит по меньшей мере один источник освещения, выполненный с возможностью освещения тестового поля.Embodiment 37: The mobile device according to the previous embodiment, wherein the mobile device further comprises at least one illumination source configured to illuminate the test field.
Вариант осуществления 38: Мобильное устройство в соответствии с любым из двух предыдущих вариантов осуществления, причем мобильное устройство содержит по меньшей мере один процессор, запрограммированный для управления по меньшей мере одним из шагов б), г), д) и е).Embodiment 38: A mobile device in accordance with any of the previous two embodiments, wherein the mobile device comprises at least one processor programmed to control at least one of steps b), d), e) and f).
Вариант осуществления 39: Набор для проведения аналитического измерения, причем набор содержит:Embodiment 39: An analytical measurement kit, the kit comprising:
- по меньшей мере одно мобильное устройство в соответствии с любым из предыдущих вариантов осуществления, относящихся к мобильному устройству; и- at least one mobile device in accordance with any of the previous embodiments relating to a mobile device; And
- по меньшей мере одну оптическую тест-полоску, имеющую по меньшей мере одно тестовое поле.- at least one optical test strip having at least one test field.
Краткое описание графических материаловBrief description of graphic materials
Дополнительные необязательные признаки и варианты осуществления будут более подробно изложены в последующем описании вариантов осуществления, предпочтительно в сочетании с зависимыми пунктами формулы изобретения. При этом соответствующие необязательные признаки могут быть реализованы отдельно, а также в любой произвольной возможной комбинации, что будет понятно специалисту в данной области техники. Объем данного изобретения не ограничен предпочтительными вариантами осуществления. Варианты осуществления схематично изображены на фигурах. В данном документе идентичные ссылочные позиции на этих фигурах относятся к идентичным или функционально сопоставимым элементам.Additional optional features and embodiments will be set forth in more detail in the following description of embodiments, preferably in conjunction with dependent claims. In this case, the corresponding optional features can be implemented separately, as well as in any arbitrary possible combination, which will be clear to a person skilled in the art. The scope of the present invention is not limited to the preferred embodiments. Embodiments are shown schematically in the figures. As used herein, identical reference numerals in these figures refer to identical or functionally comparable elements.
На фигурах представлено следующее:The figures show the following:
на фиг.1 показан вид в перспективе варианта осуществления набора и мобильного устройства для проведения аналитического измерения;FIG. 1 is a perspective view of an embodiment of a kit and mobile device for performing an analytical measurement;
на фиг.2 показана блок-схема варианта осуществления способа проведения аналитического измерения;FIG. 2 is a flowchart of an embodiment of a method for performing an analytical measurement; FIG.
на фиг.3 и 4 в качестве примера показаны первое и второе изображения, полученные до и после нанесения образца; иFIGS. 3 and 4 show by way of example the first and second images taken before and after application of the sample; And
на фиг.5 показаны сравнительные измерения глюкозы вFigure 5 shows comparative glucose measurements in
крови.blood.
Подробное описание вариантов осуществления изобретенияDetailed Description of Embodiments of the Invention
На фиг.1 показан вид в перспективе иллюстративного варианта осуществления набора 110 для проведения аналитического измерения. Набор 110 содержит мобильное устройство 112, такое как смартфон, и, кроме того, по меньшей мере одну оптическую тест-полоску 114, при данной установке помещенную в поле зрения 116 камеры 118 мобильного устройства 112.1 is a perspective view of an exemplary embodiment of an analytical measurement kit 110. Kit 110 includes a mobile device 112, such as a smartphone, and, in addition, at least one optical test strip 114, in this installation placed within the field of view 116 of the camera 118 of the mobile device 112.
Мобильное устройство 112 может содержать, кроме по меньшей мере одной камеры 118, по меньшей мере один процессор 120 и по меньшей мере одно устройство 122 хранения данных. Мобильное устройство 112 может дополнительно содержать по меньшей мере один дисплей 124, например, для отображения изображения в режиме реального времени, получаемого с помощью камеры 118, и/или для отображения информации пользователю. Мобильное устройство 112 может дополнительно содержать по меньшей мере один источник 123 освещения, такой как СИД или т.п.Mobile device 112 may include, in addition to at least one camera 118, at least one processor 120 and at least one storage device 122. The mobile device 112 may further include at least one display 124, for example, for displaying a real-time image captured by the camera 118 and/or for displaying information to the user. Mobile device 112 may further include at least one lighting source 123, such as an LED or the like.
Оптическая тест-полоска 114 может содержать по меньшей мере одну подложку 126, такую как гибкая подложка в форме полоски. Оптическая тест-полоска 114 дополнительно содержит по меньшей мере одно тестовое поле 128, нанесенное на подложку, тестовое поле 128, содержащее по меньшей мере одно тестируемое химическое вещество для проведения реакции определения с по меньшей мере одним аналитом, содержащимся в образце 130. Образец 130 может непосредственно или опосредованно наноситься на тестовое поле 128, например, путем нанесения капли физиологической жидкости на тестовое поле 128 и/или на капиллярный элемент для проведения образца 130 к тестовому полю 128.The optical test strip 114 may include at least one substrate 126, such as a flexible strip-shaped substrate. The optical test strip 114 further comprises at least one test field 128 deposited on a substrate, a test field 128 containing at least one test chemical for conducting a determination reaction with at least one analyte contained in the sample 130. The sample 130 may directly or indirectly applied to the test field 128, such as by applying a drop of physiological fluid to the test field 128 and/or to a capillary element to conduct sample 130 to the test field 128.
Мобильное устройство 112 выполнено, путем соответствующего программирования процессора 120, с возможностью выполнения и/или поддержания способа в соответствии с настоящим изобретением, который будет описан со ссылкой на иллюстративный вариант осуществления, показанный на блок-схеме на фиг.2.The mobile device 112 is configured, by appropriately programming the processor 120, to perform and/or support the method in accordance with the present invention, which will be described with reference to the exemplary embodiment shown in the block diagram of FIG. 2.
На первом шаге (шаге а)), обозначенном ссылочной позицией 210, предоставляется оптическая тест-полоска 114. Например, пользователь может взять оптическую тест-полоску из контейнера для тест-полосок. Шаг 210 может поддерживаться мобильным устройством 112, например, посредством подсказки пользователю предоставить оптическую тест-полоску 114, например, путем отображения соответствующего сообщения на дисплее 124. Дополнительно или альтернативно, мобильное устройство 112 также может подсказывать пользователю подтвердить, что оптическая тест-полоска 114 предоставлена, например, в поле зрения 116 камеры. Опять же, дополнительно или альтернативно, мобильное устройство 112 также может быть выполнено с возможностью автоматического обнаружения, например, с помощью средств распознавания изображения, что оптическая тест-полоска 114 предоставлена.In the first step (step a)), indicated by reference numeral 210, an optical test strip 114 is provided. For example, the user may take an optical test strip from a test strip container. Step 210 may be supported by mobile device 112, for example, by prompting the user to provide optical test strip 114, such as by displaying a corresponding message on display 124. Additionally or alternatively, mobile device 112 may also prompt the user to confirm that optical test strip 114 is provided. , for example, in the field of view of 116 cameras. Again, additionally or alternatively, the mobile device 112 may also be configured to automatically detect, for example through image recognition means, that the optical test strip 114 is provided.
На дополнительном шаге (шаге б)), обозначенном ссылочной позицией 212, мобильное устройство 112 получает, с помощью камеры 118, по меньшей мере одно первое изображение 214 по меньшей мере части тестового поля 128 оптической тест-полоски 114 без нанесенного на него образца 130, как символически изображено на фиг.2. Первое изображение 214 может сохраняться в устройстве 122 хранения данных мобильного устройства 112. Первое изображение 214 также может называться «холостым изображением», и первое изображение 214 может содержать отдельное изображение или серию изображений, например поток изображений. Получение первого изображения 214 может быть инициировано пользователем и/или может полностью или частично поддерживаться мобильным устройством 112, например, путем автоматического инициирования получения изображения после распознавания оптической тест-полоски 114 и/или тестового поля 128. Для получения первого изображения 214 оптическая тест-полоска 114 может помещаться пользователем в произвольное положение относительно камеры 118 и/или относительно по меньшей мере одного объекта 132 окружающей среды в поле зрения 116, которое символически изображено на фиг.1. В данном случае мобильное устройство 112, в частности, может быть выполнено с возможностью определения первого локального положения при получении первого изображения 214 и, необязательно, хранения первого локального положения в устройстве 122 хранения данных. Дополнительно или альтернативно, мобильное устройство 112 также может быть выполнено с возможностью предоставления руководства пользователя в отношении того, где получить первое изображение 214, путем указания, например, соответствующего положения на дисплее 124.In an additional step (step b)), indicated by the reference numeral 212, the mobile device 112 obtains, using the camera 118, at least one first image 214 of at least a portion of the test field 128 of the optical test strip 114 without the sample 130 applied thereto. as symbolically depicted in Fig. 2. The first image 214 may be stored in the storage device 122 of the mobile device 112. The first image 214 may also be referred to as a “idle image,” and the first image 214 may comprise a single image or a series of images, such as a stream of images. The acquisition of the first image 214 may be initiated by the user and/or may be supported in whole or in part by the mobile device 112, for example, by automatically initiating an image acquisition upon recognition of the optical test strip 114 and/or the test field 128. For the acquisition of the first image 214, the optical test strip 114 can be placed by the user in an arbitrary position relative to the camera 118 and/or relative to at least one environmental object 132 in the field of view 116, which is symbolically depicted in FIG. Here, mobile device 112 may particularly be configured to determine a first local position upon acquisition of the first image 214, and optionally store the first local position in storage device 122. Additionally or alternatively, the mobile device 112 may also be configured to provide guidance to the user as to where to obtain the first image 214 by indicating, for example, a corresponding location on the display 124.
На дополнительном шаге (шаге в)), обозначенном ссылочной позицией 216, образец 130 физиологической жидкости непосредственно или опосредованно наносится на тестовое поле 128 оптической тест-полоски 114. Опять же, как на шаге 210, это нанесение образца необязательно может поддерживаться мобильным устройством 112, например, посредством подсказки пользователю нанести образец 130 и/или посредством подсказки пользователю подтвердить, что образец 130 нанесен. Опять же, например, соответствующие инструкции могут отображаться на дисплее 124. Дополнительно или альтернативно, мобильное устройство 112 также может быть выполнено с возможностью автоматического обнаружения нанесения образца.In an additional step (step c)), indicated by reference numeral 216, the body fluid sample 130 is directly or indirectly applied to the test field 128 of the optical test strip 114. Again, as in step 210, this sample application may not necessarily be supported by the mobile device 112. for example, by prompting the user to apply pattern 130 and/or by prompting the user to confirm that pattern 130 has been applied. Again, for example, appropriate instructions may be displayed on display 124. Additionally or alternatively, mobile device 112 may also be configured to automatically detect application of a sample.
После нанесения образца на шаге 216 способ может предусматривать соответствующее время ожидания. Например, время ожидания может составлять по меньшей мере 5 секунд для обеспечения протекания реакции определения. Время ожидания может отображаться на дисплее 124, и/или мобильное устройство 112 может быть выполнено с возможностью предотвращения дополнительных шагов до истечения времени ожидания.After applying the sample at step 216, the method may include an appropriate wait time. For example, the wait time may be at least 5 seconds to allow the detection reaction to proceed. The timeout may be displayed on the display 124, and/or the mobile device 112 may be configured to prevent additional steps until the timeout has expired.
На дополнительном шаге (шаге е)), обозначенном ссылочной позицией 218, мобильное устройство 112 предоставляет указание пользователю, где получить или зафиксировать второе изображение по меньшей мере части тестового поля 128 оптической тест-полоски 114 с нанесенным на него образцом 130 физиологической жидкости таким образом, чтобы первое и второе изображения были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта 132 окружающей среды. В данном документе, например, локальные положения могут быть определены с помощью системы 134 координат, определяемой по меньшей мере одним объектом 132 окружающей среды на фиг.1. Локальные положения могут включать одно или более из абсолютных положений оптической тест-полоски 114, камеры 118 или их обеих, или относительных положений. Термин «положение», как изложено выше, также может включать ориентации, например, угловые ориентации. Для выполнения шага е) мобильное устройство 112, например, может записывать и/или отображать в режиме реального времени поток изображений поля зрения 116 и может предоставлять, также на дисплее 124, дополненную реальность с инструкциями для пользователя в отношении того, где расположить одно или оба из тестового поля 128 и камеры 118. Иллюстративные варианты осуществления будут показаны ниже.In an additional step (step e)), indicated by reference numeral 218, the mobile device 112 provides an indication to the user where to obtain or capture a second image of at least a portion of the test field 128 of the optical test strip 114 with the body fluid sample 130 applied thereto, such that such that the first and second images are acquired at the same local positions relative to at least one environmental object 132. Herein, for example, local positions may be determined using a coordinate system 134 defined by at least one environmental object 132 in FIG. 1. Local positions may include one or more of absolute positions of optical test strip 114, camera 118, or both, or relative positions. The term "position", as set forth above, can also include orientations, such as angular orientations. To perform step e), the mobile device 112, for example, may record and/or display in real time a stream of images of the field of view 116 and may provide, also on the display 124, augmented reality with instructions to the user as to where to position one or both of test field 128 and chamber 118. Exemplary embodiments will be shown below.
На дополнительном шаге (шаге г)), обозначенном ссылочной позицией 220 на фиг.2, получают по меньшей мере одно второе изображение, обозначенное ссылочной позицией 222, по меньшей мере части тестового поля 128 оптической тест-полоски 114, с нанесенным на него образцом 130 физиологической жидкости. Опять же, это получение может быть инициировано автоматически, например, когда мобильное устройство 112 распознает, что камера 118 и/или тестовое поле 128 правильно расположены, таким образом, чтобы по меньшей мере в пределах заданного диапазона допустимых значений первое и второе изображения 214, 222 были получены в идентичных положениях, т.е. в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды 132, удовлетворяя одному или более заданным критериям подобия.In an additional step (step d)), indicated by reference numeral 220 in FIG. 2, at least one second image, indicated by reference numeral 222, is obtained of at least a portion of the test field 128 of the optical test strip 114, with sample 130 applied thereto. physiological fluid. Again, this acquisition may be triggered automatically, for example, when mobile device 112 recognizes that camera 118 and/or test field 128 are correctly positioned such that, at least within a predetermined tolerance range, the first and second images 214, 222 were obtained in identical positions, i.e. in identical local positions relative to at least one environmental object 132, satisfying one or more specified similarity criteria.
На дополнительном шаге (шаге д)), обозначенном ссылочной позицией 224, мобильное устройство 112 выполнено с возможностью определения по меньшей мере одного значения результата аналитического измерения с применением первого и второго изображений 214 и 222 оптического тестового поля 128 оптической тест-полоски 114. В данном документе один или более алгоритмов оценки могут применяться процессором 120 по отношению к изображениям 214 и 222. Например, процессор 120 может получать по меньшей мере одну координату цветности из каждого из изображений 214 и 222 для определения изменения цвета между холостым изображением 214 и окончательным изображением 222, вызванного реакцией определения. Из-за изменения цвета, например, с использованием предварительно определенной корреляции, или калибровочной функции, или справочной таблицы, может быть определено значение результата аналитического измерения, например, концентрация по меньшей мере одного аналита, представляющего интерес. Например, концентрация глюкозы в крови или интерстициальной жидкости может быть определена как значение результата аналитического измерения. Существуют и другие возможности.In an additional step (step e)), indicated by the reference numeral 224, the mobile device 112 is configured to determine at least one analytical measurement result value using the first and second images 214 and 222 of the optical test field 128 of the optical test strip 114. In this document, one or more estimation algorithms may be applied by processor 120 to images 214 and 222. For example, processor 120 may obtain at least one chromaticity coordinate from each of images 214 and 222 to determine the color change between blank image 214 and final image 222. reaction-induced determination. Because of the color change, for example, using a predetermined correlation or calibration function or lookup table, the value of the analytical measurement result, for example, the concentration of at least one analyte of interest, can be determined. For example, the concentration of glucose in blood or interstitial fluid can be determined as the value of an analytical measurement result. There are other possibilities.
На фиг.3 и 4 показаны изображения в режиме реального времени, отображаемые на дисплее 124 мобильного устройства 112, включая дополненную реальность. В данном документе, например, на фиг.3 показана ситуация при получении первого изображения 214, при этом на фиг.4 показано изображение в режиме реального времени до получения второго изображения 222. Как можно видеть, множество объектов 132 окружающей среды обнаруживается в поле зрения 116 камеры 118, например, компьютерная клавиатура на столе, куб, компьютерная мышь или просто шаблон стола, например, деревянная текстура. Объекты 132 окружающей среды могут применяться, как на фиг.1, для определения локальных положений тестового поля 128 и/или камеры 118, например, с помощью способов распознавания изображений. Дополнительно или альтернативно, один или более датчиков 136 мобильного устройства 112 могут применяться для определения первого и/или второго локальных положений.FIGS. 3 and 4 show real-time images displayed on the display 124 of the mobile device 112, including augmented reality. Herein, for example, FIG. 3 shows the situation when the first image 214 is acquired, while FIG. 4 shows a real-time image before the second image 222 is acquired. As can be seen, a plurality of environmental objects 132 are detected in the field of view 116 cameras 118, such as a computer keyboard on a table, a cube, a computer mouse, or just a table template, such as a wood texture. Environmental objects 132 may be used, as in FIG. 1, to determine local positions of test field 128 and/or camera 118, for example, using image recognition techniques. Additionally or alternatively, one or more sensors 136 of the mobile device 112 may be used to determine the first and/or second local positions.
Как можно видеть на фиг.4, дополненная реальность может применяться для предоставления указания, где получить второе изображение 222 таким образом, чтобы первое и второе изображения 214, 222 были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта 132 окружающей среды. Дополненная реальность может включать символы, такие как знак «парковка запрещена» и стрелка, а также текст, например, текст, содержащий инструкции в отношении необходимых позиционных коррекций тестового поля 128 и/или камеры 118.As can be seen in FIG. 4, augmented reality may be used to provide an indication of where to obtain a second image 222 such that the first and second images 214, 222 are acquired at the same local positions relative to at least one environmental object 132. The augmented reality may include symbols, such as a "no parking" sign and arrow, as well as text, such as text containing instructions regarding necessary positional adjustments to test field 128 and/or camera 118.
Как правило, как изложено выше, могут рассматриваться два варианта. Таким образом, в качестве первого варианта, первое изображение 214 может быть получено в произвольном первом локальном положении. Мобильное устройство 112 может быть выполнено с возможностью определения первого локального положения и сохранения первого локального положения, например, в устройстве 122 хранения данных. При получении второго изображения 222 мобильным устройством 112 предоставляется указание, например, с помощью дополненной реальности, показанной на фиг.4, где получить второе изображение 222 таким образом, чтобы первое и второе изображения 214, 222 были получены в одинаковых локальных положениях относительно по меньшей мере одного объекта 132 окружающей среды. В качестве второго варианта, мобильное устройство 112 уже может предоставлять указание, где получить первое изображение 214, например, с помощью дополненной реальности, показанной на фиг.4, и, аналогичным образом, также в отношении получения второго изображения 222.Generally, as outlined above, two options can be considered. Thus, as a first option, the first image 214 may be acquired at an arbitrary first local position. The mobile device 112 may be configured to determine a first local position and store the first local position, for example, in a storage device 122. When the second image 222 is received by the mobile device 112, an indication is provided, for example using augmented reality as shown in FIG. 4, where to obtain the second image 222 such that the first and second images 214, 222 are acquired at the same local positions relative to at least one object 132 environment. As a second option, the mobile device 112 may already provide an indication of where to obtain the first image 214, for example using augmented reality shown in FIG. 4, and similarly also in relation to obtaining the second image 222.
На фиг.5 показаны результаты измерений, которые демонстрируют эффект управления локальными положениями для получения холостого изображения и окончательного изображения. Для этих экспериментов измерения глюкозы в крови проводили с использованием оптической тест-полоски 114 и образца 130. Использовали две разные установки: При первой установке, обозначенной ссылочной позицией 310, холостые изображения или первые изображения 214 и окончательные изображения или вторые изображения 222 получали в идентичных локальных положениях. При второй установке, обозначенной ссылочной позицией 312, холостые изображения или первые изображения 214 получали в общем первом локальном положении, а окончательные изображения или вторые изображения 222 получали в общем втором локальном положении, при этом второе локальное положение отличалось от первого локального положения. При каждой установке проводили 10 измерений, при этом для холостых изображений применяли свежую оптическую тест-полоску 114 (образец не наносили), тогда как для окончательных изображений оптическую тест-полоску 114 применяли через 3 дня после нанесения образца в демонстрационных целях (тестовое поле этой полоски имело постоянные оптические свойства, отличные от свежей оптической тест-полоски).Figure 5 shows measurement results that demonstrate the effect of controlling local positions to obtain a blank image and a final image. For these experiments, blood glucose measurements were made using optical test strip 114 and sample 130. Two different setups were used: In the first setup, designated by reference numeral 310, blank images or first images 214 and final images or second images 222 were acquired in identical local provisions. In the second setting, indicated by reference numeral 312, blank images or first images 214 were acquired at a common first local position, and final images or second images 222 were acquired at a common second local position, wherein the second local position was different from the first local position. For each setup, 10 measurements were taken, with blank images using a fresh 114 optical test strip (no sample applied), while for final images, a 114 optical test strip was used 3 days after application of the sample for demonstration purposes (test field of this strip had permanent optical properties different from a fresh optical test strip).
Результаты измерений показаны на фиг.5. При этом по горизонтальной оси показаны две разные установки 310, 312. По вертикальной оси показан определенный результат аналитического измерения, в данном случае концентрация глюкозы в крови с в мг/дл. Результаты показаны в виде коробчатых диаграмм для обеих установок 310, 312. Как можно видеть, значительное различие наблюдается между правильной или контролируемой установкой 310 и неконтролируемой установкой 312. Предполагается, что данное различие в основном связано с разными условиями освещения в первом и втором локальных положениях. Однако могут возникать и другие воздействия. Данное различие явно показывает преимущество настоящего изобретения, поскольку получение первого и второго изображений 214, 222 в одинаковых локальных положениях относительно по меньшей мере одного объекта окружающей среды обеспечивает повышение воспроизводимости измерений.The measurement results are shown in Fig.5. In this case, the horizontal axis shows two different settings 310, 312. The vertical axis shows a specific analytical measurement result, in this case the blood glucose concentration c in mg/dL. The results are shown as boxplots for both setups 310, 312. As can be seen, a significant difference is observed between the correct or controlled setup 310 and the uncontrolled setup 312. This difference is believed to be mainly due to different lighting conditions at the first and second local positions. However, other impacts may also occur. This difference clearly demonstrates the advantage of the present invention, since acquiring the first and second images 214, 222 at the same local positions relative to at least one environmental object provides increased measurement reproducibility.
Перечень ссылочных позицийList of reference items
110 набор для проведения аналитического измерения110 analytical measurement set
112 мобильное устройство112 mobile device
114 оптическая тест-полоска114 optical test strip
116 поле зрения116 field of view
118 Камера118 Camera
120 Процессор120 Processor
122 устройство хранения данных122 storage device
123 источник освещения123 light source
124 Дисплей124 Display
126 Подложка126 Substrate
128 тестовое поле128 test field
130 Образец130 Sample
132 объект окружающей среды132 environmental object
134 система координат134 coordinate system
136 Датчик136 Sensor
210 предоставление оптической тест-полоски210 optical test strip provision
212 получение первого изображения тестового поля без нанесенного на него образца212 obtaining the first image of the test field without a sample applied to it
214 первое изображение214 first image
216 нанесение образца физиологической жидкости на тестовое поле оптической тест-полоски216 applying a sample of physiological fluid to the test field of an optical test strip
218 предоставление мобильным устройством указания, где получить второе изображение таким образом, чтобы первое и второе изображения были получены в аналогичных локальных положениях относительно по меньшей мере одного объекта окружающей среды218 providing the mobile device with an indication of where to obtain a second image such that the first and second images are acquired at similar local positions relative to at least one environmental object
220 получение второго изображения тестового поля с нанесенным на него образцом физиологической жидкости220 obtaining a second image of the test field with a sample of physiological fluid applied to it
222 второе изображение222 second image
224 определение значения результата аналитического измерения224 determination of the value of the result of an analytical measurement
310 первая настройка: холостое изображение и конечное изображение, получаемые в идентичных локальных положениях310 first setting: blank image and final image obtained at identical local positions
312 вторая настройка: холостое изображение и конечное изображение, получаемые в различных локальных положениях312 second setting: blank image and final image obtained at different local positions
Claims (30)
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP19211519.4 | 2019-11-26 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| RU2823570C1 true RU2823570C1 (en) | 2024-07-24 |
Family
ID=
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107024474A (en) * | 2012-06-22 | 2017-08-08 | 霍夫曼-拉罗奇有限公司 | Method and device for detecting the analyte in body fluid |
| EP3301433A1 (en) * | 2012-03-09 | 2018-04-04 | Siemens Healthcare Diagnostics Inc. | Calibration method for reagent card analyzers |
| WO2019081541A1 (en) * | 2017-10-25 | 2019-05-02 | Roche Diabetes Care Gmbh | Methods and devices for performing an analytical measurement |
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3301433A1 (en) * | 2012-03-09 | 2018-04-04 | Siemens Healthcare Diagnostics Inc. | Calibration method for reagent card analyzers |
| CN107024474A (en) * | 2012-06-22 | 2017-08-08 | 霍夫曼-拉罗奇有限公司 | Method and device for detecting the analyte in body fluid |
| CN104364636B (en) * | 2012-06-22 | 2018-10-02 | 霍夫曼-拉罗奇有限公司 | Methods and devices for detecting analytes in body fluids |
| WO2019081541A1 (en) * | 2017-10-25 | 2019-05-02 | Roche Diabetes Care Gmbh | Methods and devices for performing an analytical measurement |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12130237B2 (en) | Method for calibrating a camera of a mobile device for detecting an analyte in a sample | |
| AU2018356358B2 (en) | Methods and devices for performing an analytical measurement based on a color formation reaction | |
| EP3477286B1 (en) | Methods and devices for performing an analytical measurement | |
| US20220291134A1 (en) | Method of performing an analytical measurement | |
| CA3157870A1 (en) | Method of determining a concentration of an analyte in a bodily fluid | |
| KR20230086754A (en) | How to Control Automatic Exposure Settings for Mobile Devices with Cameras | |
| JP7483002B2 (en) | Method and apparatus for performing analytical measurements - Patents.com | |
| RU2823570C1 (en) | Analytical measurement method | |
| RU2846704C1 (en) | Methods and devices for analytical measurement | |
| RU2809608C2 (en) | Calibration method for calibrating camera of mobile device for determining analyte in a sample | |
| RU2845883C1 (en) | Method of performing at least one analytical measurement using mobile device | |
| HK40076964A (en) | Method of performing an analytical measurement | |
| US12529657B2 (en) | Method of performing an analytical measurement using a mobile device | |
| JP7592038B2 (en) | Method for determining the concentration of an analyte in a body fluid - Patents.com | |
| HK40044459A (en) | A calibration method for calibrating a camera of a mobile device for detecting an analyte in a sample | |
| EP4476525A1 (en) | Methods and devices for determining the concentration of at least one analyte in a bodily fluid |