KR102788241B1 - Nursing Facility Control System and Method for Protecting Privacy - Google Patents
Nursing Facility Control System and Method for Protecting Privacy Download PDFInfo
- Publication number
- KR102788241B1 KR102788241B1 KR1020220142448A KR20220142448A KR102788241B1 KR 102788241 B1 KR102788241 B1 KR 102788241B1 KR 1020220142448 A KR1020220142448 A KR 1020220142448A KR 20220142448 A KR20220142448 A KR 20220142448A KR 102788241 B1 KR102788241 B1 KR 102788241B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- unit
- face
- masking
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
사생활 보호가 가능한 요양시설 관제 시스템 및 방법을 개시한다.
본 실시예의 일 측면에 의하면, 주변을 촬영하며, 영상 내에서 대상을 검출하여 대상의 얼굴부위에 마스킹을 진행하는 영상 감시장치 및 상기 영상 감시장치가 촬영한 영상 내 특정인의 마스킹을 해제하여 외부로 제공하는 영상 처리장치를 포함하는 것을 특징으로 하는 관제 시스템을 제공한다.A nursing facility control system and method capable of protecting privacy are disclosed.
According to one aspect of the present embodiment, a control system is provided, characterized by including an image surveillance device that captures a surrounding area, detects a subject in the image, and masks the face area of the subject, and an image processing device that unmasks a specific person in the image captured by the image surveillance device and provides the unmasked person to the outside.
Description
본 실시예는 수용자의 사생활이나 개인정보의 보호가 가능한 요양시설 관제 시스템 및 방법에 관한 것이다.This embodiment relates to a nursing facility control system and method capable of protecting the privacy or personal information of a patient.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The material described in this section merely provides background information for the present embodiment and does not constitute prior art.
요양원에 입소한 환자 대부분은 스스로 거동이 힘든 고령, 중증 환자인 경우가 많아 간호사 및 요양보호사의 도움이 많이 필요한 반면, 요양원에는 환자 수에 비해 간호사 및 요양보호사의 수가 현저히 적다. 이에, 간호사나 요양보호사가 환자의 상태를 24시간 상시 간병하고 체크해야 하지만, 실제로는 이를 온전하게 수행하기 어려운 실정이다.Most of the patients admitted to nursing homes are elderly or seriously ill and have difficulty moving on their own, so they need a lot of help from nurses and caregivers. However, the number of nurses and caregivers in nursing homes is significantly smaller than the number of patients. Therefore, nurses and caregivers need to care for and check the patients' conditions 24 hours a day, but in reality, it is difficult to fully perform this.
요양보호사가 환자별로 배정되기에는 인력의 수요가 과다하고 노동 강도가 높아 현실적으로는 불가한 상황이며, 이의 보완을 위해서 CCTV가 배치되고 중앙관제실에서 상시 모니터링을 하는 방안이 언급되고 있다. It is not realistically possible to assign nursing caregivers to each patient due to the excessive demand for manpower and high labor intensity. To compensate for this, plans are being discussed to deploy CCTVs and conduct constant monitoring from a central control room.
다만, 적은 인력으로 모든 상황을 체크하기에는 역부족이어서, 실제 사고 발생 시 대처가 늦어지고 큰 위험으로 맞닥뜨리게 되는 것이 현실이다. 따라서, 환자가 침대에서 낙상하거나 이동 중 쓰러지는 등의 위급한 상황 시 요양보호사나 간호사가 곁에 없다면 즉각적이 대처가 이뤄지지 않아 큰 사고로 이어질 가능성이 상존하는 문제점이 있다.However, since it is not enough to check all situations with a small number of personnel, the reality is that when an accident actually occurs, the response is delayed and a great danger is encountered. Therefore, if there is no caregiver or nurse nearby in an emergency situation such as a patient falling out of bed or collapsing while moving, there is a constant problem that immediate response is not possible and there is a possibility that a major accident may occur.
최근 일부 불미스러운 상황으로 간호 인력의 가혹행위에 의해 환자가 피해를 입어도 고령 또는 중증의 환자들이 스스로 피해상황을 저항하거나 보호자에게 설명하지 못하는 사례도 있고, 반대로 가혹행위가 없음에도 환자의 부주의로 인한 부상 또는 착각이나 정신이상 증세에 의한 허언으로 인해 요양원과 보호자 간 분쟁이 발생하고 있는 등 다양한 문제점이 요양원에서 발생하고 있는 실정이다.Recently, there have been some unfortunate cases in which elderly or seriously ill patients have been unable to resist or explain the damage to their guardians due to the harsh treatment of nursing staff, and conversely, there have been various problems occurring in nursing homes, such as disputes between nursing homes and guardians arising due to injuries caused by the patient's negligence or false statements due to illusions or mental disorders, even when there has been no harsh treatment.
또한, 전술한 문제를 해소하고자 CCTV가 배치되지만, CCTV에 촬영되는 영상 내에 간호사 또는 요양보호사나 환자의 얼굴과 같은 개인정보들이 그대로 드러나게 되어, 개인정보보호에 있어서도 취약한 문제가 있다.In addition, CCTVs are deployed to solve the aforementioned problems, but personal information such as the faces of nurses, caregivers, and patients are directly exposed in the footage captured by CCTV, which poses a vulnerability in terms of personal information protection.
본 발명의 일 실시예는, 영상 내 등장하는 인물의 얼굴 또는 개인정보를 실시간으로 마스킹하여 사생활 보호를 수행하는 요양시설 관제 시스템 및 방법을 제공하는 데 일 목적이 있다.One embodiment of the present invention aims to provide a nursing facility control system and method that protects privacy by masking the face or personal information of a person appearing in a video in real time.
본 실시예의 일 측면에 의하면, 주변을 촬영하며, 영상 내에서 대상을 검출하여 대상의 얼굴부위에 마스킹을 진행하는 영상 감시장치 및 상기 영상 감시장치가 촬영한 영상 내 특정인의 마스킹을 해제하여 외부로 제공하는 영상 처리장치를 포함하는 것을 특징으로 하는 관제 시스템을 제공한다.According to one aspect of the present embodiment, a control system is provided, characterized by including an image surveillance device that captures a surrounding area, detects a subject in the image, and masks the face area of the subject, and an image processing device that unmasks a specific person in the image captured by the image surveillance device and provides the unmasked person to the outside.
본 실시예의 일 측면에 의하면, 상기 대상은 객체 또는 객체의 얼굴인 것을 특징으로 한다.According to one aspect of the present embodiment, the object is characterized in that it is an object or a face of an object.
본 실시예의 일 측면에 의하면, 상기 대상 검출부는 상기 객체를 검출하는 알고리즘 및 상기 객체의 얼굴을 검출하는 알고리즘 모두를 이용하며, 양자 중 우선하여 검출되는 것을 대상으로 검출하는 것을 특징으로 한다.According to one aspect of the present embodiment, the target detection unit is characterized in that it uses both an algorithm for detecting the object and an algorithm for detecting the face of the object, and detects the one that is detected with priority among the two as the target.
본 실시예의 일 측면에 의하면, 상기 영상 감시장치는 상기 객체를 검출하는 알고리즘 및 상기 객체의 얼굴을 검출하는 알고리즘 어느 하나를 이용하여 객체 또는 객체의 얼굴을 검출하는 것을 특징으로 한다.According to one aspect of the present embodiment, the video surveillance device is characterized in that it detects an object or a face of the object by using either an algorithm for detecting the object or an algorithm for detecting the face of the object.
본 실시예의 일 측면에 의하면, 상기 마스킹부는 객체가 검출된 경우, 검출된 객체의 머리방향의 끝단에 대해 기 설정된 면적 만큼을 마스킹하는 것을 특징으로 한다.According to one aspect of the present embodiment, the masking unit is characterized by masking a preset area of an end in the direction of the head of the detected object when the object is detected.
본 실시예의 일 측면에 의하면, 상기 마스킹부는 객체의 얼굴이 검출된 경우, 기 설정된 면적을 갖는 마스킹 박스를 객체의 얼굴에 씌우는 것을 특징으로 한다.According to one aspect of the present embodiment, the masking unit is characterized by covering the face of the object with a masking box having a preset area when the face of the object is detected.
본 실시예의 일 측면에 의하면, 상기 관제 시스템은 촬영장소 내 자신과 기 설정된 지점까지의 거리를 센싱하는 거리 센서 및 자신에 가해지는 압력을 센싱하는 압력 센서 중 일부 또는 전부를 더 포함하는 것을 특징으로 한다.According to one aspect of the present embodiment, the control system is characterized by further including some or all of a distance sensor for sensing a distance between the control system and a preset point within a shooting location and a pressure sensor for sensing a pressure applied to the control system.
본 실시예의 일 측면에 의하면, 상기 거리 센서는 라이다 센서, 레이더 센서 및 뎁스(Depth) 센서 중 일부 또는 전부로 구현되는 것을 특징으로 한다.According to one aspect of the present embodiment, the distance sensor is characterized in that it is implemented with some or all of a lidar sensor, a radar sensor, and a depth sensor.
본 실시예의 일 측면에 의하면, 상기 영상 처리장치는 외부로부터 마스킹 해제를 위한 특정인의 이미지 또는 메타 데이터를 입력 받는 것을 특징으로 한다.According to one aspect of the present embodiment, the image processing device is characterized by receiving an image or metadata of a specific person for unmasking from the outside.
본 실시예의 일 측면에 의하면, 상기 영상 처리장치는 입력된 특정인의 마스킹을 해제하는 것을 특징으로 한다.According to one aspect of the present embodiment, the image processing device is characterized by unmasking a specific input person.
본 실시예의 일 측면에 의하면, 상기 영상 감시장치는 촬영부, 상기 촬영부가 촬영한 영상 내에서 객체 또는 객체의 얼굴을 검출하는 대상 검출부 및 상기 대상 검출부에 의해 검출된 대상의 얼굴부위에 마스킹을 진행하는 마스킹부를 포함하는 것을 특징으로 한다.According to one aspect of the present embodiment, the video surveillance device is characterized by including a photographing unit, a target detection unit that detects an object or a face of an object in an image photographed by the photographing unit, and a masking unit that masks a face area of an object detected by the target detection unit.
이상에서 설명한 바와 같이 본 실시예의 일 측면에 따르면, 영상 내 등장하는 인물의 얼굴 또는 개인정보를 실시간으로 마스킹하여 사생활 보호를 수행할 수 있는 장점이 있다.As described above, according to one aspect of the present embodiment, there is an advantage in that privacy can be protected by masking the face or personal information of a person appearing in a video in real time.
또한, 본 실시예의 일 측면에 따르면, 환자나 환자가 거주하는 공간에의 이상 발생을 감지할 수 있는 장점이 있다.In addition, according to one aspect of the present embodiment, there is an advantage in that an abnormality can be detected in a patient or a space where a patient resides.
도 1은 본 발명의 일 실시예에 따른 요양시설 관제 시스템을 도시한 도면이다.
도 2는 본 발명의 제1 실시예에 따른 영상 감시장치의 구성을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 영상 처리장치의 구성을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상 감시장치가 실시간으로 마스킹하는 방법을 도시한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 영상 처리장치가 영상 내 얼굴을 인식하는 방법을 도시한 순서도이다.
도 6은 본 발명의 일 실시예에 따른 영상 처리장치가 영상 내에서 특정 인물에 수행된 마스킹을 해제하는 방법을 도시한 순서도이다.
도 7은 본 발명의 제2 실시예에 따른 영상 감시장치의 구성을 도시한 도면이다.FIG. 1 is a drawing illustrating a nursing facility control system according to one embodiment of the present invention.
FIG. 2 is a drawing illustrating the configuration of a video surveillance device according to the first embodiment of the present invention.
FIG. 3 is a diagram illustrating the configuration of an image processing device according to one embodiment of the present invention.
FIG. 4 is a flowchart illustrating a method for real-time masking by a video surveillance device according to one embodiment of the present invention.
FIG. 5 is a flowchart illustrating a method for an image processing device to recognize a face in an image according to one embodiment of the present invention.
FIG. 6 is a flowchart illustrating a method for an image processing device according to one embodiment of the present invention to remove masking performed on a specific person in an image.
FIG. 7 is a diagram illustrating the configuration of a video surveillance device according to the second embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.The present invention can have various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, but should be understood to include all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention. In describing each drawing, similar reference numerals are used for similar components.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, A, B, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and/or includes any combination of a plurality of related described items or any item among a plurality of related described items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에서, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When it is said that a component is "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components in between. On the other hand, when it is said that a component is "directly connected" or "connected" to another component, it should be understood that there are no other components in between.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used in this application is only used to describe specific embodiments and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly indicates otherwise. It should be understood that the terms "comprise" or "have" in this application do not exclude in advance the possibility of the presence or addition of features, numbers, steps, operations, components, parts or combinations thereof described in the specification.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with their meaning in the context of the relevant art, and will not be interpreted in an idealized or overly formal sense, unless expressly defined in this application.
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, procedure or method included in each embodiment of the present invention may be shared within a scope that is not technically contradictory to each other.
도 1은 본 발명의 일 실시예에 따른 요양시설 관제 시스템을 도시한 도면이다.FIG. 1 is a drawing illustrating a nursing facility control system according to one embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 요양시설 관제 시스템(100)은 영상 감시장치(110), 영상 저장장치(120), 영상 처리장치(130) 및 관제센터(140)를 포함한다. 나아가, 요양시설 관제 시스템(100)은 센서(미도시)를 더 포함할 수 있다.Referring to FIG. 1, a nursing facility control system (100) according to one embodiment of the present invention includes a video surveillance device (110), a video storage device (120), an video processing device (130), and a control center (140). In addition, the nursing facility control system (100) may further include a sensor (not shown).
요양시설 관제 시스템(100)은 환자나 요양보호사 등의 관계자가 지내거나 활동하는 장소(이하에서, '활동장소'라 약칭함)를 촬영하며, 영상 내에서 환자나 관계자들의 얼굴을 실시간으로 마스킹하여 환자나 관계자들의 사생활을 보호할 수 있도록 한 시스템이다. The nursing facility control system (100) is a system that films the places where patients, nursing caregivers, and other related persons stay or work (hereinafter, abbreviated as “activity places”) and masks the faces of patients or related persons in real time in the video to protect the privacy of patients or related persons.
영상 감시장치(110)는 활동 장소에 설치되어 일정 반경 내를 촬영하는 동시에, 촬영한 영상 내 객체 또는 객체의 얼굴을 인식하여, 객체 내 얼굴 또는 인식한 얼굴부위를 마스킹한다. 영상 감시장치(110)의 대표적인 예로는 CCTV가 있으며, 객체에의 이상 발생이나 특정 공간으로 외부인 등의 침입을 감지하거나, 다양한 상황에서의 증거확보 등의 목적에 의해 설치되어, 자신의 주변을 지속적으로 촬영한다. 이때, 영상 감시장치(110)는 촬영하고 있는 영상 내에서 실시간으로 객체나 (객체의) 얼굴을 인식하여, 객체 내 얼굴 또는 인식한 얼굴부위를 실시간으로 마스킹하여 별도의 장치에서 후처리를 진행하도록 하지 않을 수 있다. A video surveillance device (110) is installed at an activity site to film within a certain radius, and at the same time, recognizes an object or an object's face in the filmed image and masks the face or the recognized facial part within the object. A representative example of a video surveillance device (110) is a CCTV, and is installed for the purpose of detecting an abnormality in an object, an intrusion of an outsider into a specific space, or securing evidence in various situations, and continuously films its surroundings. At this time, the video surveillance device (110) recognizes an object or a face (of an object) in real time within the image being filmed, and masks the face or the recognized facial part within the object in real time so that post-processing may not be performed in a separate device.
영상 감시장치(110)는 영상 내에서 인식한 (객체의) 얼굴을 메타데이터화하며, 원본 영상, 마스킹한 영상 및 메타데이터를 영상 저장장치(120)로 전송한다. 영상 감시장치(110)에 대한 보다 구체적인 설명은 도 2를 참조하여 후술한다.The video surveillance device (110) converts the face (of the object) recognized in the video into metadata and transmits the original video, masked video, and metadata to the video storage device (120). A more specific description of the video surveillance device (110) will be described later with reference to FIG. 2.
영상 저장장치(120)는 영상 감시장치(110)로부터 수신한 촬영 원본 영상, 마스킹한 영상 및 메타 데이터를 저장한다. 영상 저장장치(120)는 영상 감시장치(110)와 로컬영역 연결을 수행하며, 영상 감시장치(110)가 촬영한 원본 영상, 실시간으로 객체의 얼굴부위를 마스킹한 마스킹영상 및 인식한 얼굴에 대한 메타데이터를 수신하여 저장한다. 영상 저장장치(120)는 영상 감시장치(110)로부터 기 설정된 반경 내 위치할 수 있으며, 영상 및 메타데이터의 저장을 위해 보안요소를 포함할 수 있다. 영상 저장장치(120)는 NVR(Network Video Recorder) 등으로 구현될 수 있다.The video storage device (120) stores the original video, masked video, and metadata received from the video surveillance device (110). The video storage device (120) performs a local area connection with the video surveillance device (110), and receives and stores the original video captured by the video surveillance device (110), the masked video in which the face area of the object is masked in real time, and metadata about the recognized face. The video storage device (120) can be located within a preset radius from the video surveillance device (110), and can include a security element for storing the video and metadata. The video storage device (120) can be implemented as an NVR (Network Video Recorder), etc.
영상 처리장치(130)는 영상 저장장치(120)와 통신하며 영상 저장장치(120) 내 저장된 영상을 시청하거나 조작하고, 특정인의 마스킹을 해제하여 외부로 제공한다.The image processing device (130) communicates with the image storage device (120), views or manipulates the image stored in the image storage device (120), and releases the masking of a specific person and provides it to the outside.
영상 처리장치(130) 역시, 영상 감시장치(110) 및 영상 저장장치(120)와 로컬영역 내에서 로컬영역 연결될 수 있다. 또는, 영상 처리장치(130)는 외부의 공간에서 영상 저장장치(120)와 VPN(Virtual Private Network)으로 연결될 수 있다. 이에 따라, 영상 처리장치(130)는 보안을 유지한 채 영상 저장장치(120) 내 저장된 영상으로 접근할 수 있다. 이에, 영상 처리장치(130)는 영상 저장장치(120) 내 저장된 영상을 시청하거나, 영상을 조작할 수 있다.The image processing device (130) can also be connected to the image surveillance device (110) and the image storage device (120) within a local area. Alternatively, the image processing device (130) can be connected to the image storage device (120) in an external space through a VPN (Virtual Private Network). Accordingly, the image processing device (130) can access the image stored in the image storage device (120) while maintaining security. Accordingly, the image processing device (130) can view the image stored in the image storage device (120) or manipulate the image.
영상 처리징치(130)는 외부로부터 특정인에 대한 마스킹 해제 요청을 입력받을 수 있으며, 해당인의 마스킹을 해제하여 해당 영상을 외부로 제공한다. 범죄자에 대한 증거확보 등의 목적에 의해, 외부에서 영상 처리장치(130)로 특정인의 영상이 요청될 수 있다. 이에, 영상 처리장치(130)는 외부로부터 특정인의 이미지 또는 메타 데이터를 수신할 수 있으며, 수신된 특정인의 이미지로부터 특정인의 얼굴에 대한 메타 데이터를 분석한다. 영상 처리장치(130)는 영상 내 특정인의 메타 데이터를 검색하여, 영상 내에 특정인이 등장하는지 여부를 판단한다. 영상 내 특정인이 등장할 경우, 영상 처리장치(130)는 해당 인물의 마스킹을 해제하여 외부로 제공한다. 영상 처리장치(130)의 구체적인 구성은 도 3을 참조하여 후술한다.The image processing device (130) can receive an external request to unmask a specific person, unmask the person, and provide the corresponding image to the outside. For the purpose of securing evidence against a criminal, an image of a specific person can be requested from the outside to the image processing device (130). Accordingly, the image processing device (130) can receive an image or metadata of a specific person from the outside, and analyze metadata of the specific person's face from the received image of the specific person. The image processing device (130) searches for metadata of the specific person in the image and determines whether the specific person appears in the image. If the specific person appears in the image, the image processing device (130) unmasks the person and provides the image to the outside. The specific configuration of the image processing device (130) will be described later with reference to FIG. 3.
관제센터(140)는 영상 감시장치(110)로부터 알림을 받아 활동 장소 내 환자에 이상이 발생하였는지 등을 분석한다. 관제센터(140)는 영상 처리장치(130)로부터 촬영영상을 수신하여 출력한다. 이에, 관계자들은 관제센터(140)를 이용하여 각 활동장소 내 환자들이 온전히 지내고 있는지 판단할 수 있다. The control center (140) receives a notification from the video surveillance device (110) and analyzes whether there is an abnormality in the patients in the activity site. The control center (140) receives the captured images from the video processing device (130) and outputs them. Accordingly, the relevant personnel can use the control center (140) to determine whether the patients in each activity site are doing well.
도 1에는 요양시설 관제 시스템(100) 내 영상 저장장치(120)가 포함된 것으로 도시되어 있으나, 반드시 이에 한정되는 것은 아니다. 영상 저장장치(120) 없이, 영상 감시장치(110)와 영상 처리장치(130)가 VPN으로 연결되며 영상 및 데이터를 직접 송수신할 수 있다. Although Fig. 1 shows that the nursing facility control system (100) includes a video storage device (120), it is not necessarily limited thereto. Without the video storage device (120), the video surveillance device (110) and the video processing device (130) can be connected via VPN and directly transmit and receive video and data.
도 2는 본 발명의 제1 실시예에 따른 영상 감시장치의 구성을 도시한 도면이다.FIG. 2 is a drawing illustrating the configuration of a video surveillance device according to the first embodiment of the present invention.
도 2를 참조하면, 본 발명의 제1 실시예에 따른 영상 감시장치(110)는 촬영부(210), 대상 검출부(215), 마스킹부(220), 통신부(225), 이미지 색상 변환부(230), 명암값 균등화부(235), 픽셀값 변화도 산출부(240), 얼굴 이미지 인식부(245) 및 제어부(250)를 포함한다. 나아가, 영상 감시장치(110)는 모니터링부(255)를 더 포함할 수 있다.Referring to FIG. 2, the video surveillance device (110) according to the first embodiment of the present invention includes a photographing unit (210), a target detection unit (215), a masking unit (220), a communication unit (225), an image color conversion unit (230), a brightness value equalization unit (235), a pixel value change calculation unit (240), a face image recognition unit (245), and a control unit (250). In addition, the video surveillance device (110) may further include a monitoring unit (255).
촬영부(210)는 설치된 장소에서 자신이 촬영할 수 있는 범위 내를 지속적으로 촬영한다. 촬영부(210)는 고정된 상태에서 지속적으로 일정 범위를 촬영할 수도 있으며, 회전하며 지속적으로 일정 범위를 촬영할 수도 있다.The camera unit (210) continuously photographs the area within the range it can photograph from the installed location. The camera unit (210) can continuously photograph a certain range in a fixed state, or can rotate and continuously photograph a certain range.
대상 검출부(215)는 촬영부(210)가 촬영한 영상 내에서 검출 대상을 검출한다. 검출 대상은 객체일 수도 있고, 객체의 얼굴일 수도 있다. 대상 검출부(215)는 신속한 대상 검출을 위해, 객체를 검출하는 알고리즘 및 객체의 얼굴을 검출하는 알고리즘 모두를 이용할 수 있다. 또는, 대상 검출부(215)는 마스킹부(220)에 의해 선택된 어느 하나의 알고리즘을 이용할 수 있다. 즉, 대상 검출부(215)는 양 알고리즘을 모두 동작시키며 우선하여 검출된 대상을 검출할 수 있고, 어느 하나의 알고리즘을 이용하여 객체 또는 객체의 얼굴만을 검출할 수도 있다. The target detection unit (215) detects a detection target in the image captured by the photographing unit (210). The detection target may be an object or a face of an object. The target detection unit (215) may use both an algorithm for detecting an object and an algorithm for detecting a face of an object for rapid target detection. Alternatively, the target detection unit (215) may use one algorithm selected by the masking unit (220). That is, the target detection unit (215) may operate both algorithms and detect a detected object with priority, or may use one algorithm to detect only an object or a face of an object.
대상 검출부(215)는 다음의 과정으로 객체를 검출할 수 있다. 대상 검출부(215)는 영상 내에서 픽셀값의 변화를 토대로 객체를 검출한다. 사람의 경우, 움직임은 반드시 존재하게 된다. 이동하는 것 뿐만 아니라 앉아있거나 가만히 서 있는 경우라도, 눈꺼풀 등 신체 일부라도 움직임은 반드시 존재하게 된다. 대상 검출부(215)는 영상(특정 시간 대의 프레임과 해당 시간 이후의 프레임 간)에 있어, 특정 객체에 픽셀값의 변화가 존재하는지 여부로 1차적으로 객체를 검출한다.The target detection unit (215) can detect an object through the following process. The target detection unit (215) detects an object based on changes in pixel values within an image. In the case of a person, movement is inevitable. Movement is inevitable not only when moving, but also when sitting or standing still, even when a body part such as an eyelid is moving. The target detection unit (215) primarily detects an object based on whether there is a change in pixel values for a specific object in an image (between a frame at a specific time and a frame after that time).
다만, 영상 내에서 픽셀값의 변화가 존재한다고 객체가 모두 사람이라는 보장은 존재하지 않는다. 예를 들어, 식물이 바람에 의해 움직이는 경우도 존재할 수 있고, 동물일 수도 있다. 이에, 대상 검출부(215)는 검출한 객체의 픽셀값의 분포를 추가적으로 확인한다. 통상적으로, 인간의 픽셀분포는 인종, 연령 성별에 무관하게 일정한 경향성을 가지며, 이는 명백하게 식물 및 동물과 차이를 갖는다. 이에 따라, 대상 검출부(215)는 픽셀값의 변화가 일부라도 존재하는지 여부 및 픽셀값의 분포가 사람의 형태를 갖는지 여부로 객체를 검출한다.However, there is no guarantee that all objects are people just because there is a change in pixel values in the image. For example, there may be cases where plants move due to the wind, or they may be animals. Accordingly, the object detection unit (215) additionally checks the distribution of pixel values of the detected object. Typically, the pixel distribution of humans has a certain tendency regardless of race, age, and gender, and this is clearly different from plants and animals. Accordingly, the object detection unit (215) detects objects based on whether there is even a small change in pixel values and whether the distribution of pixel values has a human shape.
이때, 대상 검출부(215)는 영상 내에서 사람의 픽셀값을 입력값으로 하고, 영상 내 객체가 사람인지 여부를 출력값으로 하여 기 설정된 학습모델로 학습한 학습모델을 이용하여 사람인지 여부를 검출할 수 있다. 대표적인 학습모델의 예로서, CNN(Convolutional Neural Networks)이 이용될 수 있다. CNN은 전술한 입력값과 출력값을 토대로 다양한 이미지에 대해 학습을 진행한다. 대상 검출부(215)는 학습된 학습모델을 이용하여, 픽셀값의 분포를 토대로 검출된 객체가 사람인지 여부를 추론(Inference)할 수 있다.At this time, the target detection unit (215) can detect whether the object in the image is a person by using a learning model learned with a preset learning model, with the pixel value of the person as an input value and whether the object in the image is a person as an output value. As an example of a representative learning model, CNN (Convolutional Neural Networks) can be used. CNN performs learning on various images based on the input and output values described above. The target detection unit (215) can infer (Inference) whether the detected object is a person based on the distribution of pixel values using the learned learning model.
대상 검출부(215)는 다음의 과정으로 객체의 얼굴을 직접 검출할 수 있다. 입력값을 이미지 또는 영상으로, 출력값을 영상 내 객체의 얼굴로 하여, 수많은 학습 데이터를 CNN 등의 학습모델로 학습이 진행될 수 있다. 대상 검출부(215)는 이처럼 학습이 진행된 인공지능 모델 또는 머신러닝 모델을 포함하여, 영상 내에서 객체의 얼굴을 직접 검출할 수 있다.The target detection unit (215) can directly detect the face of an object through the following process. With the input value as an image or video and the output value as the face of an object in the video, numerous learning data can be trained using a learning model such as CNN. The target detection unit (215) can directly detect the face of an object in the video, including an artificial intelligence model or machine learning model that has been trained in this way.
추가적으로, 대상 검출부(215)는 대상을 검출한 후, 해당 대상의 픽셀의 변화를 분석하여 대상의 움직임을 분석할 수 있다. 대상 검출부(215)는 검출한 대상에 대해 픽셀값의 변화를 벡터로서 분석할 수 있다. 대상 검출부(215)는 검출한 대상 내에서 특정 픽셀이 단위 시간 동안 얼마만큼 이동하였는지를 토대로 대상의 속도를 분석할 수 있다. 대상 검출부(215)는 분석한 대상의 속도를 마스킹부(220)로 전달할수 있다.Additionally, the target detection unit (215) can analyze the movement of the target by analyzing the change in the pixels of the target after detecting the target. The target detection unit (215) can analyze the change in the pixel value of the detected target as a vector. The target detection unit (215) can analyze the speed of the target based on how much a specific pixel in the detected target has moved per unit time. The target detection unit (215) can transmit the speed of the analyzed target to the masking unit (220).
마스킹부(220)는 대상 검출부(215)의 검출결과로부터 검출된 객체 또는 검출된 객체의 얼굴에 마스킹을 수행한다. 마스킹부(220)는 신속성을 확보하기 위해 대상 검출부(215)가 우선하여 검출한 대상에 대해 마스킹을 수행할 수도 있다. 또는, 마스킹부(220)는 편의성을 향상시기 위해 대상 검출부(215)가 객체 또는 객체의 얼굴 중 어느 하나를 선택적으로 검출하도록 할 수 있으며, 대상 검출부(215)가 검출한 대상에 마스킹을 수행할 수 있다.The masking unit (220) performs masking on an object detected from the detection result of the target detection unit (215) or on the face of the detected object. In order to secure speed, the masking unit (220) may perform masking on an object detected by the target detection unit (215) with priority. Alternatively, the masking unit (220) may allow the target detection unit (215) to selectively detect either the object or the face of the object in order to improve convenience, and may perform masking on an object detected by the target detection unit (215).
마스킹부(220)는 대상 검출부(215)가 검출한 객체에 마스킹을 수행한다. 이때, 객체가 우선하여 검출된 경우, 마스킹부(220)는 신속한 마스킹을 진행하기 위해 객체 내 얼굴을 인식하여 얼굴에만 마스킹을 수행하는 것이 아니라, 검출된 객체의 머리방향의 끝단에 대해 기 설정된 면적 만큼을 마스킹한다. 여기서, 기 설정된 면적은 검출된 객체의 전체 길이의 기 설정된 비율만큼의 길이 및 검출된 객체의 폭과 동일하거나 그보다 큰 폭의 곱으로 결정된다. 예를 들어, 인간의 신장과 머리의 크기간 비율을 고려하여, 마스킹부(220)는 검출된 객체의 전체 길이의 1/10 내지 1/6 에 해당하는 길이와 검출된 객체의 폭과 동일하거나 그보다 큰 폭을 갖는 마스킹 영역을 형성하여, 검출된 객체의 머리방향의 끝단에 배치시킨다. 이에 따라, 마스킹부(220)는 실시간 성을 확보하면서도 모든 객체의 얼굴에 마스킹을 진행할 수 있다. 영상 내 모든 객체들의 머리(얼굴) 부위에 마스킹이 진행된다. The masking unit (220) performs masking on the object detected by the target detection unit (215). At this time, if the object is detected first, the masking unit (220) recognizes a face within the object in order to perform rapid masking, and performs masking not only on the face, but also masks an area equal to a preset area at the end in the direction of the head of the detected object. Here, the preset area is determined as the product of a length equal to a preset ratio of the total length of the detected object and a width equal to or greater than the width of the detected object. For example, considering the ratio between the height and head size of a human, the masking unit (220) forms a masking area having a length corresponding to 1/10 to 1/6 of the total length of the detected object and a width equal to or greater than the width of the detected object, and places it at the end in the direction of the head of the detected object. Accordingly, the masking unit (220) can perform masking on the faces of all objects while ensuring real-time performance. Masking is performed on the head (face) area of all objects in the video.
이때, 마스킹을 무분별하게 객체의 비율만큼 수행할 경우, 다음과 같은 문제가 발생할 수 있다. 예를 들어, 앉아있는 성인과 서있는 아이는 전체 (높이방향으로의) 길이는 유사할 수 있다. 그러나 성인과 아이의 머리의 크기는 상이하기 때문에, 무작정 비율대로 마스킹 영역을 형성할 경우, 앉아있는 성인의 머리에는 온전히 마스킹이 진행되지 못할 수 있다. 이에 따라, 마스킹부(220)는 검출된 객체의 높이 방향으로의 길이가 기 설정된 기준치를 초과하는지 여부를 판단한다. 여기서, 기 설정된 기준치는 성인 남성의 앉은키의 평균치일 수 있다. 검출된 객체의 높이 방향으로의 길이가 기 설정된 기준치를 초과하는 경우, 마스킹부(220)는 객체를 전체 길이의 기 설정된 비율만큼 마스킹한다. 반대로, 검출된 객체의 높이 방향으로의 길이가 기 설정된 기준치를 초과하지 않는 경우, 마스킹부(220)는 기 설정된 비율보다 큰 비율로서 객체를 마스킹한다. 예를 들어, 기 설정된 비율이 검출된 객체의 전체 길이의 1/10 내지 1/6일 경우, 마스킹부(220)는 전술한 상황에서 객체의 전체 길이의 1/4 내지 1/2만큼 마스킹을 수행한다. 이에 따라, 마스킹부(220)는 어떠한 상황이나 자세에 있는 객체라도 온전히 머리(얼굴)를 마스킹할 수 있다.At this time, if masking is performed indiscriminately according to the ratio of the object, the following problem may occur. For example, a sitting adult and a standing child may have similar overall (height-wise) lengths. However, since the sizes of the heads of an adult and a child are different, if a masking area is formed indiscriminately according to the ratio, masking may not be performed completely on the head of a sitting adult. Accordingly, the masking unit (220) determines whether the height-wise length of the detected object exceeds a preset reference value. Here, the preset reference value may be the average sitting height of an adult male. If the height-wise length of the detected object exceeds the preset reference value, the masking unit (220) masks the object by a preset ratio of the overall length. Conversely, if the height-wise length of the detected object does not exceed the preset reference value, the masking unit (220) masks the object by a ratio greater than the preset ratio. For example, if the preset ratio is 1/10 to 1/6 of the total length of the detected object, the masking unit (220) performs masking for 1/4 to 1/2 of the total length of the object in the aforementioned situation. Accordingly, the masking unit (220) can completely mask the head (face) of the object in any situation or posture.
한편, 마스킹부(220)는 검출된 객체의 얼굴을 마스킹한다. 마스킹부(220)는 검출된 객체의 얼굴과 동일한 면적만큼을 마스킹하는 것이 아니라, 기 설정된 면적을 갖는 마스킹 박스를 객체의 얼굴에 씌우는 형태로 마스킹을 진행한다. 기 설정된 면적은 통상적으로 사람이 가질 수 있는 얼굴의 크기에 기 설정된 비율 이상 큰 면적을 의미한다. 이처럼, 마스킹부(220)는 실시간성을 확보하고자, 검출된 객체의 얼굴에 기 설정된 면적을 갖는 마스킹 박스를 씌움으로써 객체의 얼굴에 마스킹을 진행한다.Meanwhile, the masking unit (220) masks the face of the detected object. The masking unit (220) does not mask an area equal to the face of the detected object, but masks the face of the object by covering it with a masking box having a preset area. The preset area means an area that is larger than a preset ratio of the size of a face that a person can typically have. In this way, the masking unit (220) masks the face of the object by covering the face of the detected object with a masking box having a preset area in order to secure real-time performance.
마스킹부(220)는 대상 검출부(215)로부터 수신한 대상의 속도 정보를 토대로, 대상의 이동경로를 예측하여 대상을 지속적으로 마스킹할 수 있다. 대상의 속도에 따라 대상의 이동경로가 예측될 수 있다. 이에, 마스킹부(220)는 객체의 움직임에 따라 마스킹 영역을 함께 이동시키며, 지속적으로 각 대상들을 영상 내에서 마스킹할 수 있다.The masking unit (220) can continuously mask the target by predicting the target's movement path based on the target's speed information received from the target detection unit (215). The target's movement path can be predicted based on the target's speed. Accordingly, the masking unit (220) can continuously mask each target within the image by moving the masking area together with the object's movement.
통신부(225)는 촬영부(210)의 촬영영상, 마스킹부(220)의 마스킹영상 및 후술할 얼굴 이미지 인식부(245)에서 인식된 얼굴의 메타 데이터를 영상 저장장치(120)로 전송한다. The communication unit (225) transmits the captured image of the shooting unit (210), the masking image of the masking unit (220), and the metadata of the face recognized by the face image recognition unit (245) described later to the image storage device (120).
이미지 색상 변환부(230)는 원본 영상의 색상을 흑백으로 변환한다. 이미지 처리에 있어 컬러 영샹은 과도하게 많은 용량을 차지할 수 있다. 이러한 문제를 해소하고자, 이미지 색상 변환부(230)는 원본 영상의 색상을 흑백으로 변환한다.The image color conversion unit (230) converts the colors of the original image into black and white. In image processing, color images can take up excessive capacity. To solve this problem, the image color conversion unit (230) converts the colors of the original image into black and white.
명암값 균등화부(235)는 흑백으로 변환된 이미지의 명암값(밝기값)을 균등화시킨다. 경우에 따라, 이미지는 이미지 자체로서 상대적으로 (명암에 있어) 어두울 수도 있고, 상대적으로 밝을 수도 있다. 추후, 이미지 내 얼굴 ID의 비교 과정에 있어 결과가 보다 정확해질 수 있도록, 명암값 균등화부는 흑백으로 변환된 이미지의 명암값을 균등화시킨다. 이에 따라, 모든 영상의 명암값이 일정할 수 있도록 한다. The brightness equalization unit (235) equalizes the brightness values (brightness values) of the image converted to black and white. In some cases, the image itself may be relatively dark (in terms of brightness) or relatively bright. In order to make the results more accurate in the process of comparing face IDs within the image in the future, the brightness equalization unit equalizes the brightness values of the image converted to black and white. Accordingly, the brightness values of all images can be made constant.
픽셀값 변화도 산출부(240)는 이미지 내 픽셀값의 변화도를 산출한다. 객체(사람)의 얼굴 윤곽이나 이목구비의 형태에 따라 이미지 내에서 픽셀값의 변화는 달라진다. 픽셀값 변화도 산출부(240)는 명암값이 균등해진 이미지 내 픽셀값의 변화도를 산출한다. The pixel value change calculation unit (240) calculates the change in pixel values within the image. The change in pixel values within the image varies depending on the shape of the facial contour or facial features of the object (person). The pixel value change calculation unit (240) calculates the change in pixel values within the image where the brightness values are equalized.
이때, 픽셀값 변화도 산출부(240)는 이미지를 블록별로 분해할 수 있으며, 블록별 픽셀값 변화도를 산출할 수 있다. 픽셀값 변화도 산출부(240)는 각 블록별, 특히, 인접한 블록 별 픽셀값 변화도가 어떠한지를 분석한다. At this time, the pixel value change calculation unit (240) can decompose the image into blocks and calculate the pixel value change for each block. The pixel value change calculation unit (240) analyzes the pixel value change for each block, especially for adjacent blocks.
얼굴 이미지 인식부(245)는 이미지 내 블록 별 픽셀값 변화도를 토대로 각 개개인의 얼굴을 인식하여, 이들에 각각 얼굴 ID를 부여한다.The facial image recognition unit (245) recognizes each individual's face based on the change in pixel value for each block within the image and assigns a face ID to each of them.
얼굴 이미지 인식부(245)는 이미지 내 블록 별 픽셀값 변화도를 객체(사람)에서 얼굴의 위치를 인식할 수 있다. 얼굴 이미지 인식부(245)는 이미지 내 각 객체들에 있어 얼굴을 인식하여, 이들 각각의 얼굴에 서로 다른 ID를 부여한다. 얼굴 이미지 인식부(245)는 개개인의 서로 다른 얼굴에 서로 다른 ID를 부여함에 따라, 특정인의 얼굴을 ID로 식별하고 관리할 수 있도록 한다.The face image recognition unit (245) can recognize the position of a face in an object (person) based on the change in pixel values for each block in the image. The face image recognition unit (245) recognizes faces in each object in the image and assigns different IDs to each face. The face image recognition unit (245) assigns different IDs to different faces of each individual, thereby enabling the face of a specific person to be identified and managed by ID.
이때, 얼굴 이미지 인식부(245)는 관리의 용이성 및 영상에서의 검색을 원활히 하기 위해, 얼굴 이미지를 메타 데이터화할 수 있다. 얼굴 이미지 인식부(245)는 이미지 내 각 블록별 픽셀값 변화 등 객체의 이미지 내 다양한 파라미터를 이용하여, 각 얼굴 이미지에 대해 특정 얼굴 ID임을 인식하고 검출할 수 있도록 하는 메타 데이터를 생성한다. At this time, the face image recognition unit (245) may convert the face image into metadata to facilitate management and search in the image. The face image recognition unit (245) uses various parameters in the image of the object, such as changes in pixel values for each block in the image, to generate metadata that allows for recognizing and detecting a specific face ID for each face image.
영상 감시장치(110)는 전술한 바와 같이, 어차피 얼굴 이미지를 인식함에 있어 흑백으로 변환된 이미지 내에서 이를 인식한다. 이에 따라, 영상 감시장치(110)는 태양광 또는 조명이 비추는 상황에서는 보다 원활히 객체 또는 객체의 얼굴을 검출할 수 있으나, 밤 또는 새벽시간과 같이 태양광 및 조명이 비추는 상황이 아니더라도 어려움없이 객체 또는 객체의 얼굴을 검출할 수 있다.As described above, the video surveillance device (110) recognizes a face image in an image converted to black and white anyway. Accordingly, the video surveillance device (110) can detect an object or an object's face more smoothly in a situation where sunlight or light is shining, but can detect an object or an object's face without difficulty even in a situation where sunlight or light is not shining, such as at night or in the early morning.
제어부(250)는 각 구성의 전술한 동작을 제어한다.The control unit (250) controls the aforementioned operations of each configuration.
제어부(250)는 원본 영상, 마스킹된 영상 및 메타 데이터를 영상 저장장치(120)로 전송하도록 통신부(225)를 제어함에 있어, 원본 영상, 마스킹된 영상 및 메타 데이터를 암호화하여 전송할 수 있다. 영상 저장장치(120)는 암호화된 데이터들을 암호화된 채로 저장해둘 수 있으며, 영상 처리장치(130)가 영상의 시청 또는 조작을 위해 접근하는 경우 복호화를 진행할 수 있다.The control unit (250) controls the communication unit (225) to transmit the original image, the masked image, and the metadata to the image storage device (120), and may encrypt and transmit the original image, the masked image, and the metadata. The image storage device (120) may store the encrypted data in an encrypted state, and may perform decryption when the image processing device (130) accesses the image for viewing or manipulating the image.
모니터링부(255)는 제어부(250)의 제어를 받아 원본 영상 또는 마스킹된 영상을 출력한다. 모니터링부(255)는 관계자 등이 촬영부(210)가 촬영한 영상 또는 마스킹부(220)에 의해 마스킹된 영상을 현장에서 볼 수 있도록 한다.The monitoring unit (255) outputs the original image or the masked image under the control of the control unit (250). The monitoring unit (255) allows the relevant persons to view the image captured by the shooting unit (210) or the image masked by the masking unit (220) on site.
도 3은 본 발명의 일 실시예에 따른 영상 처리장치의 구성을 도시한 도면이다.FIG. 3 is a diagram illustrating the configuration of an image processing device according to one embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 따른 영상 처리장치(130)는 통신부(310), 메모리부(320), 입력부(330), 마스킹 해제부(340) 및 제어부(350)를 포함한다. 나아가, 영상 처리장치(130)는 모니터링부(360)를 더 포함할 수 있다.Referring to FIG. 3, an image processing device (130) according to one embodiment of the present invention includes a communication unit (310), a memory unit (320), an input unit (330), a masking release unit (340), and a control unit (350). In addition, the image processing device (130) may further include a monitoring unit (360).
통신부(310)는 영상 감시장치(110)와 통신하며, 영상 감시장치(110)로부터 이상 발생여부 또는 외부인의 침입 여부를 수신한다. 통신부(310)는 제어부(350)의 제어에 따라, 활동 장소에의 이상 발생여부 또는 외부인의 침입 여부를 관제센터(140)로 전송한다. The communication unit (310) communicates with the video surveillance device (110) and receives information on whether an abnormality has occurred or whether an outsider has intruded from the video surveillance device (110). Under the control of the control unit (350), the communication unit (310) transmits information on whether an abnormality has occurred or whether an outsider has intruded at the activity site to the control center (140).
통신부(310)는 마스킹 해제부(340)에 의해 마스킹이 해제된 영상을 외부로 전송한다,The communication unit (310) transmits the image unmasked by the masking unit (340) to the outside.
통신부(310)는 영상 저장장치(120)와 VPN 통신하며, 영상 저장장치(120)에 저장된 영상으로 접근하거나 영상을 수신한다. 또한, 통신부(310)는 영상 저장장치(120) 내 저장된 메타 데이터를 수신한다. The communication unit (310) communicates with the video storage device (120) via VPN and accesses or receives videos stored in the video storage device (120). In addition, the communication unit (310) receives metadata stored in the video storage device (120).
메모리부(320)는 통신부(310)가 영상 저장장치(120)로부터 영상 및 메타 데이터를 수신하는 경우, 이를 저장한다.The memory unit (320) stores images and metadata received from the image storage device (120) by the communication unit (310).
입력부(330)는 외부로부터 마스킹 해제를 위한 특정인의 이미지 또는 메타 데이터를 입력 받는다. 입력부(330)는 주로 마스킹 해제를 위한 특정인의 메타 데이터를 입력받으며, 입력받은 메타 데이터를 마스킹 해제부(340)로 전달한다. The input unit (330) receives an image or metadata of a specific person for unmasking from the outside. The input unit (330) mainly receives metadata of a specific person for unmasking, and transmits the received metadata to the unmasking unit (340).
마스킹 해제부(340)는 입력부(303)에서 입력된 특정인의 마스킹을 해제한다. 마스킹 해제부(340)는 외부로부터 수신한 특정인의 메타 데이터를 메모리부(320) 내 저장된, 영상 내 등장하는 각 사람들의 메타 데이터와 비교한다. 해당 특정인이 영상 내 등장하는지를 확인하기 위해, 마스킹 해제부(340)는 해당 특정인의 메타 데이터와 메모리부(320) 내 저장된 각 객체(사람)들의 메타 데이터를 비교한다. 메모리부(320) 내 해당 특정인의 메타 데이터가 저장되어 있다는 것은, 영상 내에 해당 특정인이 등장함을 의미한다. 이에, 마스킹 해제부(340)는 비교 결과를 토대로 해당 특정인이 영상 내 등장하는지 여부를 판단한다. 마스킹 해제부(340)는 비교 결과를 토대로, 영상 내에서 해당 특정인의 마스킹을 해제한다. 마스킹 해제부(340)의 영상 내 특정인의 마스킹 해제는 특정인의 마스킹만을 해제함으로써 진행될 수 있고, 원본 영상 내에서 특정인을 제외한 나머지 모든 인물을 마스킹함으로써 진행될 수도 있다.The unmasking unit (340) unmasks a specific person input from the input unit (303). The unmasking unit (340) compares the metadata of the specific person received from the outside with the metadata of each person appearing in the video, stored in the memory unit (320). In order to confirm whether the specific person appears in the video, the unmasking unit (340) compares the metadata of the specific person with the metadata of each object (person) stored in the memory unit (320). The fact that the metadata of the specific person is stored in the memory unit (320) means that the specific person appears in the video. Accordingly, the unmasking unit (340) determines whether the specific person appears in the video based on the comparison result. The unmasking unit (340) unmasks the specific person in the video based on the comparison result. Unmasking a specific person in the video of the unmasking unit (340) can be carried out by unmasking only the specific person, or by masking all people except the specific person in the original video.
제어부(350)는 영상 처리장치(130) 내 각 구성의 동작을 제어한다. The control unit (350) controls the operation of each component in the image processing device (130).
모니터링부(360)는 제어부(350)의 제어를 받아 원본 영상 또는 마스킹된 영상을 출력할 수 있다.The monitoring unit (360) can output an original image or a masked image under the control of the control unit (350).
도 4는 본 발명의 일 실시예에 따른 영상 감시장치가 실시간으로 마스킹하는 방법을 도시한 순서도이다. FIG. 4 is a flowchart illustrating a method for real-time masking by a video surveillance device according to one embodiment of the present invention.
대상 검출부(215)는 촬영부(210)가 촬영한 영상 내에서 대상을 검출한다(S410).The target detection unit (215) detects a target in an image captured by the shooting unit (210) (S410).
마스킹부(220)는 우선하여 검출된 대상이 객체인지 여부를 판단한다(S420).The masking unit (220) first determines whether the detected object is an object (S420).
우선하여 검출된 대상이 객체인 경우, 마스킹부(220)는 객체의 일 끝단으로부터 기 설정된 면적만큼을 마스킹한다(S430). First, if the detected target is an object, the masking unit (220) masks a preset area from one end of the object (S430).
우선하여 검출된 대상이 객체의 얼굴인 경우, 마스킹부(220)는 검출된 얼굴을 기 설정된 면적을 갖는 마스킹 박스로 마스킹한다(S440).First, if the detected object is a face of an object, the masking unit (220) masks the detected face with a masking box having a preset area (S440).
대상 검출부(215)는 검출된 대상이 움직이고 있는지 여부를 판단한다(S450).The target detection unit (215) determines whether the detected target is moving (S450).
대상 검출부(215)는 픽셀 변화를 판단하여 대상의 속도를 판단한다(S460).The target detection unit (215) determines the speed of the target by judging pixel changes (S460).
마스킹부(220)는 판단된 속도를 토대로, 마스킹 영역을 이동시킨다(S470). 이때, 마스킹부(220)는 마스킹 영역의 면적을 의도적으로 증가시킬 수 있다.The masking unit (220) moves the masking area based on the determined speed (S470). At this time, the masking unit (220) can intentionally increase the area of the masking area.
통신부(225)는 마스킹된 영상 및 원본 영상을 영상 저장장치(120)로 송부한다(S480).The communication unit (225) sends the masked image and the original image to the image storage device (120) (S480).
다만, 검출된 대상이 객체인지 여부 판단(S420)없이, 마스킹부(220)는 객체 및 객체의 얼굴 중 어느 하나를 선택하여, 선택된 대상에 대해 마스킹(S430 과정 또는 S440 과정)을 바로 수행할 수 있다. However, without determining whether the detected target is an object (S420), the masking unit (220) can select either the object or the face of the object and immediately perform masking (S430 process or S440 process) on the selected target.
도 5는 본 발명의 일 실시예에 따른 영상 처리장치가 영상 내 얼굴을 인식하는 방법을 도시한 순서도이다.FIG. 5 is a flowchart illustrating a method for an image processing device to recognize a face in an image according to one embodiment of the present invention.
대상 검출부(215)는 원본 영상 내에서 대상을 검출한다(S510).The target detection unit (215) detects a target in the original image (S510).
이미지 색상 변환부(230)는 영상의 색상을 흑백으로 변환한다(S520).The image color conversion unit (230) converts the color of the image to black and white (S520).
명암값 균등화부(235)는 변환된 이미지의 명암값을 균등화한다(S530).The brightness equalization unit (235) equalizes the brightness values of the converted image (S530).
픽셀값 변화도 산출부(240)는 균등화된 이미지를 블록별로 분해하여 블록별 픽셀값 변화도를 산출한다(S540).The pixel value change calculation unit (240) decomposes the equalized image into blocks and calculates the pixel value change for each block (S540).
얼굴 이미지 인식부(245)는 산출된 값을 토대로 개개인의 얼굴을 인식하며 메타데이터화한다(S550).The facial image recognition unit (245) recognizes each individual's face based on the generated value and converts it into metadata (S550).
도 6은 본 발명의 일 실시예에 따른 영상 처리장치가 영상 내에서 특정 인물에 수행된 마스킹을 해제하는 방법을 도시한 순서도이다.FIG. 6 is a flowchart illustrating a method for an image processing device according to one embodiment of the present invention to remove masking performed on a specific person in an image.
입력부(330)는 마스킹 해제를 위한 인물의 메타데이터를 입력받는다(S610).The input unit (330) receives metadata of a person for unmasking (S610).
마스킹 해제부(340)는 저장된 메타데이터 내 입력받은 인물의 메타데이터가 존재하는지 여부를 판단한다(S620).The masking release unit (340) determines whether metadata of the input person exists in the stored metadata (S620).
저장된 메타데이터 내 입력받은 인물의 메타데이터가 존재하는 경우, 마스킹 해제부(340)는 저장된 마스킹 영상 내 해당 인물의 메타데이터를 검색한다(S630).If metadata of the input person exists in the saved metadata, the masking unmasking unit (340) searches for metadata of the corresponding person in the saved masked image (S630).
마스킹 해제부(340)는 해당 인물의 마스킹을 해제한다(S640).The masking release unit (340) releases the mask of the person in question (S640).
통신부(310)는 해당 인물의 마스킹이 해제된 마스킹 영상을 송부한다(S650).The communication unit (310) sends a masked video of the person in question with the masking removed (S650).
도 7은 본 발명의 제2 실시예에 따른 영상 감시장치의 구성을 도시한 도면이다.FIG. 7 is a diagram illustrating the configuration of a video surveillance device according to the second embodiment of the present invention.
도 7을 참조하면, 본 발명의 제2 실시예에 따른 영상 감시장치(110)는 본 발명의 제1 실시예에 따른 영상 감시장치(110) 내 구성에서 대상 검출부(215) 대신 객체 검출부(710) 및 얼굴 검출부(720)를 포함한다. 본 발명의 제2 실시예에 따른 영상 감시장치(110) 내 촬영부(210), 통신부(225), 이미지 색상 변환부(230), 명암값 균등화부(235), 픽셀값 변화도 산출부(240), 얼굴 이미지 인식부(245), 제어부(250) 및 모니터링부(255)는 본 발명의 제1 실시예에 따른 영상 감시장치(110) 내 그것들과 동일한 동작을 수행한다.Referring to FIG. 7, a video surveillance device (110) according to a second embodiment of the present invention includes an object detection unit (710) and a face detection unit (720) instead of the target detection unit (215) in the video surveillance device (110) according to the first embodiment of the present invention. The photographing unit (210), the communication unit (225), the image color conversion unit (230), the brightness value equalization unit (235), the pixel value change calculation unit (240), the face image recognition unit (245), the control unit (250), and the monitoring unit (255) in the video surveillance device (110) according to the second embodiment of the present invention perform the same operations as those in the video surveillance device (110) according to the first embodiment of the present invention.
객체 검출부(710)는 촬영부(210)가 촬영한 영상 내에서 대상 검출부(215)의 객체 검출 동작을 동일하게 수행한다. The object detection unit (710) performs the same object detection operation as the target detection unit (215) in the image captured by the shooting unit (210).
얼굴 검출부(720)는 촬영부(210)가 촬영한 영상 내에서 대상 검출부(215)의 객체의 얼굴 검출 동작을 동일하게 수행한다. The face detection unit (720) performs the same face detection operation of the object detection unit (215) in the image captured by the camera unit (210).
객체 검출부(710) 및 얼굴 검출부(720)는 서로 다른 구성으로 구현되어, 전술한 동작을 서로 병렬적으로 동작한다. The object detection unit (710) and the face detection unit (720) are implemented with different configurations and perform the above-described operations in parallel.
마스킹부(220)는 본 발명의 제1 실시예에 따른 영상 감시장치(110) 내 그것과 동일하게 마스킹을 수행한다. 이때, 마스킹부(220)는 객체 검출부(710) 및 얼굴 검출부(720) 중 먼저 자신이 검출하고자 하는 대상을 검출한 검출부로부터 검출결과를 인가받아 마스킹을 수행할 수 있다. 또는, 마스킹부(220)는 양 검출부(710, 720) 중 어느 하나를 선택하여 해당 검출부로부터 검출결과를 인가받아 마스킹을 수행할 수 있다.The masking unit (220) performs masking in the same manner as that in the video surveillance device (110) according to the first embodiment of the present invention. At this time, the masking unit (220) may perform masking by receiving a detection result from the detection unit that has first detected the target it wants to detect among the object detection unit (710) and the face detection unit (720). Alternatively, the masking unit (220) may select either of the two detection units (710, 720) and receive a detection result from the corresponding detection unit to perform masking.
도 4 내지 6에서는 각 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 각 도면에 기재된 순서를 변경하여 실행하거나 각 과정 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 4 내지 6은 시계열적인 순서로 한정되는 것은 아니다.Although each process is described as being executed sequentially in FIGS. 4 to 6, this is merely an illustrative description of the technical idea of one embodiment of the present invention. In other words, a person having ordinary skill in the art to which one embodiment of the present invention belongs may change the order described in each drawing without departing from the essential characteristics of one embodiment of the present invention, or may modify and modify and apply various modifications and variations such as executing one or more of each process in parallel. Therefore, FIGS. 4 to 6 are not limited to a chronological order.
한편, 도 4 내지 6에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등) 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the processes illustrated in FIGS. 4 to 6 can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. That is, the computer-readable recording medium includes storage media such as magnetic storage media (e.g., ROM, floppy disk, hard disk, etc.) and optical reading media (e.g., CD-ROM, DVD, etc.). In addition, the computer-readable recording medium can be distributed to computer systems connected to a network, so that the computer-readable codes can be stored and executed in a distributed manner.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative description of the technical idea of the present embodiment, and those with ordinary skill in the art to which the present embodiment belongs may make various modifications and variations without departing from the essential characteristics of the present embodiment. Therefore, the present embodiments are not intended to limit the technical idea of the present embodiment, but to explain it, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The protection scope of the present embodiment should be interpreted by the following claims, and all technical ideas within a scope equivalent thereto should be interpreted as being included in the scope of the rights of the present embodiment.
100: 요양시설 관제 시스템
110: 영상 감시장치
120: 영상 저장장치
130: 영상 처리장치
140: 관제 센터
150: 침대
210: 촬영부
215: 대상 검출부
220: 마스킹부
225, 310: 통신부
230: 이미지 색상 변환부
235: 명암값 균등화부
240: 픽셀값 변화도 산출부
245: 얼굴 이미지 인식부
250, 350: 제어부
255, 360: 모니터링부
320: 메모리부
330: 입력부
340: 마스킹 해제부
710: 객체 검출부
720: 얼굴 검출부100: Nursing home control system
110: Video surveillance device
120: Video storage device
130: Image processing device
140: Control Center
150: Bed
210: Filming Department
215: Target detection unit
220: Masking Department
225, 310: Communications Department
230: Image color conversion section
235: Lightness equalization section
240: Pixel value change calculation section
245: Facial image recognition unit
250, 350: Control Unit
255, 360: Monitoring Department
320: Memory section
330: Input section
340: Unmasking section
710: Object detection unit
720: Face detection unit
Claims (9)
상기 영상 감시장치가 촬영한 영상 내 특정인의 마스킹을 해제하여 외부로 제공하는 영상 처리장치를 포함하며,
상기 영상 감시장치는,
촬영부;
객체를 검출하는 알고리즘 및 상기 객체의 얼굴을 검출하는 알고리즘 모두를 이용하며 상기 촬영부가 촬영한 영상 내에서 객체 또는 객체의 얼굴 중 우선하여 검출하거나, 객체를 검출하는 알고리즘 및 상기 객체의 얼굴을 검출하는 알고리즘 어느 하나만을 이용하여 객체 또는 객체의 얼굴을 검출하는 대상 검출부; 및
상기 대상 검출부에 의해 검출된 객체 또는 객체의 얼굴에 마스킹을 진행하는 마스킹부를 포함하며,
상기 마스킹부는 상기 대상 검출부에 의해 객체가 우선하여 검출된 경우, 검출된 객체의 머리방향의 끝단에 대해 기 설정된 제1 면적만큼 마스킹하며,
상기 마스킹부는 상기 대상 검출부에 의해 객체의 얼굴이 우선하여 검출된 경우, 기 설정된 제2 면적을 갖는 마스킹 박스를 객체의 얼굴에 씌우는 형태로 마스킹하며,
상기 기 설정된 제1 면적은 검출된 객체의 전체 길이의 기 설정된 비율만큼의 길이 및 검출된 객체의 폭 이상의 수치의 곱으로 결정되는 것을 특징으로 하는 관제 시스템.A video surveillance device that captures the surroundings, detects an object or the face of an object in the video, and masks the face area of the object; and
Includes an image processing device that removes the masking of a specific person in the image captured by the above image surveillance device and provides it to the outside.
The above video surveillance device,
filming department;
A target detection unit that detects an object or the face of an object by using both an algorithm for detecting an object and an algorithm for detecting a face of the object, and preferentially detects an object or the face of the object in an image captured by the camera unit, or detects an object or the face of the object by using only one of the algorithm for detecting an object and the algorithm for detecting a face of the object; and
It includes a masking unit that masks an object or the face of an object detected by the above target detection unit,
The above masking unit masks a preset first area of the end of the head direction of the detected object when the object is preferentially detected by the target detection unit.
The above masking unit masks the face of the object by covering it with a masking box having a preset second area when the face of the object is preferentially detected by the target detection unit.
A control system, characterized in that the above-described first area is determined as the product of a length equal to a preset ratio of the total length of the detected object and a numerical value greater than the width of the detected object.
상기 영상 처리장치는,
외부로부터 마스킹 해제를 위한 특정인의 이미지 또는 메타 데이터를 입력 받는 것을 특징으로 하는 관제 시스템.In the first paragraph,
The above image processing device,
A control system characterized by receiving an image or metadata of a specific person for unmasking from the outside.
상기 영상 처리장치는,
입력된 특정인의 마스킹을 해제하는 것을 특징으로 하는 관제 시스템.
In the second paragraph,
The above image processing device,
A control system characterized by unmasking a specific input person.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220068379 | 2022-06-03 | ||
KR1020220068379 | 2022-06-03 | ||
KR20220080504 | 2022-06-30 | ||
KR1020220080504 | 2022-06-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230168100A KR20230168100A (en) | 2023-12-12 |
KR102788241B1 true KR102788241B1 (en) | 2025-05-07 |
Family
ID=89159784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220142448A Active KR102788241B1 (en) | 2022-06-03 | 2022-10-31 | Nursing Facility Control System and Method for Protecting Privacy |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102788241B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101936802B1 (en) * | 2012-07-20 | 2019-01-09 | 한국전자통신연구원 | Apparatus and method for protecting privacy based on face recognition |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102090696B1 (en) * | 2018-04-16 | 2020-04-23 | 주식회사 아이에이 | Image receiving device, image reconstructing method thereof, method for image masking and reconstructing of image system |
-
2022
- 2022-10-31 KR KR1020220142448A patent/KR102788241B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101936802B1 (en) * | 2012-07-20 | 2019-01-09 | 한국전자통신연구원 | Apparatus and method for protecting privacy based on face recognition |
Also Published As
Publication number | Publication date |
---|---|
KR20230168100A (en) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102628904B1 (en) | Edge Computing Apparatus that can De-identify Personal Information in Real Time | |
KR101215948B1 (en) | Image information masking method of monitoring system based on face recognition and body information | |
CN105450983B (en) | Device for generating virtual panorama thumbnails | |
KR102647139B1 (en) | Apparatus and method for detecting abnormal behavior through deep learning-based image analysis | |
KR101164228B1 (en) | A security system and a method using multiplex biometrics of face and body | |
KR102851349B1 (en) | Video Monitoring Apparatus for Improving the Prevention Rate of Invasion of Privacy and the Detection Rate of Falls in Nursing Homes | |
US11869245B2 (en) | Monitoring device, monitoring system, method, computer program and machine-readable storage medium | |
US20250182488A1 (en) | Apparatus and method for surveillance | |
CN106572324A (en) | Energy-efficient smart monitoring device | |
KR102788241B1 (en) | Nursing Facility Control System and Method for Protecting Privacy | |
KR102788249B1 (en) | Artificial Intelligence Image Monitoring Apparatus for Minimizing Invasion of Privacy in Nursing Homes | |
KR102408567B1 (en) | Artificial Intelligence Image Processing Apparatus and Method for Real-Time Mosaicing of a Plurality of Objects in an Image. | |
CN118887615A (en) | A thermal power plant security device with artificial intelligence identity authentication | |
KR20220064476A (en) | Method of providing security monitoring chatbot service based on AI image autonomous sensor | |
KR20220064213A (en) | Program for operation of security monitoring device | |
KR102568495B1 (en) | Artificial Intelligence Camera Capable of Real-time Mosaicing Using Edge Computing Technology | |
KR102781016B1 (en) | Apparatus and method for detecting lost companion animals through re-identification | |
KR20220064485A (en) | Apparatus of providing security monitoring chatbot service | |
KR20220064241A (en) | Caption sensor apparatus for providing autonomous AI image sensor image analysis-based security monitoring service | |
KR20220064483A (en) | Recording media on which the security monitoring chatbot service program is recorded | |
KR102777996B1 (en) | Moving Object Imaging Apparatus and System for Detecting and Masking whether Objects Are Clustered | |
KR102841250B1 (en) | Moving Object Video Relay Apparatus that is Compatible with Heterogeneous Imaging Apparatus and Detects and Masks Crowding | |
JP3215758U (en) | Privacy protection security system | |
KR20250137308A (en) | Apparatus and method for surveillance | |
Abdullah et al. | A survey for fire detection intimation using artificial intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
P14-X000 | Amendment of ip right document requested |
St.27 status event code: A-5-5-P10-P14-nap-X000 |
|
PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 |