KR102866131B1 - Method for protecting information using camera module - Google Patents
Method for protecting information using camera moduleInfo
- Publication number
- KR102866131B1 KR102866131B1 KR1020240194507A KR20240194507A KR102866131B1 KR 102866131 B1 KR102866131 B1 KR 102866131B1 KR 1020240194507 A KR1020240194507 A KR 1020240194507A KR 20240194507 A KR20240194507 A KR 20240194507A KR 102866131 B1 KR102866131 B1 KR 102866131B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- action
- facial
- protection
- reference value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/82—Protecting input, output or interconnection devices
- G06F21/84—Protecting input, output or interconnection devices output devices, e.g. displays or monitors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Abstract
본 개시의 일 실시예에 따라, 컴퓨팅 장치에 의해 수행되는, 촬영 모듈을 활용하는 정보 보호 방법이 개시된다. 상기 방법은, 촬영 모듈을 활용하여 비주얼 데이터를 획득하는 단계; 사전 학습된 제 1 모델을 활용하여 상기 비주얼 데이터 내의 안면 데이터를 탐지하는 단계; 상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하는 단계; 상기 사전 학습된 제 1 모델 또는 사전 학습된 제 2 모델을 활용하여 탐지된 상기 안면 데이터와 안면 인식 데이터를 매칭하는 단계; 및 상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하는 단계를 포함하고, 상기 제 1 보호 동작 및 상기 제 2 보호 동작은, 단말의 화면에 표시되는 정보에 관한 시각적 제어 동작을 포함할 수 있다.According to one embodiment of the present disclosure, a method for protecting information utilizing a photographing module, performed by a computing device, is disclosed. The method comprises the steps of: acquiring visual data utilizing the photographing module; detecting facial data within the visual data utilizing a pre-learned first model; executing a first protection operation based on a result of the detection and a first threshold value; matching the detected facial data with facial recognition data utilizing the pre-learned first model or the pre-learned second model; and executing a second protection operation based on the result of the matching and a second threshold value, wherein the first protection operation and the second protection operation may include a visual control operation regarding information displayed on a screen of a terminal.
Description
본 개시는 촬영 모듈을 활용하는 정보 보호 방법에 관한 것으로써, 구체적으로 촬영 모듈을 활용하여 비주얼 데이터를 획득하고, 이를 통해 사용자를 감지하여 정보를 보호하는 방법에 관한 것이다.The present disclosure relates to a method for protecting information by utilizing a photographing module, and more specifically, to a method for protecting information by acquiring visual data by utilizing a photographing module and detecting a user through the data.
현대의 정보화 사회에서는 개인 정보의 중요성이 더욱 강조되고 있다. 특히, 컴퓨터나 노트북, 핸드폰 등의 단말에서 표시되는 정보들은 민감한 개인 정보를 포함하는 경우가 많다. 또한, 단말에서 표시되는 정보들은, 개인 정보가 아니더라도 업무에 관한 기밀 정보나, 특정 집단의 정보 같은 경우에도 노출이나 유출을 원하지 않는 정보를 포함하는 경우가 많다. 이러한 정보의 무단 노출이나 유출을 방지하기 위해 다양한 물리적, 방법론적 개인 정보 보호 기술들이 개발되고 있다. 예시적으로, 이 기술들은 단말의 화면 앞 사용자의 신원을 확인하거나, 화면 내 표시되는 정보를 안전하게 보호하는 데 중점을 두는 경우가 있다. In today's information-driven society, the importance of personal information is increasingly emphasized. In particular, information displayed on devices such as computers, laptops, and mobile phones often contains sensitive personal information. Furthermore, even if not personal information, the information displayed on devices often contains confidential work-related information or information about specific groups, information whose exposure or disclosure is undesirable. To prevent unauthorized exposure or leakage of such information, various physical and methodological privacy protection technologies are being developed. For example, these technologies often focus on verifying the identity of the user in front of the device screen or safely protecting the information displayed on the screen.
한국 등록특허 제2640357호(2024.02.20)는 안면 이미지의 색상값, 노출값 및 깊이값을 이용한 비대면 본인 인증 시스템의 제어 방법(control method of system for non-face-to-face identification using color, exposure and depth value of facial image)에 관하여 개시한다.Korean Patent No. 2640357 (February 20, 2024) discloses a control method of a system for non-face-to-face identification using color, exposure, and depth values of a facial image.
한편, 본 개시는 이상에서 살핀 기술적 배경에 적어도 기초하여 도출되었으나, 본 개시의 기술적 과제 또는 목적은, 이상에서 살핀 문제점 또는 단점을 해결하는 것에 한정되지는 않는다. 즉, 본 개시는, 이상에서 살핀 기술적 이슈(issue) 이외에도, 이하에서 설명할 내용과 관련된 다양한 기술적 이슈들을 커버(cover)할 수 있다.Meanwhile, while the present disclosure was derived at least based on the technical background discussed above, the technical task or purpose of the present disclosure is not limited to resolving the problems or shortcomings discussed above. That is, in addition to the technical issues discussed above, the present disclosure can cover various technical issues related to the content described below.
본 개시는 촬영 모듈을 활용하여, 정보를 보호하는 것을 목적으로 할 수 있다. 예시적으로, 단말에 표시되는 정보를 보호하기 위하여, 사용자의 신원을 인증하거나, 나아가 상기 인증의 결과를 기반으로 보호 동작을 수행하는 것을 목적으로 할 수 있다. 일례로, 단말에 표시되는 정보를 시각적으로 제어하여, 각 앱 내지 프로그램의 동작에 대한 간섭을 최소화하되, 화면에 표시되는 정보에 대한 보호 기능을 구현할 수 있다.The present disclosure may utilize a camera module to protect information. For example, to protect information displayed on a terminal, the purpose may be to authenticate the user's identity or, further, perform a protection operation based on the results of the authentication. For example, information displayed on a terminal can be visually controlled to minimize interference with the operation of each app or program, while still implementing a protection function for the information displayed on the screen.
또한, 본 개시는 이러한 정보 보호 방법을 다양한 모드에 따라 구현하여, 사용자의 상황, 의도 및 화면에 표시된 정보의 종류 등에 적합한 모드가 자동 내지 수동으로 실행되도록 할 수 있다.In addition, the present disclosure can implement such information protection methods in various modes so that a mode suitable for the user's situation, intention, and type of information displayed on the screen can be automatically or manually executed.
한편, 본 개시가 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 포함될 수 있다.Meanwhile, the technical task to be achieved by the present disclosure is not limited to the technical task mentioned above, and may include various technical tasks within a scope obvious to a person skilled in the art from the contents described below.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 촬영 모듈을 활용하는 정보 보호 방법이 개시된다. 상기 방법은, 촬영 모듈을 활용하여 비주얼 데이터를 획득하는 단계; 사전 학습된 제 1 모델을 활용하여 상기 비주얼 데이터 내의 안면 데이터를 탐지하는 단계; 상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하는 단계; 상기 사전 학습된 제 1 모델 또는 사전 학습된 제 2 모델을 활용하여 탐지된 상기 안면 데이터와 안면 인식 데이터를 매칭하는 단계; 및 상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하는 단계를 포함하고, 상기 제 1 보호 동작 및 상기 제 2 보호 동작은 단말의 화면에 표시되는 정보에 관한 시각적 제어 동작을 포함하는 것일 수 있다.According to one embodiment of the present disclosure for achieving the aforementioned task, a method for protecting information utilizing a photographing module is disclosed. The method comprises the steps of: acquiring visual data utilizing the photographing module; detecting facial data within the visual data utilizing a pre-learned first model; executing a first protection operation based on a result of the detection and a first threshold value; matching the detected facial data with facial recognition data utilizing the pre-learned first model or the pre-learned second model; and executing a second protection operation based on the result of the matching and a second threshold value. The first protection operation and the second protection operation may include a visual control operation regarding information displayed on a screen of a terminal.
일 실시예에 있어서, 상기 촬영 모듈을 활용하여 비주얼 데이터를 획득하는 단계는, 사전 설정된 시간 간격으로 반복 수행될 수 있다.In one embodiment, the step of acquiring visual data using the photographing module may be performed repeatedly at preset time intervals.
일 실시예에 있어서, 상기 촬영 모듈을 활용하여 비주얼 데이터를 획득하는 단계는, 실시간으로 수행될 수 있다.In one embodiment, the step of acquiring visual data using the photographing module can be performed in real time.
일 실시예에 있어서, 상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하는 단계는, 상기 탐지의 결과가 제 1 기준값에 미달하는 경우, 상기 제 1 보호 동작을 실행하는 단계; 및 상기 탐지의 결과가 제 1 기준값을 충족하는 경우, 안면 데이터가 탐지된 것으로 인식하는 단계를 포함하고, 상기 제 1 보호 동작은, 필터 동작 또는 투명화 동작 중 적어도 하나를 포함할 수 있다.In one embodiment, the step of executing a first protection action based on the result of the detection and a first threshold value includes the step of executing the first protection action when the result of the detection is less than the first threshold value; and the step of recognizing that facial data has been detected when the result of the detection meets the first threshold value, wherein the first protection action may include at least one of a filter action or a transparency action.
일 실시예에 있어서, 상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하는 단계는, 상기 매칭의 결과가 제 2 기준값에 미달하는 경우, 제 2 보호 동작을 실행하는 단계를 포함할 수 있다.In one embodiment, the step of executing the second protection operation based on the result of the matching and the second reference value may include the step of executing the second protection operation when the result of the matching falls below the second reference value.
일 실시예에 있어서, 상기 제 2 보호 동작은, 필터 동작, 투명화 동작 또는 알림 동작 중 적어도 하나를 포함할 수 있다.In one embodiment, the second protection action may include at least one of a filter action, a transparency action, or a notification action.
일 실시예에 있어서, 상기 탐지된 안면 데이터는, 하나 이상의 안면 데이터를 포함할 수 있다.In one embodiment, the detected facial data may include one or more facial data.
일 실시예에 있어서, 상기 방법은, 사용자의 선택에 의하여 복수의 모드 중 어느 하나의 모드가 설정되는 단계를 더 포함하고, 상기 복수의 모드는, 제 1 모드 및 제 2 모드를 포함할 수 있다. In one embodiment, the method further includes a step of setting one of a plurality of modes based on a user's selection, wherein the plurality of modes may include a first mode and a second mode.
일 실시예에 있어서, 상기 제 1 모드는, 상기 매칭의 결과, 제 2 기준값에 미달하는 안면 데이터가 하나 이상인 경우에, 제 2 보호 동작을 수행하도록 설정된 모드일 수 있다.In one embodiment, the first mode may be a mode set to perform a second protection operation when, as a result of the matching, there is one or more facial data that falls below the second reference value.
일 실시예에 있어서, 상기 제 2 모드는, 상기 매칭의 결과, 제 2 기준값을 충족하는 안면 데이터가 없는 경우에, 제 2 보호 동작을 수행하도록 설정된 모드일 수 있다.In one embodiment, the second mode may be a mode set to perform a second protection operation when, as a result of the matching, there is no facial data that satisfies the second reference value.
일 실시예에 있어서, 상기 방법은, 적어도 하나의 사용자의 안면 인식 데이터를 사전 등록하는 단계를 더 포함하고, 상기 제 1 기준값 및 상기 제 2 기준값은, 사전 설정된 것일 수 있다.In one embodiment, the method further comprises the step of pre-registering facial recognition data of at least one user, wherein the first reference value and the second reference value may be preset.
일 실시예에 있어서, 상기 방법은, 상기 안면 인식 데이터와 상기 비주얼 데이터를 표준화하는 단계를 더 포함In one embodiment, the method further comprises the step of standardizing the facial recognition data and the visual data.
일 실시예에 있어서, 상기 방법은, 상기 매칭의 결과, 제 2 기준값을 충족하는 안면 데이터가 하나 이상인 경우, 사전 학습된 모델을 활용하여 상기 제 2 기준값을 충족하는 안면 데이터를 추적하는 단계를 더 포함할 수 있다.In one embodiment, the method may further include, if, as a result of the matching, there is at least one piece of facial data satisfying the second criterion, a step of tracking the facial data satisfying the second criterion using a pre-learned model.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그래밍 개시된다. 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 상기 하나 이상의 프로세서로 하여금 촬영 모듈을 활용하여 정보를 보호하기 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은: 촬영 모듈를 활용하여 비주얼 데이터를 획득하는 동작; 사전 학습된 제 1 모델을 활용하여 상기 비주얼 데이터 내의 안면 데이터를 탐지하는 동작; 상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하는 동작; 상기 사전 학습된 제 1 모델 또는 사전 학습된 제 2 모델을 활용하여 탐지된 상기 안면 데이터와 안면 인식 데이터를 매칭하는 동작; 및 상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하는 동작을 포함하고, 상기 제 1 보호 동작 및 상기 제 2 보호 동작은 단말의 화면에 표시되는 정보에 관한 시각적 제어 동작을 포함하는 것일 수 있다.According to one embodiment of the present disclosure for realizing the above-described task, a computer program stored in a computer-readable storage medium is disclosed. When the computer program is executed on one or more processors, the computer program causes the one or more processors to perform the following operations for protecting information by utilizing a photographing module, the operations including: acquiring visual data by utilizing the photographing module; detecting facial data in the visual data by utilizing a pre-learned first model; executing a first protection operation based on a result of the detection and a first threshold value; matching the detected facial data with facial recognition data by utilizing the pre-learned first model or the pre-learned second model; and executing a second protection operation based on a result of the matching and a second threshold value, wherein the first protection operation and the second protection operation may include a visual control operation regarding information displayed on a screen of a terminal.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따른 컴퓨팅 장치가 개시된다. 상기 장치는, 적어도 하나의 프로세서; 및 메모리를 포함하고, 상기 적어도 하나의 프로세서는, 촬영 모듈을 통해 비주얼 데이터를 획득하고; 사전 학습된 제 1 모델을 활용하여 상기 비주얼 데이터 내의 안면 데이터를 탐지하고; 상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하고; 상기 사전 학습된 제 1 모델 또는 사전 학습된 제 2 모델을 활용하여 탐지된 상기 안면 데이터와 안면 인식 데이터를 매칭하고; 그리고 상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하도록 구성되고, 상기 제 1 보호 동작 및 상기 제 2 보호 동작은 단말의 화면에 표시되는 정보에 관한 시각적 제어 동작을 포함하는 것일 수 있다.A computing device according to one embodiment of the present disclosure for achieving the above-described task is disclosed. The device comprises at least one processor; and a memory, wherein the at least one processor is configured to acquire visual data through a photographing module; detect facial data in the visual data using a pre-learned first model; execute a first protection operation based on a result of the detection and a first threshold value; match the detected facial data with facial recognition data using the pre-learned first model or the pre-learned second model; and execute a second protection operation based on the result of the matching and a second threshold value, wherein the first protection operation and the second protection operation may include a visual control operation regarding information displayed on a screen of a terminal.
본 개시는 촬영 모듈을 통해 획득되는 비주얼 데이터를 활용하여, 정보를 보호할 수 있다. 예시적으로 본 개시는, 단말에 설치되거나 내장된 촬영 모듈을 활용하여 비주얼 데이터를 획득하고, 획득된 비주얼 데이터를 기반으로 단말에 표시되는 정보를 보호하는 기능을 제공하는 것을 목적으로 할 수 있다.The present disclosure can protect information by utilizing visual data acquired through a shooting module. For example, the present disclosure may provide a function for acquiring visual data using a shooting module installed or built into a terminal, and protecting information displayed on the terminal based on the acquired visual data.
한편, 본 개시의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.Meanwhile, the effects of the present disclosure are not limited to the effects mentioned above, and various effects may be included within a range apparent to those skilled in the art from the contents described below.
도 1은 본 개시의 일 실시예에 따른 모듈의 구현에 활용될 수 있는 컴퓨팅 장치의 블록 구성도이다.
도 2는 본 개시의 일 실시예에 따른 촬영 모듈을 활용하는 정보 보호 방법을 간략히 나타낸 순서도이다.
도 3은 본 개시의 일 실시예에 따른 촬영 모듈을 활용하는 정보 보호 방법을 보다 구체적으로 나타낸 순서도이다.
도 4는 본 개시의 일 실시예에 따라 안면 데이터 탐지에 기초한 정보 보호 단계를 간략히 나타낸 순서도이다.
도 5는 본 개시의 일 실시예에 따라 안면 데이터와 안면 인식 데이터 간의 매칭에 기초한 정보 보호 단계를 간략히 나타낸 순서도이다.
도 6은 본 개시의 일 실시예에 따라 하나 이상의 안면 데이터와 안면 인식 데이터 간의 매칭에 기초한 정보 보호 단계를 보다 구체적으로 나타낸 순서도이다.
도 7은 본 개시의 일 실시예에 따라 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하지 않는 상황에서의 동작을 개략적으로 표현한 개략도이다.
도 8은 본 개시의 일 실시예에 따라 탐지 결과가 기준값에 미달하여 제 1 보안 동작이 실행된 것을 개략적으로 표현한 개략도이다.
도 9는 본 개시의 일 실시예에 따라 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 기준값을 충족하는 안면 데이터도 존재하고, 제 2 모드가 설정된 상황에서의 동작을 개략적으로 표현한 개략도이다.
도 10은 본 개시의 일 실시예에 따라 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 기준값을 충족하는 안면 데이터도 존재하고, 제 1 모드가 설정된 상황에서의 동작을 개략적으로 표현한 개략도이다.
도 11은 본 개시의 일 실시예에 따라 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 기준값을 충족하는 안면 데이터가 존재하지 않는 상황에서의 동작을 개략적으로 표현한 개략도이다. FIG. 1 is a block diagram of a computing device that can be utilized to implement a module according to one embodiment of the present disclosure.
FIG. 2 is a flowchart briefly illustrating an information protection method utilizing a shooting module according to one embodiment of the present disclosure.
FIG. 3 is a flowchart illustrating in more detail an information protection method utilizing a shooting module according to one embodiment of the present disclosure.
FIG. 4 is a flowchart briefly illustrating information protection steps based on facial data detection according to one embodiment of the present disclosure.
FIG. 5 is a flowchart briefly illustrating an information protection step based on matching between facial data and facial recognition data according to one embodiment of the present disclosure.
FIG. 6 is a flowchart illustrating in more detail an information protection step based on matching between one or more facial data and facial recognition data according to one embodiment of the present disclosure.
FIG. 7 is a schematic diagram schematically representing an operation in a situation where there is no facial data whose matching result falls below a reference value according to one embodiment of the present disclosure.
FIG. 8 is a schematic diagram schematically representing that a first security operation is executed when a detection result falls below a reference value according to one embodiment of the present disclosure.
FIG. 9 is a schematic diagram schematically representing an operation in a situation where there is facial data whose matching result falls below a reference value, there is facial data that satisfies the reference value, and a second mode is set, according to one embodiment of the present disclosure.
FIG. 10 is a schematic diagram schematically representing an operation in a situation where there is facial data whose matching result falls below a reference value, there is facial data that satisfies the reference value, and the first mode is set, according to one embodiment of the present disclosure.
FIG. 11 is a schematic diagram schematically representing an operation in a situation where there is facial data whose matching result falls below a reference value and there is no facial data that satisfies the reference value, according to one embodiment of the present disclosure.
다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다. 나아가, 본 개시는 구체적으로 제시된 실시예들뿐만 아니라, 본 발명의 기술 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명에 관한 다양한 변형들은 본 발명의 기술분야에서 통상의 지식을 가진 자에게 명백할 것이며, 본 명세서에 기재된 내용을 바탕으로 통상의 기술자가 특별한 기술적 노력 없이 생각해낼 수 있는 범위의 기술 사상들은 본 개시에서 설명되는 기술 사상에 포함되는 것으로 해석되어야 할 것이다.Various embodiments are now described with reference to the drawings. In this specification, various descriptions are provided to provide an understanding of the present disclosure. However, it will be apparent that these embodiments may be practiced without these specific details. Furthermore, it should be understood that the present disclosure encompasses not only the specifically presented embodiments, but also all modifications, equivalents, and alternatives falling within the technical spirit and scope of the present disclosure. Various modifications to the present disclosure will be apparent to those skilled in the art, and technical ideas that can be devised by a person skilled in the art without special technical effort based on the teachings herein should be construed as being included within the technical spirit described in the present disclosure.
본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있는 것으로 판단되는 경우 그에 관한 상세한 상세한 설명을 생략한다. 다만, 이러한 생략이 본 발명에 관하여 활용될 수 있는 공지 기술에 대한 인식을 배제하기 위한 것은 아니다. 본 발명은 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.In describing the present invention, detailed descriptions of related known technologies will be omitted if they are deemed to obscure the gist of the invention. However, such omissions are not intended to exclude awareness of known technologies that can be utilized in the present invention. The present invention should be construed in the broadest sense consistent with the principles and novel features disclosed herein.
제 1, 제 2, 제 3, 제 4 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있으나, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 특정 구성요소를 다른 구성요소로부터 구별하기 위한 목적으로만 사용되며, 상기 특정 구성요소는 실시예에 따라 다르게 해석될 수 있다. 본 개시에서 사용하는 제 1, 제 2 등의 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도로 사용되는 것이 아니다. Terms such as "first," "second," "third," and "fourth" may be used to describe various components, but these components should not be limited by these terms. These terms are used solely to distinguish specific components from other components, and these specific components may have different interpretations depending on the embodiment. The terms "first," "second," and the like used in this disclosure are used solely to describe specific embodiments and are not intended to limit the present invention.
본 개시에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에 있어서, 본 개시에서의 단수는 "하나 또는 그 이상"을 의미하는 것으로 이해되어야 한다.In this disclosure, singular expressions include plural expressions unless the context clearly indicates otherwise. In cases where the context does not clearly indicate a singular form, the singular in this disclosure should be understood to mean "one or more."
더불어, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것이며, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품, 특징 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제함을 의미하는 것이 아니다. Furthermore, the terms "includes" and/or "comprising" imply the presence of the features and/or components, but do not preclude the presence or addition of one or more other features, numbers, steps, operations, components, parts, features, or combinations thereof.
또한, "및/또는"이라는 용어는, 열거된 요소들 중 하나 이상의 요소의 가능한 모든 조합을 지칭하는 것 또는 열거된 요소들 중 하나 이상의 요소의 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. Additionally, the term "and/or" should be understood to refer to every possible combination of one or more of the listed elements or to include every possible combination of one or more of the listed elements.
또한, "또는"이라는 용어는, 열거된 요소들 중 어느 하나의 요소를 배타적으로 지칭하는 것이 아니라, 열거된 요소들 중 적어도 하나의 요소를 포함하는 것을 의미하는 것으로 해석되어야 한다. 예를 들어, "N에 A 또는 B를 활용한다"라는 표현은, N에 A를 활용하거나; N에 B를 활용하거나; 또는 N에 A 및 B를 모두 활용하는 경우 중 어느 것으로든 해석될 수 있다. Additionally, the term "or" should be interpreted to mean including at least one of the listed elements, rather than exclusively referring to any one of the listed elements. For example, the expression "N utilizes A or B" could be interpreted to mean either N utilizes A; N utilizes B; or N utilizes both A and B.
나아가, "A 또는 B 중 적어도 하나"이라는 용어는, "A만을 포함하는 경우", "B 만을 포함하는 경우", "A와 B의 구성으로 조합된 경우"를 의미하는 것으로 해석되어야 한다.Furthermore, the term "at least one of A or B" should be interpreted to mean "if it includes only A", "if it includes only B", or "if it is combined in the composition of A and B".
본 개시 내용에 있어서, "모듈", "시스템" 등의 용어는 컴퓨팅 장치에 관한 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 하드웨어 및 펌웨어의 조합, 또는 소프트웨어의 실행 등을 지칭할 수 있다. 예를 들어, 모듈은 프로세서, 객체, 부품, 프로세서상에서 실행되는 처리과정(procedure), 프로그램, 컴퓨팅 장치, 또는 이들 중 둘 이상의 조합일 수 있지만, 나열된 예시들로 제한되는 것은 아니다. 하나의 모듈은 특정 컴퓨팅 장치에 포함되는 것일 수 있으나, 둘 이상의 컴퓨팅 장치에 분배되도록 구성될 수도 있다. 이러한, 모듈들은 다양한 컴퓨터 판독가능한 매체로부터 실행될 수 있다. 예시적으로, 모듈들은 하나 이상의 데이터 패킷을 포함하는 신호를 활용하여 로컬 또는 원격 처리들을 통해 다른 모듈, 장치, 부품 또는 요소들과 통신할 수 있다. 예를 들어, 데이터 패킷은 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터를 포함할 수 있다. In the present disclosure, terms such as "module" and "system" may refer to hardware, firmware, software, a combination of software and hardware, a combination of hardware and firmware, or an execution of software, etc., related to a computing device. For example, a module may be, but is not limited to, a processor, an object, a component, a procedure running on a processor, a program, a computing device, or a combination of two or more thereof. A module may be included in a specific computing device, but may also be configured to be distributed across two or more computing devices. Such modules may be executed from various computer-readable media. For example, modules may communicate with other modules, devices, components, or elements through local or remote processes using a signal containing one or more data packets. For example, a data packet may include data from one component interacting with another component in a local system, a distributed system, and/or data transmitted through a signal to another system and/or over a network such as the Internet.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 중심으로 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재, 요소, 단계, 또는 동작을 나타내는 것이다. 본 명세서에 첨부된 도면들은 본 발명의 내용을 도면에서 표현된 실시예로 제한하도록 해석되어서는 안되며, 본 발명의 기술 사상을 해석함에 있어서 참작의 요소로만 활용되어야 한다.Hereinafter, the present invention will be described in detail, focusing on embodiments thereof, with reference to the attached drawings. Like reference numerals throughout the drawings represent like elements, components, steps, or operations. The drawings attached to this specification should not be construed as limiting the scope of the present invention to the embodiments depicted in the drawings, but rather should be utilized solely as a reference point in interpreting the technical concepts of the present invention.
도 1은 본 개시의 일 실시예에 따른 모듈의 구현에 활용될 수 있는 컴퓨팅 장치의 블록 구성도이다.FIG. 1 is a block diagram of a computing device that can be utilized to implement a module according to one embodiment of the present disclosure.
도 1에 도시된 컴퓨팅 장치(100)의 구성은, 간략하게 나타낸 일 예시일 뿐이다. 본 개시에 있어서, 예시적인 컴퓨팅 장치(100)는 컴퓨팅 장치(100)의 컴퓨팅 환경을 형성 또는 수행하기 위한 다른 구성들이 포함될 수 있으며, 개시된 구성들 중 일부만이 컴퓨팅 장치(100)를 구성할 수도 있다. 일례로, 본 개시에서의 컴퓨팅 장치 구성은 각종 단말이나 그 부품에 적용될 수 있다.The configuration of the computing device (100) illustrated in FIG. 1 is merely a simplified example. In the present disclosure, the exemplary computing device (100) may include other components for forming or performing the computing environment of the computing device (100), and only some of the disclosed components may constitute the computing device (100). For example, the computing device configuration in the present disclosure may be applied to various terminals or components thereof.
컴퓨팅 장치(100)는 입출력부(110), 처리부(120), 메모리부(130), 또는 통신부(140) 중 적어도 하나를 포함할 수 있다. 본 개시에서 처리부(120)는 처리 장치로서, 프로세서를 포함하는 것으로 해석될 수 있다. 본 개시의 일 실시예에 따른 컴퓨팅 장치에 있어서, 입력부(110)와 메모리부(130)는 선택적인 구성일 수 있다. A computing device (100) may include at least one of an input/output unit (110), a processing unit (120), a memory unit (130), or a communication unit (140). In the present disclosure, the processing unit (120) may be interpreted as a processing device, including a processor. In a computing device according to one embodiment of the present disclosure, the input unit (110) and the memory unit (130) may be optional components.
입출력부(110)는 본 개시의 일 실시예에서 컴퓨팅 장치와 사용자가 상호작용할 수 있도록 다양한 입력 및 출력 수단을 제공하는 구성 요소로, 이를 통해 사용자가 장치에 명령을 입력하거나 장치가 생성한 정보를 확인할 수 있다. 입출력부(110)란, 입력부 또는 출력부 중 적어도 하나를 포함하는 구성이다. 입력부로서, 입출력부(110)는 버튼, 조이스틱, 키보드, 마우스, 터치패드 또는 터치스크린 등의 다양한 입력 장치를 포함할 수 있다. 이러한 입력 장치는 사용자가 데이터 입력, 명령 실행, 화면 내 요소 선택 등의 작업을 수행할 수 있도록 하는 기능을 포함할 수 있다. 예를 들어, 터치스크린을 통해 사용자는 직관적으로 화면을 직접 터치하여 장치와 상호작용할 수 있으며, 이는 모바일이나 태블릿과 같은 휴대용 컴퓨팅 장치에서 사용되는 것을 예시로 들 수 있다. 출력부의 측면에서, 입출력부(110)는 CRT(Cathode Ray Tube) 모니터, 화면 디스플레이(Display), 스피커, LED 표시등 등 다양한 형태의 출력 장치를 포함할 수 있다. 예를 들어, 디스플레이는 고해상도의 시각적 출력을 제공하여 사용자가 장치에서 실행되는 애플리케이션이나 콘텐츠를 명확하게 볼 수 있도록 할 수 있다. 또한, 스피커를 통해 청각적인 알림이나 신호를 제공함으로써 사용자에 대하여 청각을 활용한 정보 전달이 수행될 수 있다. 예를 들어, 알림이나 미디어 재생을 통해 사용자에게 피드백을 제공할 수도 있다. 입출력부(110)는 몰입형 사용자 경험을 제공하기 위하여 헤드업 디스플레이(HUD: Head-Up Display)나 증강 현실(AR: Augmented Reality) 및 가상 현실(VR: Virtual Reality) 헤드셋과 같은 형태의 출력 장치 또한 포함할 수 있다. 입출력부(110)는 이러한 입력 또는 출력 기능을 제공하여 사용자와 장치 간의 원활한 상호작용을 가능하게 하고, 또한 입출력부(110)외의 다른 장치 또는 다른 부분 간의 상호작용을 위해서도 활용될 수 있다. 이러한 입출력부(110)를 통해 본 개시의 시스템, 장치, 구성요소 등은 효율적인 인터페이스 등을 제공할 수 있으며, 입출력부(110)는 다양한 환경에서 유연한 방식으로 구성될 수 있다. 입출력부(110)는 위에 언급된 예시들로 제한되지 않으며, 입출력부(110)의 구현에 있어서 통상의 기술자가 데이터 내지 신호의 입력과 출력을 위해 활용가능한 다양한 방법 또는 구성이 활용될 수 있다. The input/output unit (110) is a component that provides various input and output means so that a user can interact with a computing device in one embodiment of the present disclosure, through which a user can input commands to the device or check information generated by the device. The input/output unit (110) is a component that includes at least one of an input unit and an output unit. As an input unit, the input/output unit (110) may include various input devices such as buttons, joysticks, keyboards, mice, touchpads, or touchscreens. These input devices may include functions that allow a user to perform tasks such as inputting data, executing commands, and selecting elements within a screen. For example, a touchscreen allows a user to intuitively interact with the device by directly touching the screen, and this can be exemplified by the use of portable computing devices such as mobile devices or tablets. In terms of the output unit, the input/output unit (110) may include various types of output devices such as a CRT (Cathode Ray Tube) monitor, a screen display, a speaker, and an LED indicator. For example, a display may provide high-resolution visual output so that a user can clearly view applications or content running on the device. In addition, auditory information transmission to the user can be performed by providing auditory notifications or signals through the speaker. For example, feedback can be provided to the user through notifications or media playback. The input/output unit (110) may also include an output device such as a head-up display (HUD) or an augmented reality (AR) or virtual reality (VR) headset to provide an immersive user experience. The input/output unit (110) provides such input or output functions to enable smooth interaction between the user and the device, and may also be utilized for interaction between other devices or other parts other than the input/output unit (110). Through the input/output unit (110), the system, device, component, etc. of the present disclosure can provide an efficient interface, etc., and the input/output unit (110) can be configured in a flexible manner in various environments. The input/output unit (110) is not limited to the examples mentioned above, and various methods or configurations that can be utilized by a person skilled in the art for inputting and outputting data or signals can be utilized in implementing the input/output unit (110).
처리부(120)는 데이터의 연산, 제어, 또는 처리를 담당하는 구성요소로, 컴퓨팅 장치 내에서 하나 이상의 코어로 구성될 수 있다. The processing unit (120) is a component responsible for calculating, controlling, or processing data, and may be composed of one or more cores within a computing device.
예시적으로, 처리부(120)는 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: Graphics Processing Unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 프로세서를 포함할 수 있다. 나아가, FPGA(Field-Programmable Gate Array), 캐시 메모리(Cache Memory), 또는 보조 보안 모듈 중 적어도 하나를 추가로 포함할 수도 있다. 처리부(120)는 메모리부(130)에 저장된 데이터 또는 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 데이터 처리를 수행할 수 있다. 처리부(120)의 CPU, GPU, GPGPU, 또는 TPU 중 적어도 하나가 네트워크 함수의 수행 또는 학습을 처리할 수 있다. 예를 들어, CPU와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류 내지 처리, 네트워크 함수를 이용한 암호화 및 인증의 실행을 처리할 수 있다. 또한, 본 개시의 일 실시예에서 복수의 컴퓨팅 장치의 프로세서를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류 내지 처리, 네트워크 함수를 이용한 암호화 및 인증의 실행을 처리할 수도 있다. 본 개시의 일 실시예에 있어서 컴퓨팅 장치에서 수행되는 컴퓨터 프로그램은 CPU, GPU, GPGPU, 또는 TPU 실행가능 프로그램일 수 있다. 본 개시에 있어서, 처리부(120)는 장치의 다양한 요구사항에 따라 유연하게 구성될 수 있으며, 통상의 기술자가 특별한 어려움 없이 적용 가능한 형태의 프로세서, 센서 제어 장치, 보조 보안 모듈, 데이터 버스(Data Bus) 또는 캐시 메모리(Cache Memory) 중 적어도 하나를 포함하는 것이다. For example, the processing unit (120) may include a processor such as a central processing unit (CPU), a graphics processing unit (GPU), a general purpose graphics processing unit (GPGPU), or a tensor processing unit (TPU) of a computing device. Furthermore, at least one of a field-programmable gate array (FPGA), a cache memory, or an auxiliary security module may be additionally included. The processing unit (120) may read data or a computer program stored in the memory unit (130) to perform data processing according to an embodiment of the present disclosure. At least one of the CPU, GPU, GPGPU, or TPU of the processing unit (120) may process the execution or learning of a network function. For example, the CPU and the GPGPU may together process learning of a network function, classification or processing of data using a network function, and execution of encryption and authentication using a network function. In addition, in one embodiment of the present disclosure, the processors of a plurality of computing devices may be used together to process learning of network functions, classification or processing of data using network functions, and execution of encryption and authentication using network functions. In one embodiment of the present disclosure, the computer program executed on the computing device may be a CPU, GPU, GPGPU, or TPU executable program. In the present disclosure, the processing unit (120) may be flexibly configured according to various requirements of the device, and includes at least one of a processor, a sensor control device, an auxiliary security module, a data bus, or a cache memory of a form that can be applied without special difficulty by a person skilled in the art.
본 개시의 일 실시예에 따르면, 메모리부(130)는 처리부(120)가 생성하거나 결정한 임의의 형태의 데이터 내지 정보 및 통신부(140)가 수신한 임의의 형태의 데이터 내지 정보를 저장할 수 있다. According to one embodiment of the present disclosure, the memory unit (130) can store any form of data or information generated or determined by the processing unit (120) and any form of data or information received by the communication unit (140).
예시적으로, 메모리부(130)는 데이터의 저장 및 관리 기능을 수행하는 구성 요소로서, 컴퓨팅 장치 내에서 데이터를 일시적 또는 영구적으로 저장하는 역할을 할 수 있다. 메모리부(130)는 다양한 유형의 메모리로 구성될 수 있으며, 일례로, 처리부(120)와의 상호작용을 통해 데이터 처리 속도를 최적화하는 데에 기여할 수 있다. 일 실시예에 있어서, 메모리부(130)는 주 메모리(Main Memory)를 포함할 수 있으며, 상기 주 메모리는 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), DRAM (Dynamic Random Access Memory), NVDIMM (Non-Volatile Dual In-line Memory Module), LPDDR (Low Power Double Data Rate Memory), HMC (Hybrid Memory Cube), HBM (High Bandwidth Memory), Persistent Memory (PMEM) 중 적어도 하나의 타입의 저장매체를 포함할 수 있으며, 앞서 나열된 예시들로 제한되는 것은 아니다. 또한, 예시적으로, 메모리부(130)는 시스템의 주요 설정 값이나 펌웨어 등의 데이터를 장기적으로 저장하기 위한 비휘발성 메모리를 포함할 수 있다. 상기 비휘발성 메모리에는 롬(Read-Only Memory, ROM), 플래시 메모리 타입(flash memory type) 등의 저장 장치가 사용될 수 있다. 추가적인 실시예에 있어서, 메모리부(130)는 대용량 데이터를 저장하고 관리하기 위한 보조 저장 장치를 더 포함할 수 있다. 예시적으로, SSD(Solid State Drive)나 HDD(Hard Disk Drive)가 메모리부의 일부로 포함될 수 있으며, 이는 대규모 데이터의 영구 보관과 빠른 데이터 전송이 필요한 애플리케이션에서 사용될 수 있다. 전술한 메모리부(130)에 관한 기재는 예시일 뿐, 본 개시에서의 메모리부(130)는 위에 언급된 예시들로 제한되지 않는다. For example, the memory unit (130) is a component that performs data storage and management functions, and may serve to temporarily or permanently store data within the computing device. The memory unit (130) may be composed of various types of memory, and may, for example, contribute to optimizing data processing speed through interaction with the processing unit (120). In one embodiment, the memory unit (130) may include a main memory, and the main memory may include at least one type of storage medium among Random Access Memory (RAM), Static Random Access Memory (SRAM), Dynamic Random Access Memory (DRAM), Non-Volatile Dual In-line Memory Module (NVDIMM), Low Power Double Data Rate Memory (LPDDR), Hybrid Memory Cube (HMC), High Bandwidth Memory (HBM), and Persistent Memory (PMEM), but is not limited to the examples listed above. In addition, by way of example, the memory unit (130) may include non-volatile memory for long-term storage of data such as major system settings or firmware. Storage devices such as Read-Only Memory (ROM) and flash memory types may be used as the non-volatile memory. In additional embodiments, the memory unit (130) may further include an auxiliary storage device for storing and managing large amounts of data. By way of example, a Solid State Drive (SSD) or a Hard Disk Drive (HDD) may be included as part of the memory unit, and this may be used in applications requiring permanent storage of large amounts of data and fast data transmission. The description of the memory unit (130) described above is merely an example, and the memory unit (130) in the present disclosure is not limited to the examples mentioned above.
본 개시의 일 실시예에 있어서, 통신부(140)는 다양한 유·무선 네트워크(Network)와의 통신을 수행할 수 있다. 이를 통해 통신부(140)는 다양한 통신 환경에서 안정적이고 효율적인 데이터 전송을 가능하게 할 수 있다. 예를 들어, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있다. 예시적으로, 통신부(140)는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN)과 같은 여러 유선 통신 시스템을 사용할 수 있다. 유선 통신의 경우, 통신부(140)는 고속 데이터 전송을 위해 다양한 DSL 방식이나, 광역 네트워크 시스템을 지원할 수 있다. 예를 들어, 공중전화망 기반의 전송 기술부터 고속 DSL 방식까지 다양한 형태의 유선 통신을 수용하여 안정적인 데이터 송수신을 가능하게 할 수 있다. 다른 예로, 무선 통신의 측면에서 통신부(140)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 등 다양한 주파수 및 시간 분할 방식을 지원할 수 있다. 이러한 방식은 이동 중에도 안정적으로 연결을 통신상의 유지할 수 있도록 설계되었다. 더불어, 통신부(140)는 단거리 통신망(LAN: Local Area Network), 근거리 통신망(PAN: Personal Area Network)이나 광역 통신망(WAN: Wide Area Network)과도 손쉽게 연결될 수 있으며, 블루투스(Bluetooth) 및 적외선(IrDA)과 같은 단거리 무선 기술도 지원할 수 있다. 이를 통해, 통신부(140)는 상황에 맞는 최적의 연결 옵션을 제공할 수 있다. 이처럼, 통신부(140)는 다양한 네트워크 유형과 호환될 수 있으며, 범용성을 갖춘 연결부로서 역할을 수행할 수 있다. 이를 통해, 시스템 내의 다른 장치들과의 정보 교환을 원활히 하고, 네트워크 기반의 다양한 기능이 효과적으로 구현될 수 있도록 지원할 수 있다. 이러한 통신부(140)의 연결성과 유연성에 의해, 본 개시의 시스템은 통신 환경에 적합한 통신 방법이나 장치를 선택적으로 적용할 수 있으며, 통신부(140)의 구성과 역할은 앞서 언급된 예시들로 제한되는 것이 아니다. In one embodiment of the present disclosure, the communication unit (140) can perform communication with various wired and wireless networks. Through this, the communication unit (140) can enable stable and efficient data transmission in various communication environments. For example, the network may be the well-known World Wide Web (WWW). For example, the communication unit (140) can use various wired communication systems such as the Public Switched Telephone Network (PSTN), xDSL (x Digital Subscriber Line), RADSL (Rate Adaptive DSL), MDSL (Multi Rate DSL), VDSL (Very High Speed DSL), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and local area network (LAN). In the case of wired communication, the communication unit (140) can support various DSL methods or wide area network systems for high-speed data transmission. For example, it can accommodate various forms of wired communication, from transmission technology based on public switched telephone networks to high-speed DSL methods, to enable stable data transmission and reception. As another example, in terms of wireless communication, the communication unit (140) can support various frequency and time division methods such as CDMA (Code Division Multi Access), TDMA (Time Division Multi Access), FDMA (Frequency Division Multi Access), OFDMA (Orthogonal Frequency Division Multi Access), and SC-FDMA (Single Carrier-FDMA). These methods are designed to maintain a stable connection in communication even while moving. In addition, the communication unit (140) can easily connect to a local area network (LAN), a personal area network (PAN), or a wide area network (WAN), and can also support short-range wireless technologies such as Bluetooth and infrared (IrDA). Through this, the communication unit (140) can provide the optimal connection option according to the situation. In this way, the communication unit (140) is compatible with various network types and can function as a universal connection unit. This facilitates information exchange with other devices within the system and supports the effective implementation of various network-based functions. Due to the connectivity and flexibility of the communication unit (140), the system of the present disclosure can selectively apply communication methods or devices appropriate for the communication environment, and the configuration and role of the communication unit (140) are not limited to the examples mentioned above.
이하에서는 도 2 및 도 3을 통해 본 개시의 일 실시예에 따른 촬영 모듈을 활용하는 정보 보호 방법에 관해 설명하고, 나아가 도 4 내지 도 6을 통해 본 개시의 일 실시예에 따른 안면 데이터 탐지 단계 또는 안면 데이터 매칭 단계에 대해 구체적으로 설명하고자 한다.Hereinafter, an information protection method utilizing a photographing module according to an embodiment of the present disclosure will be described with reference to FIGS. 2 and 3, and further, a facial data detection step or a facial data matching step according to an embodiment of the present disclosure will be described in detail with reference to FIGS. 4 to 6.
도 2는 본 개시의 일 실시예에 따른 촬영 모듈을 활용하는 정보 보호 방법을 간략히 나타낸 순서도이다.FIG. 2 is a flowchart briefly illustrating an information protection method utilizing a shooting module according to one embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 촬영 모듈을 활용하는 정보 보호 방법은, 비주얼 데이터를 획득하는 단계(S130); 사전 학습된 모델을 활용하여 비주얼 데이터 내 안면 데이터를 탐지하는 단계(S200); 탐지 결과 및 기준값에 기초하여 보호 동작을 실행하는 단계(S250); 사전 학습된 모델을 활용하여 안면 데이터와 안면 인식 데이터를 매칭하는 단계(S300); 및 매칭 결과 및 기준값에 기초하여 보호 동작을 실행하는 단계(S350)를 포함할 수 있다. According to one embodiment of the present disclosure, an information protection method utilizing a photographing module may include a step of acquiring visual data (S130); a step of detecting facial data in the visual data using a pre-learned model (S200); a step of executing a protection action based on the detection result and a reference value (S250); a step of matching facial data and facial recognition data using the pre-learned model (S300); and a step of executing a protection action based on the matching result and the reference value (S350).
일 실시예에 있어서, 컴퓨팅 장치(100)는 비주얼 데이터를 획득할 수 있다. 예시적으로, 비주얼 데이터를 획득하는 단계(S130)는, 촬영 모듈을 활용하여 각 시간대에 대한 비주얼 데이터를 획득하는 단계일 수 있다. 예시적으로, 본 개시는, 촬영 모듈을 활용하여 사전 설정된 시간 간격으로 반복하여 비주얼 데이터를 획득할 수 있다. 이러한 사전 설정된 시간 간격은 사용자가 설정하거나, 혹은 최적화된 기본 설정을 제공할 수도 있다. 또는, 촬영 모듈을 활용하여 비주얼 데이터를 획득하는 단계는, 실시간으로 수행될 수 있다. 실시간으로 수행되는 경우, 정보 보호의 관점에서 실시간으로 변화하는 비주얼 데이터에 즉각 대응 가능하다는 장점이 있다. 또는, 상기 단계에는 촬영 모듈이 자체적으로 이벤트를 감지한 경우에 실시간으로 비주얼 데이터를 획득하는 방식이 적용될 수도 있다. 예를 들어, 별다른 변화 없이 고정된 상이 촬영되는 경우에는 촬영 모듈이 촬영을 진행하지 않고, 촬영 중인 프레임 내에서 상이 변화하거나 움직임이 인식되는 들의 이벤트가 발생한 경우에 비주얼 데이터를 획득하는 방식이 적용될 수 있다. 이처럼 이벤트 발생 여부에 기초하여 비주얼 데이터를 획득하는 경우, 데이터 처리 관점에서 컴퓨팅 장치의 리소스를 비교적 적게 활용하는 방식으로 구현될 수 있을 것이다.In one embodiment, the computing device (100) can acquire visual data. For example, the step (S130) of acquiring visual data may be a step of acquiring visual data for each time zone using a photographing module. For example, the present disclosure can acquire visual data repeatedly at preset time intervals using the photographing module. These preset time intervals can be set by the user, or an optimized default setting can be provided. Alternatively, the step of acquiring visual data using the photographing module can be performed in real time. When performed in real time, it has the advantage of being able to immediately respond to visual data that changes in real time from an information protection perspective. Alternatively, the step may be applied to acquire visual data in real time when the photographing module detects an event on its own. For example, when a fixed image is being captured without significant change, the photographing module may not perform the capture, but rather acquire visual data when an event occurs, such as a change in the image or movement being recognized within the captured frame. In this way, acquiring visual data based on the occurrence of an event can be implemented in a way that utilizes relatively few computing device resources from a data processing perspective.
본 개시에 있어서, 비주얼 데이터란, 촬영 모듈을 활용하여 획득되는 2D 이미지, 3D 이미지 또는 영상 데이터 등을 포함할 수 있다.In the present disclosure, visual data may include 2D images, 3D images, or video data obtained by using a shooting module.
본 개시에 있어서, 촬영 모듈이란 이미지 또는 영상을 촬영 가능한 모듈로서 웹캠, CCD(Camera Charge-Coupled Device) 카메라, CMOS(Complementary Metal-Oxide Semiconductor) 카메라, IR 카메라, 열화상 카메라, HDR(High Dynamic Range) 카메라, 자동 초점 카메라, 고정 초점 카메라, 스테레오 카메라 등을 포함할 수 있으며, 상술한 예시로 제한되지 않는다. In the present disclosure, a shooting module is a module capable of shooting an image or video, and may include a webcam, a CCD (Camera Charge-Coupled Device) camera, a CMOS (Complementary Metal-Oxide Semiconductor) camera, an IR camera, a thermal imaging camera, an HDR (High Dynamic Range) camera, an autofocus camera, a fixed focus camera, a stereo camera, etc., but is not limited to the examples described above.
일 실시예에 있어서, 컴퓨팅 장치(100)는 사전 학습된 모델을 활용하여 비주얼 데이터 내 안면 데이터를 탐지할 수 있다. 예시적으로, 사전 학습된 모델을 활용하여 비주얼 데이터 내 안면 데이터를 탐지하는 단계(S200)는, 사전 학습된 모델을 활용하여 비주얼 데이터 내에서 안면 후보 데이터를 추출하는 단계를 포함할 수 있다. 이러한 안면 후보 데이터는 다양한 박스(Box) 형태의 단위로 구성될 수 있다. 컴퓨팅 장치(100)는 추출된 안면 후보 데이터들 중 기준값을 넘는 안면 후보 데이터를 안면 데이터로 판단할 수 있다. 본 개시에 있어서, 기준값이란, 사전 설정된 값일 수 있고, 사전 학습된 모델 또는 룰에 기반하여 동적으로 결정되는 값일 수도 있다. 본 개시에 관하여, 각 단계에 관한 기준값은 서로 다르거나 같을 수 있으며, 각 단계에 적합한 기준값을 통상의 기술자가 활용분야에 따라 실험적으로 적용할 수 있다. In one embodiment, the computing device (100) can detect facial data within visual data using a pre-learned model. For example, the step (S200) of detecting facial data within visual data using a pre-learned model may include a step of extracting facial candidate data within the visual data using the pre-learned model. Such facial candidate data may be configured in various box-shaped units. The computing device (100) may determine facial candidate data exceeding a reference value among the extracted facial candidate data as facial data. In the present disclosure, the reference value may be a preset value or a value dynamically determined based on a pre-learned model or rule. In the present disclosure, the reference values for each step may be different or the same, and a person skilled in the art may experimentally apply a reference value appropriate for each step depending on the field of application.
본 개시에서, 비주얼 데이터 내 안면 데이터를 탐지하기 위해 활용되는 사전 학습된 모델로는, 예시적으로, Faster R-CNN, YOLO, SSD 같은 객체 탐지 모델이 포함될 수 있으나, 이러한 예시들로 제한되지 않는다. 또한, 일례로, 안면 데이터를 탐지하기 위해 안면 후보 데이터가 실제 안면 영역과 얼마나 일치하는지 평가하기 위해 Intersection of Union이 활용될 수 있다. In the present disclosure, pre-trained models utilized to detect facial data within visual data may include, but are not limited to, object detection models such as Faster R-CNN, YOLO, and SSD. Furthermore, for example, the Intersection of Union may be utilized to evaluate how closely facial candidate data matches actual facial regions for facial data detection.
일 실시예에 있어서, 컴퓨팅 장치(100)는 탐지 결과 및 기준값에 기초하여 보호 동작을 수행할 수 있다. 예시적으로, 탐지 결과 및 기준값에 기초하여 보호 동작을 실행하는 단계(S250)는, 비주얼 데이터 내에서 안면 데이터의 탐지를 수행한 결과가 기준값에 미달하는 경우, 즉 안면 데이터가 탐지되지 않는다고 판단한 경우에 보호 동작을 실행하는 단계를 포함할 수 있다. 예시적으로, 단계 S250에서의 기준값을 제 1 기준값으로 정할 수 있다. 또한, 단계 S250에서의 보호 동작을 제 1 보호 동작으로 정할 수 있으며, 단계 S250에서 활용되는 사전 학습된 모델을 사전 학습된 제 1 모델로 정할 수 있다. 탐지 결과 및 기준값에 기초하여, 안면 데이터가 탐지되지 않는 것으로 판단되는 경우는, 달리 말해 촬영 모듈을 통해 획득된 비주얼 데이터 상에 사람의 안면이 없는 것으로 판단된 것이므로, 사전 등록된 사용자가 촬영 영역 안에 없는 상태로 볼 수 있으므로, 컴퓨팅 장치(100)의 입출력부(110) 중 단말의 화면 상에 표시되는 정보들을 보호할 필요성이 있다. 일례로, 촬영 모듈의 촬영 영역 밖에서 등록 사용자 외의 제3자가 단말의 화면에 표시된 정보를 보게 되는 경우가 있을 수 있다. 따라서, 컴퓨팅 장치(100)는 단말의 화면 상의 표시되는 적어도 일부의 정보들을 보호하기 위하여, 보호 동작을 수행할 수 있다. In one embodiment, the computing device (100) may perform a protection operation based on the detection result and the reference value. For example, the step (S250) of executing the protection operation based on the detection result and the reference value may include a step of executing the protection operation when the result of performing the detection of facial data within the visual data is less than the reference value, i.e., when it is determined that facial data is not detected. For example, the reference value in step S250 may be set as a first reference value. In addition, the protection operation in step S250 may be set as the first protection operation, and the pre-learned model utilized in step S250 may be set as the first pre-learned model. In other words, when it is determined that facial data is not detected based on the detection result and the reference value, it is determined that there is no human face in the visual data acquired through the shooting module, and therefore, a pre-registered user may be viewed as not being within the shooting area, and therefore, there is a need to protect information displayed on the screen of the terminal among the input/output units (110) of the computing device (100). For example, there may be cases where a third party other than the registered user may view information displayed on the terminal screen outside the shooting area of the shooting module. Accordingly, the computing device (100) may perform a protection operation to protect at least some of the information displayed on the terminal screen.
단말의 화면 상에 표시된 정보들은 개인정보 또는 민감정보를 포함할 수 있다. 예시적으로, 개인정보란, 특정 개인을 직접 또는 간접적으로 식별할 수 있는 정보로서, 주민등록번호나 특정 사이트의 ID, 이메일, 직업, IP주소, 소속회사 등을 포함할 수 있다. 또한, 민감정보란, 개인의 사생활, 신체적/정신적 상태 등을 포함하는 정보로서, 사적인 메시지나 의료 정보, 인터넷 검색 결과, 업무 관련 정보 또는 컴퓨터에 저장된 정보 등을 포함할 수 있다. 본 개시의 일 실시예에 있어서, 보호 동작은 이러한 개인정보 또는 민감정보를 보호하기 위한 동작일 수 있다. 예시적으로, 보호 동작은, 단말의 화면에 표시되는 정보를 보호하기 위하여 상기 화면 상에서의 시각적인 표시를 방해하거나 차단하는 방법으로 동작할 수 있다. Information displayed on the terminal screen may include personal or sensitive information. For example, personal information refers to information that can directly or indirectly identify a specific individual, such as a resident registration number, a specific website ID, an email address, occupation, IP address, or company. Furthermore, sensitive information refers to information regarding an individual's private life, physical/mental state, etc., and may include private messages, medical information, Internet search results, work-related information, or information stored on a computer. In one embodiment of the present disclosure, a protection operation may be an operation to protect such personal or sensitive information. For example, the protection operation may operate by interfering with or blocking visual display on the terminal screen to protect the information displayed on the terminal screen.
일례로, 제 1 보호 동작은, 필터 동작 또는 투명화 동작 중 적어도 하나를 포함할 수 있다. 일 실시예에 있어서, 필터 동작이란, 화면 상에 표시되는 창에 필터 레이어(Layer)를 덮어 씌우는 동작일 수 있다. 상기 필터는 단색의 불투명 내지 반투명한 레이어일 수 있고, 또는 이미지나 그림이 삽입된 불투명 내지 반투명한 레이어일 수도 있다. 또한, 투명화 동작이란, 화면 상에 표시되는 창 자체의 투명도를 조정하는 동작일 수 있다. 이러한 투명화 동작은, 사전에 설정된 투명도에 기초하여 화면 상에 표시되는 창을 반투명 내지 투명하게 형성할 수 있다. 예시적으로, 필터 동작은, 화면 상에 표시되는 정보를 확실히 가리는 목적으로 활용될 수 있으며, 또는 이미지가 포함된 레이어를 활용하여 화면 상에 표시되는 정보를 다른 정보로 속이기 위한 목적으로 활용될 수도 있다. 예시적으로, 투명화 동작은, 사전에 투명도를 높게 설정해 둔 경우에 있어서, 보호 대상인 창이 투명해짐으로써 상기 창의 존재 여부를 시각적으로 인식하기 어렵게 하고, 이를 통해 제3자가 보호 동작의 실행 여부를 판단하기 어렵게 하는 효과가 있을 수 있다.
본 명세서에서 '창' 또는 '화면 상에 표시되는 창'이라 함은, 통상의 기술자가 이해하는 바와 같이, 디스플레이 장치의 화면에 그래픽 사용자 인터페이스를 통해 표시되는 모든 형태의 사용자 인터페이스 요소를 포함하며, 이는 애플리케이션 실행 창, 웹 브라우저 창, 운영체제의 시스템 설정 창, 팝업 창, 대화 상자(Dialog Box) 등과 같이 사용자와의 인터랙션을 제공하는 소프트웨어 기반 윈도우를 포함하는 것으로 해석될 수 있다.For example, the first protection operation may include at least one of a filter operation or a transparency operation. In one embodiment, the filter operation may be an operation of covering a window displayed on the screen with a filter layer. The filter may be a single-colored, opaque or translucent layer, or an opaque or translucent layer with an image or picture inserted therein. In addition, the transparency operation may be an operation of adjusting the transparency of the window itself displayed on the screen. This transparency operation may form the window displayed on the screen translucent or transparent based on a preset transparency. For example, the filter operation may be utilized for the purpose of clearly obscuring information displayed on the screen, or may be utilized for the purpose of deceiving the information displayed on the screen as different information by utilizing a layer containing an image. For example, the transparency operation may have the effect of making the window to be protected transparent when the transparency is set high in advance, thereby making it difficult to visually recognize the presence of the window, thereby making it difficult for a third party to determine whether the protection operation has been performed.
In this specification, the term "window" or "window displayed on the screen" includes all forms of user interface elements displayed on the screen of a display device through a graphical user interface, as understood by those of ordinary skill in the art, and may be interpreted to include software-based windows that provide interaction with a user, such as an application execution window, a web browser window, an operating system's system settings window, a pop-up window, a dialog box, etc.
일 실시예에 있어서, 컴퓨팅 장치(100)는 사전 학습된 모델을 활용하여 안면 데이터와 안면 인식 데이터의 매칭을 수행할 수 있다. 예시적으로, 사전 학습된 모델을 활용하여 안면 데이터와 안면 인식 데이터를 매칭하는 단계(S300)는, 비주얼 데이터 내에서 탐지된 안면 데이터와 사전 등록된 안면 인식 데이터를 서로 매칭하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 있어서, 안면 인식 데이터란, 등록된 사용자를 인식하기 위한 안면 데이터로서, 사전에 등록된 사용자의 안면을 이미지 내지 변환된 벡터로서 저장한 데이터일 수 있다. 예시적으로, 촬영 모듈을 활용하여 등록하고자 하는 사용자의 안면 이미지 또는 영상을 포함하는 이미지 또는 영상을 획득하면, 상기 획득된 이미지 또는 영상으로부터 사전 학습된 모델에 의해 특징 정보를 추출하여 안면 인식에 적합한 형태로 변환한 것을 안면 인식 데이터에 포함되는 것으로 정할 수 있다. 이때, 상기 특징 정보를 추출하는 사전 학습된 모델은 사전 학습된 제 1 모델 또는 사전 학습된 제 2 모델일 수 있으나, 그와 상이한 사전 학습된 모델일 수도 있다. 일례로, 단계 S300에서 활용되는 사전 학습된 모델은 단계 S200의 사전 학습된 제 1 모델 또는 상기 제 1 모델과 상이한 사전 학습된 제 2 모델일 수 있다. 이러한 S300 단계는, 안면 데이터와 안면 인식 데이터로부터 각 안면의 특징들을 추출하고, 상기 특징들을 기초로, 안면 데이터와 안면 인식 데이터의 유사도를 계산하는 단계를 포함할 수 있다. 이때, 상기 유사도 계산은 코사인 유사도(Cosine Similarity) 또는 유클리드 거리(Euclidean Distance)를 활용하여 수행될 수 있으며, 또는 통상의 기술자가 특별한 어려움 없이 활용 가능한 다양한 계산 방식이 활용될 수도 있다. 상기 유사도 계산의 결과가 안면 데이터와 안면 인식 데이터 간의 매칭 결과에 포함될 수 있다. In one embodiment, the computing device (100) may perform matching of facial data and facial recognition data using a pre-learned model. For example, the step (S300) of matching facial data and facial recognition data using a pre-learned model may include a step of matching facial data detected in visual data with pre-registered facial recognition data. In one embodiment of the present disclosure, the facial recognition data is facial data for recognizing a registered user, and may be data that stores the face of a pre-registered user as an image or a converted vector. For example, when an image or video including a facial image or video of a user to be registered is acquired using a photographing module, feature information may be extracted from the acquired image or video using a pre-learned model and converted into a form suitable for facial recognition, and this may be determined to be included in the facial recognition data. In this case, the pre-learned model for extracting the feature information may be a pre-learned first model or a pre-learned second model, but may also be a different pre-learned model. For example, the pre-trained model utilized in step S300 may be the pre-trained first model of step S200 or a pre-trained second model different from the first model. The step S300 may include a step of extracting features of each face from the facial data and the facial recognition data, and calculating the similarity between the facial data and the facial recognition data based on the features. At this time, the similarity calculation may be performed using cosine similarity or Euclidean distance, or various calculation methods that can be utilized without particular difficulty by a person skilled in the art may be utilized. The result of the similarity calculation may be included in the matching result between the facial data and the facial recognition data.
일 실시예에 있어서, 컴퓨팅 장치(100)는 매칭 결과 및 기준값에 기초하여 보호 동작을 수행할 수 있다. 예시적으로, 매칭 결과 및 기준값에 기초하여 보호 동작을 실행하는 단계(S350)는, 안면 데이터와 안면 인식 데이터의 매칭을 수행한 결과가 기준값에 미달하는 경우, 즉 안면 데이터가 사전 등록된 사용자의 안면이 아닌 것으로 판단된 경우에 보호 동작을 실행하는 단계를 포함할 수 있다. 예시적으로, 단계 S350에서의 기준값을 제 2 기준값으로 정할 수 있다. 또한, 단계 S350에서의 보호 동작을 제 2 보호 동작으로 정할 수 있다. 단계 S350에 있어서, 매칭 결과 및 기준값에 기초하여, 안면 데이터와 안면 인식 데이터가 매칭되지 않는 것으로 판단되는 경우는, 달리 말해 촬영 모듈을 통해 획득된 비주얼 데이터 상에서 탐지된 안면 데이터와 사전 등록된 안면 인식 데이터가 서로 매칭되지 않는 것으로 볼 수 있으므로, 사전 등록된 사용자가 아닌 제3자로부터 컴퓨팅 장치(100)의 입출력부(110) 중 단말의 화면 상에 표시되는 정보들을 보호할 필요성이 있다. 일례로, 등록된 사용자가 아닌 제3자가 단말을 조작하거나 단말의 화면에 표시되는 정보들을 보려고 하는 경우가 있을 수 있다. 따라서, 컴퓨팅 장치(100)는 매칭 결과 및 기준값에 기초하여, 단말의 화면 상의 표시되는 적어도 일부의 정보들을 보호하기 위하여, 보호 동작을 수행할 수 있다.In one embodiment, the computing device (100) may perform a protection operation based on the matching result and the reference value. For example, the step (S350) of executing the protection operation based on the matching result and the reference value may include a step of executing the protection operation when the result of matching the facial data and the facial recognition data is less than the reference value, i.e., when it is determined that the facial data is not the face of a pre-registered user. For example, the reference value in step S350 may be set as a second reference value. In addition, the protection operation in step S350 may be set as the second protection operation. In step S350, when it is determined that the facial data and the facial recognition data do not match based on the matching result and the reference value, in other words, it can be regarded as the facial data detected in the visual data acquired through the photographing module and the pre-registered facial recognition data do not match each other, and therefore, there is a need to protect information displayed on the screen of the terminal among the input/output units (110) of the computing device (100) from a third party who is not a pre-registered user. For example, a third party who is not a registered user may attempt to manipulate the terminal or view information displayed on the terminal's screen. Accordingly, the computing device (100) may perform a protection operation based on the matching results and reference values to protect at least some of the information displayed on the terminal's screen.
일례로, 제 2 보호 동작은 필터 동작, 투명화 동작 또는 알림 동작 중 적어도 하나를 포함할 수 있다. 일 실시예에 있어서, 필터 동작이란, 화면 상에 표시되는 창에 필터 레이어(Layer)를 덮어 씌우는 동작일 수 있다. 상기 필터는 단색의 불투명 내지 반투명한 레이어일 수 있고, 또는 이미지나 그림이 삽입된 불투명 내지 반투명한 레이어일 수도 있다. 또한, 투명화 동작이란, 화면 상에 표시되는 창 자체의 투명도를 조정하는 동작일 수 있다. 이러한 투명화 동작은, 사전에 설정된 투명도에 기초하여 화면 상에 표시되는 창을 반투명 내지 투명하게 형성할 수 있다. 또한, 알림 동작이란, 화면 상에 표시되는 정보들을 가리는 것이 아니더라도, 단말 앞에 위치한 사전 등록된 사용자에게 제3자가 촬영 모듈에 의해 탐지되었음을 인지시키는 알림 동작일 수 있다. 이러한 알림 동작은, 비주얼 데이터 상에서 사전 등록된 사용자가 탐지 및 인식된 상태에서, 동시에 미등록 제3자가 함께 탐지된 경우에, 알림을 통해 제3자가 단말의 화면을 볼 수 있음을 알리는 기능을 할 수 있다. 예시적으로, 필터 동작은, 화면 상에 표시되는 정보를 확실히 가리는 목적으로 활용될 수 있으며, 또는 이미지가 포함된 레이어를 활용하여 화면 상에 표시되는 정보를 다른 정보로 속이기 위한 목적으로 활용될 수도 있다. 예시적으로, 투명화 동작은, 사전에 투명도를 높게 설정해 둔 경우에 있어서, 보호 대상인 창이 투명해짐으로써 상기 창의 존재 여부를 시각적으로 인식하기 어렵게 하고, 이를 통해 제3자가 보호 동작의 실행 여부를 판단하기 어렵게 하는 효과가 있을 수 있다. 예시적으로, 알림 동작은, 필터 동작이나 투명화 동작과 달리 단말의 화면 상에 표시되는 정보를 보이지 않게 하는 조작을 하지 않고, 사용자에게 알림을 제공함으로써, 사용자의 단말 사용에 방해가 되지 않으면서도 제3자의 탐지를 인지할 수 있도록 하는 기능을 할 수 있다. 이러한 알림 동작은, 필터 동작이나 투명화 동작의 작동시에, 등록된 사용자 또한 사전 설정된 보호 앱들의 이용에 방해를 받을 수 있음을 고려하여, 최소한의 정보 보호 조치로서 고안된 것일 수 있다. For example, the second protection action may include at least one of a filter action, a transparency action, or a notification action. In one embodiment, the filter action may be an action of covering a window displayed on the screen with a filter layer. The filter may be a single-colored, opaque or translucent layer, or an opaque or translucent layer with an image or picture inserted therein. In addition, the transparency action may be an action of adjusting the transparency of the window itself displayed on the screen. This transparency action may form the window displayed on the screen translucent or transparent based on a preset transparency. In addition, the notification action may be a notification action that notifies a pre-registered user located in front of the terminal that a third party has been detected by the shooting module, even if it does not obscure information displayed on the screen. This notification action may function to notify, through a notification, that a third party can view the terminal screen when a pre-registered user is detected and recognized on the visual data and an unregistered third party is detected at the same time. For example, a filter operation can be utilized to clearly obscure information displayed on the screen, or it can be utilized to disguise information displayed on the screen as different information by utilizing a layer containing an image. For example, a transparency operation can have the effect of making it difficult to visually recognize the existence of a window to be protected by making it transparent when the transparency has been set high in advance, thereby making it difficult for a third party to determine whether a protection operation has been performed. For example, a notification operation, unlike a filter operation or a transparency operation, does not obscure information displayed on the terminal screen, but rather provides a notification to the user, thereby allowing the user to be aware of detection by a third party without interfering with the user's use of the terminal. Such a notification operation may be designed as a minimum information protection measure, taking into account that registered users may also experience interference with the use of preset protection apps when a filter operation or a transparency operation is activated.
본 개시에 있어서, 사전 설정된 보호 앱이란, 컴퓨팅 장치에 저장되거나 컴퓨팅 장치에서 실행 중인 프로그램 내지 앱을 의미하는 것으로서, 메신저, 메일, 생산성 프로그램, 업무 툴(Tool) 등의 앱 내지 프로그램들 중, 사용자가 사전에 설정하였거나 초기 설정 값으로 지정된 앱 내지 프로그램을 포함할 수 있다. 일례로, 이러한 사전 설정된 보호 앱은, 사전에 등록된 사용자가 컴퓨팅 장치 내에 존재하는 앱 내지 프로그램 중에 사전에 설정한 것일 수 있다. In the present disclosure, a preset protection app refers to a program or app stored or running on a computing device, and may include apps or programs such as messengers, email, productivity programs, and work tools, among which the user has preset or set an initial value. For example, such a preset protection app may be one that a user has preset among apps or programs existing in the computing device, registered in advance.
도 3은 본 개시의 일 실시예에 따른 촬영 모듈을 활용하는 정보 보호 방법을 보다 구체적으로 나타낸 순서도이다.FIG. 3 is a flowchart illustrating in more detail an information protection method utilizing a shooting module according to one embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 안면 인식 데이터를 사전 등록할 수 있다. 예시적으로, 안면 인식 데이터를 사전 등록하는 단계(S110)는, 특정 사용자를 등록하기 위하여 상기 사용자의 안면 인식 데이터를 사전 등록하는 단계를 포함할 수 있다. 이러한 안면 인식 데이터는 특정 사용자의 정면 얼굴 이미지, 측면 얼굴 이미지, 상하측 얼굴 이미지, 또는 얼굴 영상 중 적어도 하나를 활용하여 생성된 데이터일 수 있다. 안면 인식 데이터가 사전 등록되는 단계는, 컴퓨팅 장치(100)가 촬영 모듈을 활용하여 특정 사용자의 안면을 촬영하는 단계; 및 촬영된 이미지 내지 영상을 표준화하는 단계를 포함할 수 있다. 상기 표준화는 픽셀을 표준화하는 단계, 얼굴의 각도나 조명에 따른 차이를 보정하는 단계, 벡터화 단계, 안면 이외의 뒷배경을 제거하는 단계 또는 벡터화된 데이터에서 안면 인식을 위한 특징을 추출하는 단계 중 적어도 하나를 포함하도록 구성될 수 있다. According to one embodiment of the present disclosure, the computing device (100) may pre-register facial recognition data. For example, the step of pre-registering facial recognition data (S110) may include a step of pre-registering facial recognition data of a specific user in order to register the user. Such facial recognition data may be data generated using at least one of a frontal face image, a side face image, an upper and lower face image, or a facial image of the specific user. The step of pre-registering facial recognition data may include a step of the computing device (100) using a photographing module to photograph the face of the specific user; and a step of standardizing the photographed image or video. The standardization may be configured to include at least one of a step of standardizing pixels, a step of correcting differences due to an angle or lighting of the face, a vectorization step, a step of removing a background other than the face, or a step of extracting features for facial recognition from the vectorized data.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 안면 인식 데이터와 비주얼 데이터를 표준화할 수 있다. 예시적으로, 안면 인식 데이터와 비주얼 데이터를 표준화하는 단계(S150)는, 안면 인식 데이터를 안면 인식에 최적화된 상태로 표준화하는 단계; 및 비주얼 데이터를 안면 탐지에 최적화된 상태로 표준화하는 단계를 포함할 수 있다. 일례로, 안면 인식에 최적화된 상태로 표준화하는 단계는, 픽셀을 표준화하는 단계, 얼굴의 각도나 조명에 따른 차이를 보정하는 단계, 벡터화 단계, 특징을 추출하는 단계 또는 안면 이외의 뒷배경을 제거하는 단계 중 적어도 하나를 포함할 수 있다. 또한, 안면 탐지에 최적화된 상태로 표준화하는 단계는, 픽셀을 표준화하는 단계, 벡터화 단계, 또는 이미지를 여러 직사각형 Anchor들로 세분화하고 Tensor 형태로 변환하는 단계 중 적어도 하나를 포함할 수 있다.According to one embodiment of the present disclosure, the computing device (100) can standardize facial recognition data and visual data. For example, the step of standardizing the facial recognition data and the visual data (S150) may include the step of standardizing the facial recognition data to a state optimized for facial recognition; and the step of standardizing the visual data to a state optimized for facial detection. For example, the step of standardizing to a state optimized for facial recognition may include at least one of the steps of standardizing pixels, correcting differences due to angle or lighting of the face, vectorization, feature extraction, or removing a background other than the face. In addition, the step of standardizing to a state optimized for facial detection may include at least one of the steps of standardizing pixels, vectorization, or segmenting an image into multiple rectangular anchors and converting them into a tensor form.
도 4는 본 개시의 일 실시예에 따라 안면 데이터 탐지에 기초한 정보 보호 단계를 간략히 나타낸 순서도이다.FIG. 4 is a flowchart briefly illustrating information protection steps based on facial data detection according to one embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 사전 학습된 모델을 활용하여 비주얼 데이터 내 안면 데이터를 탐지하고, 상기 탐지의 결과 및 기준값을 기초로, 제 1 보호 동작을 실행하거나 또는 안면 데이터와 안면 인식 데이터의 매칭을 수행할 수 있다. 예시적으로, 상기 탐지 결과가 기준값에 미달하는 경우, 즉 비주얼 데이터 상에서 안면 데이터가 없는 것으로 판단되는 경우에는, 컴퓨팅 장치(100)는 제 1 보호 동작을 실행(S410)할 수 있다. 또는, 상기 탐지 결과가 기준값에 미달하지 않거나 기준값을 충족하는 경우, 즉 비주얼 데이터 상에서 안면 데이터가 탐지된 것으로 판단되는 경우에는, 컴퓨팅 장치(100)는 탐지된 안면 데이터를 매칭하는 단계를 수행할 수 있다. 상기 탐지된 안면 데이터를 매칭하는 단계는, 사전 학습된 모델을 활용하여 탐지된 안면 데이터와 안면 인식 데이터를 매칭하는 단계(S300)일 수 있다. 이처럼 상기 탐지 결과가 기준값을 충족하는 경우, 즉 비주얼 데이터 내에 안면 데이터가 존재하는 것으로 판단된 경우에는, 탐지된 안면 데이터를 활용하여 S300 단계가 수행될 수 있다.According to one embodiment of the present disclosure, the computing device (100) can detect facial data in visual data using a pre-learned model, and based on the detection result and a reference value, execute a first protection operation or match the facial data with facial recognition data. For example, if the detection result is less than the reference value, that is, if it is determined that there is no facial data in the visual data, the computing device (100) can execute the first protection operation (S410). Alternatively, if the detection result is not less than the reference value or satisfies the reference value, that is, if it is determined that facial data has been detected in the visual data, the computing device (100) can perform a step of matching the detected facial data. The step of matching the detected facial data may be a step (S300) of matching the detected facial data with facial recognition data using a pre-learned model. In this way, if the above detection result satisfies the reference value, i.e., if it is determined that facial data exists in the visual data, step S300 can be performed using the detected facial data.
본 개시의 일 실시예에 있어서, 제 1 보호 동작을 실행하는 단계(S410)는, 촬영 모듈의 촬영 영역 내에서 안면이 탐지되지 않는 것으로 판단되는 경우에 단말의 화면 상에 표시되는 정보를 보호하기 위한 단계일 수 있다. 이러한 제 1 보호 동작은, 촬영 모듈의 촬영 영역 내에 사람이 없는 경우, 단말의 화면 상에서 표시되는 정보가 외부로 노출되는 것을 방지하기 위한 것일 수 있다. 또한, 제 1 보호 동작은 촬영 모듈의 촬영 영역 밖에서 등록되지 않은 제3자가 단말의 화면상에 표시된 정보를 보지 못하도록 하는 기능을 할 수 있다.In one embodiment of the present disclosure, the step (S410) of executing the first protection operation may be a step for protecting information displayed on the screen of the terminal when it is determined that no face is detected within the shooting area of the shooting module. This first protection operation may be intended to prevent information displayed on the screen of the terminal from being exposed to the outside when there is no person within the shooting area of the shooting module. In addition, the first protection operation may function to prevent unregistered third parties from viewing the information displayed on the screen of the terminal outside the shooting area of the shooting module.
앞서 언급하였듯이, 안면 데이터의 탐지 단계에서의 기준값을 제 1 기준값으로 정할 수 있다. As mentioned above, the reference value in the facial data detection stage can be set as the first reference value.
도 5는 본 개시의 일 실시예에 따라 안면 데이터와 안면 인식 데이터 간의 매칭에 기초한 정보 보호 단계를 간략히 나타낸 순서도이다.FIG. 5 is a flowchart briefly illustrating an information protection step based on matching between facial data and facial recognition data according to one embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 사전 학습된 모델을 활용하여, 탐지된 안면 데이터와 안면 인식 데이터를 매칭하고, 상기 매칭의 결과와 기준값을 기초로, 제 2 보호 동작을 실행하거나 또는 실행하지 않을 수 있다. 예시적으로, 상기 매칭의 결과가 기준값에 미달하는 경우, 즉 탐지된 안면 데이터가 안면 인식 데이터와 서로 다른 안면인 것으로 판단되는 경우, 컴퓨팅 장치(100)는 제 2 보호 동작을 실행(S420)할 수 있다. 또는, 상기 매칭 결과가 기준값에 미달하지 않거나 기준값을 충족하는 경우, 즉 비주얼 데이터 상에서 탐지된 안면 데이터가 안면 인식 데이터와 동일한 안면인 것으로 판단되는 경우에는, 컴퓨팅 장치(100)는 제 2 보호 동작을 실행하지 않을 수 있다. 이처럼 상기 매칭 결과가 기준값을 충족하는 경우, 즉 안면 데이터와 안면 인식 데이터가 동일 인물의 안면으로 판단되는 경우에는, 등록된 사용자가 촬영 영역 내에 있는 것으로 볼 수 있으므로, 단말의 화면 상에 표시되는 정보에 대하여 별도의 보호 동작을 실행하지 않을 수 있다. According to one embodiment of the present disclosure, the computing device (100) may use a pre-learned model to match detected facial data with facial recognition data, and may or may not execute a second protection operation based on the matching result and a reference value. For example, if the matching result is less than the reference value, that is, if the detected facial data is determined to be a different face from the facial recognition data, the computing device (100) may execute the second protection operation (S420). Alternatively, if the matching result is not less than the reference value or satisfies the reference value, that is, if the facial data detected in the visual data is determined to be the same face as the facial recognition data, the computing device (100) may not execute the second protection operation. In this way, if the matching result satisfies the reference value, that is, if the facial data and the facial recognition data are determined to be the face of the same person, it can be seen that a registered user is within the shooting area, and therefore, a separate protection operation may not be executed for information displayed on the screen of the terminal.
앞서 언급하였듯이, 안면 데이터와 안면 인식 데이터의 매칭 단계에서의 기준값을 제 2 기준값으로 정할 수 있다. 이러한 기준값은, 탐지 내지 매칭의 민감도를 결정하는 동시에 오탐 가능성에도 영향을 미치는 파라미터이므로, 각 사용예에 따라 실험을 통해 지정되거나 또는 인공지능을 활용하여 동적으로 설정될 수 있다. As previously mentioned, a second reference value can be set as the baseline during the matching process between facial data and facial recognition data. This reference value, as a parameter that determines the sensitivity of detection and matching while also influencing the likelihood of false positives, can be specified experimentally or dynamically set using artificial intelligence, depending on the specific use case.
도 6은 본 개시의 일 실시예에 따라 하나 이상의 안면 데이터와 안면 인식 데이터 간의 매칭에 기초한 정보 보호 단계를 보다 구체적으로 나타낸 순서도이다.FIG. 6 is a flowchart illustrating in more detail an information protection step based on matching between one or more facial data and facial recognition data according to one embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 사전 학습된 모델을 활용하여, 탐지된 안면 데이터와 안면 인식 데이터를 매칭할 수 있다. 이때, 탐지된 안면 데이터는 하나 이상의 안면 데이터를 포함할 수 있으며, 안면 인식 데이터 또한 하나 이상의 안면 인식 데이터를 포함할 수 있다. 예시적으로, 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하는 경우란, 등록된 사용자 외의 제3자의 안면이 적어도 하나 이상 탐지된 경우일 수 있다. 또한, 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하지 않는 경우란, 등록된 사용자의 안면만이 탐지된 경우일 수 있다. 이때, 등록된 사용자가 복수이고, 각 등록된 사용자에 대응하는 안면 인식 데이터 또한 복수인 경우에도, 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하지 않는 경우란, 등록된 사용자들의 안면만이 탐지된 경우일 수 있다. 결국, 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하지 않는 경우에는, 등록된 사용자만이 단말 상에 표시되는 화면을 보는 것으로 판단할 수 있으므로, 컴퓨팅 장치(100)는 별도의 보호 동작을 수행하지 않을 수 있다. According to one embodiment of the present disclosure, the computing device (100) may match detected facial data with facial recognition data using a pre-trained model. At this time, the detected facial data may include one or more facial data, and the facial recognition data may also include one or more facial recognition data. For example, if there is facial data whose matching result falls below a threshold, this may mean that at least one face of a third party other than the registered user has been detected. Furthermore, if there is no facial data whose matching result falls below a threshold, this may mean that only the faces of the registered users have been detected. In this case, even if there are multiple registered users and multiple facial recognition data corresponding to each registered user, if there is no facial data whose matching result falls below a threshold, this may mean that only the faces of the registered users have been detected. Consequently, if there is no facial data whose matching result falls below a threshold, it may be determined that only the registered user is viewing the screen displayed on the terminal, and therefore the computing device (100) may not perform a separate protection operation.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하는 경우, 기준값을 충족하는 안면 데이터가 존재하는지 여부를 계산할 수 있다. 이때, 기준값을 충족하는 안면 데이터가 존재하는 경우란, 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하는 동시에, 기준값을 충족하는 안면 데이터가 존재하는 경우이므로, 등록된 사용자와 미등록 제3자의 안면이 모두 탐지된 경우일 수 있다. 이때에는, 등록된 사용자의 의도에 따라, 설정된 모드를 기반으로 동작이 상이하게 적용될 수 있다. According to one embodiment of the present disclosure, if there is facial data whose matching result falls short of a reference value, the computing device (100) can calculate whether there is facial data that satisfies the reference value. In this case, the presence of facial data that satisfies the reference value means that there is facial data whose matching result falls short of the reference value, and at the same time, there is facial data that satisfies the reference value. Therefore, this may mean that the faces of both a registered user and an unregistered third party are detected. In this case, depending on the intention of the registered user, the operation may be applied differently based on the set mode.
본 개시의 일 실시예에 있어서, 제 1 모드란, 매칭의 결과, 제 2 기준값에 미달하는 안면 데이터가 하나 이상인 경우에, 제 2 보호 동작을 수행하도록 설정된 모드일 수 있다. 예시적으로, 상기 제 1 모드는, 등록된 사용자가 촬영 영역에 존재하는 경우에도, 등록된 사용자 외의 제3자가 촬영 영역 내에 존재하는 한, 단말의 화면 상에 표시되는 정보를 보호하기 위한 모드일 수 있다. 예를 들어, 제 1 모드는 단말의 화면에 표시되는 다양한 정보들을 등록된 사용자만이 볼 수 있도록 하는 모드일 수 있다. 이러한 제 1 모드는, 제3자와 공유하고 싶지 않거나, 공유해서는 안되는 정보들이 화면 상에 표시되는 경우, 유용하게 활용될 수 있다. In one embodiment of the present disclosure, the first mode may be a mode set to perform a second protection operation when, as a result of matching, one or more pieces of facial data fall below a second reference value. For example, the first mode may be a mode for protecting information displayed on the terminal screen as long as a third party other than the registered user is present in the shooting area, even if the registered user is present in the shooting area. For example, the first mode may be a mode in which only the registered user can view various pieces of information displayed on the terminal screen. This first mode may be useful when information that is not desired to be shared with a third party or should not be shared is displayed on the screen.
본 개시의 일 실시예에 있어서, 제 2 모드란, 매칭의 결과, 제 2 기준값을 충족하는 안면 데이터가 없는 경우에, 제 2 보안 동작을 수행하도록 설정된 모드일 수 있다. 예시적으로, 상기 제 2 모드는, 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 기준값을 충족하는 안면 데이터가 존재하지 않는 경우에, 제 2 보호 동작을 실행(S420)하는 모드일 수 있다. 예시적으로, 상기 제 2 모드는, 등록된 사용자가 촬영 영역 내에 존재하는 경우에는, 등록된 사용자 외의 제3자가 촬영 영역 내에 존재하는 것으로 판단되더라도, 단말의 화면 상에 표시되는 정보를 보호하지 않는 모드일 수 있다. 다만, 제 2 모드로 설정된 경우에 있어서, 단말 화명 상의 정보를 적극적으로 보호하지 않더라도, 등록된 사용자가 촬영 영역 내 제3자의 존재를 인지할 수 있도록 알림 동작을 수행할 수 있다. 상기 알림 동작은 제 2 보호 동작의 일 예로 포함될 수 있으나, 상기 알림 동작이 제 2 보호 동작인 것은 아니다. 이러한 알림 동작은, 등록된 사용자에게 촬영 영역 내에서 탐지된 미등록 제3자의 존재를 알리기 위하여, 단말의 화면상에 표시되는 알림창, 알림음, 진동 등 다양한 알림 신호의 방식이 활용될 수 있다. 예시적으로, 알림 동작시 캐릭터 또는 도형 등의 이미지가 표시될 수 있으며, 알림 동작시 표시되는 이미지의 위치가 좌측인지 또는 우측인지에 따라, 탐지된 미등록 제3자가 촬영 영역의 좌측에서 탐지되었는지 또는 우측에 탐지되었는지 알리는 기능을 할 수도 있다. 이러한 제 2 모드는, 등록된 사용자가 단말을 사용하는 중에는, 미등록 제3자도 단말 화면에 표시되는 정보를 볼 수 있도록 하기 위한 것일 수 있다. 예시적으로, 등록된 사용자가 미등록 제3자와 함께 단말 화면 상의 콘텐츠나 업무상 작성물을 봐야 하는 경우에 있어서, 제 1 모드와 달리 제 2 모드를 통해 단말 화면에 표시되는 정보들을 함께 볼 수 있다. In one embodiment of the present disclosure, the second mode may be a mode set to perform a second security operation when, as a result of matching, there is no facial data that satisfies the second criterion. For example, the second mode may be a mode in which, if there is facial data that falls below the criterion as a result of matching and there is no facial data that satisfies the criterion, a second protection operation is executed (S420). For example, the second mode may be a mode in which, if a registered user is present in the shooting area, information displayed on the terminal screen is not protected even if a third party other than the registered user is determined to be present in the shooting area. However, in the case set to the second mode, even if information on the terminal screen is not actively protected, a notification operation may be performed so that the registered user can recognize the presence of a third party in the shooting area. The notification operation may be included as an example of the second protection operation, but the notification operation is not the second protection operation. This notification action can utilize various notification signals such as a notification window displayed on the terminal screen, a notification sound, and vibration to notify the registered user of the presence of an unregistered third party detected within the shooting area. For example, an image such as a character or a shape can be displayed during the notification action, and depending on whether the location of the image displayed during the notification action is on the left or right, it can have a function of notifying whether the detected unregistered third party was detected on the left or right of the shooting area. This second mode can be used to allow an unregistered third party to view information displayed on the terminal screen while the registered user is using the terminal. For example, in a case where a registered user needs to view content or work-related documents on the terminal screen together with an unregistered third party, unlike the first mode, the information displayed on the terminal screen can be viewed together through the second mode.
이러한 제 1 모드 및 제 2 모드를 포함하는 복수의 모드를 통해, 본 개시는, 각 상황이나 각 상황에 따른 사용자의 의도 혹은 단말이 위치한 장소의 특성에 따라, 단말의 화면에 표시되는 정보들을 어떤 프로세스로 보호할지 최적화하여 구성할 수 있다. 등록된 사용자는 이러한 복수의 모드를 서로 전환하며 본 개시의 방법을 활용함으로써, 각 상황(단말의 장소 또는 사용자의 의도 등)에 따라 최적화된 정보 보호 방법을 활용할 수 있다. Through multiple modes, including the first and second modes, the present disclosure can optimize the process for protecting information displayed on the terminal screen based on each situation, the user's intent for each situation, or the characteristics of the location where the terminal is located. Registered users can switch between these multiple modes and utilize the method of the present disclosure, thereby utilizing an information protection method optimized for each situation (e.g., the location of the terminal, the user's intent, etc.).
본 개시의 일 실시예에 있어서, 안면 인식 데이터와 비주얼 데이터를 표준화하는 단계(S150)는, 안면 인식 데이터의 사전 등록 단계(S110) 또는 비주얼 데이터 획득 단계(S130)에서 이루어질 수 있다. 일례로, 안면 인식 데이터란, 등록하고자 하는 사용자의 안면을 여러 방향 중 적어도 하나의 방향에서 촬영한 이미지 또는 영상을 포함할 수 있다. 일례로, 비주얼 데이터란, 촬영 모듈에 의해 촬영된 촬영 영역의 이미지 또는 영상을 포함할 수 있다. 또는 탐지 내지 매칭 단계에 대하여 최적화의 관점에서 표준화된 상태의 안면 인식 데이터 및 비주얼 데이터 또한, 안면 인식 데이터 및 비주얼 데이터에 포함되는 것으로 이해되어야 한다. 즉, 예시적으로 안면 인식 데이터의 표준화 단계는, 등록 사용자의 안면을 촬영한 원본 이미지를 안면 인식에 최적화하여 표준화하는 단계이거나, 또는 등록 사용자의 안면을 촬영한 원본 이미지를 픽셀이나 각도 조정 등의 1차 표준화를 거친 이후, 안면 인식에 최적화하기 위해 벡터화 등의 2차 표준화를 하는 단계일 수 있다. 일 실시예에 있어서, 상술한 안면 인식 데이터의 표준화 단계에 관한 설명은 비주얼 데이터의 표준화 단계에서도 마찬가지로 적용될 수 있다. In one embodiment of the present disclosure, the step (S150) of standardizing facial recognition data and visual data may be performed in the step (S110) of pre-registering facial recognition data or the step (S130) of acquiring visual data. For example, the facial recognition data may include an image or video of the face of the user to be registered, captured from at least one of several directions. For example, the visual data may include an image or video of a shooting area captured by a shooting module. Alternatively, it should be understood that facial recognition data and visual data that have been standardized from the perspective of optimization for the detection or matching step are also included in the facial recognition data and visual data. That is, for example, the step of standardizing facial recognition data may be a step of standardizing the original image of the registered user's face by optimizing it for facial recognition, or a step of performing a secondary standardization, such as vectorization, on the original image of the registered user's face after undergoing primary standardization, such as pixel or angle adjustment, to optimize it for facial recognition. In one embodiment, the description of the above-described step of standardizing facial recognition data may also be applied to the step of standardizing visual data.
본 개시의 일 실시예에 있어서, 컴퓨팅 장치(100)는 안면 인식 데이터와 안면 데이터의 매칭 결과, 기준값을 충족하는 안면 데이터가 하나 이상인 경우, 사전 학습된 모델을 활용하여 상기 기준값을 충족하는 안면 데이터를 추적할 수 있다. 예시적으로, 안면 인식 데이터와 안면 데이터의 매칭 결과, 기준값을 충족하는 안면 데이터가 하나 이상인 경우, 사전 학습된 모델을 활용하여 상기 기준값을 충족하는 안면 데이터를 추적하는 단계는, 등록된 사용자로 판단되는 안면 데이터를 추적하여 인식률을 높이고, 오탐률을 낮추기 위한 것일 수 있다. 이러한 안면 데이터의 추적을 활용하는 경우, 실시간 웹캠 영상에서 지속적인 안면 인식이 낮은 리소스로 가능하게 할 수 있으며, 매시간 새로이 확보되는 비주얼 데이터에서 안면 데이터를 탐지하고, 이를 인식하는 것보다 효율적으로 본 개시의 정보 보호 방법을 구현할 수 있다. In one embodiment of the present disclosure, if there is at least one facial data satisfying a reference value as a result of matching facial recognition data and facial data, the computing device (100) may track the facial data satisfying the reference value using a pre-trained model. For example, if there is at least one facial data satisfying the reference value as a result of matching facial recognition data and facial data, the step of tracking the facial data satisfying the reference value using a pre-trained model may be to track facial data determined to be a registered user to increase the recognition rate and decrease the false positive rate. When utilizing such tracking of facial data, continuous facial recognition can be performed with low resources in real-time webcam images, and the information protection method of the present disclosure can be implemented more efficiently than detecting and recognizing facial data from visual data newly acquired every hour.
이하에서는 도 7 내지 도 11을 통해 본 개시의 일 실시예에 따른 컴퓨터 프로그램의 동작에 관하여 다양한 상황에 대입하여 개략적으로 설명하고자 한다.Hereinafter, the operation of a computer program according to an embodiment of the present disclosure will be briefly described in various situations through FIGS. 7 to 11.
도 7은 본 개시의 일 실시예에 따라 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하지 않는 상황에서의 동작을 개략적으로 표현한 개략도이다.FIG. 7 is a schematic diagram schematically representing an operation in a situation where there is no facial data whose matching result is below a reference value according to one embodiment of the present disclosure.
본 개시의 일 실시예에 있어서, 컴퓨팅 장치(100)는 비주얼 데이터에서 기준값을 충족하는 안면 데이터가 탐지되고, 상기 안면 데이터 및 안면 인식 데이터의 매칭 결과가 기준값을 충족하는 경우, 별도의 보호 동작 실행 없이 단말의 화면에 표시될 정보를 시각적으로 제어하지 않고, 그대로 표시되도록 할 수 있다. In one embodiment of the present disclosure, when facial data that satisfies a reference value is detected from visual data, and a matching result of the facial data and facial recognition data satisfies the reference value, the computing device (100) can display information to be displayed on the screen of the terminal as is without visually controlling the information without executing a separate protection operation.
도 8은 본 개시의 일 실시예에 따라 탐지 결과가 기준값에 미달하여 제 1 보안 동작이 실행된 것을 개략적으로 표현한 개략도이다.FIG. 8 is a schematic diagram schematically representing that a first security operation is executed when a detection result falls below a reference value according to one embodiment of the present disclosure.
본 개시의 일 실시예에 있어서, 컴퓨팅 장치(100)는 비주얼 데이터에서 기준값을 충족하는 안면 데이터가 탐지되지 않는 경우, 제 1 보호 동작을 수행하여 단말의 화면에 표시되고자하는 정보를 시각적으로 제어하여, 단말 화면 상의 특정 정보를 제3자가 볼 수 없도록 할 수 있다. 이를 통해, 촬영 모듈의 촬영 영역 밖에 제3자가 있는 경우에도, 단말의 화면에 표시되고자 하는 내용이 시각적으로 보호될 수 있다.In one embodiment of the present disclosure, if facial data satisfying a reference value is not detected in the visual data, the computing device (100) performs a first protection operation to visually control information to be displayed on the terminal screen, thereby preventing certain information on the terminal screen from being viewed by third parties. This allows content to be visually protected on the terminal screen even when a third party is outside the shooting area of the shooting module.
도 9는 본 개시의 일 실시예에 따라 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 기준값을 충족하는 안면 데이터도 존재하고, 제 2 모드가 설정된 상황에서의 동작을 개략적으로 표현한 개략도이다.FIG. 9 is a schematic diagram schematically representing an operation in a situation where there is facial data whose matching result falls below a reference value, there is facial data that satisfies the reference value, and a second mode is set, according to one embodiment of the present disclosure.
본 개시의 일 실시예에 있어서, 컴퓨팅 장치(100)는 기준값을 충족하는 복수의 안면 데이터가 탐지된 경우에 있어서, 매칭의 결과가 기준값을 충족하는 안면 데이터가 존재하더라도, 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 제 2 모드로 사전 설정된 경우에는, 보호 동작을 수행하지 않거나 또는 알림 동작만을 수행할 수 있다. 이를 통해, 등록된 사용자가 촬영 영역 내에 존재하는 경우에는, 등록된 사용자의 책임 하에 보호 대상 앱 내지 프로그램의 표시정보를 그대로 화면에 표시할 수 있다. 예시적으로, 알림 동작은, 화면에 표시되는 정보에 대하여 시각적인 제어 기능은 없더라도, 등록된 사용자에게 미등록 제3자의 존재를 인지시키는 역할을 할 수 있다.In one embodiment of the present disclosure, when a plurality of facial data satisfying a reference value are detected, the computing device (100) may not perform a protection operation or may only perform a notification operation if, even if there is facial data satisfying the reference value as a result of matching, there is facial data falling below the reference value as a result of matching and the second mode is preset. Through this, when a registered user is present within the shooting area, the display information of the protected app or program can be displayed on the screen as is under the responsibility of the registered user. For example, the notification operation may serve to notify the registered user of the presence of an unregistered third party even if there is no visual control function for the information displayed on the screen.
도 10은 본 개시의 일 실시예에 따라 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 기준값을 충족하는 안면 데이터도 존재하고, 제 1 모드가 설정된 상황에서의 동작을 개략적으로 표현한 개략도이다.FIG. 10 is a schematic diagram schematically representing an operation in a situation where there is facial data whose matching result falls below a reference value, there is facial data that satisfies the reference value, and the first mode is set, according to one embodiment of the present disclosure.
본 개시의 일 실시예에 있어서, 컴퓨팅 장치(100)는 기준값을 충족하는 복수의 안면 데이터가 탐지된 경우에 있어서, 매칭의 결과가 기준값을 충족하는 안면 데이터가 존재하더라도, 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 제 2 모드로 사전 설정된 경우에는, 제 2 보호 동작을 수행할 수 있다. 이를 통해, 등록된 사용자가 촬영 영역 내에 존재하는 경우에도, 특정 정보에 관하여 등록된 사용자 개인만이 볼 수 있도록 할 수 있다. In one embodiment of the present disclosure, when multiple facial data satisfying a reference value are detected, the computing device (100) may perform a second protection operation if, even if the matching result includes facial data satisfying the reference value, the matching result includes facial data falling below the reference value and the second mode is preset. This allows for specific information to be viewed only by registered users, even if registered users are present within the capture area.
도 11은 본 개시의 일 실시예에 따라 매칭 결과가 기준값에 미달하는 안면 데이터가 존재하고, 기준값을 충족하는 안면 데이터가 존재하지 않는 상황에서의 동작을 개략적으로 표현한 개략도이다.FIG. 11 is a schematic diagram schematically representing an operation in a situation where there is facial data whose matching result falls below a reference value and there is no facial data that satisfies the reference value, according to one embodiment of the present disclosure.
본 개시의 일 실시예에 있어서, 컴퓨팅 장치(100)는 기준값을 충족하는 하나 이상의 안면 데이터가 탐지된 경우에 있어서, 매칭의 결과가 기준값을 충족하는 안면 데이터가 없는 경우에는, 제 2 보호 동작을 수행할 수 있다. 이를 통해, 등록된 사용자 외의 제3자가 보호 대상인 앱이나 프로그램에 관한 정보를 시각적으로 제공받지 못하도록 할 수 있으며, 개인정보 내지 민감정보를 보호할 수 있다. In one embodiment of the present disclosure, if one or more facial data satisfying a threshold value is detected, and if the matching result does not contain any facial data satisfying the threshold value, the computing device (100) may perform a second protection operation. This prevents third parties other than registered users from visually receiving information regarding the protected app or program, thereby protecting personal or sensitive information.
도 7 내지 11에 있어서, 도면 상의 보호 동작들은 필터가 적용된 필터 동작만으로 도시되었으나, 보호 동작은 시각적으로 정보 제공을 제어하는 다양한 동작들로써, 필터 동작으로 한정되는 것이 아니며, 투명화 동작 등이 포함될 수 있다. In FIGS. 7 to 11, the protective operations on the drawings are depicted as only filter operations with a filter applied, but the protective operations are various operations that visually control the provision of information, and are not limited to filter operations, and may include transparency operations, etc.
본 개시의 일 실시예에 있어서, 촬영 모듈을 활용하는 정보 보호 방법은, 사용자가 촬영 모듈을 활용하여 본인의 안면을 안면 인식 데이터로 등록하고, 보호 동작의 대상이 되는 앱 내지 프로그램을 사전 설정하는 단계를 본 개시의 정보 보호 방법의 준비 단계로서 포함할 수 있다. 이를 통해, 본 개시의 방법은, 보호가 필요한 정보를 포함하는 앱 내지 프로그램을 개별적으로 제어하여, 단말 화면 전체를 가려서 정보를 보호하는 방법에 비하여, 사용자의 작업을 방해하는 정도를 낮추면서도, 개인정보 내지 민감정보를 보호하는 효과를 가질 수 있다. 또한, 복수의 모드를 통해, 각 상황에 대한 사용자의 의도에 맞는 모드 설정을 통해 본 개시의 방법을 여러 상황과 의도에 맞게 활용할 수 있다. 본 개시의 방법은, 예시적으로, 메신저 앱에만 적용된 경우, 등록된 사용자만이 메신저의 내용을 볼 수 있도록 하고, 등록된 사용자가 촬영 영역을 떠나거나, 제3자가 촬영 영역 내에서 탐지된 경우에 메신저의 내용이 보이지 않도록 하여 개인정보 내지 민감정보를 보호하는 방식으로 활용될 수 있다. 본 개시는 보호 동작의 대상이 되는 앱 내지 프로그램의 실행 내지 동작에 관한 디렉토리 접근을 통제하는 것 외에, 보호 동작을 통해 화면에 표시되는 상기 앱 내지 프로그램의 정보들을 시각적으로 제어하는 것을 기술적 특징 중 하나로 갖는다. 본 개시의 일 실시예와 같이, 단말의 화면에 표시되는 정보에 대하여 시각적인 제어를 활용하여 정보 보호 기능을 수행하는 경우, 각 앱이나 프로그램의 동작과 처리에 직접적으로 영향을 미치는 것이 아니므로, 다른 정보 보호 방법에 비해 보호 동작에 의한 실행상의 오류 발생가능성을 낮출 수 있으며, 각 단말에 대한 안정화 관점에서도 장점이 있을 수 있다. 이러한 특징을 포함하는 본 개시는, 완전한 접근 통제를 기초로 구성된 정보 보호 방법과 비교할 때 보안성을 적정 수준으로 조정하더라도, 사용성과 안정성을 높인 Soft 보안을 구현하는 것을 일 목적으로 할 수 있다.
본 명세서에서 사용되는 '앱 내지 프로그램'이라는 용어는, 통상의 기술자가 이해하는 바와 같이, 애플리케이션 소프트웨어 또는 실행 가능한 프로그램을 포함하는 의미로 사용될 수 있다.In one embodiment of the present disclosure, a method for protecting information utilizing a photographing module may include, as a preparatory step, a step in which a user registers his/her face as facial recognition data using the photographing module and presets an app or program to be protected. Accordingly, the method of the present disclosure can protect personal information or sensitive information while reducing the degree of interference with the user's work compared to a method of protecting information by covering the entire terminal screen by individually controlling the app or program containing the information requiring protection. Furthermore, the method of the present disclosure can be utilized in various situations and intentions by setting a mode suited to the user's intention for each situation through multiple modes. For example, when applied only to a messenger app, the method of the present disclosure can be utilized in a manner that protects personal information or sensitive information by ensuring that only registered users can view the contents of the messenger and making the contents of the messenger invisible when the registered user leaves the shooting area or a third party is detected within the shooting area. In addition to controlling directory access related to the execution or operation of the app or program to be protected, one of the technical features of the present disclosure is visually controlling the information of the app or program displayed on the screen through the protection operation. As in one embodiment of the present disclosure, when performing an information protection function by utilizing visual control over information displayed on a terminal screen, it does not directly affect the operation and processing of each app or program, thereby reducing the possibility of execution errors due to the protection operation compared to other information protection methods, and may also have advantages in terms of stability for each terminal. The present disclosure, which includes these features, may have the purpose of implementing soft security that enhances usability and stability even when security is adjusted to an appropriate level compared to an information protection method based on complete access control.
The term 'app or program' as used herein may be used to mean application software or an executable program, as understood by a person skilled in the art.
본 개시는 하나 이상의 컴퓨터에서 실행되는 컴퓨터 실행 가능한 명령어와 프로그램 모듈을 포함하여, 하드웨어와 소프트웨어의 조합을 통해 구현될 수 있다. 본 개시의 방법은 단일 프로세서, 멀티 프로세서 시스템, 퍼스널 컴퓨터, 헨드헬드(Handheld) 컴퓨팅 장치, 또는 프로그램 가능한 전자제품 등 다양한 컴퓨터 장치에서 실시될 수 있으며, 언급된 예시들로 제한되지 않는다. The present disclosure may be implemented through a combination of hardware and software, including computer-executable instructions and program modules that run on one or more computers. The methods of the present disclosure may be implemented on various computer devices, including single-processor systems, multi-processor systems, personal computers, handheld computing devices, or programmable electronic devices, and are not limited to the examples mentioned.
일반적으로, 프로그램 모듈은 특정 작업을 수행하거나 특정 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조 등을 포함할 수 있다. 본 개시의 다양한 방법들은 원격 장치 간 통신을 통해 분산 컴퓨팅 환경에서도 실행될 수 있으며, 이러한 환경에서는 프로그램 모듈이 로컬 또는 원격 메모리 장치에 위치할 수 있다. In general, program modules may include routines, programs, components, data structures, etc. that perform specific tasks or implement specific data types. Various methods of the present disclosure may also be implemented in distributed computing environments via communication between remote devices, in which program modules may be located in local or remote memory devices.
본 개시에서, 컴퓨터 판독가능 매체는 휘발성, 비휘발성, 일시적, 비일시적, 이동식, 비이동식의 다양한 형태로 컴퓨터 명령어, 데이터 구조, 프로그램 모듈 등을 저장하는데 사용될 수 있다. 예를 들어, 컴퓨터 판독가능 저장 매체로는 RAM, ROM, EEPROM, 플래시 메모리, CD-ROM, DVD, 자기 디스크 등이 있을 수 있으며, 이들은 데이터를 저장하고 원하는 정보를 제공하는 매체일 수 있다. In the present disclosure, a computer-readable medium can be used to store computer commands, data structures, program modules, etc. in various forms such as volatile, non-volatile, temporary, non-transitory, removable, and non-removable. For example, the computer-readable storage medium can include RAM, ROM, EEPROM, flash memory, CD-ROM, DVD, magnetic disk, etc., and these can be media for storing data and providing desired information.
또한, 본 개시에 있어서, 컴퓨터 판독가능 전송 매체는 반송파(carrier wave)나 피변조 데이터 신호(modulated data signal)와 같은 전송 매커니즘을 통해 명령어와 데이터를 전송할 수 있는 매체를 포함하며, 유선 네트워크 및 무선 네트워크를 모두 포함한다. 이러한 매체들의 조합도 컴퓨터 판독가능 전송 매체로 분류될 수 있다.Additionally, in the present disclosure, a computer-readable transmission medium includes a medium capable of transmitting commands and data via a transmission mechanism such as a carrier wave or a modulated data signal, and includes both wired and wireless networks. A combination of these media may also be classified as a computer-readable transmission medium.
본 개시에서 컴퓨터는 처리 장치, 시스템 메모리, 시스템 버스로 구성될 수 있으며, 시스템 버스는 메모리 버스, 주변 장치 버스 등 다양한 버스 아키텍처와 연결될 수 있다. 시스템 메모리에는 ROM 또는 RAM이 포함될 수 있으며, 이 메모리는 컴퓨터의 기본 입출력 기능과 시동시 정보를 제공하는 기본 입출력 시스템(BIOS)를 포함할 수도 있다. In the present disclosure, a computer may be comprised of a processing unit, system memory, and a system bus, and the system bus may be connected to various bus architectures, such as a memory bus and a peripheral bus. The system memory may include ROM or RAM, and the memory may also include a basic input/output system (BIOS) that provides the computer's basic input/output functions and information at startup.
본 개시에서 컴퓨터는 하드 디스크 드라이브, 플로피 디스크 드라이브, 광 디스크 드라이브 등의 다양한 저장 장치를 포함하며, 이는 시스템 버스에 연결되어 데이터 및 명령어의 휘발성 또는 비휘발성 저장을 제공할 수 있다. HDD, FDD, 광 드라이브는 각각의 인터페이스를 통해 연결될 수 있으며, USB(Universal Serial Bus), 또는 IEEE 1394 등 외장 드라이브의 구현에 필요한 인터페이스를 포함할 수 있다. In the present disclosure, a computer includes various storage devices, such as a hard disk drive, a floppy disk drive, and an optical disk drive, which may be connected to a system bus to provide volatile or non-volatile storage of data and instructions. The HDD, floppy disk drive, and optical drive may be connected via their respective interfaces, and may include interfaces necessary for implementing external drives, such as a Universal Serial Bus (USB) or IEEE 1394.
본 개시에 있어서, 컴퓨터는 운영체제, 애플리케이션 프로그램, 기타 프로그램 모듈 및 프로그램 데이터와 같은 여러 프로그램 모듈을 저장하며, 이러한 프로그램들은 RAM에 캐싱될 수 있다. 이는 다양한 상업적 운영체제 및 그들의 조합에서 실행될 수 있다. In the present disclosure, the computer stores various program modules, such as an operating system, application programs, other program modules, and program data, which may be cached in RAM. The computer may run on various commercial operating systems and combinations thereof.
사용자는 키보드, 마우스 등의 입력 장치를 통해 컴퓨터에 정보를 입력할 수 있으며, 이러한 입력 장치는 시스템 버스에 연결된 입력 장치 인터페이스를 통해 처리 정차에 연결될 수 있다. 모니터 등 디스플레이 장치로 시스템 버스에 연결될 수 있으며, 이를 통해 컴퓨터의 출력이 제공될 수 있다. Users can input information into a computer through input devices such as a keyboard or mouse. These input devices can be connected to a processing unit via an input device interface connected to the system bus. A display device, such as a monitor, can also be connected to the system bus, providing the computer's output.
본 개시에 있어서, 컴퓨터는 근거리 통신망(LAN) 및 원거리 통신망(WAN)과 같은 네트워크 환경에서 원격 컴퓨터와 논리적으로 연결될 수 있다. 이때, 유선 및 무선 통신 네트워크 인터페이스 또는 모뎀을 통해 네트워크에 연결되며, 인터넷 등 외부 네트워크와 연결할 수 있다. 네트워크화 된 환경에서는 프로그램 모듈의 일부분이 원격 저장 장치에 저장될 수도 있다.In the present disclosure, a computer can be logically connected to a remote computer in a network environment, such as a local area network (LAN) or a wide area network (WAN). In this case, the computer can be connected to the network via a wired or wireless communication network interface or modem, and can be connected to an external network, such as the Internet. In a networked environment, portions of the program modules may be stored on a remote storage device.
본 개시의 컴퓨터는 프린터, 스캐너, PDA 또는 통신 위성 등 다양한 무선 장치와 통신할 수 있다. Wi-Fi 및 블루투스와 같은 무선 기술을 통해 기지국 내에서 데이터를 송수신하며, 무선 통신을 활용하여 컴퓨터들 간의 연결 및 인터넷 접속을 지원할 수 있다. 이러한 Wi-Fi 네트워크는 IEEE 802.11 기술을 사용하여 안전하고 신뢰성 있는 고속 무선 연결을 제공할 수 있다. The computer of the present disclosure can communicate with various wireless devices, such as printers, scanners, PDAs, or communication satellites. Data can be transmitted and received within a base station via wireless technologies such as Wi-Fi and Bluetooth, and wireless communication can be utilized to support connections between computers and Internet access. These Wi-Fi networks can provide secure, reliable, high-speed wireless connections using IEEE 802.11 technology.
이러한 컴퓨팅 환경을 통해 다양한 장치와 기능을 통합할 수 있으며, 단일 또는 분산 컴퓨팅 환경에서 본 개시에서 설명되는 발명이 구현 내지 실시될 수 있다. 제시된 프로세스에 표현된 단계들의 순서 또는 계층적 구조는 본 개의 일례일 수 있음을 이해해야 한다. 본 개시에서 설명되는 범위 안에서 프로세스들에 포함되는 각 단계들이 재배열될 수 있으며, 순서와 계층 구조는 본 개시의 설명에 벗어나지 않는 범위 내에서 변경될 수 있다. 본 개시는 청구항들을 통해 다양한 단계들의 엘리먼트들을 제공하나, 제시된 순서 또는 계층 구조로만 한정되는 것은 아니다. 제시된 실시예에 대한 설명들은 통상의 기술자가 본 발명을 실시할 수 있도록 제공되며, 이러한 실시예들을 기초로 하는 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에 의해 행해질 수 있다. 그리하여 본 개시는 제시된 실시예들로 한정되는 것이 아니며, 본 개시에서 설명되는 기술 사상과 기술적 의의를 고려하여 최광의의 범위에서 해석되어야 한다.These computing environments allow for the integration of various devices and functions, and the inventions described in this disclosure can be implemented or practiced in single or distributed computing environments. It should be understood that the order or hierarchical structure of the steps depicted in the presented processes may be merely examples of the present invention. Within the scope described in this disclosure, the individual steps included in the processes may be rearranged, and the order and hierarchy may be changed without departing from the scope of the present disclosure. While the present disclosure provides elements of various steps through the claims, it is not limited to the presented order or hierarchy. The descriptions of the presented embodiments are provided to enable those skilled in the art to practice the present invention, and various modifications based on these embodiments can be made by those skilled in the art. Therefore, the present disclosure is not limited to the presented embodiments, but should be interpreted in the broadest scope in consideration of the technical spirit and technical significance described in the present disclosure.
Claims (15)
촬영 모듈을 활용하여 비주얼 데이터를 획득하는 단계;
보호 동작의 대상이 되는 애플리케이션 소프트웨어 또는 실행 가능한 프로그램이 사전 설정되고, 이를 수신하는 단계;
사전 학습된 제 1 모델을 활용하여 상기 비주얼 데이터 내의 안면 데이터를 탐지하는 단계;
상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하는 단계;
상기 사전 학습된 제 1 모델 또는 사전 학습된 제 2 모델을 활용하여 탐지된 상기 안면 데이터와 안면 인식 데이터를 매칭하는 단계; 및
상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하는 단계
를 포함하고,
상기 제 1 보호 동작 및 상기 제 2 보호 동작은,
단말의 화면에 표시되는 정보에 관하여 상기 보호 동작의 대상이 되는 애플리케이션 소프트웨어 또는 실행 가능한 프로그램에 대한 개별적인 시각적 제어 동작을 포함하고,
상기 제 1 보호 동작은,
필터 동작 또는 투명화 동작 중 적어도 하나를 포함하고,
상기 제 2 보호 동작은,
필터 동작, 투명화 동작 또는 알림 동작 중 적어도 하나를 포함하고,
상기 투명화 동작은,
화면 상에 표시되는 그래픽 사용자 인터페이스 윈도우(GUI window)의 투명도를 조정하는 동작인,
방법.
As an information protection method utilizing a shooting module,
A step of acquiring visual data by using a shooting module;
A step of presetting application software or an executable program that is the target of a protection operation and receiving it;
A step of detecting facial data within the visual data by utilizing a pre-learned first model;
A step of executing a first protection action based on the result of the above detection and the first threshold;
A step of matching the detected facial data and facial recognition data using the pre-learned first model or the pre-learned second model; and
A step of executing a second protection operation based on the result of the above matching and the second reference value.
Including,
The above first protection operation and the above second protection operation are,
Includes individual visual control actions for application software or executable programs that are subject to the above protection actions with respect to information displayed on the terminal screen;
The above first protective action is,
Contains at least one of a filter action or a transparency action,
The above second protective action is,
Contains at least one of a filter action, a transparency action, or a notification action;
The above transparency operation is,
An action that adjusts the transparency of the graphical user interface window (GUI window) displayed on the screen.
method.
상기 촬영 모듈을 활용하여 비주얼 데이터를 획득하는 단계는,
사전 설정된 시간 간격으로 반복 수행되는,
방법.
In the first paragraph,
The step of acquiring visual data using the above shooting module is:
Repeatedly performed at preset time intervals,
method.
상기 촬영 모듈을 활용하여 비주얼 데이터를 획득하는 단계는,
실시간으로 수행되는,
방법.
In the first paragraph,
The step of acquiring visual data using the above shooting module is:
Performed in real time,
method.
상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하는 단계는,
상기 탐지의 결과가 제 1 기준값에 미달하는 경우, 상기 제 1 보호 동작을 실행하는 단계; 및
상기 탐지의 결과가 제 1 기준값을 충족하는 경우, 안면 데이터가 탐지된 것으로 인식하는 단계
를 포함하는,
방법.
In the second or third paragraph,
The step of executing the first protection action based on the result of the above detection and the first threshold value is as follows:
If the result of the above detection falls below the first reference value, a step of executing the first protection operation; and
A step of recognizing that facial data has been detected when the result of the above detection satisfies the first criterion.
including,
method.
상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하는 단계는,
상기 매칭의 결과가 제 2 기준값에 미달하는 경우, 제 2 보호 동작을 실행하는 단계
를 포함하는
방법.
In paragraph 4,
The step of executing the second protection operation based on the result of the above matching and the second reference value is:
A step of executing a second protection operation when the result of the above matching falls below the second reference value.
Including
method.
상기 탐지된 안면 데이터는, 하나 이상의 안면 데이터를 포함하는,
방법.
In paragraph 4,
The above detected facial data includes one or more facial data.
method.
상기 방법은, 사용자의 선택에 의하여 복수의 모드 중 어느 하나의 모드가 설정되는 단계를 더 포함하고,
상기 복수의 모드는, 제 1 모드 및 제 2 모드를 포함하는,
방법.
In paragraph 7,
The method further includes a step of setting one of a plurality of modes according to a user's selection,
The above multiple modes include a first mode and a second mode,
method.
상기 제 1 모드는,
상기 매칭의 결과, 제 2 기준값에 미달하는 안면 데이터가 하나 이상인 경우에, 제 2 보호 동작을 수행하도록 설정된 모드인,
방법.
In paragraph 8,
The above first mode is,
As a result of the above matching, if there is one or more facial data that falls below the second reference value, a mode set to perform the second protection operation,
method.
상기 제 2 모드는,
상기 매칭의 결과, 제 2 기준값을 충족하는 안면 데이터가 없는 경우에, 제 2 보호 동작을 수행하도록 설정된 모드인,
방법.
In paragraph 9,
The second mode is,
As a result of the above matching, if there is no facial data that satisfies the second reference value, the mode is set to perform the second protection operation.
method.
상기 방법은,
적어도 하나의 사용자의 안면 인식 데이터를 사전 등록하는 단계
를 더 포함하고,
상기 제 1 기준값 및 상기 제 2 기준값은, 사전 설정된 것인,
방법.
In paragraph 10,
The above method,
Step of pre-registering facial recognition data of at least one user
Including more,
The above first reference value and the above second reference value are preset,
method.
상기 방법은,
상기 안면 인식 데이터와 상기 비주얼 데이터를 표준화하는 단계
를 더 포함하는,
방법.
In paragraph 10,
The above method,
A step of standardizing the above facial recognition data and the above visual data.
including more,
method.
상기 방법은,
상기 매칭의 결과, 제 2 기준값을 충족하는 안면 데이터가 하나 이상인 경우, 사전 학습된 모델을 활용하여 상기 제 2 기준값을 충족하는 안면 데이터를 추적하는 단계
를 더 포함하는,
방법.
In paragraph 12,
The above method,
As a result of the above matching, if there is one or more facial data satisfying the second criterion, a step of tracking the facial data satisfying the second criterion by utilizing the pre-learned model.
including more,
method.
촬영 모듈를 활용하여 비주얼 데이터를 획득하는 동작;
보호 동작의 대상이 되는 애플리케이션 소프트웨어 또는 실행 가능한 프로그램이 사전 설정되고, 이를 수신하는 동작;
사전 학습된 제 1 모델을 활용하여 상기 비주얼 데이터 내의 안면 데이터를 탐지하는 동작;
상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하는 동작;
상기 사전 학습된 제 1 모델 또는 사전 학습된 제 2 모델을 활용하여 탐지된 상기 안면 데이터와 안면 인식 데이터를 매칭하는 동작; 및
상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하는 동작
을 포함하고,
상기 제 1 보호 동작 및 상기 제 2 보호 동작은,
단말의 화면에 표시되는 정보에 관하여 상기 보호 동작의 대상이 되는 애플리케이션 소프트웨어 또는 실행 가능한 프로그램에 대한 개별적인 시각적 제어 동작을 포함하고,
상기 제 1 보호 동작은,
필터 동작 또는 투명화 동작 중 적어도 하나를 포함하고,
상기 제 2 보호 동작은,
필터 동작, 투명화 동작 또는 알림 동작 중 적어도 하나를 포함하고,
상기 투명화 동작은,
화면 상에 표시되는 그래픽 사용자 인터페이스 윈도우(GUI window)의 투명도를 조정하는 동작인,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable storage medium, wherein when the computer program is executed on one or more processors, the computer program causes the one or more processors to perform the following operations for protecting information by utilizing a shooting module, the operations being:
An action to acquire visual data by utilizing a shooting module;
The application software or executable program that is the target of the protection action is preset and the action of receiving it;
An operation of detecting facial data within the visual data by utilizing a pre-learned first model;
An action of executing a first protection action based on the result of the above detection and the first threshold value;
An operation of matching the detected facial data and facial recognition data using the pre-learned first model or the pre-learned second model; and
An operation for executing a second protection operation based on the result of the above matching and the second reference value.
Including,
The above first protection operation and the above second protection operation are,
Includes individual visual control actions for application software or executable programs that are subject to the above protection actions with respect to information displayed on the terminal screen;
The above first protective action is,
Contains at least one of a filter action or a transparency action,
The above second protective action is,
Contains at least one of a filter action, a transparency action, or a notification action;
The above transparency operation is,
An action that adjusts the transparency of the graphical user interface window (GUI window) displayed on the screen.
A computer program stored on a computer-readable storage medium.
적어도 하나의 프로세서; 및
메모리
를 포함하고,
상기 적어도 하나의 프로세서는,
촬영 모듈을 통해 비주얼 데이터를 획득하고;
보호 동작의 대상이 되는 애플리케이션 소프트웨어 또는 실행 가능한 프로그램이 사전 설정되고, 이를 수신하고;
사전 학습된 제 1 모델을 활용하여 상기 비주얼 데이터 내의 안면 데이터를 탐지하고;
상기 탐지의 결과 및 제 1 기준값(Threshold)에 기초하여 제 1 보호 동작을 실행하고;
상기 사전 학습된 제 1 모델 또는 사전 학습된 제 2 모델을 활용하여 탐지된 상기 안면 데이터와 안면 인식 데이터를 매칭하고; 그리고
상기 매칭의 결과 및 제 2 기준값에 기초하여 제 2 보호 동작을 실행하도록 구성되고,
상기 제 1 보호 동작 및 상기 제 2 보호 동작은,
단말의 화면에 표시되는 정보에 관하여 상기 보호 동작의 대상이 되는 애플리케이션 소프트웨어 또는 실행 가능한 프로그램에 대한 개별적인 시각적 제어 동작을 포함하고,
상기 제 1 보호 동작은,
필터 동작 또는 투명화 동작 중 적어도 하나를 포함하고,
상기 제 2 보호 동작은,
필터 동작, 투명화 동작 또는 알림 동작 중 적어도 하나를 포함하고,
상기 투명화 동작은,
화면 상에 표시되는 그래픽 사용자 인터페이스 윈도우(GUI window)의 투명도를 조정하는 동작인,
장치.
As a computing device,
at least one processor; and
memory
Including,
At least one processor,
Acquire visual data through the shooting module;
The application software or executable program that is the target of the protection action is preset and receives it;
Detecting facial data within the visual data by utilizing a pre-trained first model;
Execute a first protection action based on the result of the above detection and the first threshold;
Matching the detected facial data and facial recognition data using the pre-learned first model or the pre-learned second model; and
It is configured to execute a second protection operation based on the result of the above matching and the second reference value,
The above first protection operation and the above second protection operation are,
Includes individual visual control actions for application software or executable programs that are subject to the above protection actions with respect to information displayed on the terminal screen;
The above first protective action is,
Contains at least one of a filter action or a transparency action,
The above second protective action is,
Contains at least one of a filter action, a transparency action, or a notification action;
The above transparency operation is,
An action that adjusts the transparency of the graphical user interface window (GUI window) displayed on the screen.
device.
Publications (1)
Publication Number | Publication Date |
---|---|
KR102866131B1 true KR102866131B1 (en) | 2025-10-01 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3692461B1 (en) | Removing personally identifiable data before transmission from a device | |
US10114968B2 (en) | Proximity based content security | |
US20190384941A1 (en) | Video-based privacy supporting system | |
WO2019101021A1 (en) | Image recognition method, apparatus, and electronic device | |
US20200279120A1 (en) | Method, apparatus and system for liveness detection, electronic device, and storage medium | |
US11748508B2 (en) | Display method and apparatus, and terminal | |
JP2022547872A (en) | Face image transmission method, value transfer method, device and electronic device | |
CN110457963B (en) | Display control method, device, mobile terminal, and computer-readable storage medium | |
CN113486377A (en) | Image encryption method and device, electronic equipment and readable storage medium | |
EP3224757B1 (en) | In-device privacy framework for smart glasses and smart watches | |
US20240272720A1 (en) | Methods and apparatuses for controlling a system via a sensor | |
EP3617851B1 (en) | Information processing device, information processing method, and recording medium | |
CN111050077B (en) | Shooting method and electronic equipment | |
CN111818050A (en) | Target access behavior detection method, system, device, equipment and storage medium | |
KR20220103782A (en) | Object display method and electronic device | |
CN111967871B (en) | Secure payment method, device and storage medium | |
CN111159687B (en) | Account information processing method, electronic equipment and server | |
CN113923461A (en) | Screen recording method and screen recording system | |
CN107729886B (en) | Method and device for processing face image | |
KR102866131B1 (en) | Method for protecting information using camera module | |
CN108604128B (en) | A processing method and mobile device | |
JP2022081071A (en) | Remote work information protection system | |
KR20200132930A (en) | Image capture device and method for safe image storage | |
JP2022178687A (en) | Information processing apparatus and information processing program | |
US20200084623A1 (en) | Controlling operation of a mobile device based on user identification |