KR102690927B1 - Appartus of providing service customized on exhibit hall and controlling method of the same - Google Patents
Appartus of providing service customized on exhibit hall and controlling method of the same Download PDFInfo
- Publication number
- KR102690927B1 KR102690927B1 KR1020210164958A KR20210164958A KR102690927B1 KR 102690927 B1 KR102690927 B1 KR 102690927B1 KR 1020210164958 A KR1020210164958 A KR 1020210164958A KR 20210164958 A KR20210164958 A KR 20210164958A KR 102690927 B1 KR102690927 B1 KR 102690927B1
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- image
- user
- exhibition
- exhibit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법이 개시된다. 이에 의하면, 전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 영상 처리부; 와, 상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 관심도 추정부; 및, 상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하고, 상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 제어부; 를 포함할 수 있다.A device for providing customized exhibition hall services and a method for controlling the same are disclosed. According to this, an image processing unit that acquires a first image of a user adjacent to an exhibition object and detects a second image of a face area by applying an object detection algorithm to the first image; If it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image and the user's view of the exhibit is based on the feature point. an interest estimation unit that estimates the emotions of; and a control unit that analyzes the correlation between the user's emotions and the level of interest in the exhibit, and generates and quantifies the level of interest as numerical data based on the correlation. may include.
Description
본 발명은 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법에 관한 것으로서, 보다 상세하게는 전시품에 대한 관람객의 관심도를 객관적 지표로 제공할 수 있는 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법에 관한 것이다. The present invention relates to an exhibition hall customized service provision device and a control method thereof, and more specifically, to an exhibition hall customized service provision device and a control method thereof that can provide objective indicators of visitors' level of interest in exhibition items.
최근 다양한 서비스 분야에서 사용자의 개별적 요구를 파악하여 맞춤형 서비스를 제공함으로써 서비스의 경쟁력을 높이기 위한 다양한 기술 및 방법들이 제안되고 있다. 이를 위해서는 사용자의 개별적 요구를 정확하고 효과적으로 파악해야 한다.Recently, various technologies and methods have been proposed in various service fields to increase the competitiveness of services by identifying users' individual needs and providing customized services. To achieve this, the individual needs of users must be accurately and effectively identified.
사용자의 개별적 요구를 파악하기 위해 가장 일반적으로 사용되는 방법은 성별이나 연령대와 같은 신체적 정보를 분석하거나, 직업이나 교육 수준과 같은 사회적 정보에 기반하는 것이다. 그러나, 이러한 정보들은 분류 기준이 적은 개수로 한정되어 있어, 점점 복잡해지는 사용자의 개별적 요구를 충족시킬 수 없다.The most commonly used methods to identify users' individual needs are based on analyzing physical information such as gender or age, or social information such as occupation or education level. However, this information is limited to a small number of classification criteria and cannot meet the increasingly complex individual needs of users.
이에 따라, 영상 처리 기반으로 사용자의 감정 상태를 분석하는 방법도 제시되었다. 그러나, 현재의 감정 상태 분석 방법들은 사용자의 개인적 상태에 따라 실시간으로 변화하는 감정을 인식하는 것에 불과하다.Accordingly, a method for analyzing the user's emotional state based on image processing was also proposed. However, current emotional state analysis methods only recognize emotions that change in real time according to the user's personal state.
전시관에서 서비스를 제공함에 있어서, 관람객의 만족도 및 호응을 높이려면 관람객이 전시물에 대해 가지는 관심도가 분석되어야 한다. 그러나, 현재 관람객의 전시물에 대한 관심도를 분석하는 객관적 방법은 존재하지 않는다. When providing services at an exhibition hall, the level of interest visitors have in exhibits must be analyzed to increase visitor satisfaction and response. However, there is currently no objective way to analyze visitors' interest in exhibits.
본 발명이 해결하고자 하는 과제는, 전시물에 대한 관심도를 분석하여 객관적 데이터로 제공할 수 있는 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide an exhibition hall customized service provision device and a control method that can analyze interest in exhibition objects and provide objective data.
또한, 본 발명이 해결하고자 하는 과제는, 다양한 파라미터와 분석 방법을 적용하여 전시물에 대한 관심도를 보다 정확하고 신뢰성 있게 분석할 수 있는 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법을 제공하는 것이다.In addition, the problem to be solved by the present invention is to provide an exhibition hall customized service provision device and a control method that can more accurately and reliably analyze interest in exhibition objects by applying various parameters and analysis methods.
본 발명의 일 실시예에 의한 전시관 맞춤형 서비스 제공 장치는, 전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 영상 처리부; 와, 상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 관심도 추정부; 및, 상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하고, 상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 제어부; 를 포함한다.An exhibition hall customized service provision device according to an embodiment of the present invention acquires a first image of a user adjacent to an exhibition object and applies an object detection algorithm to the first image to detect a second image of the face area. image processing unit; If it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image and the user's view of the exhibit is based on the feature point. an interest estimation unit that estimates the emotions of; and a control unit that analyzes the correlation between the user's emotions and the level of interest in the exhibit, and generates and quantifies the level of interest as numerical data based on the correlation. Includes.
상기 전시관 맞춤형 서비스 제공 장치에 있어서, 상기 관심도 추정부는, 상기 제2영상으로부터 상기 얼굴의 방향을 추정하여 상기 얼굴의 방향이 상기 전시물을 향하는지 여부를 판단하고, 상기 사용자의 시선의 시야각을 계산하고 상기 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후, 이에 기초하여 상기 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다.In the exhibition hall customized service providing device, the interest estimator estimates the direction of the face from the second image, determines whether the direction of the face is toward the exhibition object, and calculates a viewing angle of the user's gaze. After determining whether the exhibition object is included within the viewing angle, it can be determined based on this whether the user is looking at the exhibition object.
상기 전시관 맞춤형 서비스 제공 장치에 있어서, 상기 제어부는, 상기 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 상기 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출하되, 상기 복수개의 계층을 소정 계층을 기준으로 상기 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 상기 소정 계층 및 상기 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고, 상기 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 상기 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식할 수 있다. In the exhibition hall customized service providing device, the control unit inputs the second image into a convolutional neural network related to face recognition, extracts a plurality of feature vectors from a plurality of layers constituting the convolutional neural network, and extracts a plurality of feature vectors to determine gender and age. Information is extracted, but the plurality of layers are divided into a first layer group consisting of layers lower than the predetermined layer and a second layer group consisting of the predetermined layer and layers higher than the predetermined layer based on the predetermined layer. And, gender can be recognized based on the feature vector extracted by the first layer group, and age can be recognized based on the feature vectors extracted by the first layer group and the second layer group.
상기 전시관 맞춤형 서비스 제공 장치에 있어서, 상기 제어부는, 상기 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고, 상기 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시킬 수 있다.In the exhibition hall customized service providing device, the control unit sets a tracking ID by applying an image tracking algorithm to the second image, generates a detection area of interest based on the tracking ID, and calculates the Kalman from the detection area of interest. A predicted region of interest estimated through a filter is generated, and the detection region of interest and the predicted region of interest can be matched one-to-one based on the size of the intersection area of the detection region of interest and the predicted region of interest.
본 발명의 다른 실시예에 의한 전시관 맞춤형 서비스 제공 장치의 제어 방법은, 전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 단계; 와, 상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 단계; 와, 상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하는 단계; 및, 상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 단계; 를 포함할 수 있다.A control method of an exhibition hall customized service provision device according to another embodiment of the present invention includes acquiring a first image of a user adjacent to an exhibition object, applying an object detection algorithm to the first image, and generating a second image of the face area. detecting; If it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image and the user's view of the exhibit is based on the feature point. estimating emotions; and analyzing the correlation between the user's emotions and interest in the exhibition object; And, generating and quantifying the interest level as numerical data based on the correlation; may include.
상기 전시관 맞춤형 서비스 제공 장치의 제어 방법에 있어서, 상기 제2영상으로부터 상기 얼굴의 방향을 추정하여 상기 얼굴의 방향이 상기 전시물을 향하는지 여부를 판단하고, 상기 사용자의 시선의 시야각을 계산하고 상기 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후, 이에 기초하여 상기 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다.In the control method of the exhibition hall customized service providing device, the direction of the face is estimated from the second image to determine whether the direction of the face is toward the exhibition object, the viewing angle of the user's gaze is calculated, and the viewing angle is calculated. After determining whether the exhibition object is included in the display, it can be determined based on this whether the user is looking at the exhibition object.
상기 전시관 맞춤형 서비스 제공 장치의 제어 방법에 있어서, 상기 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 상기 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출하되, 상기 복수개의 계층을 소정 계층을 기준으로 상기 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 상기 소정 계층 및 상기 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고, 상기 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 상기 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식할 수 있다.In the control method of the exhibition hall customized service providing device, the second image is input to a convolutional neural network related to face recognition, and a plurality of feature vectors are extracted from a plurality of layers constituting the convolutional neural network to provide gender and age information. Extracting the plurality of layers, dividing the plurality of layers into a first layer group consisting of layers lower than the predetermined layer and a second layer group consisting of the predetermined layer and layers higher than the predetermined layer, and , gender can be recognized based on the feature vector extracted by the first layer group, and age can be recognized based on the feature vectors extracted by the first layer group and the second layer group.
상기 전시관 맞춤형 서비스 제공 장치의 제어 방법에 있어서, 상기 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고, 상기 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시킬 수 있다.In the control method of the exhibition hall customized service providing device, an image tracking algorithm is applied to the second image to set a tracking ID, a detection area of interest is generated based on the tracking ID, and a Kalman filter is used from the detection area of interest. A predicted region of interest estimated through is generated, and the detection region of interest and the predicted region of interest can be matched one-to-one based on the size of the intersection area of the detection region of interest and the predicted region of interest.
본 발명의 실시예에 따르면, 전시물에 대한 관심도를 분석하여 객관적 데이터로 제공할 수 있고, 객관적 데이터에 기초하여 관람객에게 맞춤형 서비스를 제공할 수 있다. According to an embodiment of the present invention, interest in exhibition objects can be analyzed and provided as objective data, and customized services can be provided to visitors based on the objective data.
또한, 본 발명의 실시예에 따르면, 다양한 파라미터와 분석 방법을 적용하여 전시물에 대한 관심도를 보다 정확하고 신뢰성 있게 분석할 수 있다. Additionally, according to an embodiment of the present invention, the degree of interest in an exhibit can be analyzed more accurately and reliably by applying various parameters and analysis methods.
나아가, 본 발명의 실시예에 따르면, 획득한 객관적 데이터에 기초하여 전시관의 차기 전시품 또는 콘텐츠를 결정할 수 있고 각 계층에 최적화된 맞춤형 서비스를 제공할 수 있다.Furthermore, according to an embodiment of the present invention, the next exhibit or content of the exhibition hall can be determined based on the acquired objective data and customized services optimized for each class can be provided.
도 1은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 전시관 맞춤형 서비스 제공 장치가 관심도에 대한 통계자료를 생성하는 과정을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객의 시선을 검출하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 학습된 신경망 모델을 사용하는 경우를 설명하기 위한 도면이다.
도 5는 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객 별로 관심도가 중복되는 경우를 방지하기 위한 알고리즘을 설명하기 위한 도면이다.
도 6은 본 발명에서 관심도가 중복되는 경우를 방지하기 위한 알고리즘을 적용한 일 예를 도시한다.
도 7은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객의 감정을 인식하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치의 제어 과정을 도시한 도면이다.
도 9는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.Figure 1 is a block diagram showing the configuration of an exhibition hall customized service provision device according to the present invention.
FIG. 2 is a diagram illustrating a process in which an exhibition hall customized service providing device generates statistical data on interest level according to an embodiment of the present invention.
Figure 3 is a diagram for explaining how the exhibition hall customized service provision device according to the present invention detects the gaze of a visitor.
Figure 4 is a diagram for explaining a case where the exhibition hall customized service provision device according to the present invention uses a learned neural network model.
Figure 5 is a diagram illustrating an algorithm for preventing overlapping interest levels for each visitor in the exhibition hall customized service provision device according to the present invention.
Figure 6 shows an example of applying an algorithm for preventing overlapping interests in the present invention.
Figure 7 is a diagram for explaining how the exhibition hall customized service provision device according to the present invention recognizes the emotions of visitors.
Figure 8 is a diagram showing the control process of the exhibition hall customized service provision device according to the present invention.
9 is a diagram illustrating a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In this specification, duplicate descriptions of the same components are omitted.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when a component is mentioned as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but may be connected to the other component in the middle. It should be understood that may exist. On the other hand, in this specification, when it is mentioned that a component is 'directly connected' or 'directly connected' to another component, it should be understood that there are no other components in between.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.Additionally, the terms used in this specification are merely used to describe specific embodiments and are not intended to limit the present invention.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Also, in this specification, singular expressions may include plural expressions, unless the context clearly dictates otherwise.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, terms such as 'include' or 'have' are only intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, and one or more It should be understood that this does not preclude the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also, in this specification, the term 'and/or' includes a combination of a plurality of listed items or any of the plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Additionally, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.
도 1은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치의 구성을 도시한 블록도이다.Figure 1 is a block diagram showing the configuration of an exhibition hall customized service provision device according to the present invention.
본 발명에 따른 전시관 맞춤형 서비스 제공 장치(100)는 전시관을 방문하는 관람객의 다양한 선호도와 관심을 분석할 수 있으며, 이를 위해 전시관 로봇, 서버 장치, 키오스크 단말 등의 형태로 구현될 수 있다. The exhibition hall customized
본 발명에 따른 전시관 맞춤형 서비스 제공 장치(100)는 영상 처리부(110), 관심도 추정부(120) 및 제어부(130)를 포함하여 구성될 수 있다.The exhibition hall customized
영상 처리부(110)는 전시관 맞춤형 서비스 제공을 위해 요구되는 영상을 획득하고 처리할 수 있다. 이를 위해, 영상 처리부(110)는 일반 카메라, 스테레오 카메라, 깊이 카메라 및 스캐너 등으로 구현될 수 있다.The
일 예에 의하면, 영상 처리부(110)는 카메라(미도시)를 포함할 수 있다. 여기서, 카메라(미도시)는 제어부(130)로부터 수신되는 제어 신호, 기 설정된 조건의 만족 및 기 설정된 이벤트 중 어느 하나에 따라 턴 온 되어 촬영을 수행할 수 있다.According to one example, the
카메라(미도시)는 촬상된 영상을 전기적인 신호로 변환하고, 변환된 신호에 기초하여 영상데이터를 생성할 수 있다. 예를 들어, 피사체는 반도체 광학소자(CCD; Charge Coupled Device)를 통해 전기적인 영상 신호로 변환되고, 이와 같이 변환된 영상 신호는 증폭 및 디지털 신호로 변환된 후 신호 처리될 수 있다.A camera (not shown) can convert a captured image into an electrical signal and generate image data based on the converted signal. For example, a subject is converted into an electrical image signal through a semiconductor optical device (CCD; Charge Coupled Device), and the converted image signal can be amplified and converted into a digital signal and then processed.
구체적으로, 영상 처리부(110)는 전시물에 인접한 사용자에 대한 제1영상을 획득하고, 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출할 수 있다.Specifically, the
일 예에 따라, 제1영상은 전시물로부터 소정 거리 내로 접근하거나 전시물과 인접하여 정지 상태에 있는 사용자에 대한 영상이다. 바람직하게는, 제1영상은 사용자의 안면의 대부분을 포함하도록 촬영될 수 있다. 제2영상은 제1영상으로부터 얼굴 영역만을 검출한 영상이다. 바람직하게는, 제2영상은 시선의 방향, 시선의 시야각, 얼굴 방향 등을 판단할 수 있도록, 사용자의 전 측면에서 복수개로 촬영될 수 있다. According to one example, the first image is an image of a user approaching within a predetermined distance from an exhibition object or in a stationary state adjacent to an exhibition object. Preferably, the first image may be captured to include most of the user's face. The second image is an image in which only the face area is detected from the first image. Preferably, a plurality of second images may be captured from all sides of the user to determine the direction of gaze, viewing angle of gaze, face direction, etc.
관심도 추정부(120)는 전시물에 대한 사용자의 관심을 추정할 수 있다.The
구체적으로, 관심도 추정부(120)는 제2영상에 대해 시선 추적 알고리즘을 적용하여 사용자가 전시물을 바라보고 있는 상태라고 판단되면, 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 전시물에 대한 사용자의 감정을 추정할 수 있다. Specifically, the
일 실시예에 의하면, 관심도 추정부(120)는, 제2영상으로부터 얼굴의 방향을 추정하여 얼굴의 방향이 전시물을 향하는지 여부를 판단하고, 사용자의 시선의 시야각을 계산하여 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후, 이에 기초하여 사용자가 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다. 예를 들어, 사용자의 얼굴 방향이 전시물을 향하는 경우라도, 전시물이 사용자의 시선에 대한 시야각을 벗어나게 되면, 관심도 추정부(120)는 이를 유효하지 않은 데이터로 분류하고 분석대상에서 제외할 수 있다. According to one embodiment, the
제어부(130)는 사용자의 감정과 전시물에 대한 관심도와의 상관 관계를 분석하고, 상관 관계에 기초하여 관심도를 수치데이터로 생성하여 수치화할 수 있다. The
사용자의 감정은 일시적이므로, 현재 서비스 제공 시 참고가 될 수는 있어도 향후의 서비스 방향을 계획하거나 사용자에게 최적화된 서비스를 제공하는데 있어서는 도움이 될 수 없다. 따라서, 본 발명에서는 다양한 인공지능 학습에 의해 사용자의 감정에 기초하여, 감정과 관심도의 상관관계 및 관심도를 추출한다.Since the user's emotions are temporary, although they may serve as a reference when providing current services, they cannot be helpful in planning future service directions or providing optimized services to users. Therefore, in the present invention, the correlation between emotions and interest and interest are extracted based on the user's emotions through various artificial intelligence learning methods.
여기서 관심도는 객관적 데이터로 수치화될 수 있다. 관심도를 수치화하는 경우, 전시품에 대한 관심도를 통계 자료로 작성할 수 있고 이러한 통계 자료는 전시관 맞춤형 서비스를 제공하는데 있어서 객관적 참고자료로 사용할 수 있다.Here, the level of interest can be quantified with objective data. When quantifying the level of interest, the level of interest in exhibits can be created as statistical data, and these statistical data can be used as objective reference data in providing customized services for the exhibition hall.
나아가, 관심도는 성별 및 연령대 등과 연관되어 분석될 수 있다. 이 경우, 관심도와 성별 및 연령대와의 상관관계를 도출하고, 이에 기초하여 전시물이나 전시 방향 등을 설정할 수 있다. Furthermore, interest can be analyzed in relation to gender and age group, etc. In this case, the correlation between interest and gender and age group can be derived, and based on this, exhibits or exhibition directions can be set.
구체적으로, 제어부(130)는 인공지능에 의한 학습을 수행하여 제2영상으로부터 필요한 정보를 추출할 수 있다. Specifically, the
일 실시예에 의하면, 제어부(130)는 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출할 수 있다. 이 경우, 복수개의 계층을 소정 계층을 기준으로, 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 소정 계층 및 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고, 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식할 수 있다. 즉, 성별과 같이 대략적인 특징으로부터 추출할 수 있는 정보는 낮은 계층들에 의해 학습을 수행하고, 연령대와 같이 세부적인 특징으로부터 추출할 수 있는 정보는 낮은 계층뿐 아니라 높은 계층에 의한 학습을 수행한다.According to one embodiment, the
제어부(130)는 관심도를 추출하는 경우 동일 사용자에 대한 중복이 발생하지 않게 할 수 있다. 예를 들어, 동일 사용자의 관심도가 중복되게 추출되면, 정보가 왜곡된다. 따라서, 본 발명에서는 사용자에 대한 검출관심영역과 예측관심영역을 일대일로 매칭하고, 이에 기초하여 동일 사용자에 대한 중복이 발생하지 않게 관심도를 추출한다. When extracting interest, the
이를 위해, 제어부(130)는 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고, 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시킬 수 있다.To this end, the
일 실시예에 의하면, 제어부(130)는 인공 신경망 모델을 실행하기 위하여, CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공 지능 전용 프로세서과 소프트웨어의 조합을 통해 구현될 수 있다. 제어부(130)는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공 신경망 모델에 따라, 입력 데이터를 처리하도록 제어할 수 있다. 또는, 제어부(130)가 전용 프로세서(또는 인공 지능 전용 프로세서)인 경우, 특정 인공 신경망 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. 예를 들어, 특정 인공 신경망 모델의 처리에 특화된 하드웨어는 ASIC, FPGA 등의 하드웨어 칩으로 설계될 수 있다. 제어부(130)가 전용 프로세서로 구현되는 경우, 본 개시의 실시 예를 구현하기 위한 메모리를 포함하도록 구현되거나, 외부 메모리를 이용하기 위한 메모리 처리 기능을 포함하도록 구현될 수 있다.According to one embodiment, in order to execute an artificial neural network model, the
일 실시예에 따라 제어부(130)는 학습된 인공 신경망 모델을 이용하여 관람자의 시선 데이터를 획득할 수 있다. 일 예에 따라 인공 신경망 모델은 CNN (Convolutional Neural Network), RNN(Recurrent Neural Network), RBM(Restricted Boltzmann Machine), DBN(Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크(Deep Q-Networks) 등으로 구현될 수 있으나, 본 발명은 이에 한정되지 않는다.According to one embodiment, the
이와 같이 본 발명에 따른 의한 전시관 맞춤형 서비스 제공 장치(100)는 전시관에서의 서비스 제공에 필요한 관심도에 대한 통계자료 추출을 위하여, 전시물에 설치된 카메라로부터 영상을 획득하거나 직접 영상을 획득하고, 획득한 영상으로부터 얼굴 검출, 식별, 시선 및 표정 인식 기술을 적용하여 관심도를 추출하며, 관심도를 성별 및 연령대 등과 연관 분석하여 성별 및 연령대별 관심도 추정을 수행할 수 있다.In this way, the exhibition hall customized
도 2는 본 발명의 일 실시예에 따른 전시관 맞춤형 서비스 제공 장치가 관심도에 대한 통계자료를 생성하는 과정을 설명하기 위한 도면이다. FIG. 2 is a diagram illustrating a process in which an exhibition hall customized service providing device generates statistical data on interest level according to an embodiment of the present invention.
관심도를 통계자료로 생성하기 위하여, 전시관 맞춤형 서비스 제공 장치(100)는 복수개의 연산 모듈을 포함할 수 있다. 이 경우, 복수개의 연산 모듈은 앞서 도 1에서 설명한 어느 하나의 구성요소에 포함되거나 또는 둘 이상의 구성 요소에 포함될 수 있고, 실시예에 따라 도 1에 도시된 구성요소와 독립적으로 존재하는 별도의 구성요소에 포함될 수도 있다.In order to generate statistical data on the level of interest, the exhibition hall customized
스테레오 영상 인식 모듈(210)은 관람자에 대한 영상을 획득한다.The stereo
이 경우, 스테레오 카메라를 사용하거나 단일 카메라로 회전하며 촬영하는 방식으로, 관람자의 모든 측면에 대하여 복수개의 영상을 획득할 수 있다. In this case, multiple images can be obtained for all sides of the viewer by using a stereo camera or rotating a single camera.
일 예에 따라, 스테레오 영상 인식 모듈(210)이 촬영하는 영상은 적어도 정면 영상과 측면 영상을 포함할 수 있다. 이 경우, 정면 영상과 측면 영상을 비교함으로써, 관람자의 시선 위치와 시야각 등을 판단할 수 있게 된다.According to one example, the image captured by the stereo
분석 모듈(200)은 성별 및 연령대를 분석하며, 이를 위해 얼굴 검출 및 추적 모듈(222), 얼굴 포즈 및 반응 추정 모듈(224), 성별 및 연령대 인식 모듈(226)로 구성될 수 있다. The
얼굴 검출 및 추적 모듈(222)은 스테레오 영상 인식 모듈(210)에 의해 획득된 관람자에 대한 영상에서, 얼굴을 검출 및 추적할 수 있다. 얼굴 검출을 위해, 관람자에 대한 영상에 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 영상을 획득할 수 있다. 얼굴 추적의 경우, 관람자에 대해 추적 아이디를 부여하고, 추적 아이디에 기초하여 관심도를 모니터링 할 수 있다. The face detection and
얼굴 포즈 및 반응 추정 모듈(224)은 관람객이 전시물을 접하는 경우에 있어서, 얼굴 포즈와 사용자의 반응을 추정할 수 있다. 구체적으로, 얼굴 포즈에 기초하여 관람객의 얼굴이 전시물을 향하는지 시선 방향이 전시물을 향하는지 등을 판단하고 이에 기초하여 사용자의 반응을 추정할 수 있다. 일 실시예에 의하면, 본 발명에서는 사용자의 감정과 이에 대응하는 관심도, 사용자의 반응 및 관심도에 대한 상관 관계 등을 분석할 수 있다. 이 경우, 일시적인 사용자의 감정이 반응 및 관심도와 같은 객관적 특성을 갖는 인자와 연관되게 되어, 관람객 맞춤형 서비스를 제공하는데 있어서 이러한 객관적 특성을 갖는 인자 및 분석결과를 활용할 수 있게 된다.The facial pose and
성별 및 연령대 인식 모듈(226)는 관람객의 성별 및 연령대를 인식할 수 있다. 관람객의 성별 및 연령대는 사용자의 얼굴에 대한 영상을 분석하고, 이에 대해 인공지능에 의한 학습을 수행함으로써 획득할 수 있다. 본 발명에 의하면, 성별 및 연령대에 대한 정보를 추출하는 경우, 성별 및 연령대의 특성을 고려하여 최적화된 인공지능에 의한 학습을 수행할 수 있다. 일 실시예에 의하면, 합성곱 신경망을 이용하여 성별과 연령 정보를 추출하되, 합성곱 신경망을 구성하는 낮은 계층들에 의해서 성별 정보를 추출하고, 복수개의 계층의 전 계층에 의해서 연령 정보를 추출할 수 있다. 즉, 성별과 같이 대략적인 특징으로부터 추출할 수 있는 정보는 낮은 계층들에 의해 학습을 수행하고, 연령대와 같이 세부적인 특징으로부터 추출할 수 있는 정보는 낮은 계층뿐 아니라 높은 계층에 의한 학습을 수행한다.The gender and
통계 자료(230)가 생성된다. 전시물에 대한 감정, 관심도 및 반응 등을 연관 분석하여 객관적 데이터인 통계자료가 생성된다.
이에 의하면, 전시물의 성별/연령별 알고리즘 및 관람객의 시선 분석 알고리즘을 통해, 각 계층(성별/연령별)의 해당 전시물에 대한 관심도를 추출할 수 있다.According to this, the level of interest in the exhibition in each class (by gender/age) can be extracted through the gender/age-specific algorithm of the exhibition and the visitor's gaze analysis algorithm.
도 3은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객의 시선을 검출하는 방법을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining how the exhibition hall customized service provision device according to the present invention detects the gaze of a visitor.
전시물에 설치된 카메라로부터, 또는 전시관 맞춤형 서비스 제공 장치(100)에 의해, 전방에 존재하는 관람객에 대한 영상을 획득한다. 획득한 영상은 객체 검출 알고리즘을 적용하여, 전체 영상으로부터 관람객의 얼굴 영역만을 검출한다. 일 예에 의하면, 얼굴 검출은 딥러닝 기반 검출 알고리즘을 적용할 수 있다.Images of visitors present in front are acquired from a camera installed in an exhibition or by the exhibition hall customized
일 실시예에 의하면, 전시물을 응시하고 있는 상태임을 판별하기 위하여, 검출된 관람객의 얼굴 영역에 대해 시선 추적 알고리즘을 적용할 수 있다. 시선 추적 알고리즘은 먼저 얼굴의 각 특징점을 추출한 후 얼굴 방향을 추정한다. 만일, 전시물을 바라보고 있는 상태임이 판별되면, 이후 추출된 특징점에 기초하여 감정을 추론할 수 있다.According to one embodiment, an eye-tracking algorithm may be applied to the detected facial area of the visitor to determine whether the visitor is gazing at the exhibition object. The eye tracking algorithm first extracts each feature point of the face and then estimates the direction of the face. If it is determined that the user is looking at an exhibition object, the emotion can be inferred based on the extracted feature points.
즉, 시선 추적 알고리즘을 통해 관람객이 전시물을 바라보고 있는 상태임이 확정되면, 사전에 추출된 얼굴의 특징점 정보에 기초하여 감정 인식이 가능하며, 이에 기초하여 해당 전시물에 대한 관심도를 결정하게 되는 긍정 및 부정 여부에 대한 판단을 내릴 수 있다.In other words, if it is confirmed through the eye tracking algorithm that the visitor is looking at the exhibition, emotion recognition is possible based on the facial feature point information extracted in advance, and based on this, the level of interest in the exhibition is determined. A judgment can be made as to whether it is negative or not.
또한, 실시예에 따라, 얼굴 방향과 시선 방향을 함께 고려하고, 이를 반영하여 관심도를 결정할 수 있다. 도 3에 도시된 바와 같이, 관람객의 얼굴 방향(Df)은 전시물(300)을 향해 있지만, 시선 방향(De)은 전시물(300)을 벗어난다. 이 경우, 관람객의 전시물(300)에 대한 관람도가 높지 않은 것으로 판단할 수 있다. Additionally, depending on the embodiment, the face direction and gaze direction may be considered together and the degree of interest may be determined by reflecting this. As shown in FIG. 3 , the direction of the visitor's face (D f ) is toward the
다른 실시예에 의하면, 시선이 전시물(300)로부터 벗어나는 편차 각도에 대응하여 관심도를 다르게 설정할 수 있다. 예를 들어, 편차 각도가 커질수록 전시물(300)에 대한 관심도는 낮아지는 것으로 판단할 수 있다.According to another embodiment, the degree of interest may be set differently in response to the deviation angle at which the gaze deviates from the
도 4는 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 학습된 신경망 모델을 사용하는 경우를 설명하기 위한 도면이다.Figure 4 is a diagram for explaining a case where the exhibition hall customized service provision device according to the present invention uses a learned neural network model.
합성곱 신경망은 특징 벡터의 분류가 가능한 복수개의 계층들로 구성될 수 있다. 하나의 계층은 정사각형 형태의 필터들로 구성되는데, 각 필터들은 컨볼루션 연산을 통해 입력 정보로부터 특징값을 추출할 수 있다.A convolutional neural network may be composed of multiple layers capable of classifying feature vectors. One layer consists of square-shaped filters, and each filter can extract feature values from input information through a convolution operation.
복수개의 계층 구조는 추출한 특징값들을 다음 컨볼루션 계층을 통과시켜 계속하여 특징을 추출하게 된다. 이와 같은 방식으로 계속해서 특징을 추출한 후, 전연결(Fully connected, FC) 계층을 통과시켜 성별과 연령 정보를 추출할 수 있다. 예를 들어, 이미지 -> 합성곱 계층 -> 특징 -> 합성곱 계층 -> 특징 -> 합성곱 계층 -> 특징 -> 전연결 계층 -> 성별, 연령 정보 추론 식으로 진행될 수 있다.The plurality of hierarchical structures continues to extract features by passing the extracted feature values through the next convolutional layer. After continuously extracting features in this way, gender and age information can be extracted by passing through the fully connected (FC) layer. For example, image -> convolution layer -> features -> convolution layer -> features -> convolution layer -> features -> fully connected layer -> gender and age information inference.
본 발명에서 학습된 신경망 모델을 사용하는 경우, 이미지와 정답지에 해당하는 레이블 데이터셋을 사용하여 학습시킨 신경망에 얼굴 영상을 입력한다. 이 경우, 이미지의 특징 벡터를 추출할 수 있는 커널들로 구성된 레이어 층들을 통과하면서, 세밀한 특징들을 추출하게 되고, 이에 기초하여 FC(Fully connected) 레이어에서 입력 이미지에 대한 추론이 가능하다.When using the neural network model learned in the present invention, the face image is input to the neural network trained using the label dataset corresponding to the image and answer sheet. In this case, detailed features are extracted while passing through layers composed of kernels that can extract feature vectors of the image, and based on this, inference about the input image is possible in the FC (Fully connected) layer.
감정 추론이 끝난 후, 검출된 소비자의 얼굴 정보는 얼굴 인식 합성곱 신경망에 검출된 얼굴 영역을 입력하여 성별과 연령대 정보를 추론할 수 있다. 추론한 정보는 사용자가 할당 받은 추적 ID 값에 갱신될 수 있다.After emotion inference is completed, the detected consumer's face information can be used to infer gender and age information by inputting the detected face area into a face recognition convolutional neural network. The inferred information can be updated to the tracking ID value assigned by the user.
도 4에 도시된 바와 같이, 학습된 신경망 모델을 구성하는 복수개의 계층(400)의 경우, 계층이 낮을수록 대략적인 특징 벡터를 추출하고, 계층이 높아질수록 세밀한 특징 벡터를 추출한다.As shown in FIG. 4, in the case of a plurality of
한편, 성별 및 연령대 정보의 경우, 성별 정보는 대략적인 특징으로부터 추출할 수 있고, 연령대나 연령은 정보 추출을 위해 세밀한 특징이 요구된다. 특히, 연령은 연령대에 비하여 보다 세밀한 특징들이 필요하다. 예를 들어, 성별의 경우 머리 길이, 얼굴 골격, 신장, 체격 등의 대략적인 특징만으로도 구별 가능하지만, 연령대의 경우 주름이나 피부 상태와 같은 세밀한 특징이 필요하다.Meanwhile, in the case of gender and age information, gender information can be extracted from rough characteristics, and age or age requires detailed characteristics to extract information. In particular, age requires more detailed characteristics than age. For example, in the case of gender, it is possible to distinguish with only rough characteristics such as hair length, facial skeleton, height, and physique, but in the case of age, detailed characteristics such as wrinkles and skin condition are needed.
이러한 점을 고려하여, 본 발명에서는 합성곱 신경망을 이용하여 성별 및 연령대 정보를 추출하는 경우, 다음과 같이 학습과정을 설계할 수 있다.Considering this, in the present invention, when extracting gender and age information using a convolutional neural network, the learning process can be designed as follows.
구체적으로, 합성곱 신경망을 이용하여 성별과 연령 정보를 추출하되, 합성곱 신경망을 구성하는 낮은 계층들에 의해서 성별 정보를 추출하고, 복수개의 계층의 전 계층에 의해서 연령 정보를 추출할 수 있다.Specifically, gender and age information can be extracted using a convolutional neural network, but gender information can be extracted by lower layers constituting the convolutional neural network, and age information can be extracted by all layers of the plurality of layers.
도 5는 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객 별로 관심도가 중복되는 경우를 방지하기 위한 알고리즘을 설명하기 위한 도면이다.Figure 5 is a diagram illustrating an algorithm for preventing overlapping interest levels for each visitor in the exhibition hall customized service provision device according to the present invention.
먼저, 검출된 관람객의 얼굴 영역에 추적 아이디를 설정한다. First, a tracking ID is set in the detected face area of the visitor.
정확한 통계 자료를 획득하기 위해서는 한 사람당 하나의 관심도 정보만 필요하다. 따라서, 중복 집계를 방지하기 위해, 검출한 얼굴에 대해 트랙킹 아이디를 부여하고, 칼만 필터 계열의 영상 추적 알고리즘을 적용한다.In order to obtain accurate statistical data, only one interest information per person is needed. Therefore, to prevent double counting, tracking IDs are assigned to detected faces, and a Kalman filter-based image tracking algorithm is applied.
영상 추적은 이전 검출된 관심 영역 정보로부터 칼만 필터를 통해 추측한 예측 관심 영역들과 현재 검출 관심 영역들 간의 교차 영역의 크기 값을 구한 후에, 헝가리안 알고리즘을 적용하여 가장 적절하게 이전 검출 관심 영역과 현재 검출 관심 영역을 일대일 매칭시킬 수 있다.Image tracking obtains the size of the intersection between the predicted regions of interest estimated through a Kalman filter from information on the previously detected region of interest and the currently detected region of interest, and then applies the Hungarian algorithm to most appropriately match the previously detected region of interest. The current detection area of interest can be matched one-to-one.
도 5에 도시된 바와 같이, i 시점에서의 검출 관심영역(512)을 검출하고, 이에 칼만 필터를 적용하여 i 시점에서의 예측 관심영역(520)을 획득한다.As shown in FIG. 5, the detection region of
또한, i+1 시점에서의 검출 관심영역(514)을 검출한다. Additionally, the detection region of
이 경우, i 시점에서의 예측 관심영역(520)과 i+1 시점에서의 검출 관심영역(514)을 비교하고, 교차 영역(530)의 크기를 구한다. In this case, the predicted region of
교차 영역(530)에 대해 헝가리인 알고리즘(540) 등을 적용하여, 관심 영역들을 정렬 및 일대일로 대응시킨다. The
도 6은 본 발명에서 관심도가 중복되는 경우를 방지하기 위한 알고리즘을 적용한 일 예를 도시한다.Figure 6 shows an example of applying an algorithm for preventing overlapping interests in the present invention.
제1 검출 ROI(610)는 i 시점에서의 검출 관심영역이다. 이에 칼만 필터 알고리즘을 적용하면, i 시점에서의 예측 ROI(620)가 얻어진다. The first detection ROI 610 is a detection region of interest at time point i. If the Kalman filter algorithm is applied to this, the predicted ROI (620) at time point i is obtained.
제2 검출 ROI(620)는 i+1 시점에서의 검출 관심영역이다.The second detection ROI 620 is a detection region of interest at time point i+1.
이 경우, i 시점에서의 예측 ROI(620)와 i+1 시점에서의 제2 검출 ROI(620)를 비교하여 교차 영역(630)의 크기를 비교하고, 교차 영역(630)의 크기에 대응하여 일대일 대응 쌍을 검색한다.In this case, the size of the
도 7은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객의 감정을 인식하는 방법을 설명하기 위한 도면이다.Figure 7 is a diagram for explaining how the exhibition hall customized service provision device according to the present invention recognizes the emotions of visitors.
시선 추적 알고리즘을 통해 관람객이 전시물을 바라보고 있는 상태가 확정되면, 사전에 추출된 얼굴의 특징점 정보에 기반하여 감정 인식을 수행한다. 감정이 인식되면, 이를 기반으로 해당 전시물에 대한 관심도를 결정하는 긍정/부정 판단을 내릴 수 있다.Once the state in which the visitor is looking at the exhibit is confirmed through the eye tracking algorithm, emotion recognition is performed based on the facial feature point information extracted in advance. Once an emotion is recognized, a positive/negative judgment can be made based on this to determine the level of interest in the exhibit.
이를 위해, 도 7에 도시된 바와 같이 감정을 대분류 및 소분류로 구분하고, 각 분류에 속한 감정들과 긍정 및 부정 판단을 연관시킨다. 긍정 및 부정 판단은 관심도와 연관되게 대응시킬 수 있다.To this end, as shown in Figure 7, emotions are divided into major and minor categories, and emotions belonging to each category are associated with positive and negative judgments. Positive and negative judgments can be matched in relation to interest.
도 8은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치의 제어 과정을 도시한 도면이다.Figure 8 is a diagram showing the control process of the exhibition hall customized service provision device according to the present invention.
전시물에 인접한 사용자에 대한 제1영상을 획득한다(S801). A first image of a user adjacent to the exhibition object is acquired (S801).
제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출한다(S802). An object detection algorithm is applied to the first image to detect the second image of the face area (S802).
이 경우, 제1영상에 대해 객체 검출 알고리즘을 적용하여 제2영상을 획득할 수 있다.In this case, the second image can be obtained by applying an object detection algorithm to the first image.
제2영상에 대해 시선 추적 알고리즘을 적용하여 사용자가 전시물을 바라보고 있는 상태인지 판단한다(S803).An eye-tracking algorithm is applied to the second image to determine whether the user is looking at the exhibit (S803).
일 실시예에 의하면, 얼굴 영역에 대한 제2영상으로부터 얼굴의 방향을 추정하여 얼굴의 방향이 전시물을 향하는지 여부를 판단하여, 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다.According to one embodiment, the direction of the face can be estimated from the second image of the face area to determine whether the direction of the face is toward the exhibition object, thereby determining whether the user is looking at the exhibition object.
다른 실시예에 의하면, 얼굴 영역에 대한 영상으로부터 얼굴의 방향을 추정하여 얼굴의 방향이 전시물을 향하는지 여부를 판단하고, 사용자의 시선의 시야각을 계산하고 시야각 내에 전시물이 포함되는지 여부를 판단한 후, 이에 기초하여 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다. According to another embodiment, the direction of the face is estimated from the image of the face area to determine whether the direction of the face is toward the exhibit, the viewing angle of the user's gaze is calculated, and it is determined whether the exhibit is included in the viewing angle, Based on this, it can be determined whether the user is looking at the exhibition object.
사용자가 전시물을 바라보고 있는 상태라고 판단되면, 제2영상으로부터 얼굴의 특징점을 검출하고 특징점에 기초하여 전시물에 대한 사용자의 감정을 추정한다(S804).If it is determined that the user is looking at the exhibition object, facial feature points are detected from the second image, and the user's emotion toward the exhibition object is estimated based on the feature points (S804).
사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석한다(S805).The correlation between the user's emotions and the degree of interest in the exhibition is analyzed (S805).
상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화한다(S806).Based on the correlation, the level of interest is generated as numerical data and quantified (S806).
도 9는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 9의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 전시관 맞춤형 서비스 제공 장치(100)일 수 있다. 9 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 9 may be the exhibition hall customized
도 9의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 9, the computing device TN100 may include at least one processor TN110, a transceiver device TN120, and a memory TN130. Additionally, the computing device TN100 may further include a storage device TN140, an input interface device TN150, an output interface device TN160, etc. Components included in the computing device TN100 are connected by a bus TN170 and may communicate with each other.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may refer to a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, and methods described in connection with embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 can store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may be comprised of at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may be comprised of at least one of read only memory (ROM) and random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다. The transceiving device TN120 can transmit or receive wired signals or wireless signals. The transmitting and receiving device (TN120) can be connected to a network and perform communication.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. Meanwhile, the embodiments of the present invention are not only implemented through the apparatus and/or method described so far, but may also be implemented through a program that realizes the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded. This implementation can be easily implemented by anyone skilled in the art from the description of the above-described embodiments.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also possible. It falls within the scope of invention rights.
100: 전시관 맞춤형 서비스 제공 장치
110: 영상 처리부 120: 관심도 추정부
130: 제어부 200: 분석 모듈
210: 스테레오 영상 인식 모듈 222: 얼굴 검출 및 추적 모듈
224: 얼굴 포즈 및 반응 추정 모듈 226: 성별 및 연령대 인식 모듈100: Exhibition hall customized service provision device
110: Image processing unit 120: Interest estimation unit
130: Control unit 200: Analysis module
210: Stereo image recognition module 222: Face detection and tracking module
224: Face pose and reaction estimation module 226: Gender and age group recognition module
Claims (8)
전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 영상 처리부;
상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 관심도 추정부; 및
상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하고, 상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 제어부; 를 포함하되,
상기 얼굴의 방향과 시선 방향을 함께 고려하여 상기 관심도를 결정하고,
상기 사용자의 시선이 상기 전시물로부터 벗어나는 편차 각도에 대응하여 상기 관심도를 다르게 설정하는,
전시관 맞춤형 서비스 제공 장치. In the exhibition hall customized service provision device,
an image processing unit that acquires a first image of a user adjacent to an exhibition object and detects a second image of a face area by applying an object detection algorithm to the first image;
When it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image, and the user's emotion toward the exhibit is based on the feature point. an interest estimation unit that estimates; and
a control unit that analyzes the correlation between the user's emotions and the level of interest in the exhibit, and generates and quantifies the level of interest as numerical data based on the correlation; Including,
Determining the level of interest by considering both the direction of the face and the gaze direction,
Setting the interest level differently in response to the deviation angle at which the user's gaze deviates from the exhibition object,
A device that provides customized exhibition hall services.
상기 관심도 추정부는,
상기 제2영상으로부터 상기 얼굴의 방향을 추정하여 상기 얼굴의 방향이 상기 전시물을 향하는지 여부를 판단하고,
상기 사용자의 시선의 시야각을 계산하고 상기 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후,
이에 기초하여 상기 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단하는,
전시관 맞춤형 서비스 제공 장치.According to paragraph 1,
The interest estimation unit,
Estimating the direction of the face from the second image to determine whether the direction of the face is toward the exhibition object,
After calculating the viewing angle of the user's gaze and determining whether the exhibit is included within the viewing angle,
Based on this, it is determined whether the user is looking at the exhibit,
A device that provides customized exhibition hall services.
상기 제어부는,
상기 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 상기 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출하되,
상기 복수개의 계층을 소정 계층을 기준으로 상기 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 상기 소정 계층 및 상기 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고,
상기 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 상기 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식하는,
전시관 맞춤형 서비스 제공 장치.According to paragraph 1,
The control unit,
The second image is input to a convolutional neural network related to face recognition, and gender and age information is extracted by extracting a plurality of feature vectors from a plurality of layers constituting the convolutional neural network,
Dividing the plurality of layers into a first layer group consisting of layers lower than the predetermined layer and a second layer group consisting of the predetermined layer and layers higher than the predetermined layer based on the predetermined layer,
Recognizing gender based on the feature vector extracted by the first layer group, and recognizing age based on the feature vector extracted by the first layer group and the second layer group,
A device that provides customized exhibition hall services.
상기 제어부는,
상기 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고,
상기 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시키는,
전시관 맞춤형 서비스 제공 장치.According to paragraph 1,
The control unit,
Setting a tracking ID by applying an image tracking algorithm to the second image,
A detection area of interest is generated based on the tracking ID, a predicted area of interest is created estimated from the detection area of interest through a Kalman filter, and the detection area is based on the size of an intersection area between the detection area of interest and the predicted area of interest. Matching the area of interest and the predicted area of interest one-to-one,
A device that provides customized exhibition hall services.
전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 단계;
상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 단계;
상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하는 단계; 및
상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 단계; 를 포함하되,
상기 얼굴의 방향과 시선 방향을 함께 고려하여 상기 관심도를 결정하고,
상기 사용자의 시선이 상기 전시물로부터 벗어나는 편차 각도에 대응하여 상기 관심도를 다르게 설정하는,
전시관 맞춤형 서비스 제공 장치의 제어 방법.In the control method of the exhibition hall customized service provision device,
Obtaining a first image of a user adjacent to an exhibition object, and detecting a second image of a face area by applying an object detection algorithm to the first image;
When it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image, and the user's emotion toward the exhibit is based on the feature point. estimating;
Analyzing the correlation between the user's emotions and interest in the exhibition object; and
generating and quantifying the interest level as numerical data based on the correlation; Including,
Determining the level of interest by considering both the direction of the face and the gaze direction,
Setting the interest level differently in response to the deviation angle at which the user's gaze deviates from the exhibition object,
Control method for exhibition hall customized service provision device.
상기 제2영상으로부터 상기 얼굴의 방향을 추정하여 상기 얼굴의 방향이 상기 전시물을 향하는지 여부를 판단하고,
상기 사용자의 시선의 시야각을 계산하고 상기 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후,
이에 기초하여 상기 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단하는,
전시관 맞춤형 서비스 제공 장치의 제어 방법.According to clause 5,
Estimating the direction of the face from the second image to determine whether the direction of the face is toward the exhibition object,
After calculating the viewing angle of the user's gaze and determining whether the exhibit is included within the viewing angle,
Based on this, it is determined whether the user is looking at the exhibit,
Control method for exhibition hall customized service provision device.
상기 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 상기 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출하되,
상기 복수개의 계층을 소정 계층을 기준으로 상기 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 상기 소정 계층 및 상기 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고,
상기 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 상기 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식하는,
전시관 맞춤형 서비스 제공 장치의 제어 방법.According to clause 5,
The second image is input to a convolutional neural network related to face recognition, and gender and age information is extracted by extracting a plurality of feature vectors from a plurality of layers constituting the convolutional neural network,
Dividing the plurality of layers into a first layer group consisting of layers lower than the predetermined layer and a second layer group consisting of the predetermined layer and layers higher than the predetermined layer based on the predetermined layer,
Recognizing gender based on the feature vector extracted by the first layer group, and recognizing age based on the feature vector extracted by the first layer group and the second layer group,
Control method for exhibition hall customized service provision device.
상기 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고,
상기 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시키는,
전시관 맞춤형 서비스 제공 장치의 제어 방법.According to clause 5,
Setting a tracking ID by applying an image tracking algorithm to the second image,
A detection area of interest is generated based on the tracking ID, a predicted area of interest is created estimated from the detection area of interest through a Kalman filter, and the detection area is based on the size of an intersection area between the detection area of interest and the predicted area of interest. Matching the area of interest and the predicted area of interest one-to-one,
Control method for exhibition hall customized service provision device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210164958A KR102690927B1 (en) | 2021-11-25 | 2021-11-25 | Appartus of providing service customized on exhibit hall and controlling method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210164958A KR102690927B1 (en) | 2021-11-25 | 2021-11-25 | Appartus of providing service customized on exhibit hall and controlling method of the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230077560A KR20230077560A (en) | 2023-06-01 |
KR102690927B1 true KR102690927B1 (en) | 2024-07-31 |
Family
ID=86771148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210164958A Active KR102690927B1 (en) | 2021-11-25 | 2021-11-25 | Appartus of providing service customized on exhibit hall and controlling method of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102690927B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20250015309A (en) * | 2023-07-25 | 2025-02-03 | 주식회사 벗이 | Method and device for generating digital contents based on personality type |
KR20250080523A (en) | 2023-11-28 | 2025-06-05 | 서울특별시(시립과학관장) | Visitor customized guidance service system and method |
CN117668372B (en) * | 2024-01-31 | 2024-04-19 | 江苏惊蛰云动科技有限公司 | Virtual exhibition system on digital wisdom exhibition line |
CN118864170B (en) * | 2024-09-24 | 2025-01-21 | 中国建筑设计研究院有限公司 | An intelligent tour guide system based on AIGC |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101672268B1 (en) * | 2015-07-30 | 2016-11-04 | (주) 씽크브릿지 | Exhibition area control system and control method thereof |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040065753A (en) * | 2003-01-16 | 2004-07-23 | 엘지전자 주식회사 | Apparatus of detecting region of interested and method thereof |
KR20150033173A (en) * | 2013-09-23 | 2015-04-01 | (주)이노지움 | Satisfaction reporting system using face recognition |
KR102054058B1 (en) * | 2018-01-12 | 2019-12-09 | 한국과학기술원 | Analysis method of relations of face movements and the system thereof |
KR102295807B1 (en) | 2020-02-24 | 2021-08-31 | 연세대학교 산학협력단 | Concierge robot and method of providing personalized service using the same |
-
2021
- 2021-11-25 KR KR1020210164958A patent/KR102690927B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101672268B1 (en) * | 2015-07-30 | 2016-11-04 | (주) 씽크브릿지 | Exhibition area control system and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20230077560A (en) | 2023-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102690927B1 (en) | Appartus of providing service customized on exhibit hall and controlling method of the same | |
US11669979B2 (en) | Method of searching data to identify images of an object captured by a camera system | |
Jesorsky et al. | Robust face detection using the hausdorff distance | |
Li et al. | Robust multiperson detection and tracking for mobile service and social robots | |
Sowmya et al. | Machine learning model for emotion detection and recognition using an enhanced convolutional neural network | |
Zhang et al. | A virtual proctor with biometric authentication for facilitating distance education | |
CN115720664B (en) | Object position estimation device, object position estimation method, and recording medium | |
Lin et al. | A gender classification scheme based on multi-region feature extraction and information fusion for unconstrained images | |
Madake et al. | Vision-based monitoring of student attentiveness in an e-learning environment | |
Siriteerakul | Advance in head pose estimation from low resolution images: A review | |
Afroze et al. | Detection of human’s focus of attention using head pose | |
Hasan et al. | Person identification by evaluating gait using 2D LiDAR and deep neural network | |
EP4407569A1 (en) | Systems and methods for tracking objects | |
Tapu et al. | Face recognition in video streams for mobile assistive devices dedicated to visually impaired | |
Lin et al. | Face detection based on the use of eyes tracking | |
JP3841482B2 (en) | Face image recognition device | |
CN117593629B (en) | Brush palm recognition method, device, equipment and storage medium | |
CN119810752B (en) | Passenger flow statistics analysis system and method based on reid assistance | |
Punjabi et al. | Prediction of human facial expression using deep learning | |
JP7491321B2 (en) | Re-identification device, re-identification program, and re-identification method | |
Meudt et al. | Multi-view video based tracking and audio-visual identification of persons in a human-computer-interaction scenario | |
Bhanushali et al. | Enhancing human detection and counting efficiency through deep learning: A comprehensive approach | |
Devadethan et al. | An ICA based head movement classification system using video signals | |
Tsai et al. | User-centric incremental learning model of dynamic personal identification for mobile devices | |
Asadi Amiri et al. | A Saliency Detection Model via Fusing Extracted Low-Level and High-Level Features from an Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
R15-X000 | Change to inventor requested |
St.27 status event code: A-3-3-R10-R15-oth-X000 |
|
R16-X000 | Change to inventor recorded |
St.27 status event code: A-3-3-R10-R16-oth-X000 |
|
P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |