[go: up one dir, main page]

KR102690927B1 - Appartus of providing service customized on exhibit hall and controlling method of the same - Google Patents

Appartus of providing service customized on exhibit hall and controlling method of the same Download PDF

Info

Publication number
KR102690927B1
KR102690927B1 KR1020210164958A KR20210164958A KR102690927B1 KR 102690927 B1 KR102690927 B1 KR 102690927B1 KR 1020210164958 A KR1020210164958 A KR 1020210164958A KR 20210164958 A KR20210164958 A KR 20210164958A KR 102690927 B1 KR102690927 B1 KR 102690927B1
Authority
KR
South Korea
Prior art keywords
interest
image
user
exhibition
exhibit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020210164958A
Other languages
Korean (ko)
Other versions
KR20230077560A (en
Inventor
김주현
김민규
손동섭
김경호
김다영
서갑호
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020210164958A priority Critical patent/KR102690927B1/en
Publication of KR20230077560A publication Critical patent/KR20230077560A/en
Application granted granted Critical
Publication of KR102690927B1 publication Critical patent/KR102690927B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법이 개시된다. 이에 의하면, 전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 영상 처리부; 와, 상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 관심도 추정부; 및, 상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하고, 상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 제어부; 를 포함할 수 있다.A device for providing customized exhibition hall services and a method for controlling the same are disclosed. According to this, an image processing unit that acquires a first image of a user adjacent to an exhibition object and detects a second image of a face area by applying an object detection algorithm to the first image; If it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image and the user's view of the exhibit is based on the feature point. an interest estimation unit that estimates the emotions of; and a control unit that analyzes the correlation between the user's emotions and the level of interest in the exhibit, and generates and quantifies the level of interest as numerical data based on the correlation. may include.

Description

전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법{APPARTUS OF PROVIDING SERVICE CUSTOMIZED ON EXHIBIT HALL AND CONTROLLING METHOD OF THE SAME}Exhibition hall customized service provision device and control method {APPARTUS OF PROVIDING SERVICE CUSTOMIZED ON EXHIBIT HALL AND CONTROLLING METHOD OF THE SAME}

본 발명은 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법에 관한 것으로서, 보다 상세하게는 전시품에 대한 관람객의 관심도를 객관적 지표로 제공할 수 있는 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법에 관한 것이다. The present invention relates to an exhibition hall customized service provision device and a control method thereof, and more specifically, to an exhibition hall customized service provision device and a control method thereof that can provide objective indicators of visitors' level of interest in exhibition items.

최근 다양한 서비스 분야에서 사용자의 개별적 요구를 파악하여 맞춤형 서비스를 제공함으로써 서비스의 경쟁력을 높이기 위한 다양한 기술 및 방법들이 제안되고 있다. 이를 위해서는 사용자의 개별적 요구를 정확하고 효과적으로 파악해야 한다.Recently, various technologies and methods have been proposed in various service fields to increase the competitiveness of services by identifying users' individual needs and providing customized services. To achieve this, the individual needs of users must be accurately and effectively identified.

사용자의 개별적 요구를 파악하기 위해 가장 일반적으로 사용되는 방법은 성별이나 연령대와 같은 신체적 정보를 분석하거나, 직업이나 교육 수준과 같은 사회적 정보에 기반하는 것이다. 그러나, 이러한 정보들은 분류 기준이 적은 개수로 한정되어 있어, 점점 복잡해지는 사용자의 개별적 요구를 충족시킬 수 없다.The most commonly used methods to identify users' individual needs are based on analyzing physical information such as gender or age, or social information such as occupation or education level. However, this information is limited to a small number of classification criteria and cannot meet the increasingly complex individual needs of users.

이에 따라, 영상 처리 기반으로 사용자의 감정 상태를 분석하는 방법도 제시되었다. 그러나, 현재의 감정 상태 분석 방법들은 사용자의 개인적 상태에 따라 실시간으로 변화하는 감정을 인식하는 것에 불과하다.Accordingly, a method for analyzing the user's emotional state based on image processing was also proposed. However, current emotional state analysis methods only recognize emotions that change in real time according to the user's personal state.

전시관에서 서비스를 제공함에 있어서, 관람객의 만족도 및 호응을 높이려면 관람객이 전시물에 대해 가지는 관심도가 분석되어야 한다. 그러나, 현재 관람객의 전시물에 대한 관심도를 분석하는 객관적 방법은 존재하지 않는다. When providing services at an exhibition hall, the level of interest visitors have in exhibits must be analyzed to increase visitor satisfaction and response. However, there is currently no objective way to analyze visitors' interest in exhibits.

한국등록특허공보 제10-2295807호(2021.08.25.)Korean Patent Publication No. 10-2295807 (2021.08.25.)

본 발명이 해결하고자 하는 과제는, 전시물에 대한 관심도를 분석하여 객관적 데이터로 제공할 수 있는 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide an exhibition hall customized service provision device and a control method that can analyze interest in exhibition objects and provide objective data.

또한, 본 발명이 해결하고자 하는 과제는, 다양한 파라미터와 분석 방법을 적용하여 전시물에 대한 관심도를 보다 정확하고 신뢰성 있게 분석할 수 있는 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법을 제공하는 것이다.In addition, the problem to be solved by the present invention is to provide an exhibition hall customized service provision device and a control method that can more accurately and reliably analyze interest in exhibition objects by applying various parameters and analysis methods.

본 발명의 일 실시예에 의한 전시관 맞춤형 서비스 제공 장치는, 전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 영상 처리부; 와, 상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 관심도 추정부; 및, 상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하고, 상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 제어부; 를 포함한다.An exhibition hall customized service provision device according to an embodiment of the present invention acquires a first image of a user adjacent to an exhibition object and applies an object detection algorithm to the first image to detect a second image of the face area. image processing unit; If it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image and the user's view of the exhibit is based on the feature point. an interest estimation unit that estimates the emotions of; and a control unit that analyzes the correlation between the user's emotions and the level of interest in the exhibit, and generates and quantifies the level of interest as numerical data based on the correlation. Includes.

상기 전시관 맞춤형 서비스 제공 장치에 있어서, 상기 관심도 추정부는, 상기 제2영상으로부터 상기 얼굴의 방향을 추정하여 상기 얼굴의 방향이 상기 전시물을 향하는지 여부를 판단하고, 상기 사용자의 시선의 시야각을 계산하고 상기 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후, 이에 기초하여 상기 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다.In the exhibition hall customized service providing device, the interest estimator estimates the direction of the face from the second image, determines whether the direction of the face is toward the exhibition object, and calculates a viewing angle of the user's gaze. After determining whether the exhibition object is included within the viewing angle, it can be determined based on this whether the user is looking at the exhibition object.

상기 전시관 맞춤형 서비스 제공 장치에 있어서, 상기 제어부는, 상기 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 상기 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출하되, 상기 복수개의 계층을 소정 계층을 기준으로 상기 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 상기 소정 계층 및 상기 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고, 상기 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 상기 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식할 수 있다. In the exhibition hall customized service providing device, the control unit inputs the second image into a convolutional neural network related to face recognition, extracts a plurality of feature vectors from a plurality of layers constituting the convolutional neural network, and extracts a plurality of feature vectors to determine gender and age. Information is extracted, but the plurality of layers are divided into a first layer group consisting of layers lower than the predetermined layer and a second layer group consisting of the predetermined layer and layers higher than the predetermined layer based on the predetermined layer. And, gender can be recognized based on the feature vector extracted by the first layer group, and age can be recognized based on the feature vectors extracted by the first layer group and the second layer group.

상기 전시관 맞춤형 서비스 제공 장치에 있어서, 상기 제어부는, 상기 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고, 상기 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시킬 수 있다.In the exhibition hall customized service providing device, the control unit sets a tracking ID by applying an image tracking algorithm to the second image, generates a detection area of interest based on the tracking ID, and calculates the Kalman from the detection area of interest. A predicted region of interest estimated through a filter is generated, and the detection region of interest and the predicted region of interest can be matched one-to-one based on the size of the intersection area of the detection region of interest and the predicted region of interest.

본 발명의 다른 실시예에 의한 전시관 맞춤형 서비스 제공 장치의 제어 방법은, 전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 단계; 와, 상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 단계; 와, 상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하는 단계; 및, 상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 단계; 를 포함할 수 있다.A control method of an exhibition hall customized service provision device according to another embodiment of the present invention includes acquiring a first image of a user adjacent to an exhibition object, applying an object detection algorithm to the first image, and generating a second image of the face area. detecting; If it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image and the user's view of the exhibit is based on the feature point. estimating emotions; and analyzing the correlation between the user's emotions and interest in the exhibition object; And, generating and quantifying the interest level as numerical data based on the correlation; may include.

상기 전시관 맞춤형 서비스 제공 장치의 제어 방법에 있어서, 상기 제2영상으로부터 상기 얼굴의 방향을 추정하여 상기 얼굴의 방향이 상기 전시물을 향하는지 여부를 판단하고, 상기 사용자의 시선의 시야각을 계산하고 상기 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후, 이에 기초하여 상기 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다.In the control method of the exhibition hall customized service providing device, the direction of the face is estimated from the second image to determine whether the direction of the face is toward the exhibition object, the viewing angle of the user's gaze is calculated, and the viewing angle is calculated. After determining whether the exhibition object is included in the display, it can be determined based on this whether the user is looking at the exhibition object.

상기 전시관 맞춤형 서비스 제공 장치의 제어 방법에 있어서, 상기 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 상기 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출하되, 상기 복수개의 계층을 소정 계층을 기준으로 상기 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 상기 소정 계층 및 상기 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고, 상기 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 상기 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식할 수 있다.In the control method of the exhibition hall customized service providing device, the second image is input to a convolutional neural network related to face recognition, and a plurality of feature vectors are extracted from a plurality of layers constituting the convolutional neural network to provide gender and age information. Extracting the plurality of layers, dividing the plurality of layers into a first layer group consisting of layers lower than the predetermined layer and a second layer group consisting of the predetermined layer and layers higher than the predetermined layer, and , gender can be recognized based on the feature vector extracted by the first layer group, and age can be recognized based on the feature vectors extracted by the first layer group and the second layer group.

상기 전시관 맞춤형 서비스 제공 장치의 제어 방법에 있어서, 상기 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고, 상기 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시킬 수 있다.In the control method of the exhibition hall customized service providing device, an image tracking algorithm is applied to the second image to set a tracking ID, a detection area of interest is generated based on the tracking ID, and a Kalman filter is used from the detection area of interest. A predicted region of interest estimated through is generated, and the detection region of interest and the predicted region of interest can be matched one-to-one based on the size of the intersection area of the detection region of interest and the predicted region of interest.

본 발명의 실시예에 따르면, 전시물에 대한 관심도를 분석하여 객관적 데이터로 제공할 수 있고, 객관적 데이터에 기초하여 관람객에게 맞춤형 서비스를 제공할 수 있다. According to an embodiment of the present invention, interest in exhibition objects can be analyzed and provided as objective data, and customized services can be provided to visitors based on the objective data.

또한, 본 발명의 실시예에 따르면, 다양한 파라미터와 분석 방법을 적용하여 전시물에 대한 관심도를 보다 정확하고 신뢰성 있게 분석할 수 있다. Additionally, according to an embodiment of the present invention, the degree of interest in an exhibit can be analyzed more accurately and reliably by applying various parameters and analysis methods.

나아가, 본 발명의 실시예에 따르면, 획득한 객관적 데이터에 기초하여 전시관의 차기 전시품 또는 콘텐츠를 결정할 수 있고 각 계층에 최적화된 맞춤형 서비스를 제공할 수 있다.Furthermore, according to an embodiment of the present invention, the next exhibit or content of the exhibition hall can be determined based on the acquired objective data and customized services optimized for each class can be provided.

도 1은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 전시관 맞춤형 서비스 제공 장치가 관심도에 대한 통계자료를 생성하는 과정을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객의 시선을 검출하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 학습된 신경망 모델을 사용하는 경우를 설명하기 위한 도면이다.
도 5는 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객 별로 관심도가 중복되는 경우를 방지하기 위한 알고리즘을 설명하기 위한 도면이다.
도 6은 본 발명에서 관심도가 중복되는 경우를 방지하기 위한 알고리즘을 적용한 일 예를 도시한다.
도 7은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객의 감정을 인식하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치의 제어 과정을 도시한 도면이다.
도 9는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
Figure 1 is a block diagram showing the configuration of an exhibition hall customized service provision device according to the present invention.
FIG. 2 is a diagram illustrating a process in which an exhibition hall customized service providing device generates statistical data on interest level according to an embodiment of the present invention.
Figure 3 is a diagram for explaining how the exhibition hall customized service provision device according to the present invention detects the gaze of a visitor.
Figure 4 is a diagram for explaining a case where the exhibition hall customized service provision device according to the present invention uses a learned neural network model.
Figure 5 is a diagram illustrating an algorithm for preventing overlapping interest levels for each visitor in the exhibition hall customized service provision device according to the present invention.
Figure 6 shows an example of applying an algorithm for preventing overlapping interests in the present invention.
Figure 7 is a diagram for explaining how the exhibition hall customized service provision device according to the present invention recognizes the emotions of visitors.
Figure 8 is a diagram showing the control process of the exhibition hall customized service provision device according to the present invention.
9 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In this specification, duplicate descriptions of the same components are omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when a component is mentioned as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but may be connected to the other component in the middle. It should be understood that may exist. On the other hand, in this specification, when it is mentioned that a component is 'directly connected' or 'directly connected' to another component, it should be understood that there are no other components in between.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.Additionally, the terms used in this specification are merely used to describe specific embodiments and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Also, in this specification, singular expressions may include plural expressions, unless the context clearly dictates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, terms such as 'include' or 'have' are only intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, and one or more It should be understood that this does not preclude the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also, in this specification, the term 'and/or' includes a combination of a plurality of listed items or any of the plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Additionally, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.

도 1은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치의 구성을 도시한 블록도이다.Figure 1 is a block diagram showing the configuration of an exhibition hall customized service provision device according to the present invention.

본 발명에 따른 전시관 맞춤형 서비스 제공 장치(100)는 전시관을 방문하는 관람객의 다양한 선호도와 관심을 분석할 수 있으며, 이를 위해 전시관 로봇, 서버 장치, 키오스크 단말 등의 형태로 구현될 수 있다. The exhibition hall customized service providing device 100 according to the present invention can analyze various preferences and interests of visitors visiting the exhibition hall, and for this purpose, it can be implemented in the form of an exhibition hall robot, server device, kiosk terminal, etc.

본 발명에 따른 전시관 맞춤형 서비스 제공 장치(100)는 영상 처리부(110), 관심도 추정부(120) 및 제어부(130)를 포함하여 구성될 수 있다.The exhibition hall customized service providing device 100 according to the present invention may be configured to include an image processing unit 110, an interest estimation unit 120, and a control unit 130.

영상 처리부(110)는 전시관 맞춤형 서비스 제공을 위해 요구되는 영상을 획득하고 처리할 수 있다. 이를 위해, 영상 처리부(110)는 일반 카메라, 스테레오 카메라, 깊이 카메라 및 스캐너 등으로 구현될 수 있다.The image processing unit 110 can obtain and process images required to provide customized services for the exhibition hall. To this end, the image processing unit 110 may be implemented as a general camera, stereo camera, depth camera, scanner, etc.

일 예에 의하면, 영상 처리부(110)는 카메라(미도시)를 포함할 수 있다. 여기서, 카메라(미도시)는 제어부(130)로부터 수신되는 제어 신호, 기 설정된 조건의 만족 및 기 설정된 이벤트 중 어느 하나에 따라 턴 온 되어 촬영을 수행할 수 있다.According to one example, the image processing unit 110 may include a camera (not shown). Here, the camera (not shown) may be turned on and perform photography according to any one of a control signal received from the controller 130, satisfaction of a preset condition, and a preset event.

카메라(미도시)는 촬상된 영상을 전기적인 신호로 변환하고, 변환된 신호에 기초하여 영상데이터를 생성할 수 있다. 예를 들어, 피사체는 반도체 광학소자(CCD; Charge Coupled Device)를 통해 전기적인 영상 신호로 변환되고, 이와 같이 변환된 영상 신호는 증폭 및 디지털 신호로 변환된 후 신호 처리될 수 있다.A camera (not shown) can convert a captured image into an electrical signal and generate image data based on the converted signal. For example, a subject is converted into an electrical image signal through a semiconductor optical device (CCD; Charge Coupled Device), and the converted image signal can be amplified and converted into a digital signal and then processed.

구체적으로, 영상 처리부(110)는 전시물에 인접한 사용자에 대한 제1영상을 획득하고, 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출할 수 있다.Specifically, the image processing unit 110 may acquire a first image of a user adjacent to an exhibition object and detect a second image of the face area by applying an object detection algorithm to the first image.

일 예에 따라, 제1영상은 전시물로부터 소정 거리 내로 접근하거나 전시물과 인접하여 정지 상태에 있는 사용자에 대한 영상이다. 바람직하게는, 제1영상은 사용자의 안면의 대부분을 포함하도록 촬영될 수 있다. 제2영상은 제1영상으로부터 얼굴 영역만을 검출한 영상이다. 바람직하게는, 제2영상은 시선의 방향, 시선의 시야각, 얼굴 방향 등을 판단할 수 있도록, 사용자의 전 측면에서 복수개로 촬영될 수 있다. According to one example, the first image is an image of a user approaching within a predetermined distance from an exhibition object or in a stationary state adjacent to an exhibition object. Preferably, the first image may be captured to include most of the user's face. The second image is an image in which only the face area is detected from the first image. Preferably, a plurality of second images may be captured from all sides of the user to determine the direction of gaze, viewing angle of gaze, face direction, etc.

관심도 추정부(120)는 전시물에 대한 사용자의 관심을 추정할 수 있다.The interest estimator 120 may estimate the user's interest in the exhibition object.

구체적으로, 관심도 추정부(120)는 제2영상에 대해 시선 추적 알고리즘을 적용하여 사용자가 전시물을 바라보고 있는 상태라고 판단되면, 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 전시물에 대한 사용자의 감정을 추정할 수 있다. Specifically, the interest estimator 120 applies an eye-tracking algorithm to the second image, and when it is determined that the user is looking at the exhibition object, the interest estimator 120 detects facial feature points from the second image and displays the exhibition object based on the feature point. You can estimate the user's feelings about it.

일 실시예에 의하면, 관심도 추정부(120)는, 제2영상으로부터 얼굴의 방향을 추정하여 얼굴의 방향이 전시물을 향하는지 여부를 판단하고, 사용자의 시선의 시야각을 계산하여 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후, 이에 기초하여 사용자가 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다. 예를 들어, 사용자의 얼굴 방향이 전시물을 향하는 경우라도, 전시물이 사용자의 시선에 대한 시야각을 벗어나게 되면, 관심도 추정부(120)는 이를 유효하지 않은 데이터로 분류하고 분석대상에서 제외할 수 있다. According to one embodiment, the interest estimator 120 estimates the direction of the face from the second image, determines whether the direction of the face is toward the exhibition object, and calculates the viewing angle of the user's gaze to determine whether the exhibition object is within the viewing angle. After determining whether it is included, it is possible to determine whether the user is looking at the exhibition object based on this. For example, even when the direction of the user's face is toward an exhibition object, if the exhibition object deviates from the viewing angle of the user's gaze, the interest estimator 120 may classify this as invalid data and exclude it from the analysis target.

제어부(130)는 사용자의 감정과 전시물에 대한 관심도와의 상관 관계를 분석하고, 상관 관계에 기초하여 관심도를 수치데이터로 생성하여 수치화할 수 있다. The control unit 130 can analyze the correlation between the user's emotions and the level of interest in the exhibit, and generate and quantify the level of interest as numerical data based on the correlation.

사용자의 감정은 일시적이므로, 현재 서비스 제공 시 참고가 될 수는 있어도 향후의 서비스 방향을 계획하거나 사용자에게 최적화된 서비스를 제공하는데 있어서는 도움이 될 수 없다. 따라서, 본 발명에서는 다양한 인공지능 학습에 의해 사용자의 감정에 기초하여, 감정과 관심도의 상관관계 및 관심도를 추출한다.Since the user's emotions are temporary, although they may serve as a reference when providing current services, they cannot be helpful in planning future service directions or providing optimized services to users. Therefore, in the present invention, the correlation between emotions and interest and interest are extracted based on the user's emotions through various artificial intelligence learning methods.

여기서 관심도는 객관적 데이터로 수치화될 수 있다. 관심도를 수치화하는 경우, 전시품에 대한 관심도를 통계 자료로 작성할 수 있고 이러한 통계 자료는 전시관 맞춤형 서비스를 제공하는데 있어서 객관적 참고자료로 사용할 수 있다.Here, the level of interest can be quantified with objective data. When quantifying the level of interest, the level of interest in exhibits can be created as statistical data, and these statistical data can be used as objective reference data in providing customized services for the exhibition hall.

나아가, 관심도는 성별 및 연령대 등과 연관되어 분석될 수 있다. 이 경우, 관심도와 성별 및 연령대와의 상관관계를 도출하고, 이에 기초하여 전시물이나 전시 방향 등을 설정할 수 있다. Furthermore, interest can be analyzed in relation to gender and age group, etc. In this case, the correlation between interest and gender and age group can be derived, and based on this, exhibits or exhibition directions can be set.

구체적으로, 제어부(130)는 인공지능에 의한 학습을 수행하여 제2영상으로부터 필요한 정보를 추출할 수 있다. Specifically, the control unit 130 can extract necessary information from the second image by performing learning using artificial intelligence.

일 실시예에 의하면, 제어부(130)는 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출할 수 있다. 이 경우, 복수개의 계층을 소정 계층을 기준으로, 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 소정 계층 및 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고, 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식할 수 있다. 즉, 성별과 같이 대략적인 특징으로부터 추출할 수 있는 정보는 낮은 계층들에 의해 학습을 수행하고, 연령대와 같이 세부적인 특징으로부터 추출할 수 있는 정보는 낮은 계층뿐 아니라 높은 계층에 의한 학습을 수행한다.According to one embodiment, the control unit 130 inputs the second image into a convolutional neural network related to face recognition, extracts a plurality of feature vectors from the plurality of layers constituting the convolutional neural network, and extracts gender and age information. You can. In this case, the plurality of layers are divided into a first layer group composed of layers lower than the predetermined layer and a second layer group composed of layers higher than the predetermined layer and the predetermined layer based on the predetermined layer, and the first layer group Gender can be recognized based on the feature vector extracted by the group, and age can be recognized based on the feature vector extracted by the first layer group and the second layer group. In other words, information that can be extracted from rough features, such as gender, is learned by lower layers, and information that can be extracted from detailed features, such as age, is learned by not only low but also high layers. .

제어부(130)는 관심도를 추출하는 경우 동일 사용자에 대한 중복이 발생하지 않게 할 수 있다. 예를 들어, 동일 사용자의 관심도가 중복되게 추출되면, 정보가 왜곡된다. 따라서, 본 발명에서는 사용자에 대한 검출관심영역과 예측관심영역을 일대일로 매칭하고, 이에 기초하여 동일 사용자에 대한 중복이 발생하지 않게 관심도를 추출한다. When extracting interest, the control unit 130 can prevent duplication of the same user from occurring. For example, if the interests of the same user are extracted repeatedly, the information is distorted. Therefore, in the present invention, the detected area of interest and the predicted area of interest for the user are matched one-to-one, and based on this, the level of interest is extracted to prevent duplication of the same user.

이를 위해, 제어부(130)는 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고, 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시킬 수 있다.To this end, the control unit 130 sets a tracking ID by applying an image tracking algorithm to the second image, creates a detection area of interest based on the tracking ID, and predicts interest estimated from the detection area of interest through a Kalman filter. A region can be created, and the detection region of interest and the predicted region of interest can be matched one-to-one based on the size of the intersection of the detection region of interest and the prediction region of interest.

일 실시예에 의하면, 제어부(130)는 인공 신경망 모델을 실행하기 위하여, CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공 지능 전용 프로세서과 소프트웨어의 조합을 통해 구현될 수 있다. 제어부(130)는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공 신경망 모델에 따라, 입력 데이터를 처리하도록 제어할 수 있다. 또는, 제어부(130)가 전용 프로세서(또는 인공 지능 전용 프로세서)인 경우, 특정 인공 신경망 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. 예를 들어, 특정 인공 신경망 모델의 처리에 특화된 하드웨어는 ASIC, FPGA 등의 하드웨어 칩으로 설계될 수 있다. 제어부(130)가 전용 프로세서로 구현되는 경우, 본 개시의 실시 예를 구현하기 위한 메모리를 포함하도록 구현되거나, 외부 메모리를 이용하기 위한 메모리 처리 기능을 포함하도록 구현될 수 있다.According to one embodiment, in order to execute an artificial neural network model, the control unit 130 uses a general-purpose processor such as a CPU, an AP, a digital signal processor (DSP), a graphics-specific processor such as a GPU, a vision processing unit (VPU), or an NPU. It can be implemented through a combination of the same artificial intelligence-specific processor and software. The control unit 130 may control input data to be processed according to predefined operation rules or artificial neural network models stored in memory. Alternatively, if the control unit 130 is a dedicated processor (or an artificial intelligence dedicated processor), it may be designed with a hardware structure specialized for processing a specific artificial neural network model. For example, hardware specialized for processing a specific artificial neural network model can be designed as a hardware chip such as ASIC or FPGA. When the control unit 130 is implemented with a dedicated processor, it may be implemented to include a memory for implementing an embodiment of the present disclosure, or may be implemented to include a memory processing function for using an external memory.

일 실시예에 따라 제어부(130)는 학습된 인공 신경망 모델을 이용하여 관람자의 시선 데이터를 획득할 수 있다. 일 예에 따라 인공 신경망 모델은 CNN (Convolutional Neural Network), RNN(Recurrent Neural Network), RBM(Restricted Boltzmann Machine), DBN(Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크(Deep Q-Networks) 등으로 구현될 수 있으나, 본 발명은 이에 한정되지 않는다.According to one embodiment, the control unit 130 may acquire the viewer's gaze data using a learned artificial neural network model. According to one example, the artificial neural network model may be a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), a Restricted Boltzmann Machine (RBM), a Deep Belief Network (DBN), a Bidirectional Recurrent Deep Neural Network (BRDNN), or a deep Q-network ( Deep Q-Networks), etc., but the present invention is not limited thereto.

이와 같이 본 발명에 따른 의한 전시관 맞춤형 서비스 제공 장치(100)는 전시관에서의 서비스 제공에 필요한 관심도에 대한 통계자료 추출을 위하여, 전시물에 설치된 카메라로부터 영상을 획득하거나 직접 영상을 획득하고, 획득한 영상으로부터 얼굴 검출, 식별, 시선 및 표정 인식 기술을 적용하여 관심도를 추출하며, 관심도를 성별 및 연령대 등과 연관 분석하여 성별 및 연령대별 관심도 추정을 수행할 수 있다.In this way, the exhibition hall customized service provision device 100 according to the present invention acquires images from cameras installed on exhibition objects or directly acquires images, and obtains images in order to extract statistical data on the level of interest necessary for providing services in the exhibition hall. The level of interest is extracted by applying face detection, identification, gaze and facial expression recognition technology, and interest can be estimated by gender and age group by analyzing the level of interest in relation to gender and age group.

도 2는 본 발명의 일 실시예에 따른 전시관 맞춤형 서비스 제공 장치가 관심도에 대한 통계자료를 생성하는 과정을 설명하기 위한 도면이다. FIG. 2 is a diagram illustrating a process in which an exhibition hall customized service providing device generates statistical data on interest level according to an embodiment of the present invention.

관심도를 통계자료로 생성하기 위하여, 전시관 맞춤형 서비스 제공 장치(100)는 복수개의 연산 모듈을 포함할 수 있다. 이 경우, 복수개의 연산 모듈은 앞서 도 1에서 설명한 어느 하나의 구성요소에 포함되거나 또는 둘 이상의 구성 요소에 포함될 수 있고, 실시예에 따라 도 1에 도시된 구성요소와 독립적으로 존재하는 별도의 구성요소에 포함될 수도 있다.In order to generate statistical data on the level of interest, the exhibition hall customized service providing device 100 may include a plurality of calculation modules. In this case, the plurality of calculation modules may be included in one component previously described in FIG. 1 or may be included in two or more components, and depending on the embodiment, may be a separate component that exists independently from the components shown in FIG. 1. It may also be included in an element.

스테레오 영상 인식 모듈(210)은 관람자에 대한 영상을 획득한다.The stereo image recognition module 210 acquires an image of a viewer.

이 경우, 스테레오 카메라를 사용하거나 단일 카메라로 회전하며 촬영하는 방식으로, 관람자의 모든 측면에 대하여 복수개의 영상을 획득할 수 있다. In this case, multiple images can be obtained for all sides of the viewer by using a stereo camera or rotating a single camera.

일 예에 따라, 스테레오 영상 인식 모듈(210)이 촬영하는 영상은 적어도 정면 영상과 측면 영상을 포함할 수 있다. 이 경우, 정면 영상과 측면 영상을 비교함으로써, 관람자의 시선 위치와 시야각 등을 판단할 수 있게 된다.According to one example, the image captured by the stereo image recognition module 210 may include at least a front image and a side image. In this case, by comparing the front image and the side image, it is possible to determine the viewer's gaze position and viewing angle.

분석 모듈(200)은 성별 및 연령대를 분석하며, 이를 위해 얼굴 검출 및 추적 모듈(222), 얼굴 포즈 및 반응 추정 모듈(224), 성별 및 연령대 인식 모듈(226)로 구성될 수 있다. The analysis module 200 analyzes gender and age group, and may be comprised of a face detection and tracking module 222, a face pose and reaction estimation module 224, and a gender and age recognition module 226.

얼굴 검출 및 추적 모듈(222)은 스테레오 영상 인식 모듈(210)에 의해 획득된 관람자에 대한 영상에서, 얼굴을 검출 및 추적할 수 있다. 얼굴 검출을 위해, 관람자에 대한 영상에 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 영상을 획득할 수 있다. 얼굴 추적의 경우, 관람자에 대해 추적 아이디를 부여하고, 추적 아이디에 기초하여 관심도를 모니터링 할 수 있다. The face detection and tracking module 222 may detect and track a face in the image of the viewer obtained by the stereo image recognition module 210. For face detection, an object detection algorithm can be applied to the image of the viewer to obtain an image of the face area. In the case of face tracking, a tracking ID can be assigned to the viewer, and interest level can be monitored based on the tracking ID.

얼굴 포즈 및 반응 추정 모듈(224)은 관람객이 전시물을 접하는 경우에 있어서, 얼굴 포즈와 사용자의 반응을 추정할 수 있다. 구체적으로, 얼굴 포즈에 기초하여 관람객의 얼굴이 전시물을 향하는지 시선 방향이 전시물을 향하는지 등을 판단하고 이에 기초하여 사용자의 반응을 추정할 수 있다. 일 실시예에 의하면, 본 발명에서는 사용자의 감정과 이에 대응하는 관심도, 사용자의 반응 및 관심도에 대한 상관 관계 등을 분석할 수 있다. 이 경우, 일시적인 사용자의 감정이 반응 및 관심도와 같은 객관적 특성을 갖는 인자와 연관되게 되어, 관람객 맞춤형 서비스를 제공하는데 있어서 이러한 객관적 특성을 갖는 인자 및 분석결과를 활용할 수 있게 된다.The facial pose and reaction estimation module 224 can estimate the facial pose and user's reaction when a visitor encounters an exhibition object. Specifically, based on the facial pose, it is possible to determine whether the visitor's face is facing the exhibition object or the gaze direction is towards the exhibition object, and based on this, the user's reaction can be estimated. According to one embodiment, the present invention can analyze the user's emotions, the corresponding interest level, the user's reaction, and the correlation between the interest level, etc. In this case, the user's temporary emotions become associated with factors with objective characteristics such as reaction and interest, and the factors and analysis results with these objective characteristics can be utilized in providing customized services to visitors.

성별 및 연령대 인식 모듈(226)는 관람객의 성별 및 연령대를 인식할 수 있다. 관람객의 성별 및 연령대는 사용자의 얼굴에 대한 영상을 분석하고, 이에 대해 인공지능에 의한 학습을 수행함으로써 획득할 수 있다. 본 발명에 의하면, 성별 및 연령대에 대한 정보를 추출하는 경우, 성별 및 연령대의 특성을 고려하여 최적화된 인공지능에 의한 학습을 수행할 수 있다. 일 실시예에 의하면, 합성곱 신경망을 이용하여 성별과 연령 정보를 추출하되, 합성곱 신경망을 구성하는 낮은 계층들에 의해서 성별 정보를 추출하고, 복수개의 계층의 전 계층에 의해서 연령 정보를 추출할 수 있다. 즉, 성별과 같이 대략적인 특징으로부터 추출할 수 있는 정보는 낮은 계층들에 의해 학습을 수행하고, 연령대와 같이 세부적인 특징으로부터 추출할 수 있는 정보는 낮은 계층뿐 아니라 높은 계층에 의한 학습을 수행한다.The gender and age recognition module 226 can recognize the gender and age group of the visitor. The gender and age group of the visitor can be obtained by analyzing the video of the user's face and performing learning using artificial intelligence. According to the present invention, when extracting information about gender and age, learning by optimized artificial intelligence can be performed taking into account the characteristics of gender and age. According to one embodiment, gender and age information is extracted using a convolutional neural network, but gender information is extracted by the lower layers constituting the convolutional neural network, and age information is extracted by all layers of the plurality of layers. You can. In other words, information that can be extracted from rough features, such as gender, is learned by lower layers, and information that can be extracted from detailed features, such as age, is learned by not only low but also high layers. .

통계 자료(230)가 생성된다. 전시물에 대한 감정, 관심도 및 반응 등을 연관 분석하여 객관적 데이터인 통계자료가 생성된다. Statistical data 230 is generated. Objective statistical data is generated by analyzing emotions, interest, and reactions to the exhibits.

이에 의하면, 전시물의 성별/연령별 알고리즘 및 관람객의 시선 분석 알고리즘을 통해, 각 계층(성별/연령별)의 해당 전시물에 대한 관심도를 추출할 수 있다.According to this, the level of interest in the exhibition in each class (by gender/age) can be extracted through the gender/age-specific algorithm of the exhibition and the visitor's gaze analysis algorithm.

도 3은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객의 시선을 검출하는 방법을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining how the exhibition hall customized service provision device according to the present invention detects the gaze of a visitor.

전시물에 설치된 카메라로부터, 또는 전시관 맞춤형 서비스 제공 장치(100)에 의해, 전방에 존재하는 관람객에 대한 영상을 획득한다. 획득한 영상은 객체 검출 알고리즘을 적용하여, 전체 영상으로부터 관람객의 얼굴 영역만을 검출한다. 일 예에 의하면, 얼굴 검출은 딥러닝 기반 검출 알고리즘을 적용할 수 있다.Images of visitors present in front are acquired from a camera installed in an exhibition or by the exhibition hall customized service provision device 100. An object detection algorithm is applied to the acquired image to detect only the visitor's face area from the entire image. According to one example, face detection may apply a deep learning-based detection algorithm.

일 실시예에 의하면, 전시물을 응시하고 있는 상태임을 판별하기 위하여, 검출된 관람객의 얼굴 영역에 대해 시선 추적 알고리즘을 적용할 수 있다. 시선 추적 알고리즘은 먼저 얼굴의 각 특징점을 추출한 후 얼굴 방향을 추정한다. 만일, 전시물을 바라보고 있는 상태임이 판별되면, 이후 추출된 특징점에 기초하여 감정을 추론할 수 있다.According to one embodiment, an eye-tracking algorithm may be applied to the detected facial area of the visitor to determine whether the visitor is gazing at the exhibition object. The eye tracking algorithm first extracts each feature point of the face and then estimates the direction of the face. If it is determined that the user is looking at an exhibition object, the emotion can be inferred based on the extracted feature points.

즉, 시선 추적 알고리즘을 통해 관람객이 전시물을 바라보고 있는 상태임이 확정되면, 사전에 추출된 얼굴의 특징점 정보에 기초하여 감정 인식이 가능하며, 이에 기초하여 해당 전시물에 대한 관심도를 결정하게 되는 긍정 및 부정 여부에 대한 판단을 내릴 수 있다.In other words, if it is confirmed through the eye tracking algorithm that the visitor is looking at the exhibition, emotion recognition is possible based on the facial feature point information extracted in advance, and based on this, the level of interest in the exhibition is determined. A judgment can be made as to whether it is negative or not.

또한, 실시예에 따라, 얼굴 방향과 시선 방향을 함께 고려하고, 이를 반영하여 관심도를 결정할 수 있다. 도 3에 도시된 바와 같이, 관람객의 얼굴 방향(Df)은 전시물(300)을 향해 있지만, 시선 방향(De)은 전시물(300)을 벗어난다. 이 경우, 관람객의 전시물(300)에 대한 관람도가 높지 않은 것으로 판단할 수 있다. Additionally, depending on the embodiment, the face direction and gaze direction may be considered together and the degree of interest may be determined by reflecting this. As shown in FIG. 3 , the direction of the visitor's face (D f ) is toward the exhibit 300 , but the gaze direction (D e ) deviates from the exhibit 300 . In this case, it can be determined that the visitor's viewing level for the exhibition object 300 is not high.

다른 실시예에 의하면, 시선이 전시물(300)로부터 벗어나는 편차 각도에 대응하여 관심도를 다르게 설정할 수 있다. 예를 들어, 편차 각도가 커질수록 전시물(300)에 대한 관심도는 낮아지는 것으로 판단할 수 있다.According to another embodiment, the degree of interest may be set differently in response to the deviation angle at which the gaze deviates from the exhibition object 300. For example, it may be determined that as the deviation angle increases, interest in the exhibit 300 decreases.

도 4는 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 학습된 신경망 모델을 사용하는 경우를 설명하기 위한 도면이다.Figure 4 is a diagram for explaining a case where the exhibition hall customized service provision device according to the present invention uses a learned neural network model.

합성곱 신경망은 특징 벡터의 분류가 가능한 복수개의 계층들로 구성될 수 있다. 하나의 계층은 정사각형 형태의 필터들로 구성되는데, 각 필터들은 컨볼루션 연산을 통해 입력 정보로부터 특징값을 추출할 수 있다.A convolutional neural network may be composed of multiple layers capable of classifying feature vectors. One layer consists of square-shaped filters, and each filter can extract feature values from input information through a convolution operation.

복수개의 계층 구조는 추출한 특징값들을 다음 컨볼루션 계층을 통과시켜 계속하여 특징을 추출하게 된다. 이와 같은 방식으로 계속해서 특징을 추출한 후, 전연결(Fully connected, FC) 계층을 통과시켜 성별과 연령 정보를 추출할 수 있다. 예를 들어, 이미지 -> 합성곱 계층 -> 특징 -> 합성곱 계층 -> 특징 -> 합성곱 계층 -> 특징 -> 전연결 계층 -> 성별, 연령 정보 추론 식으로 진행될 수 있다.The plurality of hierarchical structures continues to extract features by passing the extracted feature values through the next convolutional layer. After continuously extracting features in this way, gender and age information can be extracted by passing through the fully connected (FC) layer. For example, image -> convolution layer -> features -> convolution layer -> features -> convolution layer -> features -> fully connected layer -> gender and age information inference.

본 발명에서 학습된 신경망 모델을 사용하는 경우, 이미지와 정답지에 해당하는 레이블 데이터셋을 사용하여 학습시킨 신경망에 얼굴 영상을 입력한다. 이 경우, 이미지의 특징 벡터를 추출할 수 있는 커널들로 구성된 레이어 층들을 통과하면서, 세밀한 특징들을 추출하게 되고, 이에 기초하여 FC(Fully connected) 레이어에서 입력 이미지에 대한 추론이 가능하다.When using the neural network model learned in the present invention, the face image is input to the neural network trained using the label dataset corresponding to the image and answer sheet. In this case, detailed features are extracted while passing through layers composed of kernels that can extract feature vectors of the image, and based on this, inference about the input image is possible in the FC (Fully connected) layer.

감정 추론이 끝난 후, 검출된 소비자의 얼굴 정보는 얼굴 인식 합성곱 신경망에 검출된 얼굴 영역을 입력하여 성별과 연령대 정보를 추론할 수 있다. 추론한 정보는 사용자가 할당 받은 추적 ID 값에 갱신될 수 있다.After emotion inference is completed, the detected consumer's face information can be used to infer gender and age information by inputting the detected face area into a face recognition convolutional neural network. The inferred information can be updated to the tracking ID value assigned by the user.

도 4에 도시된 바와 같이, 학습된 신경망 모델을 구성하는 복수개의 계층(400)의 경우, 계층이 낮을수록 대략적인 특징 벡터를 추출하고, 계층이 높아질수록 세밀한 특징 벡터를 추출한다.As shown in FIG. 4, in the case of a plurality of layers 400 constituting the learned neural network model, the lower the layer, the more coarse feature vectors are extracted, and the higher the layer, the more detailed feature vectors are extracted.

한편, 성별 및 연령대 정보의 경우, 성별 정보는 대략적인 특징으로부터 추출할 수 있고, 연령대나 연령은 정보 추출을 위해 세밀한 특징이 요구된다. 특히, 연령은 연령대에 비하여 보다 세밀한 특징들이 필요하다. 예를 들어, 성별의 경우 머리 길이, 얼굴 골격, 신장, 체격 등의 대략적인 특징만으로도 구별 가능하지만, 연령대의 경우 주름이나 피부 상태와 같은 세밀한 특징이 필요하다.Meanwhile, in the case of gender and age information, gender information can be extracted from rough characteristics, and age or age requires detailed characteristics to extract information. In particular, age requires more detailed characteristics than age. For example, in the case of gender, it is possible to distinguish with only rough characteristics such as hair length, facial skeleton, height, and physique, but in the case of age, detailed characteristics such as wrinkles and skin condition are needed.

이러한 점을 고려하여, 본 발명에서는 합성곱 신경망을 이용하여 성별 및 연령대 정보를 추출하는 경우, 다음과 같이 학습과정을 설계할 수 있다.Considering this, in the present invention, when extracting gender and age information using a convolutional neural network, the learning process can be designed as follows.

구체적으로, 합성곱 신경망을 이용하여 성별과 연령 정보를 추출하되, 합성곱 신경망을 구성하는 낮은 계층들에 의해서 성별 정보를 추출하고, 복수개의 계층의 전 계층에 의해서 연령 정보를 추출할 수 있다.Specifically, gender and age information can be extracted using a convolutional neural network, but gender information can be extracted by lower layers constituting the convolutional neural network, and age information can be extracted by all layers of the plurality of layers.

도 5는 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객 별로 관심도가 중복되는 경우를 방지하기 위한 알고리즘을 설명하기 위한 도면이다.Figure 5 is a diagram illustrating an algorithm for preventing overlapping interest levels for each visitor in the exhibition hall customized service provision device according to the present invention.

먼저, 검출된 관람객의 얼굴 영역에 추적 아이디를 설정한다. First, a tracking ID is set in the detected face area of the visitor.

정확한 통계 자료를 획득하기 위해서는 한 사람당 하나의 관심도 정보만 필요하다. 따라서, 중복 집계를 방지하기 위해, 검출한 얼굴에 대해 트랙킹 아이디를 부여하고, 칼만 필터 계열의 영상 추적 알고리즘을 적용한다.In order to obtain accurate statistical data, only one interest information per person is needed. Therefore, to prevent double counting, tracking IDs are assigned to detected faces, and a Kalman filter-based image tracking algorithm is applied.

영상 추적은 이전 검출된 관심 영역 정보로부터 칼만 필터를 통해 추측한 예측 관심 영역들과 현재 검출 관심 영역들 간의 교차 영역의 크기 값을 구한 후에, 헝가리안 알고리즘을 적용하여 가장 적절하게 이전 검출 관심 영역과 현재 검출 관심 영역을 일대일 매칭시킬 수 있다.Image tracking obtains the size of the intersection between the predicted regions of interest estimated through a Kalman filter from information on the previously detected region of interest and the currently detected region of interest, and then applies the Hungarian algorithm to most appropriately match the previously detected region of interest. The current detection area of interest can be matched one-to-one.

도 5에 도시된 바와 같이, i 시점에서의 검출 관심영역(512)을 검출하고, 이에 칼만 필터를 적용하여 i 시점에서의 예측 관심영역(520)을 획득한다.As shown in FIG. 5, the detection region of interest 512 at time point i is detected, and a Kalman filter is applied to it to obtain the predicted region of interest 520 at time point i.

또한, i+1 시점에서의 검출 관심영역(514)을 검출한다. Additionally, the detection region of interest 514 at time point i+1 is detected.

이 경우, i 시점에서의 예측 관심영역(520)과 i+1 시점에서의 검출 관심영역(514)을 비교하고, 교차 영역(530)의 크기를 구한다. In this case, the predicted region of interest 520 at time point i is compared with the detected region of interest 514 at time point i+1, and the size of the intersection area 530 is obtained.

교차 영역(530)에 대해 헝가리인 알고리즘(540) 등을 적용하여, 관심 영역들을 정렬 및 일대일로 대응시킨다. The Hungarian algorithm 540, etc. is applied to the intersection area 530 to align and correspond one-to-one to the areas of interest.

도 6은 본 발명에서 관심도가 중복되는 경우를 방지하기 위한 알고리즘을 적용한 일 예를 도시한다.Figure 6 shows an example of applying an algorithm for preventing overlapping interests in the present invention.

제1 검출 ROI(610)는 i 시점에서의 검출 관심영역이다. 이에 칼만 필터 알고리즘을 적용하면, i 시점에서의 예측 ROI(620)가 얻어진다. The first detection ROI 610 is a detection region of interest at time point i. If the Kalman filter algorithm is applied to this, the predicted ROI (620) at time point i is obtained.

제2 검출 ROI(620)는 i+1 시점에서의 검출 관심영역이다.The second detection ROI 620 is a detection region of interest at time point i+1.

이 경우, i 시점에서의 예측 ROI(620)와 i+1 시점에서의 제2 검출 ROI(620)를 비교하여 교차 영역(630)의 크기를 비교하고, 교차 영역(630)의 크기에 대응하여 일대일 대응 쌍을 검색한다.In this case, the size of the intersection area 630 is compared by comparing the predicted ROI 620 at time point i and the second detection ROI 620 at time point i+1, and corresponding to the size of the intersection area 630. Search for one-to-one matching pairs.

도 7은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치가 관람객의 감정을 인식하는 방법을 설명하기 위한 도면이다.Figure 7 is a diagram for explaining how the exhibition hall customized service provision device according to the present invention recognizes the emotions of visitors.

시선 추적 알고리즘을 통해 관람객이 전시물을 바라보고 있는 상태가 확정되면, 사전에 추출된 얼굴의 특징점 정보에 기반하여 감정 인식을 수행한다. 감정이 인식되면, 이를 기반으로 해당 전시물에 대한 관심도를 결정하는 긍정/부정 판단을 내릴 수 있다.Once the state in which the visitor is looking at the exhibit is confirmed through the eye tracking algorithm, emotion recognition is performed based on the facial feature point information extracted in advance. Once an emotion is recognized, a positive/negative judgment can be made based on this to determine the level of interest in the exhibit.

이를 위해, 도 7에 도시된 바와 같이 감정을 대분류 및 소분류로 구분하고, 각 분류에 속한 감정들과 긍정 및 부정 판단을 연관시킨다. 긍정 및 부정 판단은 관심도와 연관되게 대응시킬 수 있다.To this end, as shown in Figure 7, emotions are divided into major and minor categories, and emotions belonging to each category are associated with positive and negative judgments. Positive and negative judgments can be matched in relation to interest.

도 8은 본 발명에 따른 전시관 맞춤형 서비스 제공 장치의 제어 과정을 도시한 도면이다.Figure 8 is a diagram showing the control process of the exhibition hall customized service provision device according to the present invention.

전시물에 인접한 사용자에 대한 제1영상을 획득한다(S801). A first image of a user adjacent to the exhibition object is acquired (S801).

제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출한다(S802). An object detection algorithm is applied to the first image to detect the second image of the face area (S802).

이 경우, 제1영상에 대해 객체 검출 알고리즘을 적용하여 제2영상을 획득할 수 있다.In this case, the second image can be obtained by applying an object detection algorithm to the first image.

제2영상에 대해 시선 추적 알고리즘을 적용하여 사용자가 전시물을 바라보고 있는 상태인지 판단한다(S803).An eye-tracking algorithm is applied to the second image to determine whether the user is looking at the exhibit (S803).

일 실시예에 의하면, 얼굴 영역에 대한 제2영상으로부터 얼굴의 방향을 추정하여 얼굴의 방향이 전시물을 향하는지 여부를 판단하여, 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다.According to one embodiment, the direction of the face can be estimated from the second image of the face area to determine whether the direction of the face is toward the exhibition object, thereby determining whether the user is looking at the exhibition object.

다른 실시예에 의하면, 얼굴 영역에 대한 영상으로부터 얼굴의 방향을 추정하여 얼굴의 방향이 전시물을 향하는지 여부를 판단하고, 사용자의 시선의 시야각을 계산하고 시야각 내에 전시물이 포함되는지 여부를 판단한 후, 이에 기초하여 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단할 수 있다. According to another embodiment, the direction of the face is estimated from the image of the face area to determine whether the direction of the face is toward the exhibit, the viewing angle of the user's gaze is calculated, and it is determined whether the exhibit is included in the viewing angle, Based on this, it can be determined whether the user is looking at the exhibition object.

사용자가 전시물을 바라보고 있는 상태라고 판단되면, 제2영상으로부터 얼굴의 특징점을 검출하고 특징점에 기초하여 전시물에 대한 사용자의 감정을 추정한다(S804).If it is determined that the user is looking at the exhibition object, facial feature points are detected from the second image, and the user's emotion toward the exhibition object is estimated based on the feature points (S804).

사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석한다(S805).The correlation between the user's emotions and the degree of interest in the exhibition is analyzed (S805).

상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화한다(S806).Based on the correlation, the level of interest is generated as numerical data and quantified (S806).

도 9는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 9의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 전시관 맞춤형 서비스 제공 장치(100)일 수 있다. 9 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 9 may be the exhibition hall customized service providing device 100 described in this specification.

도 9의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 9, the computing device TN100 may include at least one processor TN110, a transceiver device TN120, and a memory TN130. Additionally, the computing device TN100 may further include a storage device TN140, an input interface device TN150, an output interface device TN160, etc. Components included in the computing device TN100 are connected by a bus TN170 and may communicate with each other.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may refer to a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, and methods described in connection with embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 can store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may be comprised of at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may be comprised of at least one of read only memory (ROM) and random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다. The transceiving device TN120 can transmit or receive wired signals or wireless signals. The transmitting and receiving device (TN120) can be connected to a network and perform communication.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. Meanwhile, the embodiments of the present invention are not only implemented through the apparatus and/or method described so far, but may also be implemented through a program that realizes the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded. This implementation can be easily implemented by anyone skilled in the art from the description of the above-described embodiments.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also possible. It falls within the scope of invention rights.

100: 전시관 맞춤형 서비스 제공 장치
110: 영상 처리부 120: 관심도 추정부
130: 제어부 200: 분석 모듈
210: 스테레오 영상 인식 모듈 222: 얼굴 검출 및 추적 모듈
224: 얼굴 포즈 및 반응 추정 모듈 226: 성별 및 연령대 인식 모듈
100: Exhibition hall customized service provision device
110: Image processing unit 120: Interest estimation unit
130: Control unit 200: Analysis module
210: Stereo image recognition module 222: Face detection and tracking module
224: Face pose and reaction estimation module 226: Gender and age group recognition module

Claims (8)

전시관 맞춤형 서비스 제공 장치에 있어서,
전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 영상 처리부;
상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 관심도 추정부; 및
상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하고, 상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 제어부; 를 포함하되,
상기 얼굴의 방향과 시선 방향을 함께 고려하여 상기 관심도를 결정하고,
상기 사용자의 시선이 상기 전시물로부터 벗어나는 편차 각도에 대응하여 상기 관심도를 다르게 설정하는,
전시관 맞춤형 서비스 제공 장치.
In the exhibition hall customized service provision device,
an image processing unit that acquires a first image of a user adjacent to an exhibition object and detects a second image of a face area by applying an object detection algorithm to the first image;
When it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image, and the user's emotion toward the exhibit is based on the feature point. an interest estimation unit that estimates; and
a control unit that analyzes the correlation between the user's emotions and the level of interest in the exhibit, and generates and quantifies the level of interest as numerical data based on the correlation; Including,
Determining the level of interest by considering both the direction of the face and the gaze direction,
Setting the interest level differently in response to the deviation angle at which the user's gaze deviates from the exhibition object,
A device that provides customized exhibition hall services.
제1항에 있어서,
상기 관심도 추정부는,
상기 제2영상으로부터 상기 얼굴의 방향을 추정하여 상기 얼굴의 방향이 상기 전시물을 향하는지 여부를 판단하고,
상기 사용자의 시선의 시야각을 계산하고 상기 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후,
이에 기초하여 상기 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단하는,
전시관 맞춤형 서비스 제공 장치.
According to paragraph 1,
The interest estimation unit,
Estimating the direction of the face from the second image to determine whether the direction of the face is toward the exhibition object,
After calculating the viewing angle of the user's gaze and determining whether the exhibit is included within the viewing angle,
Based on this, it is determined whether the user is looking at the exhibit,
A device that provides customized exhibition hall services.
제1항에 있어서,
상기 제어부는,
상기 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 상기 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출하되,
상기 복수개의 계층을 소정 계층을 기준으로 상기 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 상기 소정 계층 및 상기 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고,
상기 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 상기 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식하는,
전시관 맞춤형 서비스 제공 장치.
According to paragraph 1,
The control unit,
The second image is input to a convolutional neural network related to face recognition, and gender and age information is extracted by extracting a plurality of feature vectors from a plurality of layers constituting the convolutional neural network,
Dividing the plurality of layers into a first layer group consisting of layers lower than the predetermined layer and a second layer group consisting of the predetermined layer and layers higher than the predetermined layer based on the predetermined layer,
Recognizing gender based on the feature vector extracted by the first layer group, and recognizing age based on the feature vector extracted by the first layer group and the second layer group,
A device that provides customized exhibition hall services.
제1항에 있어서,
상기 제어부는,
상기 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고,
상기 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시키는,
전시관 맞춤형 서비스 제공 장치.
According to paragraph 1,
The control unit,
Setting a tracking ID by applying an image tracking algorithm to the second image,
A detection area of interest is generated based on the tracking ID, a predicted area of interest is created estimated from the detection area of interest through a Kalman filter, and the detection area is based on the size of an intersection area between the detection area of interest and the predicted area of interest. Matching the area of interest and the predicted area of interest one-to-one,
A device that provides customized exhibition hall services.
전시관 맞춤형 서비스 제공 장치의 제어 방법에 있어서,
전시물에 인접한 사용자에 대한 제1영상을 획득하고, 상기 제1영상에 대해 객체 검출 알고리즘을 적용하여 얼굴 영역에 대한 제2영상을 검출하는 단계;
상기 제2영상에 대해 시선 추적 알고리즘을 적용하여 상기 사용자가 상기 전시물을 바라보고 있는 상태라고 판단되면, 상기 제2영상으로부터 얼굴의 특징점을 검출하고 상기 특징점에 기초하여 상기 전시물에 대한 상기 사용자의 감정을 추정하는 단계;
상기 사용자의 감정과 상기 전시물에 대한 관심도와의 상관 관계를 분석하는 단계; 및
상기 상관 관계에 기초하여 상기 관심도를 수치데이터로 생성하여 수치화하는 단계; 를 포함하되,
상기 얼굴의 방향과 시선 방향을 함께 고려하여 상기 관심도를 결정하고,
상기 사용자의 시선이 상기 전시물로부터 벗어나는 편차 각도에 대응하여 상기 관심도를 다르게 설정하는,
전시관 맞춤형 서비스 제공 장치의 제어 방법.
In the control method of the exhibition hall customized service provision device,
Obtaining a first image of a user adjacent to an exhibition object, and detecting a second image of a face area by applying an object detection algorithm to the first image;
When it is determined that the user is looking at the exhibit by applying an eye tracking algorithm to the second image, facial feature points are detected from the second image, and the user's emotion toward the exhibit is based on the feature point. estimating;
Analyzing the correlation between the user's emotions and interest in the exhibition object; and
generating and quantifying the interest level as numerical data based on the correlation; Including,
Determining the level of interest by considering both the direction of the face and the gaze direction,
Setting the interest level differently in response to the deviation angle at which the user's gaze deviates from the exhibition object,
Control method for exhibition hall customized service provision device.
제5항에 있어서,
상기 제2영상으로부터 상기 얼굴의 방향을 추정하여 상기 얼굴의 방향이 상기 전시물을 향하는지 여부를 판단하고,
상기 사용자의 시선의 시야각을 계산하고 상기 시야각 내에 상기 전시물이 포함되는지 여부를 판단한 후,
이에 기초하여 상기 사용자가 상기 전시물을 바라보고 있는 상태인지 여부를 판단하는,
전시관 맞춤형 서비스 제공 장치의 제어 방법.
According to clause 5,
Estimating the direction of the face from the second image to determine whether the direction of the face is toward the exhibition object,
After calculating the viewing angle of the user's gaze and determining whether the exhibit is included within the viewing angle,
Based on this, it is determined whether the user is looking at the exhibit,
Control method for exhibition hall customized service provision device.
제5항에 있어서,
상기 제2영상을 얼굴 인식과 관련된 합성곱 신경망에 입력하고, 상기 합성곱 신경망을 구성하는 복수개의 계층으로부터 복수개의 특징 벡터를 추출하여 성별과 연령 정보를 추출하되,
상기 복수개의 계층을 소정 계층을 기준으로 상기 소정 계층보다 낮은 계층들로 구성되는 제1계층 그룹과 상기 소정 계층 및 상기 소정 계층보다 높은 계층들로 구성되는 제2계층 그룹으로 구분하고,
상기 제1계층 그룹에 의해 추출되는 특징 벡터에 기초하여 성별을 인식하고, 상기 제1계층 그룹 및 상기 제2계층 그룹에 의해 추출되는 특징 벡터에 기초하여 연령을 인식하는,
전시관 맞춤형 서비스 제공 장치의 제어 방법.
According to clause 5,
The second image is input to a convolutional neural network related to face recognition, and gender and age information is extracted by extracting a plurality of feature vectors from a plurality of layers constituting the convolutional neural network,
Dividing the plurality of layers into a first layer group consisting of layers lower than the predetermined layer and a second layer group consisting of the predetermined layer and layers higher than the predetermined layer based on the predetermined layer,
Recognizing gender based on the feature vector extracted by the first layer group, and recognizing age based on the feature vector extracted by the first layer group and the second layer group,
Control method for exhibition hall customized service provision device.
제5항에 있어서,
상기 제2영상에 대해 영상 추적 알고리즘을 적용하여 추적 아이디를 설정하고,
상기 추적 아이디에 기초하여 검출관심영역을 생성하고, 상기 검출관심영역으로부터 칼만 필터를 통해 추측한 예측관심영역을 생성하며, 상기 검출관심영역과 상기 예측관심영역의 교차 영역의 크기에 기초하여 상기 검출관심영역과 상기 예측관심영역을 일대일로 매칭시키는,
전시관 맞춤형 서비스 제공 장치의 제어 방법.
According to clause 5,
Setting a tracking ID by applying an image tracking algorithm to the second image,
A detection area of interest is generated based on the tracking ID, a predicted area of interest is created estimated from the detection area of interest through a Kalman filter, and the detection area is based on the size of an intersection area between the detection area of interest and the predicted area of interest. Matching the area of interest and the predicted area of interest one-to-one,
Control method for exhibition hall customized service provision device.
KR1020210164958A 2021-11-25 2021-11-25 Appartus of providing service customized on exhibit hall and controlling method of the same Active KR102690927B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210164958A KR102690927B1 (en) 2021-11-25 2021-11-25 Appartus of providing service customized on exhibit hall and controlling method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210164958A KR102690927B1 (en) 2021-11-25 2021-11-25 Appartus of providing service customized on exhibit hall and controlling method of the same

Publications (2)

Publication Number Publication Date
KR20230077560A KR20230077560A (en) 2023-06-01
KR102690927B1 true KR102690927B1 (en) 2024-07-31

Family

ID=86771148

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210164958A Active KR102690927B1 (en) 2021-11-25 2021-11-25 Appartus of providing service customized on exhibit hall and controlling method of the same

Country Status (1)

Country Link
KR (1) KR102690927B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20250015309A (en) * 2023-07-25 2025-02-03 주식회사 벗이 Method and device for generating digital contents based on personality type
KR20250080523A (en) 2023-11-28 2025-06-05 서울특별시(시립과학관장) Visitor customized guidance service system and method
CN117668372B (en) * 2024-01-31 2024-04-19 江苏惊蛰云动科技有限公司 Virtual exhibition system on digital wisdom exhibition line
CN118864170B (en) * 2024-09-24 2025-01-21 中国建筑设计研究院有限公司 An intelligent tour guide system based on AIGC

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101672268B1 (en) * 2015-07-30 2016-11-04 (주) 씽크브릿지 Exhibition area control system and control method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040065753A (en) * 2003-01-16 2004-07-23 엘지전자 주식회사 Apparatus of detecting region of interested and method thereof
KR20150033173A (en) * 2013-09-23 2015-04-01 (주)이노지움 Satisfaction reporting system using face recognition
KR102054058B1 (en) * 2018-01-12 2019-12-09 한국과학기술원 Analysis method of relations of face movements and the system thereof
KR102295807B1 (en) 2020-02-24 2021-08-31 연세대학교 산학협력단 Concierge robot and method of providing personalized service using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101672268B1 (en) * 2015-07-30 2016-11-04 (주) 씽크브릿지 Exhibition area control system and control method thereof

Also Published As

Publication number Publication date
KR20230077560A (en) 2023-06-01

Similar Documents

Publication Publication Date Title
KR102690927B1 (en) Appartus of providing service customized on exhibit hall and controlling method of the same
US11669979B2 (en) Method of searching data to identify images of an object captured by a camera system
Jesorsky et al. Robust face detection using the hausdorff distance
Li et al. Robust multiperson detection and tracking for mobile service and social robots
Sowmya et al. Machine learning model for emotion detection and recognition using an enhanced convolutional neural network
Zhang et al. A virtual proctor with biometric authentication for facilitating distance education
CN115720664B (en) Object position estimation device, object position estimation method, and recording medium
Lin et al. A gender classification scheme based on multi-region feature extraction and information fusion for unconstrained images
Madake et al. Vision-based monitoring of student attentiveness in an e-learning environment
Siriteerakul Advance in head pose estimation from low resolution images: A review
Afroze et al. Detection of human’s focus of attention using head pose
Hasan et al. Person identification by evaluating gait using 2D LiDAR and deep neural network
EP4407569A1 (en) Systems and methods for tracking objects
Tapu et al. Face recognition in video streams for mobile assistive devices dedicated to visually impaired
Lin et al. Face detection based on the use of eyes tracking
JP3841482B2 (en) Face image recognition device
CN117593629B (en) Brush palm recognition method, device, equipment and storage medium
CN119810752B (en) Passenger flow statistics analysis system and method based on reid assistance
Punjabi et al. Prediction of human facial expression using deep learning
JP7491321B2 (en) Re-identification device, re-identification program, and re-identification method
Meudt et al. Multi-view video based tracking and audio-visual identification of persons in a human-computer-interaction scenario
Bhanushali et al. Enhancing human detection and counting efficiency through deep learning: A comprehensive approach
Devadethan et al. An ICA based head movement classification system using video signals
Tsai et al. User-centric incremental learning model of dynamic personal identification for mobile devices
Asadi Amiri et al. A Saliency Detection Model via Fusing Extracted Low-Level and High-Level Features from an Image

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R15-X000 Change to inventor requested

St.27 status event code: A-3-3-R10-R15-oth-X000

R16-X000 Change to inventor recorded

St.27 status event code: A-3-3-R10-R16-oth-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000