[go: up one dir, main page]

KR102349481B1 - 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치 - Google Patents

오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치 Download PDF

Info

Publication number
KR102349481B1
KR102349481B1 KR1020197025879A KR20197025879A KR102349481B1 KR 102349481 B1 KR102349481 B1 KR 102349481B1 KR 1020197025879 A KR1020197025879 A KR 1020197025879A KR 20197025879 A KR20197025879 A KR 20197025879A KR 102349481 B1 KR102349481 B1 KR 102349481B1
Authority
KR
South Korea
Prior art keywords
information
shape
background
item
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020197025879A
Other languages
English (en)
Other versions
KR20190107742A (ko
Inventor
김성욱
최상호
박병선
진정환
이원효
신형배
정성엽
함노아
김지민
Original Assignee
스노우 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스노우 주식회사 filed Critical 스노우 주식회사
Publication of KR20190107742A publication Critical patent/KR20190107742A/ko
Application granted granted Critical
Publication of KR102349481B1 publication Critical patent/KR102349481B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Recommending goods or services
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Dentistry (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)

Abstract

적어도 하나의 센서를 포함하는 센서부를 사용하여, 오브젝트의 주위의 배경과 오브젝트를 구분하고, 배경의 및/또는 오브젝트의 측정 포인트까지의 거리를 측정하고, 측정된 거리에 기반하여, 상기 오브젝트를 구성하는 적어도 하나의 부분의 형상에 대한 정보를 획득하는 방법 및 장치가 제공된다.

Description

오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치
본 개시는 센서를 사용하여 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치에 관한 것으로, 보다 자세하게는, 센서를 사용하여 신체인 오브젝트의 형상에 대한 정보를 획득하여, 신체에 적합한 아이템을 추천하는 방법 및 장치와 관련된다.
종래에는, 피사체에 포함된 오브젝트나 오브젝트를 구성하는 부분에 대해 그 크기를 측정하거나 예측함에 있어서, 오브젝트와 배경을 식별하고 오브젝트의 크기를 계산하기 위해 움직이는 오브젝트에 대해 그 움직임을 추적하는 작업의 수행이 요구되었다. 또는, 오브젝트를 전용의 스캐너로 스캔하는 작업의 수행이 요구되었다.
그러나, 움직이는 오브젝트의 추적은 시간 기반의 추적 행위를 필수적으로 수반하므로, 오브젝트의 크기를 결정하기 위한 효율적인 방법이라고 보기는 어렵다. 또한, 이러한 움직이는 오브젝트의 추적에 기반한 방법은 오브젝트의 크기 결정에 있어서 요구되는 높은 정밀도의 조건을 만족할 수 없다.
한편, 전용 스캐너를 사용하여 오브젝트의 크기를 결정하는 방법의 경우, 오브젝트의 크기를 결정하기 위해 전용 스캐너를 구비해야 하므로, 보편적인 사용이 어렵다는 문제점이 존재한다.
따라서, 사용자가 쉽게 활용이 가능한 센서로부터 획득된 데이터를 사용하여 피사체에 포함된 배경 및 오브젝트를 식별하고, 동시에, 오브젝트의 크기 결정에 있어서 높은 정밀도를 확보할 수 있는 방법이 요구된다.
한국공개특허 제10-2014-0118185 호(공개일 2014년 10월 08일)는 촬영부를 이용하여 피사체를 촬영하고, 상기 피사체의 크기를 계산한 후, 상기 피사체의 크기를 기반으로 상기 피사체의 거리를 계산하는 거리 측정 장치 및 방법을 기재하고 있다.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.
일 실시예는, 센서를 사용하여, 오브젝트의 주위의 배경과 오브젝트를 구분하고, 배경의 및/또는 오브젝트의 측정 포인트까지의 거리를 측정하고, 측정된 거리에 기반하여, 오브젝트의 적어도 하나의 부분의 형상에 대한 정보를 획득하는 방법을 제공할 수 있다.
일 실시예는 센서를 사용하여, 획득된 신체의 부위에 대한 부위 형태 정보에 기반하여, 신체의 체형을 결정하고, 신체에 적합하게 착용 가능한 아이템에 관한 정보를 포함하는 추천 정보를 제공하는 방법을 제공할 수 있다.
일 실시예는 획득된 신체의 부위에 대한 부위 형태 정보에 기반하여 제공되는 추천 정보로서 신체에 적합하게 착용 가능한 아이템에 관한 정보를 제공하고, 신체와 관련하여 해당 아이템의 수선이 필요한지 여부를 판단하고, 판단에 따라 수선 정보를 제공하는 방법을 제공할 수 있다.
일 측면에 있어서, 적어도 하나의 센서를 포함하는 센서부를 사용하여, 오브젝트의 주위의 배경과 상기 오브젝트를 구분하고 상기 배경의 적어도 하나의 포인트 및 상기 오브젝트의 적어도 하나의 포인트 중 적어도 하나의 측정 포인트로부터 상기 센서부까지의 거리를 측정하는 단계 및 적어도 상기 측정된 거리에 기반하여, 상기 오브젝트를 구성하는 적어도 하나의 부분의 형상에 대한 정보를 획득하는 단계를 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법이 제공된다.
상기 센서부는 깊이(depth) 센서를 포함할 수 있다.
상기 측정하는 단계는, 상기 깊이 센서를 사용하여, 상기 배경과 상기 오브젝트의 윤곽을 파악함으로써 상기 배경과 상기 오브젝트를 구분하는 단계를 포함할 수 있다.
상기 센서부는 거리(distance) 센서를 포함할 수 있다.
상기 측정하는 단계는, 상기 거리 센서를 사용하여 상기 측정 포인트까지의 비과 시간(Time of Flight; ToF)에 기반하여 거리를 측정하는 단계를 포함할 수 있다.
상기 형상에 대한 정보는 상기 부분의 크기에 대한 정보를 포함할 수 있다.
상기 측정하는 단계는 상기 부분의 2개의 측정 포인트들로부터 상기 센서부까지의 거리를 측정할 수 있다.
상기 형상에 대한 정보를 획득하는 단계는, 상기 센서부가 상기 측정 포인트들과 관련하여 위치된 각도 및 상기 측정된 거리들을 사용하여 상기 부분의 크기에 대한 정보를 획득함으로써, 상기 형상에 대한 정보를 획득할 수 있다.
상기 크기에 대한 정보는 상기 부분의 길이 및 폭 중 적어도 하나를 포함할 수 있다.
상기 측정하는 단계는, 상기 배경을 구성하는 적어도 하나의 배경 요소의 높이를 나타내는 정보 및 기 설정된 패턴 정보 중 적어도 하나에 기반하여 상기 배경 요소를 상기 배경의 나머지 부분과 구별하는 단계를 포함할 수 있다.
상기 측정하는 단계는, 상기 배경 요소가 나타내는 데이터와 상기 패턴 정보 간의 일치도가 소정의 값 이상인 경우, 상기 배경 요소를 기 설정된 타입의 배경 요소로 결정하는 단계를 포함할 수 있다.
상기 오브젝트는 신체이고, 상기 부분은 상기 신체의 부위이고, 상기 형상에 대한 정보는 상기 부위의 적어도 일부의 모양, 길이 및 폭 중 적어도 하나에 대한 부위 형태 정보를 포함할 수 있다.
상기 오브젝트의 형상에 대한 정보를 획득하는 방법은 상기 부위 형태 정보에 기반하여, 상기 신체의 체형을 결정하는 단계를 더 포함할 수 있다.
상기 신체는 복수의 부위들을 포함할 수 있다.
상기 체형을 결정하는 단계는, 상기 부위들 중 적어도 2개의 부위들에 대한 부위 형태 정보 및 상기 복수의 부위들 중 식별된 소정의 부위에 대한 부위 형태 정보 중 적어도 하나에 기반하여, 상기 신체의 체형을 결정할 수 있다.
상기 오브젝트의 형상에 대한 정보를 획득하는 방법은 상기 부위 형태 정보에 기반하여, 상기 부위에 착용 가능한 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공하는 단계를 더 포함할 수 있다.
상기 추천 정보를 제공하는 단계는, 상기 부위 형태 정보에 기반하여 결정된 상기 신체의 체형에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다.
상기 추천 정보를 제공하는 단계는, 상기 결정된 상기 신체의 체형과 연관된 통계학적 정보에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다.
상기 추천 정보를 제공하는 단계는, 상기 부위 형태 정보에 기반하여 결정된 상기 부위의 사이즈 정보에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다.
상기 오브젝트의 형상에 대한 정보를 획득하는 방법은 상기 결정된 아이템의 치수 및 상기 부위 형태 정보를 비교하여, 상기 아이템에 대해 수선이 필요한지 여부를 판단하는 단계 및 상기 수선이 필요한 경우, 상기 아이템에 대한 수선 정보를 제공하는 단계를 더 포함할 수 있다.
상기 수선이 필요한지 여부에 대한 판단은, 사용자에 의해 기 설정된 스타일 정보에 기반하여 결정될 수 있다.
다른 일 측면에 있어서, 적어도 하나의 센서를 포함하는 센서부, 상기 센서부를 사용하여, 오브젝트의 주위의 배경과 상기 오브젝트를 구분하고 상기 배경의 적어도 하나의 포인트 및 상기 오브젝트의 적어도 하나의 포인트 중 적어도 하나의 측정 포인트로부터 상기 센서부까지의 거리를 측정하는 배경 및 오브젝트 측정부 및 적어도 상기 측정된 거리에 기반하여, 상기 오브젝트를 구성하는 적어도 하나의 부분의 형상에 대한 정보를 획득하는 정보 획득부를 포함하는, 전자 장치가 제공된다.
상기 오브젝트는 신체이고, 상기 부분은 상기 신체의 부위이고, 상기 형상에 대한 정보는 상기 부위의 적어도 일부의 모양, 길이 및 폭 중 적어도 하나에 대한 부위 형태 정보를 포함할 수 있다.
상기 전자 장치는 상기 부위 형태 정보에 기반하여, 상기 신체의 체형을 결정하는 체형 결정부를 더 포함할 수 있다.
상기 전자 장치는 상기 부위 형태 정보에 기반하여, 상기 부위에 착용 가능한 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공하는 추천 정보 제공부를 더 포함할 수 있다.
센서를 사용하여 획득된 데이터에 기반하여, 오브젝트의 주위의 배경과 오브젝트를 구분하고, 배경의 및/또는 오브젝트의 측정 포인트까지의 거리를 측정하고, 오브젝트의 적어도 하나의 부분의 형상에 대한 정보를 획득함으로써 간편하게 오브젝트의 부분의 크기와 같은 형상에 대한 정보를 획득할 수 있는 방법이 제공된다.
배경에 대한 패턴 정보나 사용자 단말에 일반적으로 포함되는 센서로부터 획득된 데이터를 기반 데이터로서, 오브젝트의 부분에 대한 형상에 대한 정보의 결정에 활용함으로써, 오브젝트의 부분의 크기와 같은 형상에 대한 정보의 획득에 있어서 정밀도를 높일 수 있는 방법이 제공된다.
신체에 대해 추정된 사이즈나 체형에 기반하여, 신체에 적합한 아이템을 추천 정보로서 제공하고, 해당 아이템에 대한 수선 필요 시 수선 정보를 제공함으로써, 신체에 대해 적합한 아이템의 선택 시 사용자의 편의를 높일 수 있는 방법이 제공된다.
도 1은 일 실시예에 따른, 센서부를 사용하여 오브젝트의 형상에 대한 정보를 획득하고, 획득된 형상에 대한 정보에 기반하여 적합한 아이템에 대한 추천 정보를 제공하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 오브젝트의 형상에 대한 정보를 획득하는 전자 장치와, 아이템에 대한 추천 정보를 제공하는 서버의 구조를 나타낸다.
도 3는 일 실시예에 따른, 오브젝트의 형상에 대한 정보를 획득하는 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른, 센서부를 사용하여 배경과 오브젝트를 구분하고, 배경 및/또는 오브젝트의 측정 포인트까지의 거리를 측정하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 기반 데이터를 사용하여 배경에 포함된 배경 요소를 구별하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른, 센서부를 사용하여 신체의 부위에 대한 부위 형태 정보를 획득하고, 획득된 부위 형태 정보에 기반하여 적합한 아이템에 대한 추천 정보를 제공하는 방법을 나타내는 흐름도이다.
도 7는 일 예에 따른, 오브젝트와 오브젝트 주위의 배경을 구별하는 방법을 나타낸다.
도 8은 일 예에 따른, 배경 및 오브젝트의 측정 포인트까지의 거리를 측정하는 방법을 나타낸다.
도 9는 일 예에 따른, 신체에 해당하는 오브젝트의 부위들에 대한 각각의 부위 형태 정보를 나타낸다.
도 10은 일 예에 따른, 획득된 부위 형태 정보에 기반하여 적합한 아이템에 대한 추천 정보 및 수선 정보를 제공하는 방법을 나타낸다.
발명의 실시를 위한 최선의 형태
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일 실시예에 따른, 센서부를 사용하여 오브젝트의 형상에 대한 정보를 획득하고, 획득된 형상에 대한 정보에 기반하여 적합한 아이템에 대한 추천 정보를 제공하는 방법을 나타낸다.
도 1은 전자 장치(100)가, 전자 장치(100)에 포함된 센서부(105)를 사용하여, 피사체에 해당하는, 오브젝트(110)와 오브젝트(110)의 주변에 존재하는 배경(120)을 인식 및 구분하고, 센서부(105)로부터 오브젝트(110) 및/또는 배경(120)의 적어도 하나의 측정 포인트까지의 거리를 측정하고, 측정된 거리에 기반하여 오브젝트(110)의 형상에 대한 정보를 획득하는 방법을 나타낸다. 상기 형상에 대한 정보의 획득은 전자 장치(100)가 상기 측정된 거리에 기반하여 오브젝트(110)의 형상에 대한 정보를 계산하여 제공하는 것으로 해석될 수 있다.
획득된 오브젝트(110)의 형상에 대한 정보는 오브젝트(110)를 구성하는 적어도 하나의 부분의 형상에 대한 정보일 수 있다. 예컨대, 오브젝트(110) 또는 오브젝트(110)를 구성하는 적어도 하나의 부분의 크기(사이즈)에 대한 정보일 수 있다.
전자 장치(100)는 획득된 크기(사이즈)에 대한 정보에 기반하여, 예컨대, 외부에 존재하는 서버(130)에 대해 상기 획득된 크기(사이즈)에 대한 정보에 적합한 아이템에 관한 정보를 요청할 수 있고, 서버(130)로부터 적합한 아이템에 관한 정보를 추천 정보로서 수신할 수 있다. 전자 장치(100)는 수신된 추천 정보를 사용자에게 제공할 수 있다. 도시된 것과는 달리, 추천 정보는 외부에 존재하는 서버(130)가 아니라, 전자 장치(100) 내에 저장된 정보로서 제공될 수도 있다.
전자 장치(100)는, 센서부(105)를 포함하는 장치로서, 오브젝트(100) 또는 오브젝트(110)를 구성하는 적어도 하나의 부분의 크기(사이즈)에 대한 정보를 획득할 수 있도록 구성되는 장치일 수 있다. 예컨대, 전자 장치(100)는 도시된 것처럼, 스마트폰과 같은 사용자 단말일 수 있다. 전자 장치(100)의 자세한 구조 및 전자 장치(100)를 구성하는 요소들의 동작 및 기능에 대해서는 후술될 도 2를 참조하여 더 자세하게 설명한다.
오브젝트(110)는 전자 장치(100)에 의한 형상에 대한 정보의 획득의 대상이 되는 객체일 수 있다. 예컨대, 오브젝트(110)는 전자 장치(100)의 사용자의 신체 또는 신체의 일부에 대응할 수 있다. 즉, 전자 장치(100)에 의해 획득되는 형상에 대한 정보는 신체를 구성하는 적어도 하나의 부위에 대한 부위 형태 정보를 포함할 수 있다.
배경(120)은 전자 장치(100)의 센서부(105)를 사용하여 식별되는 부분 중 오브젝트(110)를 제외한 부분일 수 있다. 예컨대, 배경(120)은 천정, 바닥 및 벽을 포함할 수 있다. 또한, 배경(120)은 문, 전등 및 각종 장식을 비롯하여 오브젝트(110)를 제외한 여하한 사물을 포함할 수 있다. 전자 장치(100)는 배경(120)에 포함된 배경 요소(들)을 파악하여 배경(120)과 오브젝트(110)를 구분할 수 있고, 구분된 오브젝트(110)에 대해 오브젝트(110)를 구성하는 적어도 하나의 부분에 대한 형상에 대한 정보를 획득할 수 있다.
서버(130)는 전자 장치(100)의 요청에 따라, 혹은, 오브젝트(110)를 구성하는 적어도 하나의 부분에 대한 형상에 대한 정보가 획득됨에 따라, 해당 형상에 대한 정보에 기반하여 오브젝트(110)에 적합한 아이템에 대한 추천 정보를 전자 장치(100)에 제공할 수 있다. 예컨대, 오브젝트(110)가 신체인 경우 서버(130)는, 전자 장치(100)에, 오브젝트(110)에 대해 파악된 형상에 대한 정보(즉, 신체의 사이즈)에 적합한 적어도 하나의 의류 및/또는 액세서리에 대한 추천 정보를 제공할 수 있다.
서버(130)는 추천 정보와 연관된 아이템에 관한 정보를 저장하는 데이터베이스를 포함할 수 있다. 서버(130)의 자세한 구조 및 서버(130)를 구성하는 요소들의 동작 및 기능에 대해서는 후술될 도 2를 참조하여 더 자세하게 설명한다.
한편, 전자 장치(100)가 오브젝트(110) 및 배경(120)을 구분하고, 오브젝트(110)의 형상에 대한 정보를 획득하는 구체적인 방법에 대해서는 후술될 도 3 내지 도 12를 참조하여 자세하게 설명한다.
도 2는 일 실시예에 따른, 오브젝트의 형상에 대한 정보를 획득하는 전자 장치와, 아이템에 대한 추천 정보를 제공하는 서버의 구조를 나타낸다.
도시된 전자 장치(100)는 도 1을 참조하여 전술된 전자 장치(100)에 대응할 수 있다. 도 1에서 전자 장치(100)는 스마트폰 및 이와 유사한 장치로 도시되었으나, PC(personal computer), 노트북 컴퓨터(laptop computer), 랩탑 컴퓨터(laptop computer), 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등일 수 있으며, 실시예의 오브젝트(110)의 형상에 대한 정보를 획득하기 위해 사용될 수 있는 센서부를 포함하는 여하한 기기에 해당할 수 있다.
전자 장치(100)는 센서부(210), 통신부(220) 및 제어부(230)를 포함할 수 있다. 또한, 전자 장치(100)는 처리 또는 수신된 정보를 출력하기 위한 표시부(240)를 더 포함할 수 있다. 또한, 도시되지는 않았으나, 전자 장치(100)는 메시지의 입력 또는 사용자로부터의 인터렉션을 수신하기 위한 입력부를 더 포함할 수 있다.
센서부(210)는 도 1을 참조하여 전술된 센서부(105)에 대응할 수 있다. 센서부(210)는 오브젝트(110) 및 배경(120)으로부터 데이터를 측정/획득하기 위한 적어도 하나의 센서를 포함할 수 있다. 예컨대, 센서부(210)는 깊이 센서(212), 거리 센서(214), 가속도 센서(216) 및 자이로(gyro) 센서(216) 중 적어도 하나의 센서를 포함할 수 있다. 또한, 센서부(210)는 오브젝트(110) 및 배경(120)을 촬영하여 영상을 생성하기 위한 이미지 센서를 포함하는 카메라(218)를 더 포함할 수 있다.
깊이 센서(212)는 피사체의 적어도 일부에 대해, 3차원의 깊이에 대한 정보를 측정/획득하기 위한 장치일 수 있다. 예컨대, 깊이 센서(212)는, 발광부와 수광부를 구비할 수 있고, 발광부를 통해 방출되는 광을 통해 피사체의 깊이 영상을 검출할 수 있다. 발광부에 의해 방출되는 광은 예컨대, 적외선일 수 있다. 즉, 깊이 센서(212)는 적외선 센서를 구비할 수 있다. 깊이 센서(212)는 발광부로부터 방출된 광이 반사되어 돌아오는 시간(즉, 비과 시간(Time of Flight; ToF))을 이용하여 깊이 영상 정보를 생성할 수 있다. 발광부와 수광부는 서로 떨어져 있으며, 그 거리가 짧을수록 오차가 줄어들고 정밀한 깊이 영상 정보가 생성될 수 있다.
거리 센서(214)는 피사체에 대해, 거리 센서(214)로부터 피사체의 적어도 하나의 측정 포인트까지의 거리를 측정/감지하기 위한 장치일 수 있다. 또는, 거리 센서(214)는 피사체의 2개의 측정 포인트들 간의 거리를 측정/감지하기 위한 장치일 수 있다. 거리 센서(214)는 적외선 센서나 초음파 센서 및 PSD 센서(Position sensitve device) 중 적어도 하나의 센서를 포함할 수 있다. 거리 센서(214)는 거리 센서(214)에서 방출된 광 또는 음파(또는 기타 파동)의 피사체의 측정 포인트까지의 비과 시간(ToF)에 기반하여 측정 포인트까지의 거리를 측정할 수 있다. 전술된 깊이 센서(212) 및 거리 센서(214)는 하나의 센서로서 구성될 수 있다. 말하자면, 깊이 센서(212)가 거리 센서(214)의 기능을 수행할 수 있다.
자이로 센서(216)는 전자 장치(100)의 회전을 감지하고, 전자 장치(100)의 위치 및/또는 방향에 대한 정보를 측정/획득하기 위한 장치일 수 있다.
가속도 센서(216)는 전자 장치(100)의 움직임을 감지함으로써, 전자 장치(100)의 x, y 및 z축의 3축에 대한 가속도 데이터를 측정/획득하기 위한 장치일 수 있다. 가속도 센서(216)에 의해 측정/획득된 데이터에 기반하여 전자 장치(100)의 위치 및/또는 방향에 대한 정보가 획득될 수 있다. 도시된 바와 같이, 자이로 센서와 가속도 센서는 하나의 센서 모듈(216)로서 구성될 수 있다.
카메라(218)는 피사체를 촬영하여 영상을 생성하는 장치일 수 있다.
상술한 센서들(212, 214 및 216) 및 카메라(218) 외에, 센서부(210)는 오브젝트(110) 및/또는 배경(120)의 측정 포인트로부터의 거리를 획득하기 위한 여하한 센서를 추가로 또는 대안적으로 포함할 수 있다. 또한, 도시된 것과는 달리, 센서들(212, 214 및 216) 및 카메라(218) 중 적어도 일부는 통합된 모듈로서 구성될 수 있다.
통신부(220)는 전자 장치(100)가 다른 전자 장치나 서버(130)와 통신하기 위한 장치일 수 있다. 말하자면, 통신부(220)는 전자 장치나 서버(130)에 대해 데이터 및/또는 정보를 전송/수신하는 전자 장치(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
제어부(230)는 전자 장치(100)의 구성 요소들을 관리할 수 있고, 전자 장치(100)가 사용하는 프로그램 또는 어플리케이션을 실행할 수 있다. 예컨대, 제어부(230)는 오브젝트(110)의 형상에 대한 정보를 획득하기 위해 실행되는 어플리케이션을 실행하고, 서버(130) 및 다른 전자 장치로부터 수신된 데이터를 처리하도록 구성될 수 있다. 또한, 제어부(230)는 상기 어플리케이션의 실행 및 데이터의 처리 등에 필요한 연산을 처리할 수 있다. 제어부(230)는 전자 장치(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 제어부(230)의 세부적인 구성에 대해서는 하기에서 더 상세하게 설명한다.
표시부(240)는, 사용자가 입력한 데이터를 출력하거나, 획득/계산된 오브젝트(110)에 관한 정보(예컨대, 오브젝트(110)를 구성하는 적어도 하나의 부분의 형상에 대한 정보) 및 서버(130)로부터 제공되는 추천 정보를 출력하기 위한 디스플레이 장치를 포함할 수 있다. 예컨대, 표시부(240)는 터치 스크린을 포함할 수도 있다. 즉, 표시부(240)는 도시되지 않은 입력부의 기능을 포함하도록 구성될 수 있으며, 전자 장치(100)의 사용자는, 입력부를 통해, 전자 장치(100)에 대한 설정, 상기 형상에 대한 정보의 획득에 대한 설정 및 추천 정보에 대한 설정(제공되는 추천 정보의 결정을 위해 요구되는 정보에 대한 설정) 중 적어도 하나의 설정을 변경하거나 선택할 수 있다.
한편, 도시되지는 않았으나, 전자 장치(100)는 데이터 또는 정보를 저장하기 위한 장치로서 저장부를 포함할 수 있다. 저장부는 여하한 메모리 또는 스토리지 장치를 포함할 수 있다. 저장부에는 제어부(230)가 실행하는 프로그램 또는 어플리케이션 및 이와 관련된 정보가 저장될 수 있다. 예컨대, 저장부는 획득된(즉, 계산된) 오브젝트(110)와 연관된 형상에 대한 정보, 배경(120)에 대한 정보, 기타 오브젝트(110)와 관련된 정보 및 센서부(210)를 통해 측정된 정보 중 적어도 일부의 정보를 저장할 수 있다.
제어부(230)를 더 상세하게 설명하면, 제어부(230)는 배경 및 오브젝트 측정부(232) 및 정보 획득부(234)를 포함할 수 있다. 또한, 제어부(230)는 체형 결정부(236)를 더 포함할 수 있고, 추가로, 추천 정보 제공부(238)를 더 포함할 수 있다. 전술된 제어부(230)의 구성들(232 내지 238)은 제어부(230) 내에서(또는 제어부(230)의 적어도 하나의 프로세서 내에서) 구현되는 소프트웨어 또는 하드웨어 모듈일 수 있다.
배경 및 오브젝트 측정부(232)는 전술된 센서부(210)로부터 획득/측정된 데이터에 기반하여 오브젝트(110)와 배경(120)을 구분하고, 배경(120)의 적어도 하나의 포인트 및 오브젝트(110)의 적어도 하나의 포인트 중 적어도 하나의 측정 포인트로부터 전자 장치(100)(즉, 센서부(210))까지의 거리를 측정할 수 있다.
정보 획득부(234)는 배경 및 오브젝트 측정부(232)에 의해 측정된 거리에 기반하여, 오브젝트(110)를 구성하는 적어도 하나의 부분의 형상에 대한 정보를 획득할 수 있다. 정보 획득부(234)는 오브젝트(110)가 신체에 해당하는 경우 있어서, 오브젝트(110)의 부분에 해당하는 신체의 부위의 적어도 일부의 모양, 길이 및 폭 중 적어도 하나에 대한 부위 형태 정보를 획득할 수 있다.
체형 결정부(236)는 정보 획득부(234)에 의해 획득된 부위 형태 정보에 기반하여, 신체의 체형을 결정할 수 있다.
추천 정보 제공부(238)는 정보 획득부(234)에 의해 획득된 부위 형태 정보에 기반하여, 신체의 적어도 하나의 부위에 착용 가능한 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다.
제어부(230)의 구성들(232 내지 238)의 더 구체적인 기능 및 동작에 대해서는, 후술될 도 3 내지 도 10을 참조하여 더 자세하게 설명한다. 전술된 제어부(230)의 구성들(232 내지 238)은 적어도 하나의 프로세서 내에서 구현될 수 있는 바, 구성들(232 내지 238)의 기능 및 동작은 적어도 하나의 프로세서에 의해 실행될 수 있다.
서버(130)는 도 1을 참조하여 전술된 서버(130)에 대응할 수 있다. 전자 장치(100)에 대해, 획득된 오브젝트(110)와 연관된 형상에 대한 정보에 기반하여, 오브젝트(110)에 적합한 아이템에 대한 추천 정보(또는 추천 정보에 포함되는 아이템 정보)를 제공하는 서버, 또는 기타 컴퓨팅 장치일 수 있다. 서버(130)는 전자 장치(100)에 대해 추천 정보를 제공하기 위해 요구되는 데이터를 저장하는 적어도 하나의 데이터베이스 및 기타 컴퓨팅 디바이스를 포함할 수 있다. 한편, 도시되지는 않았으나, 서버(130)는 전자 장치(100)에의 추천 정보를 제공하기 위한 데이터를 처리하는 프로세서 및 전자 장치(100)와의 통신을 위해 사용되는 통신부를 포함할 수 있다.
도시된 바와 같이, 서버(130)는 아이템 정보 데이터베이스(250) 및 통계 정보 데이터베이스(260)를 포함할 수 있다.
아이템 정보 데이터베이스(250)는 오브젝트(110)와 관련하여 오브젝트(110)가 착용 가능한 아이템에 관한 정보를 저장할 수 있다. 오브젝트(110)가 신체인 경우, 아이템 정보 데이터베이스(250)는 신체에 착용 가능한 의류 및 악세서리에 관한 정보를 저장할 수 있다. 예컨대, 아이템 정보 데이터베이스(250)는 의류 및 악세서리의 치수(예컨대, 실측 치수), 사이즈(예컨대, 스몰, 미디움, 라지 등), 가격 및 의류 및 악세서리의 이미지(화상) 중 적어도 하나에 대한 정보를 저장할 수 있다.
서버(130)는 아이템 정보 데이터베이스(250)가 저장하는 정보와 연관된 아이템을 판매, 판촉, 광고 또는 설명(리뷰)하는 주체(예컨대, 쇼핑몰 또는 광고 웹 사이트 등)가 운용하는 서버와 통신함으로써 상기 아이템에 관한 정보를 획득할 수 있고, 획득된 정보를 아이템 정보 데이터베이스(250)에 저장할 수 있다.
통계 정보 데이터베이스(260)는 전자 장치(100)에 제공될 추전 정보를 결정하기 위해 사용될 수 있는 통계학적 정보를 저장하고 있다. 예컨대, 오브젝트(110)가 신체인 경우, 통계 정보 데이터베이스(250)는 사람의 신체에 관한 통계학적인(또는 인구 통계학적인) 체형 정보(예컨대, 평균 체중 및/또는 평균 신장에 관한 정보), 스타일 정보(통계적으로 선호되는 핏이나 스타일에 관한 정보), 유행 정보(통계적으로 선호되고 있는 아이템에 관한 정보) 및 트렌드 정보(선호되는 아이템이나 스타일에 관한 동향 정보) 중 적어도 하나의 정보를 저장할 수 있다.
서버(130)는 통계 정보 데이터베이스(260)가 저장하는 정보와 연관된 데이터를 제공하는 주체(예컨대, 통계청 또는 언론사 등)가 운영하는 서버와 통신함으로써 상기 통계학적 정보를 획득할 수 있고, 획득된 정보를 통계 정보 데이터베이스(260)에 저장할 수 있다.
서버(130)는 아이템 정보 데이터베이스(250) 및 통계 정보 데이터베이스(260)에 저장된 데이터를 참조함으로써, 전자 장치(100)에 대해 가장 적합한 아이템에 대한 추천 정보를 제공할 수 있다.
한편, 도시된 것과는 달리, 아이템 정보 데이터베이스(250) 및 통계 정보 데이터베이스(260)는 하나의 데이터베이스로서 구성될 수도 있다.
전자 장치(100)에 대해 추천 정보를 제공하는 구체적인 방법에 대해서는, 후술될 도 6 및 도 10을 참조하여 더 자세하게 설명한다.
도 1을 참조하여 전술된 기술적 특징에 대한 설명은, 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 3는 일 실시예에 따른, 오브젝트의 형상에 대한 정보를 획득하는 방법을 나타내는 흐름도이다. 도 4는 일 예에 따른, 센서부를 사용하여 배경과 오브젝트를 구분하고, 배경 및/또는 오브젝트의 측정 포인트까지의 거리를 측정하는 방법을 나타내는 흐름도이다.
도 3 및 4를 참조하여, 전술된 전자 장치(100)를 사용하여 오브젝트(110) 및 배경(120)을 구분하고, 오브젝트(110) 및/또는 배경(120)의 측정 포인트에 기반한 거리를 측정하고, 오브젝트(110)의 부분의 형상에 대한 정보를 획득하는 방법에 대해 자세하게 설명한다.
단계(310)에서, 배경 및 오브젝트 측정부(232)는 센서부(210)를 사용하여, 오브젝트(110)의 주위의 배경(120)과 오브젝트(110)를 구분하고 배경(120)의 적어도 하나의 포인트 및 오브젝트(110)의 적어도 하나의 포인트 중 적어도 하나의 측정 포인트로부터 전자 장치(100)(즉, 센서부(210))까지의 거리를 측정할 수 있다. 단계(310)는 후술될 단계들(410 및 420)을 포함할 수 있다.
먼저, 단계(410)에서, 배경 및 오브젝트 측정부(232)는 센서부(210)에 포함된 센서 및/또는 카메라를 사용하여 배경(120) 및 오브젝트(110)를 서로 구분할 수 있다.
예컨대, 배경 및 오브젝트 측정부(232)는 센서부(210)에 포함된 깊이 센서(212)를 사용하여, 배경(120)과 오브젝트(110)의 윤곽을 파악함으로써 배경(120)과 오브젝트(110)를 구분할 수 있다. 배경 및 오브젝트 측정부(232)는 깊이 센서(210)를 사용하여 획득된 배경(120)과 오브젝트(110)의 깊이 영상에 기반하여 배경(120)과 오브젝트(110)의 윤곽을 결정할 수 있다. 또는, 배경 및 오브젝트 측정부(232)는 센서부(210)에 포함된 카메라(218)를 사용하여 배경(120)과 오브젝트(110)의 윤곽을 파악함으로써 배경(120)과 오브젝트(110)를 구분할 수 있다. 배경 및 오브젝트 측정부(232)는 카메라(218)를 사용하여 획득된 배경(120)과 오브젝트(110)의 영상 또는 화성에 기반하여 배경(120)과 오브젝트(110)의 윤곽을 결정할 수 있다.
다음으로, 단계(420)에서, 배경 및 오브젝트 측정부(232)는 센서부(210)에 포함된 센서 및/또는 카메라를 사용하여 (센서부(210)로부터) 배경(120) 및/또는 오브젝트(110)의 측정 포인트까지의 거리를 측정할 수 있다. 측정 포인트는 배경(120) 또는 오브젝트(100)에서의 임의의 지점일 수 있다. 말하자면, 배경 및 오브젝트 측정부(232)는 배경(120) 또는 오브젝트(100)의 임의의 지점으로부터의 거리를 측정할 수 있다.
예컨대, 배경 및 오브젝트 측정부(232)는, 센서부(210)에 포함된 거리 센서(214)를 사용하여, 상기 측정 포인트까지의 비과 시간(ToF)에 기반하여 거리를 측정할 수 있다. 예컨대, 거리 센서(214)에 의해 방출된 광의 속도에 거리 센서(214)로부터 획득된 거리 센서(214)로부터 측정 포인트까지의 비과 시간(ToF)을 곱한 값에 기반하여 거리 센서(214)로부터 측정 포인트까지의 거리를 계산(획득)할 수 있다. 거리 센서(214)에 의해 방출된 광은 적외선일 수 있다. 또는, 적외선의 비과 시간 대신에 초음파의 비과 시간이나, 기타 파동의 비과 시간이 사용될 수도 있다.
배경 및 오브젝트 측정부(232)가 측정 포인트에 대한 거리를 측정하는 방법에 대해서는 후술될 도 8을 참조하여 더 자세하게 설명된다.
단계(320)에서, 정보 획득부(234)는 배경(120)과 구분된 오브젝트(110)로부터, 오브젝트(110)를 구성하는 적어도 하나의 부분을 식별할 수 있다. 예컨대, 오브젝트(110)가 신체인 경우, 정보 획득부(234)는 신체를 구성하는 머리, 팔, 다리, 몸통 등의 부위를 오브젝트(110)를 구성하는 부분으로서 식별할 수 있다.
정보 획득부(234)는 단계(310)에서, 파악된 오브젝트(110)의 윤곽 또는 카메라(215)에 의해 촬영된 오브젝트(110)의 영상 또는 화상에 기반하여 오브젝트(110)를 구성하는 적어도 하나의 부분을 식별할 수 있다.
도 3 및 도 4에서 도시된 것과는 달리, 단계(320)는 단계(410)과 단계(420)의 사이에 수행될 수도 있다. 또는, 단계(320)는 단계(310)의 일부로서 단계(310)에 포함될 수 있다.
단계(330)에서, 정보 획득부(234)는 단계(310)에 의해 측정된 측정 포인트에 대한 거리에 기반하여, 오브젝트(110)를 구성하는 적어도 하나의 식별된 부분의 형상에 대한 정보를 획득할 수 있다. 획득된 형상에 대한 정보는 연관된 부분의 크기에 대한 정보를 포함할 수 있다. 크기에 대한 정보는 상기 부분의 길이 및 폭 중 적어도 하나를 포함할 수 있다. 예컨대, 오브젝트(110)가 신체인 경우 획득된 형상에 대한 정보는 신체를 구성하는 부위의 길이 및/또는 폭을 나타내는 정보를 포함할 수 있다.
오브젝트(110)가 신체인 경우에 있어서의 실시예들 및 전술된 단계들(310 및 330)의 더 세부적인 내용에 대해서는 후술될 도 4 내지 10을 참조하여 더 자세하게 설명된다.
도 1 및 2를 참조하여 전술된 기술적 특징에 대한 설명은, 도 3 및 4에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 5는 일 예에 따른, 기반 데이터를 사용하여 배경에 포함된 배경 요소를 구별하는 방법을 나타내는 흐름도이다.
도 5는 도 3 및 도 4를 참조하여 전술된 단계들(310 및 410)에 있어서, 배경(120)을 오브젝트(110)와 구분하는 방법을 더 자세하게 설명하는 도면이다.
단계(510)에서, 배경 및 오브젝트 측정부(232)는 기반 데이터에 기반하여 오브젝트(110) 및 배경(120)을 구별할 수 있다. 기반 데이터는 오브젝트(110) 및 배경(120)을 보다 정확하게 구분하기 위해 사용되는 데이터일 수 있다. 예컨대, 기반 데이터는 자이로/가속도 센서(216)를 사용하여 획득되는 전자 장치(100)의 높이(고저)를 나타내는 위치 정보 및 배경(120)을 구성하는 배경 요소의 패턴을 나타내는 패턴 정보 중 적어도 하나를 포함할 수 있다. 패턴 정보는 전자 장치(100)에 기 설정되어 있거나, 기 설정된 정보로서 외부 서버 등으로부터 제공될 수 있다.
배경 및 오브젝트 측정부(232)는 배경(120)을 구성하는 적어도 하나의 배경 요소의 높이를 나타내는 정보 및 기 설정된 패턴 정보 중 적어도 하나에 기반하여 상기 배경 요소를 배경(120)의 나머지 부분과 구별할 수 있다. 배경 요소의 높이를 나타내는 정보는 자이로/가속도 센서(216)를 사용하여 획득되는 전자 장치(100)의 높이(고저)를 나타내는 위치 정보에 기반하여 결정될 수 있다. 배경 요소는 예컨대, 바닥, 천정, 좌우측 벽면 및 전면을 포함할 수 있다. 또는, 오브젝트(110)를 제외한 문이나 가구와 같은 요소를 포함할 수도 있다.
단계(520)에서, 배경 및 오브젝트 측정부(232)는 배경 요소가 나타내는 데이터와 기 설정된 패턴 정보 간의 일치도가 소정의 값 이상인 경우, 배경 요소를 기 설정된 타입의 배경 요소로 결정할 수 있다. 기 설정된 타입은 천정, 벽, 바닥 등과 같은 요소를 비롯하여 문, 조명, 가구 등을 포함할 수 있다.
예컨대, 배경 및 오브젝트 측정부(232)는 센서부(210)를 통해 획득된 깊이 영상이나 카메라(218)를 통해 획득된 영상 또는 화상으로부터 획득된 데이터와, 기 설정된 패턴 정보 간의 일치도를 판단할 수 있다.
단계들(510 및 520)에 의해, 배경 및 오브젝트 측정부(232)는 배경(120)의 요소들을 오브젝트(110)에 대해 구분할 수 있다. 또한, 배경(120)의 요소들(벽, 가구 등)이 각각 구분될 수 있다.
전술된 기반 데이터는 오브젝트(110) 및 배경(120)을 보다 정확하게 구분하기 위해, 센서부(210)에 획득된 데이터에 대해 보조적으로/추가적으로 사용될 수 있다.
구분된 배경 요소들에 대해서는 후술될 도 7을 참조하여 더 자세하게 설명된다.
도 1 내지 4를 참조하여 전술된 기술적 특징에 대한 설명은, 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 6은 일 예에 따른, 센서부를 사용하여 신체의 부위에 대한 부위 형태 정보를 획득하고, 획득된 부위 형태 정보에 기반하여 적합한 아이템에 대한 추천 정보를 제공하는 방법을 나타내는 흐름도이다.
도 6을 참조하여, 오브젝트(110)가 신체인 경우의 실시예에 대해 더 자세하게 설명한다.
단계(310')에서, 배경 및 오브젝트 측정부(232)는 센서부(210)를 사용하여, 오브젝트(110)의 주위의 배경(120)과 신체를 구분하고 배경(120)의 적어도 하나의 포인트 및 신체의 적어도 하나의 포인트 중 적어도 하나의 측정 포인트로부터 전자 장치(100)(즉, 센서부(210))까지의 거리를 측정할 수 있다.
단계(320')에서, 정보 획득부(234)는 배경(120)과 구분된 신체로부터, 신체를 구성하는 적어도 하나의 부분을 식별할 수 있다.
단계(330')에서, 정보 획득부(234)는 단계(310')에 의해 측정된 측정 포인트에 대한 거리에 기반하여, 신체를 구성하는 적어도 하나의 식별된 부위의 형상에 대한 부위 형태 정보를 획득할 수 있다. 부위 형태 정보는 신체를 구성하는 부위의 적어도 일부의 모양, 길이 및 폭 중 적어도 하나를 포함할 수 있다.
도 3을 참조하여 전술된 단계들(310 내지 330)의 각각에 대한 설명은 도 6의 단계들(310' 내지 330')의 각각에 대한 설명에 대해서도 그대로 적용될 수 있으므로, 중복되는 설명은 생략한다.
단계(610)에서, 체형 결정부(236)는 단계(330')에서 획득된 부위 형태 정보에 기반하여 신체의 체형을 결정할 수 있다. 체형 결정부(236)는 신체를 구성하는 복수의 부위들에 대해 획득된 부위 형태 정보를 종합적으로 고려하여 신체의 체형을 결정할 수 있다. 예컨대, 체형 결정부(236)는 신체의 부위들 중 적어도 2개의 부위들에 대한 부위 형태 정보에 기반하여, 신체의 체형을 결정할 수 있다. 체형 결정부(236)는 대상이 되는 부위들의 부위 형태 정보가 나타내는 크기가 모두 소정의 값 이상이거나, 그 중 소정의 일부의 크기가 모두 소정의 값 이상인지 여부를 판단하여 신체의 체형을 결정할 수 있다. 예컨대, 신체의 체형은 마른 체형, 보통 체형, 건장한 체형(통통한 체형) 등을 비롯한 체형 중 어느 하나로 결정될 수 있다.
또는, 체형 결정부(236)는 신체의 복수의 부위들 중 식별된 소정의 부위에 대한 부위 형태 정보에만 기반하여 신체의 체형을 결정할 수 있다. 이 때, 결정되는 신체의 체형은 상기 소정의 부위에 대한 체형(예컨대, 얼굴에 대해, 갸름한 얼굴, 보통 얼굴, 넓적한(통통한) 얼굴 등)을 나타낼 수 있다.
체형 결정부(236)는 전술된 서버(130)의 통계 정보 데이터베이스(260)에 저장된 통계학적 정보를 더 사용하여 신체의 체형을 결정할 수 있다. 예컨대, 체형 결정부(236)는 통계 정보 데이터베이스(260)에 저장된 평균 신장 정보, 평균 체중 정보 및 신체의 각 부위의 치수에 대한 정보를 더 참조하여 신체의 체형을 결정할 수 있다.
단계(620)에서, 추천 정보 제공부(238)는 단계(330')에서 획득된 부위 형태 정보에 기반하여, 해당 부위에 착용 가능한 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다. 추천 정보는 부위 형태 정보가 나타내는 부위의 크기(치수, 폭 또는 길이 등)에 해당하는 의류 및/또는 악세서리에 관한 정보를 포함할 수 있다. 예컨대, 추천 정보 제공부(238)는 획득된 부위 형태 정보에 기반하여 결정된 해당 부위의 사이즈 정보에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다. 예컨대, 사이즈 정보는 엑스 스몰, 스몰, 미디움, 라지, 엑스 라지 등의 사이즈를 나타낼 수 있다.
또한, 추천 정보 제공부(238)는 단계(610)에서 결정된 신체의 체형에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다. 말하자면, 추천 정보는 전자 장치(100)에 의해 파악된 신체의 체형에 기반하여 결정된 의류 및/또는 악세서리에 대한 정보를 포함할 수 있다. 예컨대, 결정된 체형이 마른 체형인 경우 추천 정보는 스몰 사이즈의 의류를 나타내는 정보를 포함할 수 있고, 결정된 체형이 통통한 체형인 경우 추천 정보는 라지 사이즈의 의류를 나타내는 정보를 포함할 수 있다.
또는, 추천 정보 제공부(238)는 결정된 신체의 체형과 연관된 통계학적 정보에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다. 예컨대, 결정된 신체의 체형과 관련된 인구학적 통계 정보와, 스타일 정보, 유행 정보 및 트렌드 정보 중 적어도 하나의 정보가 반영되어 결정된 아이템에 대한 정보가 추천 정보에 포함될 수 있다. 일례로, 결정된 체형에 따라 인기도가 높은 의류 및/또는 악세서리를 나타내는 정보가 추천 정보에 포함될 수 있다. 이 때, 결정된 체형이 마른 체형인 경우 추천 정보는 스키니진이나 가로줄 디자인의 의류와 같은 마른 체형에 대해 인기도가 높은 의류를 나타내는 정보를 포함할 수 있고, 결정된 체형이 통통한 체형인 경우 추천 정보는 박스티나 세로줄 디자인의 의류와 같은 통통한 체형에 대해 인기도가 높은 의류를 나타내는 정보를 포함할 수 있다.
또는, 추천 정보 제공부(238)는 사용자가 전자 장치(100)를 통해 기 설정된 스타일 설정에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공할 수 있다. 예컨대, 타이트한 스타일을 선호하는 것으로 스타일 설정을 설정한 경우, 추천 정보 제공부(238)는 스키니진과 같은 의류에 대한 정보를 포함하는 추천 정보를 제공할 수 있다.
추천 정보가 나타내는 아이템은, 겉옷 및 속옷을 포함하는 상의 또는 하의와 같은 의류와, 모자, 신발, 선글라스, 목걸이, 귀걸이 등의 일체의 착용 가능한 악세서리를 포함할 수 있다.
추천 정보는 신체에 추천 정보가 나타내는 아이템이 착용된 형태로 사용자에게 제공될 수 있다. 예컨대, 사용자는 전자 장치(100)의 표시부(240)를 통해, 또는, 기타 자신의 사용자 단말을 통해, 추천 정보가 나타내는 아이템이 신체에 착용된 상태를 시뮬레이션으로서 확인할 수 있다. 즉, 아이템에 대한 가상 피팅 서비스가 전자 장치(100)에 대해 또는 사용자의 다른 사용자 단말에 대해 제공될 수 있다. 또는, 추천 정보가 나타내는 아이템들은 리스트의 형태로 제공될 수도 있다. 또는, 신체에 가장 알맞거나, 인기도가 높은 아이템이 신체에 착용된 상태로 표시되고, 적어도 하나의 후보 아이템이 리스트의 형태로 따로 제공될 수도 있다.
추천 정보가 나타내는 아이템에 관한 정보는 전술된 서버(130)의 아이템 정보 데이터베이스(250)로부터 획득될 수 있다. 한편, 체형과 관련된 인구학적 통계 정보와, 스타일 정보, 유행 정보 및 트렌드 정보는 서버(130)의 통계 정보 데이터베이스(260)로부터 획득될 수 있다.
단계(630)에서, 추천 정보 제공부(238)는 추천 정보가 나타내는 아이템의 치수 및 부위 형태 정보를 비교하여, 해당 아이템에 대해 수선이 필요한지 여부를 판단할 수 있다. 추천 정보가 나타내는 아이템의 치수는 아이템 정보 데이터베이스(250)로부터 획득될 수 있다. 아이템의 치수는 해당 아이템의 실측 치수일 수 있다. 또는, 아이템의 치수는 사이즈에 대응하는 동종 아이템의 일반적인 치수 값을 사용할 수도 있다.
추천 정보 제공부(238)는 사용자가 전자 장치(100)를 통해 기 설정된 스타일 설정에 기반하여 수선 여부를 결정할 수 있다. 예컨대, 사용자가 롤업(바지단이나 소매를 접어 입음) 스타일을 선호하는 것으로 스타일 설정을 설정한 경우, 추천 정보 제공부(238)는 추천 정보가 나타내는 의류의 소매나 바지단의 치수가 부위 형태 정보가 나타내는 길이보다 크더라도 수선이 필요하지 않은 것으로 판단할 수 있다.
단계(640)에서, 추천 정보 제공부(238)는 수선이 필요한 것으로 판단된 경우, 아이템에 대한 수선 정보를 제공할 수 있다. 수선 정보는 신체에 추천 정보가 나타내는 아이템이 착용된 형태로 사용자에게 제공될 수 있다. 예컨대, 수선 정보는 전자 장치(100)의 표시부(240)를 통해 시뮬레이션으로서 시각적으로 제시될 수 있고, 사용자는 표시부(240)를 통해, 수선이 요구되는 아이템에 대해, 어느 부분에서 얼마만큼의 수선이 필요한지를 확인할 수 있다.
수선 정보를 제공하는 방법에 대해서는 후술될 도 10을 참조하여 더 자세하게 설명된다.
도 1 내지 5를 참조하여 전술된 기술적 특징에 대한 설명은, 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 7는 일 예에 따른, 오브젝트와 오브젝트 주위의 배경을 구별하는 방법을 나타낸다.
도 7에서는 복수의 배경 요소들(120-1 내지 120-6)을 포함하는 배경(120)과 피사체(110)가 도시되었다.
배경 요소들은 천장(120-1), 바닥(120-2), 좌측벽(120-3), 우측벽(120-4) 및 전면(120-5)을 포함할 수 있다. 또한, 문(120-6)과 같은 사물이나 가구도 배경 요소에 포함될 수 있다.
배경 및 오브젝트 측정부(232)는 센서부(210)에 포함된 센서/카메라를 사용하여, 배경(120)과 오브젝트(110)의 윤곽을 파악할 수 있고, 배경(120)의 배경 요소들(120-1 내지 120-6)을 구별할 수 있다.
도 5를 참조하여 전술된 것처럼, 배경 및 오브젝트 측정부(232)는 패턴 정보를 사용하여 배경(120)의 배경 요소들(120-1 내지 120-6)을 구별할 수 있다. 예컨대, 패턴 정보는 각 배경 요소에 대응하는 일반적인 형상이나(예컨대, 문은 직사각형에 대응됨) 일반적인 치수에 관한 정보를 포함하고 있으며, 배경 요소가 나타내는 데이터와 기 설정된 패턴 정보 간의 일치도를 판단하여 배경 요소의 타입을 결정할 수 있다.
정보 획득부(234)는 배경(120)에서 구분된 배경 요소의 상대적인 크기(길이 또는 폭)와 센서부(210)에 의해 생성된 깊이 영상으로부터 획득된 깊이 값을 사용하여, 오브젝트(110)를 구성하는 부분의 형상에 대한 정보를 획득할 수 있다. 즉, 정보 획득부는 깊이 값과 배경 요소의 상대적인 크기 간의 관계를 사용하여 오브젝트(110)를 구성하는 부분의 크기를 계산할 수 있고, 이를 형상에 대한 정보로서 획득할 수 있다. 상기의 배경 요소의 상대적인 크기는 전술된 단계(330)의 형상에 대한 정보 획득 방법에 대해 보조적으로/추가적으로 사용될 수도 있다.
도 1 내지 6을 참조하여 전술된 기술적 특징에 대한 설명은, 도 7에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 8은 일 예에 따른, 배경 및 오브젝트의 측정 포인트까지의 거리를 측정하고, 오브젝트의 부분의 형상에 대한 정보를 획득하는 방법을 나타낸다
정보 획득부(234)는 오브젝트(110)의 식별된 부분의 양단(예컨대, 부분의 길이나 폭을 측정하기 위한 양쪽의 끝단)을 측정 포인트들로 결정하고, 배경 및 오브젝트 측정부(232)를 통해 측정된 상기 측정 포인트들로부터 센서부(210) 간의 거리들과 상기 측정 포인트들로부터 센서부(210)를 연결하는 직선들이 이루는 화각을 사용하여, 상기 측정 포인트들 간의 거리를 계산함으로써, 상기 식별된 부분의 길이 또는 폭을 형상에 대한 정보로서 획득할 수 있다.
예컨대, 도시된 바와 같이, 배경 및 오브젝트 측정부(232)는 오브젝트(110)의 머리 부분의 양단의 측정 포인트들과 오른쪽 다리의 양단의 측정 포인트들에 대해 센서부(210)를 사용하여 센서부(210)로부터 측정 포인트들까지의 거리들을 각각 측정할 수 있다. 정보 획득부(234)는 일례로 머리에 대해 측정된 길이 L1 및 L2와 화각 θ1을 사용하여, 머리의 길이 X1을 머리의 형상에 대한 정보(즉, 부위 형태 정보)로서 계산(획득)할 수 있다. 또한, 정보 획득부(234)는 오른쪽 다리에 대해 측정된 길이 L3 및 L4와 화각 θ2를 사용하여, 오른쪽 다리의 길이 X2를 오른쪽 다리의 형상에 대한 정보(즉, 부위 형태 정보)로서 계산할 수 있다.
말하자면, 배경 및 오브젝트 측정부(232)가 오브젝트(110)를 구성하는 부분의 2개의 측정 포인트들로부터 센서부(210)까지의 거리를 측정하고, 정보 획득부(234)가 센서부(320)가 상기 측정 포인트들과 관련하여 위치된 각도(예컨대, 전술한 화각에 대응) 및 전술된 단계(310)을 통해 측정된 거리를 사용하여 오브젝트(110)를 구성하는 부분의 크기에 대한 정보를 획득함으로써, 해당 부분의 형상에 대한 정보를 획득할 수 있다.
또는, 도시된 것과는 달리, 정보 획득부(234)는, 예컨대, 단계(310)에서 측정된 측정 포인트(들)에 대한 거리(들)에 대한 오브젝트(110)의 식별된 부분의 길이 또는 폭에 대한 비 또는 식별된 부분의 길이 또는 폭의 상대적인 크기를 사용하여, 상기 오브젝트(110)의 식별된 부분의 길이 또는 폭을 계산할 수 있고, 계산된 값을 해당 부분의 형상에 대한 정보로서 획득할 수 있다.
도 1 내지 7을 참조하여 전술된 기술적 특징에 대한 설명은, 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 9는 일 예에 따른, 신체에 해당하는 오브젝트의 부위들에 대한 각각의 부위 형태 정보를 나타낸다.
도 9는, 오브젝트(110)가 신체에 해당하는 경우에 있어서, 전술된 실시예들의 방법을 통해 획득된 부위 형태 정보(910)와, 부위 형태 정보(910)에 기반하여 결정된 체형 정보(920) 및 사용자가 기 설정한 스타일 설정 정보(930)을 나타낸다.
부위 형태 정보(910)는 신체의 부위의 길이 및 폭을 포함할 수 있다. 체형 결정부(236)는 부위 형태 정보(910)에 기반하여, 신체의 체형을 결정할 수 있다. 예시에서, 신체의 체형은 보통으로 결정되었다. 이외에도, 부위 형태 정보(910)의 값에 따라 신체의 체형은 마른 체형 또는 통통한 체형 등으로 결정될 수 있다. 체형 의 결정에는 통계 정보 데이터베이스(250)에 저장된 데이터가 사용될 수 있다.
도시된 예시에서, 사용자는 스타일 설정 정보(930)를 보통으로 설정하였다. 이외에도, 타이트한 스타일, 슬림한 스타일 및 루즈한 스타일 등의 설정이 가능할 수 있다. 전술된 바와 같이, 스타일 설정 정보(930)는 추천 정보에 의해 추천되는 아이템을 결정하거나, 수선 정보를 제공함에 있어서 수선 여부를 결정하기 위해 사용될 수 있다.
도 1 내지 8을 참조하여 전술된 기술적 특징에 대한 설명은, 도 9에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 10은 일 예에 따른, 획득된 부위 형태 정보에 기반하여 적합한 아이템에 대한 추천 정보 및 수선 정보를 제공하는 방법을 나타낸다.
도 10에서는, 사용자에게 추천 정보가 제공되고, 추천 정보를 통해 신체에 착용 가능한 아이템들(1010 내지 1040)이 제공된 경우가 도시되었다.
도시된 것처럼, 추천 정보는 신체에 추천 정보가 나타내는 아이템이 착용된 형태로 사용자에게 제공될 수 있다. 사용자는 전자 장치(100)의 표시부(240)를 통해, 추천 정보가 나타내는 아이템이 신체에 착용된 상태를 시뮬레이션으로서 확인할 수 있다.
도시된 예시에서, 추천 정보 제공부(238)는 추천된 아이템들 중 일부의 아이템들(1010 및 1020)에 대해 수선이 필요한 것으로 판단하였다. 예시와 같이, 수선 정보는 전자 장치(100)의 표시부(240)를 통해 시뮬레이션으로서 시각적으로 제시될 수 있고, 사용자는 표시부(240)를 통해, 수선이 요구되는 아이템에 대해, 어느 부분에서 얼마만큼의 수선이 필요한지를 확인할 수 있다. 예시에서는, 상의(1010)에 대해서는 a1 및 a2만큼의 수선이 필요하고, 하의(1020)에 대해서는 b1 및 b2만큼의 수선이 필요한 것으로 결정되었다.
앞서 설명한 바와 같이, 수선의 필요 여부는 추천 정보가 나타내는 아이템의 치수 및 획득된 부위 형태 정보를 비교한 결과에 기반하여 결정될 수 있으며, 추가로/대안적으로, 사용자가 전자 장치(100)를 통해 기 설정된 스타일 설정에 기반하여 결정될 수 있다.
도 1 내지 9를 참조하여 전술된 기술적 특징에 대한 설명은, 도 9에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
앞서 설명한 실시예들에서, 신체의 부위를 측정하고, 부위 형태 정보를 획득함에 있어서, 신체는 나체의 상태에 있거나, 속옷만 착용한 상태에 있어야 할 수 있다. 다만, 신체의 부위 측정 및 부위 형태 정보 획득 시 신체가 이미 의류 및/또는 악세서리를 착용하고 있는 경우에는, 기 착용된 의류 및/또는 악세서리가 착용되지 않은 신체의 상태를 추정하는 작업이 먼저 수행되어야 할 수 있다. 또는, 부위 형태 정보의 획득 시 기 착용된 의류 및/또는 악세서리에 대한 보상 작업이 추가적으로 수행되어야 할 수 있다.
또한, 신체의 부위 측정 시, 측정 대상이 되는 사용자는 사용자는 측정이 용이하게 되는 자세(예컨대, 팔 다리를 대(大) 자로 벌린 자세)를 취하도록 요구될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에서 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
발명의 실시를 위한 형태
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 전자 장치에 의해 수행되는 오브젝트의 형상에 대한 정보를 획득하는 방법에 있어서,
    상기 전자 장치의 적어도 하나의 센서를 포함하는 센서부를 사용하여, 오브젝트의 주위의 배경과 상기 오브젝트를 구분하고 상기 배경의 적어도 하나의 포인트 및 상기 오브젝트의 적어도 하나의 포인트 중 적어도 하나의 측정 포인트로부터 상기 센서부까지의 거리를 측정하는 단계; 및
    적어도 상기 측정된 거리에 기반하여, 상기 오브젝트를 구성하는 적어도 하나의 부분의 형상에 대한 정보를 획득하는 단계
    를 포함하고,
    상기 측정하는 단계는,
    배경을 구성하는 적어도 하나의 배경 요소를 나타내는 기 설정된 패턴 정보를 사용하여, 상기 오브젝트와 상기 오브젝트 주위의 배경의 배경 요소를 구분하는 단계
    를 포함하고,
    상기 구분하는 단계는,
    상기 배경 요소가 나타내는 데이터와 상기 패턴 정보 간의 비교에 기반하여, 상기 배경 요소의 타입을 결정하는 단계
    를 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  2. 제1항에 있어서,
    상기 센서부는 깊이(depth) 센서를 포함하고,
    상기 측정하는 단계는,
    상기 깊이 센서를 더 사용하여, 상기 오브젝트 주위의 배경과 상기 오브젝트의 윤곽을 파악함으로써 상기 오브젝트 주위의 배경과 상기 오브젝트를 구분하는 단계
    를 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  3. 제1항에 있어서,
    상기 센서부는 거리(distance) 센서를 포함하고,
    상기 측정하는 단계는,
    상기 거리 센서를 사용하여 상기 측정 포인트까지의 비과 시간(Time of Flight; ToF)에 기반하여 거리를 측정하는 단계
    를 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  4. 제1항에 있어서,
    상기 형상에 대한 정보는 상기 부분의 크기에 대한 정보
    를 포함하고,
    상기 측정하는 단계는 상기 부분의 2개의 측정 포인트들로부터 상기 센서부까지의 거리를 측정하고,
    상기 형상에 대한 정보를 획득하는 단계는,
    상기 센서부가 상기 측정 포인트들과 관련하여 위치된 각도 및 상기 측정된 거리들을 사용하여 상기 부분의 크기에 대한 정보를 획득함으로써, 상기 형상에 대한 정보를 획득하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  5. 제4항에 있어서,
    상기 크기에 대한 정보는 상기 부분의 길이 및 폭 중 적어도 하나를 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  6. 삭제
  7. 삭제
  8. 제1항에 있어서,
    상기 오브젝트는 신체이고,
    상기 부분은 상기 신체의 부위이고,
    상기 형상에 대한 정보는 상기 부위의 적어도 일부의 모양, 길이 및 폭 중 적어도 하나에 대한 부위 형태 정보를 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  9. 제8항에 있어서,
    상기 부위 형태 정보에 기반하여, 상기 신체의 체형을 결정하는 단계
    를 더 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  10. 제9항에 있어서,
    상기 신체는 복수의 부위들을 포함하고,
    상기 체형을 결정하는 단계는,
    상기 부위들 중 적어도 2개의 부위들에 대한 부위 형태 정보 및 상기 복수의 부위들 중 식별된 소정의 부위에 대한 부위 형태 정보 중 적어도 하나에 기반하여, 상기 신체의 체형을 결정하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  11. 제8항에 있어서,
    상기 부위 형태 정보에 기반하여, 상기 부위에 착용 가능한 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공하는 단계
    를 더 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  12. 제11항에 있어서,
    상기 추천 정보를 제공하는 단계는,
    상기 부위 형태 정보에 기반하여 결정된 상기 신체의 체형에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  13. 제12항에 있어서,
    상기 추천 정보를 제공하는 단계는,
    상기 결정된 상기 신체의 체형과 연관된 통계학적 정보에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  14. 제11항에 있어서,
    상기 추천 정보를 제공하는 단계는,
    상기 부위 형태 정보에 기반하여 결정된 상기 부위의 사이즈 정보에 기반하여 결정된 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  15. 제14항에 있어서,
    상기 결정된 아이템의 치수 및 상기 부위 형태 정보를 비교하여, 상기 아이템에 대해 수선이 필요한지 여부를 판단하는 단계; 및
    상기 수선이 필요한 경우, 상기 아이템에 대한 수선 정보를 제공하는 단계
    를 더 포함하는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  16. 제15항에 있어서,
    상기 수선이 필요한지 여부에 대한 판단은, 사용자에 의해 기 설정된 스타일 정보에 기반하여 결정되는, 오브젝트의 형상에 대한 정보를 획득하는 방법.
  17. 제1항 내지 제5항 및 제8항 내지 제16항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
  18. 적어도 하나의 센서를 포함하는 센서부;
    상기 센서부를 사용하여, 오브젝트의 주위의 배경과 상기 오브젝트를 구분하고 상기 배경의 적어도 하나의 포인트 및 상기 오브젝트의 적어도 하나의 포인트 중 적어도 하나의 측정 포인트로부터 상기 센서부까지의 거리를 측정하는 배경 및 오브젝트 측정부; 및
    적어도 상기 측정된 거리에 기반하여, 상기 오브젝트를 구성하는 적어도 하나의 부분의 형상에 대한 정보를 획득하는 정보 획득부
    를 포함하고,
    상기 배경 및 오브젝트 측정부는 배경을 구성하는 적어도 하나의 배경 요소를 나타내는 기 설정된 패턴 정보를 사용하여, 상기 오브젝트와 상기 오브젝트 주위의 배경의 배경 요소를 구분하고,
    상기 배경 요소가 나타내는 데이터와 상기 패턴 정보 간의 비교에 기반하여, 상기 배경 요소의 타입을 결정하는, 전자 장치.
  19. 제18항에 있어서,
    상기 오브젝트는 신체이고,
    상기 부분은 상기 신체의 부위이고,
    상기 형상에 대한 정보는 상기 부위의 적어도 일부의 모양, 길이 및 폭 중 적어도 하나에 대한 부위 형태 정보를 포함하고,
    상기 부위 형태 정보에 기반하여, 상기 신체의 체형을 결정하는 체형 결정부
    를 더 포함하는, 전자 장치.
  20. 제18항에 있어서,
    상기 오브젝트는 신체이고,
    상기 부분은 상기 신체의 부위이고,
    상기 형상에 대한 정보는 상기 부위의 적어도 일부의 모양, 길이 및 폭 중 적어도 하나에 대한 부위 형태 정보를 포함하고,
    상기 부위 형태 정보에 기반하여, 상기 부위에 착용 가능한 의류 및 악세서리 중 적어도 하나의 아이템에 대한 추천 정보를 제공하는 추천 정보 제공부
    를 더 포함하는, 전자 장치.
KR1020197025879A 2017-03-27 2017-03-27 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치 Active KR102349481B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/003273 WO2018182053A1 (ko) 2017-03-27 2017-03-27 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190107742A KR20190107742A (ko) 2019-09-20
KR102349481B1 true KR102349481B1 (ko) 2022-01-10

Family

ID=63676542

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197025879A Active KR102349481B1 (ko) 2017-03-27 2017-03-27 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치

Country Status (5)

Country Link
US (1) US11403864B2 (ko)
JP (1) JP6845346B2 (ko)
KR (1) KR102349481B1 (ko)
CN (1) CN110475510B (ko)
WO (1) WO2018182053A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US12260023B2 (en) 2012-01-17 2025-03-25 Ultrahaptics IP Two Limited Systems and methods for machine control
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
KR102689769B1 (ko) * 2021-11-08 2024-08-01 카페24 주식회사 의류 사이즈 자동 측정 방법, 장치 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100111370A1 (en) * 2008-08-15 2010-05-06 Black Michael J Method and apparatus for estimating body shape

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665577B2 (en) * 2000-12-20 2003-12-16 My Virtual Model Inc. System, method and article of manufacture for automated fit and size predictions
JP2003082515A (ja) * 2001-09-10 2003-03-19 Nec Corp 製品販売システム
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
US7479956B2 (en) * 2001-10-19 2009-01-20 Unique Solutions Design Ltd. Method of virtual garment fitting, selection, and processing
JP2005165531A (ja) * 2003-12-01 2005-06-23 Canon Inc 情報機器、その制御方法及びプログラム
US7617016B2 (en) * 2005-04-27 2009-11-10 Myshape, Inc. Computer system for rule-based clothing matching and filtering considering fit rules and fashion rules
CN103778635B (zh) * 2006-05-11 2016-09-28 苹果公司 用于处理数据的方法和装置
JP5439787B2 (ja) * 2008-09-30 2014-03-12 カシオ計算機株式会社 カメラ装置
WO2010140613A1 (ja) * 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置
US10335346B2 (en) * 2009-07-22 2019-07-02 Physio-Control Canada Sales Ltd. Optical techniques for the measurement of chest compression depth and other parameters during CPR
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
KR20120051212A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
CN102657532B (zh) * 2012-05-04 2014-09-17 深圳泰山在线科技有限公司 基于人体姿态识别的身高测量方法及装置
KR20130136090A (ko) * 2012-06-04 2013-12-12 최영진 전자상거래 고객의 신체 사진을 이용한 맞춤 수선 및 대리점화 계획 장치 및 그 방법과 시스템
KR101707707B1 (ko) * 2012-12-14 2017-02-16 한국전자통신연구원 인체 모델을 이용한 가상 아이템 피팅 방법 및 가상 아이템의 피팅 서비스 제공 시스템
CN103533449A (zh) * 2012-12-20 2014-01-22 Tcl集团股份有限公司 一种基于智能3d电视的3d试衣的实现方法及系统
KR20140118185A (ko) 2013-03-28 2014-10-08 인텔렉추얼디스커버리 주식회사 거리 측정 장치 및 방법
US9536321B2 (en) * 2014-03-21 2017-01-03 Intel Corporation Apparatus and method for foreground object segmentation
JP6091472B2 (ja) * 2014-08-12 2017-03-08 ソフトバンク株式会社 商品等提供システム、商品等提供方法、及び商品等提供プログラム
US9594967B2 (en) * 2015-03-31 2017-03-14 Google Inc. Method and apparatus for identifying a person by measuring body part distances of the person
US10432842B2 (en) * 2015-04-06 2019-10-01 The Texas A&M University System Fusion of inertial and depth sensors for movement measurements and recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100111370A1 (en) * 2008-08-15 2010-05-06 Black Michael J Method and apparatus for estimating body shape

Also Published As

Publication number Publication date
JP2020515351A (ja) 2020-05-28
JP6845346B2 (ja) 2021-03-17
KR20190107742A (ko) 2019-09-20
US11403864B2 (en) 2022-08-02
CN110475510B (zh) 2022-08-02
US20200019766A1 (en) 2020-01-16
WO2018182053A1 (ko) 2018-10-04
CN110475510A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
KR102349481B1 (ko) 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치
JP5773944B2 (ja) 情報処理装置および情報処理方法
US20250218005A1 (en) Resilient Dynamic Projection Mapping System and Methods
US9165318B1 (en) Augmented reality presentation
US9842255B2 (en) Calculation device and calculation method
JP7439844B2 (ja) 端末装置、情報処理装置、情報出力方法、情報処理方法、接客支援方法及びプログラム
US11042887B2 (en) Product exposure analysis in a shopping environment
JP7534444B2 (ja) キャプチャ画像の処理システム及び方法
US11120629B2 (en) Method and device for providing augmented reality, and computer program
US20150120496A1 (en) Shopping System
US20230252551A1 (en) Vehicle identification driven by augmented reality (ar)
US10575594B2 (en) Footwear internal space measuring device and method for providing service thereof
CN110348927A (zh) 信息展示处理方法、装置及门店系统
US11402971B1 (en) User interface preference management
KR102434535B1 (ko) 인터랙션 검출 방법 및 그 장치
WO2016115536A2 (en) Determining three-dimensional information from projections or placement of two-dimensional patterns
US12327279B2 (en) System for displaying selected clothes on a dummy human body
KR102096008B1 (ko) 점군을 이용한 신체 측정 시스템
US12361581B2 (en) 3-dimension parcel measurement device according to a captured image and depth measurement
CN114080643A (zh) 用于执行基于图像的食物量估计的装置和方法
TWI637353B (zh) 測量裝置及測量方法
KR102506684B1 (ko) 방문자 정보 획득 방법 및 그 장치
US20250054179A1 (en) Information processing apparatus and information processing method
KR101987379B1 (ko) 전자 거울 시스템 및 이의 동작방법
KR20250095386A (ko) 온라인 쇼핑몰에서의 의류 및 신발 매칭 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
PA0105 International application

St.27 status event code: A-0-1-A10-A15-nap-PA0105

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U12-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 5