[go: up one dir, main page]

KR102536409B1 - 인지 운동 훈련을 제공하는 방법 및 장치 - Google Patents

인지 운동 훈련을 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR102536409B1
KR102536409B1 KR1020210174797A KR20210174797A KR102536409B1 KR 102536409 B1 KR102536409 B1 KR 102536409B1 KR 1020210174797 A KR1020210174797 A KR 1020210174797A KR 20210174797 A KR20210174797 A KR 20210174797A KR 102536409 B1 KR102536409 B1 KR 102536409B1
Authority
KR
South Korea
Prior art keywords
user
target
virtual object
target area
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020210174797A
Other languages
English (en)
Inventor
김형준
심용수
박지혜
천호상
신유진
Original Assignee
주식회사 에이블테라퓨틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이블테라퓨틱스 filed Critical 주식회사 에이블테라퓨틱스
Priority to KR1020210174797A priority Critical patent/KR102536409B1/ko
Priority to US17/999,965 priority patent/US20240249631A1/en
Priority to PCT/KR2022/017019 priority patent/WO2023106634A1/ko
Application granted granted Critical
Publication of KR102536409B1 publication Critical patent/KR102536409B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/05General characteristics of the apparatus combined with other kinds of therapy
    • A61M2205/056General characteristics of the apparatus combined with other kinds of therapy with active exercise
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Psychology (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Molecular Biology (AREA)
  • Dentistry (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Surgery (AREA)
  • Anesthesiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Hematology (AREA)
  • Acoustics & Sound (AREA)
  • Physical Education & Sports Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)

Abstract

사용자에게 인지 운동 훈련을 제공하기 위해, 사용자를 촬영한 이미지 내의 사용자 오브젝트를 검출하고, 사용자 오브젝트 내의 타겟 영역을 결정하고, 컨텐츠를 이미지 상에 출력하고, 타겟 영역이 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는 경우, 타겟 가상 오브젝트에 대해 설정된 동작을 수행한다.

Description

인지 운동 훈련을 제공하는 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING COGNITIVE-MOTOR TRAINING TO USER}
기술 분야는 사용자에게 인지 운동 훈련을 제공하는 기술에 관한 것으로, 특히 전자 장치를 이용하여 사용자에게 인지 운동 훈련을 제공하는 기술에 관한 것이다.
치매는 사회 고령화와 함께 노년기 삶의 가장 심각한 질환으로 지난 10년간 급격한 증가세를 보이고 있으며 사회·경제적 비용도 급증하는 추세이다. 또한 환자가 독립적으로 생활할 수 없고, 실종, 자살 등 본인의 삶 뿐만 아니라 돌보는 가족에게도 큰 고통을 주는 질환이다. 치매는 조기진단과 적절한 치료로 추가적인 인지기능의 저하를 막거나 늦출 수 있으나 이 질환의 기존 조기진단에는 문제점이 있다. 기존에는 병원 등 전문의료기관을 방문해야 하므로, 건망증이 심해졌다고 느끼고 내원하는 환자 중 이미 경도인지장애(MCI) 또는 알츠하이머병(AD)으로 진행된 사람이 많고, 진단을 위한 신경인지기능검사(SNSB-II, CERAD-K 등)는 충분한 경험과 노하우를 갖춘 의료진을 통해야 높은 신뢰도를 기대할 수 있으며, 자기공명검사(MRI)나 단일광자방출촬영(SPECT), 양전자단층촬영(PET), 뇌척수액검사 등은 진단 비용이 고가일 뿐만 아니라 진단을 받는 환자의 불편도 크다.
일 실시 예는 사용자에게 인지 운동 훈련을 제공하는 장치 및 방법을 제공할 수 있다.
일 실시 예는 사용자에게 인지 운동 훈련을 제공하기 위한 컨텐츠를 제공할 수 있다.
일 실시 예에 따른, 전자 장치에 의해 수행되는, 사용자에게 인지 운동 훈련을 제공하는 방법은, 사용자를 촬영한 이미지 내의 사용자 오브젝트를 검출하는 단계, 상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계, 미리 제작된 컨텐츠를 상기 이미지 상에 출력하는 단계 - 상기 컨텐츠는 하나 이상의 가상 오브젝트들을 포함함 -, 상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계, 및 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 경우, 상기 타겟 가상 오브젝트에 대해 설정된 동작을 수행하는 단계를 포함할 수 있다.
상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계는, 인체 모델에 기초하여 상기 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계는, 미리 설정된 API(application program interface)를 통해 상기 사용자 오브젝트에 기초하여 상기 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
상기 하나 이상의 가상 오브젝트들의 적어도 하나는 다른 가상 오브젝트와 형상, 색체 및 위치 중 적어도 하나가 상이할 수 있다.
상기 미리 제작된 컨텐츠는 상기 사용자가 상기 타겟 가상 오브젝트를 식별할 수 있는 텍스트 또는 음성을 포함할 수 있다.
상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계는, 상기 이미지 내에서 상기 타겟 영역의 적어도 일부가 상기 타겟 가상 오브젝트와 겹쳐지는지 여부를 결정하는 단계, 및 상기 타겟 영역의 적어도 일부가 상기 타겟 가상 오브젝트와 겹쳐지는 경우 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 것으로 결정하는 단계를 포함할 수 있다.
상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계는, 상기 사용자 오브젝트의 자세가 타겟 자세인지 여부를 결정하는 단계를 더 포함하고, 상기 타겟 영역의 적어도 일부가 상기 타겟 가상 오브젝트와 겹쳐지는 경우 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 것으로 결정하는 단계는, 상기 타겟 영역이 상기 타겟 가상 오브젝트와 겹쳐지고, 상기 사용자 오브젝트의 자세가 상기 타겟 자세인 경우 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 것으로 결정하는 단계를 포함할 수 있다.
상기 인지 운동 훈련 제공 방법은, 상기 컨텐츠에 대한 상기 사용자의 수행 결과에 기초하여 상기 컨텐츠에 대한 분석 결과를 출력하는 단계를 더 포함할 수 있다.
일 실시 예에 따른, 사용자에게 인지 운동 훈련을 제공하는 전자 장치는, 사용자에게 인지 운동 훈련을 제공하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 사용자를 촬영한 이미지 내의 사용자 오브젝트를 검출하는 단계, 상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계, 미리 제작된 컨텐츠를 상기 이미지 상에 출력하는 단계 - 상기 컨텐츠는 하나 이상의 가상 오브젝트들을 포함함 -, 상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계, 및 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 경우, 상기 타겟 가상 오브젝트에 대해 설정된 동작을 수행하는 단계를 포함할 수 있다.
상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계는, 인체 모델에 기초하여 상기 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계는, 미리 정의된 API(application program interface)를 통해 상기 사용자 오브젝트에 기초하여 상기 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
상기 하나 이상의 가상 오브젝트들의 적어도 하나는 다른 가상 오브젝트와 형상, 색체 및 위치 중 적어도 하나가 상이할 수 있다.
상기 미리 제작된 컨텐츠는 상기 사용자가 상기 타겟 가상 오브젝트를 식별할 수 있는 텍스트 또는 음성을 포함할 수 있다.
상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계는, 상기 이미지 내에서 상기 타겟 영역의 적어도 일부가 상기 타겟 가상 오브젝트와 겹쳐지는지 여부를 결정하는 단계, 및 상기 타겟 영역의 적어도 일부가 상기 타겟 가상 오브젝트와 겹쳐지는 경우 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 것으로 결정하는 단계를 포함할 수 있다.
상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계는, 상기 사용자 오브젝트의 자세가 타겟 자세인지 여부를 결정하는 단계를 더 포함하고, 상기 타겟 영역의 적어도 일부가 상기 타겟 가상 오브젝트와 겹쳐지는 경우 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 것으로 결정하는 단계는, 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하고, 상기 사용자 오브젝트의 자세가 상기 타겟 자세인 경우 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 것으로 결정하는 단계를 포함할 수 있다.
상기 프로그램은, 상기 컨텐츠에 대한 상기 사용자의 수행 결과에 기초하여 상기 컨텐츠에 대한 분석 결과를 출력하는 단계를 더 수행할 수 있다.
사용자에게 인지 운동 훈련을 제공하는 장치 및 방법이 제공될 수 있다.
사용자에게 인지 운동 훈련을 제공하기 위한 컨텐츠가 제공될 수 있다.
도 1은 일 예에 따른 사용자에게 인지 운동 훈련을 제공하는 시스템의 구성도이다.
도 2는 일 실시 예에 따른 사용자에게 인지 운동 훈련을 제공하는 전자 장치의 구성도이다.
도 3은 일 실시 예에 따른 사용자에게 인지 운동 훈련을 제공하는 방법의 흐름도이다.
도 4는 일 예에 따른 사용자 오브젝트 내의 타겟 영역들을 도시한다.
도 5는 일 예에 따른 타겟 영역이 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 방법의 흐름도이다.
도 6은 일 예에 따른 미리 제작된 컨텐츠를 도시한다.
도 7은 다른 일 예에 따른 미리 제작된 컨텐츠를 도시한다.
도 8은 또 다른 일 예에 따른 미리 제작된 컨텐츠를 도시한다.
도 9는 또 다른 일 예에 따른 미리 제작된 컨텐츠를 도시한다.
도 10은 일 예에 따른 컨텐츠를 통한 사용자와의 상호 작용을 도시한다.
도 11은 일 예에 따른 사용자의 수행 결과에 기초하여 컨텐츠에 대한 분석 결과를 출력하는 방법의 흐름도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 사용자에게 인지 운동 훈련을 제공하는 시스템의 구성도이다.
일 실시 예에 따르면, 사용자에게 인지 운동 훈련(cognitive-motor training)을 제공하는 시스템(100)은 서비스 서버(110), 서비스 서버(110)의 데이터에 접근할 수 있는 관리자 단말(120) 및 사용자 단말(130)을 포함할 수 있다. 예를 들어, 사용자(131)는 자신의 사용자 단말(130)을 통해 인지 운동 훈련을 제공받을 수 있다. 인지 운동 훈련이란, 사용자(131)가 현재의 상황을 정신적 또는 의식적 과정을 통해 사고하고, 이에 기초하여 몸을 움직이는 것을 훈련하는 것을 의미할 수 있다. 사용자(1301)가 인지 운동 훈련을 수행하는 경우, 인지 자극 및 운동 자극이 함께 수행될 수 있다.
사용자 단말(130)에는 사용자(131)에게 인지 운동 훈련을 제공하도록 제작된 컨텐츠들을 포함하는 프로그램, 소프트웨어 또는 어플리케이션이 미리 설치될 수 있다. 사용자 단말(130)는 사용자(131)가 컨텐츠들을 이용한 결과에 대한 정보를 생성하고, 생성된 결과 정보를 서버(110)로 전송할 수 있다. 서버(110)는 결과 정보에 기초하여 결과 정보에 대한 분석 결과를 생성할 수 있고, 분석 결과를 서버(110)에 저장하거나, 사용자 단말(130)을 통해 사용자(131)에게 제공할 수 있다.
사용자 단말(130)은 태블릿, 스마트 폰과 같은 모바일 단말일 수 있다. 사용자 단말(130)이 모바일 단말인 경우, 사용자(131)는 시간 및 장소의 제약을 받지 않고, 인지 운동 훈련을 수행할 수 있다.
시스템(100)의 관리자 또는, 사용자(131)의 개인 정보의 접근이 허가된 관리자 단말(120)의 사용자(예: 의료진)는 결과 정보 및 분석 결과를 이용하여 사용자(131)의 훈련 결과를 모니터링할 수 있다.
아래에서 도 2 내지 도 11을 참조하여 사용자에게 인지 운동 훈련을 제공하는 방법에 대해 상세히 설명된다.
도 2는 일 실시 예에 따른 사용자에게 인지 운동 훈련을 제공하는 전자 장치의 구성도이다.
전자 장치(200)는 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다. 예를 들어, 전자 장치(200)는 도 1을 참조하여 전술된 사용자 단말(130)일 수 있다.
통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.
통신부(210)는 전자 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 전자 장치(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.
프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.
메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 사용자에게 인지 운동 훈련을 제공할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리(230)는 전자 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.
통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 11을 참조하여 상세히 설명된다.
도 3은 일 실시 예에 따른 사용자에게 인지 운동 훈련을 제공하는 방법의 흐름도이다.
아래의 단계들(310 내지 360)은 도 2을 참조하여 전술된 전자 장치(200)에 의해 수행된다.
단계(310)에서, 전자 장치(200)는 카메라를 이용하여 장면을 캡쳐함으로써 이미지를 생성할 수 있다. 일반적으로, 이미지를 생성하기 위해 사용되는 카메라는 전자 장치(200)에 내장된 카메라일 수 있으나, 기재된 실시예로 한정되지 않는다. 예를 들어, 전자 장치(200)는 전자 장치(200)와 유선 또는 무선으로 연결된 카메라를 이용하여 이미지를 생성할 수 있다.
단계(320)에서, 전자 장치(200)는 이미지 내의 사용자 오브젝트를 검출한다. 예를 들어, 사용자 오브젝트는 전자 장치(200)의 사용자(예: 도 1의 사용자(131))의 형상에 대응하는 오브젝트일 수 있다. 이미지 내의 사용자 오브젝트를 검출하는 방법은 다양한 방법들이 이용될 수 있고, 어느 특정한 방법으로 한정되지 않는다. 예를 들어, 전자 장치(200)는 사용자 오브젝트를 검출하기 위해 미리 설정된 제1 API를 이용할 수 있다. 전자 장치(200)는 연속적으로 생성되는 이미지들을 통해 사용자 오브젝트의 움직임을 트래킹할 수 있다
단계(330)에서, 전자 장치(200)는 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정할 수 있다. 예를 들어, 타겟 영역은 사람의 머리, 왼쪽 손, 오른쪽 손, 왼쪽 발, 오른쪽 발, 왼쪽 무릎, 오른쪽 무릎 등을 포함할 수 있고, 기재된 실시예로 한정되지 않는다. 다른 예로, 전자 장치(200)는 사용자 오브젝트의 자세(pose)를 결정하고, 해당 자세에 기초하여 타겟 영역을 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 연속적으로 생성되는 이미지들을 통해 사용자 오브젝트의 해당 타겟 영역의 움직임을 트래킹할 수 있다. 전자 장치(200)는 사용자 오브젝트 내의 타겟 영역의 검출 및 트래킹을 위해 미리 설정된 제2 API를 이용할 수 있다. 제2 API는 사용자 오브젝트를 검출하기 위해 이용된 제1 API와 동일할 수 있고, 실시 예에 따라서는 다를 수도 있다.
예를 들어, 전자 장치(200)는 제2 API를 통해 사용자 오브젝트에 기초하여 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정 및 트래킹할 수 있다. 사용자 오브젝트에 기초하여 결정된 타겟 영역에 대해 아래에서 도 4를 참조하여 상세히 설명된다.
단계(340)에서, 전자 장치(200)는 미리 제작된 컨텐츠를 이미지 상에 출력할 수 있다.
일 실시 예에 따르면, 컨텐츠는 하나 이상의 가상 오브젝트들을 포함할 수 있다. 예를 들어, 가상 오브젝트들은 증강 현실(augmented reality: AR)을 위한 컴퓨터 그래픽(computer graphic: CG) 오브젝트일 수 있다. 추가적으로, 컨텐츠는 사용자에게 가상 오브젝트들과의 상호작용을 위한 지시(instruction)를 더 포함할 수 있다. 예를 들어, 지시는 가상 오브젝트들 중 타겟 가상 오브젝트를 나타내는 설명 및 타겟 가상 오브젝트와 상호작용하는 방법에 대한 설명을 텍스트 또는 음성으로 나타날 수 있다. 지시는 사용자가 타겟 가상 오브젝트를 식별할 수 있는 텍스트 또는 음성을 포함할 수 있다.
일 예에 따르면, 복수의 색깔들을 나타내는 풍선들이 가상 오브젝트들로서 이미지 상에 출력된 경우, 지시는 '빨간 풍선을 오른쪽 손으로 터치하세요'일 수 있다.
미리 제작된 컨텐츠는 복수일 수 있고, 컨텐츠들의 각각은 단계 또는 스테이지의 형식으로 사용자에게 제공될 수 있다. 컨텐츠들의 각각은 특정한 인지 및 운동 훈련을 위해 제작될 수 있다. 컨텐츠들에 대해 아래에서 도 5 내지 도 8을 참조하여 상세히 설명된다.
사용자는 출력되는 지시에 대응하여 몸을 움직일 수 있다. 예를 들어, 지시는 '빨간 풍선을 오른쪽 손으로 터치하세요'인 경우, 사용자는 하나 이상의 풍선들 중 빨간 풍선을 인지하고, 이미지 상에서 자신의 오른쪽 손이 빨간 풍선의 위치에 대응하도록 오른쪽 손을 움직일 수 있다.
단계(350)에서, 전자 장치(200)는 트래킹되는 타겟 영역이 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정할 수 있다. 상기의 일 예에서, 사용자의 타겟 영역인 오른쪽 손이 타겟 가상 오브젝트인 빨간 풍선에 대응하는지 여부가 결정될 수 있다. 예를 들어, 이미지 내에서 타겟 영역의 적어도 일부가 타겟 가상 오브젝트와 겹쳐진 경우, 타겟 영역이 타겟 가상 오브젝트에 대응한 것으로 결정될 수 있다.
단계(360)에서, 전자 장치(200)는 타겟 영역이 타겟 가상 오브젝트에 대응하는 경우 타겟 가상 오브젝트에 대해 설정된 동작을 수행할 수 있다. 예를 들어, 가상 오브젝트가 풍선인 경우 풍선이 터지는 시각적 효과가 나타날 수 있다. 다른 예로, 가상 오브젝트가 풍선이 경우 풍선이 터지는 청각적 효과가 나타날 수 있다. 또 다른 예로, 타겟 가상 오브젝트에 대해 설정된 동작은 점수가 증가하는 것일 수 있다. 타겟 가상 오브젝트에 대해 다양한 동작들이 설정될 수 있고, 기재된 실시예로 한정되지 않는다.
상기의 예에 따르면, 사용자는 컨텐츠를 통해 출력된 가상 오브젝트들 중 지정된 타겟 가상 오브젝트를 인지(또는, 식별)하는 기능을 수행할 수 있고, 또한 타겟 가상 오브젝트에 대해 지정된 행동을 이행함으로써 몸을 움직이는 기능을 수행할 수 있다. 사용자가 컨텐츠를 통해 인지 기능 및 운동 기능을 수행하였음으로 컨텐츠의 제작 의도는 이것으로 달성되었다고 평가될 수 있다. 추가적으로, 컨텐츠에 대한 사용자의 수행 결과에 기초하여 사용자에 대한 평가가 수행될 수 있다. 아래에서 도 11을 참조하여 컨텐츠에 대한 사용자의 수행 결과에 기초하여 분석 결과를 생성하는 방법에 대해 상세히 설명된다.
도 4는 일 예에 따른 사용자 오브젝트 내의 타겟 영역들을 도시한다.
일 실시 예에 따르면, 전자 장치(200)는 카메라를 통해 캡쳐된 이미지(400) 내의 사용자 오브젝트(410)를 검출할 수 있다. 예를 들어, 전자 장치(200)는 제1 API를 이용하여 이미지(400) 내의 사용자 오브젝트(410)를 검출할 수 있다.
전자 장치(200)는 검출된 사용자 오브젝트(410)에 기초하여 적어도 하나의 미리 설정된 타겟 영역을 결정할 수 있다. 예를 들어, 전자 장치(200)는 제2 API(또는, 제1 API)를 이용하여 이미지(400) 내의 사용자 오브젝트(410)를 검출 및 트래킹할 수 있다. 예를 들어, 타겟 영역들은 사람의 머리(411), 왼쪽 손(412), 오른쪽 손(413), 왼쪽 발(414), 오른쪽 발(415), 왼쪽 무릎(416), 오른쪽 무릎(417) 등을 포함할 수 있고, 기재된 실시예로 한정되지 않는다.
일 실시 예에 따르면, 전자 장치(200)는 사용자 오브젝트(410)에 기초하여 사용자에 대한 인체 모델을 생성할 수 있고, 인체 모델에 기초하여 타겟 영역들이 결정될 수 있다.
일 실시 예에 따르면, 컨텐츠의 가상 오브젝트들은 이미지(400) 상에 겹쳐지도록 출력될 수 있다.
도 5는 일 예에 따른 타겟 영역이 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 방법의 흐름도이다.
일 실시 예에 따르면, 도 3을 참조하여 전술된 단계(350)는 아래의 단계들(510 및 520)을 포함할 수 있다.
단계(510)에서, 전자 장치(200)는 이미지 내에서 타겟 영역의 적어도 일부가 타겟 가상 오브젝트와 겹쳐지는지 여부를 결정할 수 있다. 예를 들어, 컨텐츠의 지시가 '빨간 풍선을 오른쪽 손으로 터치하세요'인 경우, 사용자의 오른쪽 손에 대응하는 타겟 영역이 빨간 풍선과 겹쳐지는지 여부가 결정될 수 있다.
단계(520)에서, 전자 장치(200)는 타겟 영역의 적어도 일부가 타겟 가상 오브젝트와 겹쳐지는 경우 타겟 영역이 타겟 가상 오브젝트에 대응하는 것으로 결정할 수 있다. 타겟 영역이 타겟 가상 오브젝트에 대응하는 경우, 사용자가 적절하게 지시를 이행한 것으로 평가될 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 사용자에게 지시를 한 시각 또는 가상 오브젝트들이 출력된 시각부터 타겟 영역이 타겟 가상 오브젝트에 대응하는 것으로 결정된 시각까지의 시간이 수행 시간으로 계산될 수 있다. 수행 시간은 추후에 컨텐츠의 수행 결과에 포함될 수 있다.
일 실시 예에 따르면, 전자 장치(400)는 사용자 오브젝트의 자세가 타겟 자세인지 여부를 결정할 수 있다. 예를 들어, 사용자의 인체 모델에 기초하여 사용자 오브젝트의 자세가 타겟 자세인지 여부를 결정할 수 있다. 예를 들어, 타겟 자세는 컨텐츠의 지시를 통해 사용자에게 전달될 수 있다.
전자 장치(200)는 타겟 영역이 타겟 가상 오브젝트와 겹쳐지고, 사용자 오브젝트의 자세가 타겟 자세인 경우 타겟 영역이 타겟 가상 오브젝트에 대응하는 것으로 결정할 수 있다.
도 6은 일 예에 따른 미리 제작된 컨텐츠를 도시한다.
일 실시 예에 따르면, 준비 운동을 위해 컨텐츠가 미리 제작될 수 있다. 컨텐츠는 사용자 오브젝트를 포함하는 이미지(610) 상에 가상 오브젝트들(612 내지 617)을 출력할 수 있다. 가상 오브젝트들(612 내지 617)의 적어도 하나는 다른 가상 오브젝트와 형상, 색체 및 위치 중 적어도 하나가 상이할 수 있다. 예를 들어, 사용자에게 출력되는 제1 지시는 '사용자의 오른쪽 손으로 '1'을 터치하세요'일 수 있다.
전자 장치(200)는 타겟 영역으로서 사용자의 오른쪽 손(611)이 가상 오브젝트들(612 내지 617) 중 타겟 가상 오브젝트로서 가상 오브젝트(617)와 겹쳐지는지 여부를 결정할 수 있고, 오른쪽 손(611)이 가상 오브젝트(617)와 겹쳐지는 경우 가상 오브젝트(617)에 대해 설정된 동작을 수행할 수 있다. 예를 들어, 가상 오브젝트(617)에 대해 설정된 동작은 가상 오브젝트(617)가 터지는 효과일 수 있다. 이미지(620) 상에 가상 오브젝트(617) 대신에 풍선이 터지는 가상 오브젝트(621)가 출력될 수 있다. 다른 예로, 사용자가 오른쪽 손이 아닌 왼쪽 손으로 가상 오브젝트(617)를 터치하거나, 오른쪽 손으로 다른 가상 오브젝트(예: 가상 오브젝트(614))를 터치한 경우, 해당 가상 오브젝트가 터지지 않고, 원래 위치에서 밀렸다가 다시 원래 위치로 돌아오는 효과가 출력될 수 있다.
제1 지시가 적절하게 수행된 경우, 이어서 제2 지시가 출력될 수 있다. 예를 들어, 제2 지시는 '사용자의 왼쪽 손으로 '가'를 터치하세요'일 수 있다. 이어서, 제3 지시로서 '사용자의 오른쪽 손으로 '2'를 터치하세요'일 수 있다.
일 실시 예에 따르면, 사용자는 지시들을 통해 지시의 규칙성을 파악하고, 규칙성에 기초하여 다음에 출력될 지시를 미리 예측(또는, 추론)할 수 있다. 이러한 과정을 통해 사용자의 인지 능력이 훈련될 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 상기의 컨텐츠에 대한 수행 결과를 생성할 수 있다. 예를 들어, 수행 결과는 컨텐츠의 수행 시간을 포함할 수 있다. 다른 예로, 수행 결과는 지시에 대한 사용자의 실수 횟수를 포함할 수 있다.
도 7은 다른 일 예에 따른 미리 제작된 컨텐츠를 도시한다.
일 실시 예에 따르면, 유산소 운동을 위해 컨텐츠가 미리 제작될 수 있다. 컨텐츠는 사용자 오브젝트를 포함하는 이미지(710) 상에 가상 오브젝트들(712 내지 717)을 출력할 수 있다. 가상 오브젝트들(712 내지 717)의 적어도 하나는 다른 가상 오브젝트와 형상, 색체 및 위치 중 적어도 하나가 상이할 수 있다. 예를 들어, 사용자에게 출력되는 지시는 '동일한 그림들을 양손의 주먹으로 번갈아가면서 터치하세요'일 수 있다.
전자 장치(200)는 타겟 영역으로서 사용자의 오른쪽 손(711)이 가상 오브젝트들(712 내지 717) 중 타겟 가상 오브젝트로서 가상 오브젝트(717)와 겹쳐지는지 여부를 결정할 수 있고, 오른쪽 손(711)이 가상 오브젝트(717)와 겹쳐지는 경우 가상 오브젝트(717)에 대해 설정된 동작을 수행할 수 있다. 예를 들어, 가상 오브젝트(717)에 대해 설정된 동작은 가상 오브젝트(717)가 터지는 효과일 수 있다. 이미지(720) 상에 가상 오브젝트(717) 대신에 풍선이 터지는 가상 오브젝트(721)가 출력될 수 있다. 이어서, 사용자는 오른쪽 손(711)의 반대 손인 왼쪽 손으로 가상 오브젝트(717)과 동일한 그림인 가상 오브젝트(721)를 터치할 수 있다.
일 실시 예에 따르면, 사용자는 지시를 통해 나타난 그림들의 의미 및 위치를 기억함으로써 단기 기억력을 훈련할 수 있다. 이러한 과정을 통해 사용자의 인지 능력과 심폐 지구력이 훈련될 수 있다.
도 8은 또 다른 일 예에 따른 미리 제작된 컨텐츠를 도시한다.
일 실시 예에 따르면, 근력 운동을 위해 컨텐츠가 미리 제작될 수 있다. 컨텐츠는 사용자 오브젝트를 포함하는 이미지(810) 상에 가상 오브젝트들(812 내지 815)을 출력할 수 있다. 가상 오브젝트들(812 내지 815)의 적어도 하나는 다른 가상 오브젝트와 형상, 색체 및 위치 중 적어도 하나가 상이할 수 있다. 예를 들어, 사용자에게 출력되는 지시는 '글자가 나타내는 색깔과 글자의 색깔이 일치하는 그림을 양쪽 손들로 터치하세요'일 수 있다. 가상 오브젝트들(812 내지 815)의 위치는 이미지(810) 내에서 일 방향(예: 왼쪽에서 오른쪽)으로 이동할 수 있다. 예를 들어, 도시된 가상 오브젝트들(812 내지 815) 중 가상 오브젝트(814)는 글자가 나타내는 색깔과 글자의 색깔이 일치할 수 있고, 나머지 가상 오브젝트들(811, 812, 813, 815)은 글자가 나타내는 색깔과 글자의 색깔이 일치하지 않을 수 있다.
사용자는 양쪽 손들을 머리 위로 들어올림으로써 그림을 터치할 수 있다. 예를 들어, 사용자는 물병과 같이 무게가 있는 물건을 들어올리는 동작을 수행함으로써 근력 운동의 효과를 높일 수 있다.
전자 장치(200)는 타겟 영역으로서 사용자의 양쪽 손들(811)이 가상 오브젝트들(812 내지 815) 중 타겟 가상 오브젝트로서 가상 오브젝트(814)와 겹쳐지는지 여부를 결정할 수 있고, 양쪽 손들(811)이 가상 오브젝트(814)와 겹쳐지는 경우 가상 오브젝트(814)에 대해 설정된 동작을 수행할 수 있다. 예를 들어, 가상 오브젝트(814)에 대해 설정된 동작은 가상 오브젝트(814)가 터지는 효과일 수 있다. 이미지(820) 상에 가상 오브젝트(814) 대신에 풍선이 터지는 가상 오브젝트(821)가 출력될 수 있다.
일 실시 예에 따르면, 사용자는 상기의 컨텐츠를 통해 주의력 및 신체 억제력을 훈련할 수 있다. 이러한 과정을 통해 사용자의 인지 능력 및 근력이 훈련될 수 있다.
도 9는 또 다른 일 예에 따른 미리 제작된 컨텐츠를 도시한다.
일 실시 예에 따르면, 마무리 운동을 위해 컨텐츠가 미리 제작될 수 있다. 컨텐츠는 사용자 오브젝트를 포함하는 이미지(910) 상에 가상 오브젝트들(911 내지 915)을 출력할 수 있다. 가상 오브젝트들(912 내지 915)의 적어도 하나는 다른 가상 오브젝트와 형상, 색체 및 위치 중 적어도 하나가 상이할 수 있다.
예를 들어, 사용자에게 출력되는 지시는 '오른쪽 무릎을 들어올려서 순서대로 그림의 순서대로 터치하세요'일 수 있다. 가상 오브젝트들(912 내지 915)의 위치는 운동의 대상이 되는 신체 부위의 위치 근처에 출력될 수 있다. 예를 들어, 운동 부위가 오른쪽 무릎인 경우, 오른쪽 무릎의 위치 근처에 가상 오브젝트들(912 내지 915)이 출력될 수 있다.
사용자는 오른쪽 무릎을 들어올려서 가상 오브젝트들(912 내지 915)을 한 번에 하나씩 터치할 수 있다.
전자 장치(200)는 타겟 영역으로서 사용자의 오른쪽 무릎(911)이 가상 오브젝트들(912 내지 915) 중 타겟 가상 오브젝트로서 가상 오브젝트(912)와 겹쳐지는지 여부를 결정할 수 있고, 오른쪽 무릎(911)이 가상 오브젝트(912)와 겹쳐지는 경우 가상 오브젝트(912)에 대해 설정된 동작을 수행할 수 있다. 예를 들어, 가상 오브젝트(912)에 대해 설정된 동작은 가상 오브젝트(912)가 터지는 효과일 수 있다. 이미지(920) 상에 가상 오브젝트(912) 대신에 풍선이 터지는 가상 오브젝트(921)가 출력될 수 있다. 이어서, 사용자는 오른쪽 무릎을 다시 들어서 가상 오브젝트(913)를 터치할 수 있다.
일 실시 예에 따르면, 오브젝트들(912 내지 915)의 위치를 이용하여 사용자에게 올바른 운동 방법이 가이드될 수 있다.
도 10은 일 예에 따른 컨텐츠를 통한 사용자와의 상호 작용을 도시한다.
일 실시 예에 따르면, 컨텐츠는 사용자의 인지 훈련 및 신체 운동을 동시에 사용자에게 제공할 수 있다. 예를 들어, 컨텐츠는 도전 과제의 방식으로 제작될 수 있다. 컨텐츠는 도전 과제에 대한 사용자의 달성감을 고취시키기 위해, 과제 성공 시에 시각적 효과 또는 청각적 효과와 같은 피드백을 출력할 수 있고, 컨텐츠에 대한 수행 결과를 수치화할 수 있다. 피드백 및 수행 결과의 수치화에 대해서는 도시된 실시예로 한정되지 않는다.
컨텐츠를 통해 사용자에게 인지 훈련 및 신체 운동을 동시에 수행하는 이중 과제를 제공함으로써 단일 과제를 제공하는 것보다 사용자의 뇌의 다중 영역을 자극하고, 활성화할 수 있다. 또한, 컨텐츠는 게임적 요소(gamification)를 기반으로 제작되므로 사용자의 몰입도를 높이고, 자발적이고 지속적인 참여를 유도할 수 있다.
도 11은 일 예에 따른 사용자의 수행 결과에 기초하여 컨텐츠에 대한 분석 결과를 출력하는 방법의 흐름도이다.
일 실시 예에 따르면, 도 3을 참조하여 전술된 단계(360)가 수행된 후에 아래의 단계(1110)가 더 수행될 수 있다.
단계(1110)에서, 전자 장치(200)는 컨텐츠에 대한 사용자의 수행 결과에 기초하여 컨텐츠에 대한 분석 결과를 출력할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 컨텐츠의 수행 결과에 기초하여 컨텐츠에 설정된 목표 대비 실제 달성량을 분석 결과로 출력할 수 있다. 분석 결과는 사용자에 대한 인구학적 통계 정보(예: 나이, 성별, 키, 몸무게 등)에 기초하여 평가되는 사용자의 수준을 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 컨텐츠의 수행 결과를 전자 장치와 연결된 서버(예: 도 1의 서버(110))로 전송하고, 서버로부터 수행 결과에 대한 분석 결과를 수신할 수 있다. 서버(110)는 수행 결과에 기초하여 미리 설정된 다양한 지표들을 계산할 수 있고, 계산된 지표들을 분석 결과에 포함시킬 수 있다. 예를 들어, 지표들은 치매 정도를 포함할 수 있다. 서버(110)는 장시간 동안 사용자의 수행 결과 및 분석 결과를 모니터링함으로써 사용자의 치매 진행 상황을 확인할 수 있다. 서버(110)는 사용자의 치매 정도가 미리 설정된 치매 정도에 해당하는 경우, 사용자에게 의사와 같은 전문가에게 진단을 받아볼 것을 제안할 수 있다.
일 실시 예에 따르면, 사용자를 담당하는 의사와 같은 전문가는 관리자 단말(120)을 통해 사용자의 상태를 모니터링할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100: 시스템
110: 서버
120: 관리자 단말
130: 사용자 단말
200: 전자 장치
210: 통신부
220: 프로세서
230: 메모리

Claims (17)

  1. 전자 장치에 의해 수행되는, 사용자에게 인지 운동 훈련을 제공하는 방법은,
    사용자를 촬영한 이미지 내의 사용자 오브젝트를 검출하는 단계;
    상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계;
    미리 제작된 컨텐츠를 상기 이미지 상에 출력하는 단계 - 상기 컨텐츠는 하나 이상의 가상 오브젝트들을 포함함 -;
    상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계; 및
    상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 경우, 상기 타겟 가상 오브젝트에 대해 설정된 동작을 수행하는 단계
    를 포함하고,
    상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계는,
    상기 이미지 내에서 상기 타겟 영역의 적어도 일부가 상기 타겟 가상 오브젝트와 겹쳐지는지 여부를 결정하는 단계;
    상기 사용자 오브젝트의 자세가 타겟 자세인지 여부를 결정하는 단계 - 상기 타겟 자세는 상기 컨텐츠의 지시를 통해 상기 사용자에게 전달됨 -; 및
    상기 타겟 영역이 상기 타겟 가상 오브젝트와 겹쳐지고, 상기 사용자 오브젝트의 자세가 상기 타겟 자세인 경우 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 것으로 결정하는 단계
    를 포함하는,
    인지 운동 훈련 제공 방법.
  2. 제1항에 있어서,
    상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계는,
    인체 모델에 기초하여 상기 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정하는 단계
    를 포함하는,
    인지 운동 훈련 제공 방법.
  3. 제1항에 있어서,
    상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계는,
    미리 설정된 API(application program interface)를 통해 상기 사용자 오브젝트에 기초하여 상기 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정하는 단계
    를 포함하는,
    인지 운동 훈련 제공 방법.
  4. 제1항에 있어서,
    상기 하나 이상의 가상 오브젝트들의 적어도 하나는 다른 가상 오브젝트와 형상, 색체 및 위치 중 적어도 하나가 상이한,
    인지 운동 훈련 제공 방법.
  5. 제1항에 있어서,
    상기 미리 제작된 컨텐츠는 상기 사용자가 상기 타겟 가상 오브젝트를 식별할 수 있는 텍스트 또는 음성을 포함하는,
    인지 운동 훈련 제공 방법.
  6. 삭제
  7. 삭제
  8. 제1항에 있어서,
    상기 컨텐츠에 대한 상기 사용자의 수행 결과에 기초하여 상기 컨텐츠에 대한 분석 결과를 출력하는 단계
    를 더 포함하는,
    인지 운동 훈련 제공 방법.
  9. 제1항, 제2항, 제3항, 제4항, 제5항, 및 제8항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
  10. 사용자에게 인지 운동 훈련을 제공하는 전자 장치는,
    사용자에게 인지 운동 훈련을 제공하는 프로그램이 기록된 메모리; 및
    상기 프로그램을 수행하는 프로세서
    를 포함하고,
    상기 프로그램은,
    사용자를 촬영한 이미지 내의 사용자 오브젝트를 검출하는 단계;
    상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계;
    미리 제작된 컨텐츠를 상기 이미지 상에 출력하는 단계 - 상기 컨텐츠는 하나 이상의 가상 오브젝트들을 포함함 -;
    상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계; 및
    상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 경우, 상기 타겟 가상 오브젝트에 대해 설정된 동작을 수행하는 단계
    를 포함하고,
    상기 타겟 영역이 상기 가상 오브젝트들 중 타겟 가상 오브젝트에 대응하는지 여부를 결정하는 단계는,
    상기 이미지 내에서 상기 타겟 영역의 적어도 일부가 상기 타겟 가상 오브젝트와 겹쳐지는지 여부를 결정하는 단계;
    상기 사용자 오브젝트의 자세가 타겟 자세인지 여부를 결정하는 단계 - 상기 타겟 자세는 상기 컨텐츠의 지시를 통해 상기 사용자에게 전달됨 -; 및
    상기 타겟 영역이 상기 타겟 가상 오브젝트와 겹쳐지고, 상기 사용자 오브젝트의 자세가 상기 타겟 자세인 경우 상기 타겟 영역이 상기 타겟 가상 오브젝트에 대응하는 것으로 결정하는 단계
    를 포함하는,
    전자 장치.
  11. 제10항에 있어서,
    상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계는,
    인체 모델에 기초하여 상기 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정하는 단계
    를 포함하는,
    전자 장치.
  12. 제10항에 있어서,
    상기 사용자 오브젝트 내의 적어도 하나의 미리 설정된 타겟 영역을 결정하는 단계는,
    미리 정의된 API(application program interface)를 통해 상기 사용자 오브젝트에 기초하여 상기 타겟 영역으로서 손 영역 및 발 영역 중 적어도 하나를 결정하는 단계
    를 포함하는,
    전자 장치.
  13. 제10항에 있어서,
    상기 하나 이상의 가상 오브젝트들의 적어도 하나는 다른 가상 오브젝트와 형상, 색체 및 위치 중 적어도 하나가 상이한,
    전자 장치.
  14. 제10항에 있어서,
    상기 미리 제작된 컨텐츠는 상기 사용자가 상기 타겟 가상 오브젝트를 식별할 수 있는 텍스트 또는 음성을 포함하는,
    전자 장치.
  15. 삭제
  16. 삭제
  17. 제10항에 있어서,
    상기 프로그램은,
    상기 컨텐츠에 대한 상기 사용자의 수행 결과에 기초하여 상기 컨텐츠에 대한 분석 결과를 출력하는 단계
    를 더 수행하는,
    전자 장치.
KR1020210174797A 2021-12-08 2021-12-08 인지 운동 훈련을 제공하는 방법 및 장치 Active KR102536409B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210174797A KR102536409B1 (ko) 2021-12-08 2021-12-08 인지 운동 훈련을 제공하는 방법 및 장치
US17/999,965 US20240249631A1 (en) 2021-12-08 2022-11-02 Method and apparatus for providing cognitive-motor training to user
PCT/KR2022/017019 WO2023106634A1 (ko) 2021-12-08 2022-11-02 인지 운동 훈련을 제공하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210174797A KR102536409B1 (ko) 2021-12-08 2021-12-08 인지 운동 훈련을 제공하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102536409B1 true KR102536409B1 (ko) 2023-05-26

Family

ID=86536525

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210174797A Active KR102536409B1 (ko) 2021-12-08 2021-12-08 인지 운동 훈련을 제공하는 방법 및 장치

Country Status (3)

Country Link
US (1) US20240249631A1 (ko)
KR (1) KR102536409B1 (ko)
WO (1) WO2023106634A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080005798A (ko) * 2006-07-10 2008-01-15 (주)유리시스 모션트랙킹 기술과 증강현실 기법을 활용한 인지 및행동장애 재활 지원시스템
JP2017217144A (ja) * 2016-06-06 2017-12-14 マクセルホールディングス株式会社 手指運動練習メニュー生成システム、方法、及びプログラム
KR101961844B1 (ko) * 2018-11-29 2019-03-25 (주)인더텍 증강현실 기반 인지훈련용 작업치료 테이블 장치 및 작업치료 방법
KR20210009674A (ko) * 2019-07-17 2021-01-27 주식회사 뉴로공간 원격 인지 훈련 시스템 및 원격 인지 훈련 방법
KR20210055126A (ko) * 2019-11-06 2021-05-17 주식회사 휴메닉 홀로그램을 이용한 실감형 인지재활 훈련 테이블 및 인지재활 훈련방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110306397A1 (en) * 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Audio and animation blending
US20130171596A1 (en) * 2012-01-04 2013-07-04 Barry J. French Augmented reality neurological evaluation method
CN114550874A (zh) * 2016-11-03 2022-05-27 捷迈有限公司 增强的现实治疗移动显示和手势分析器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080005798A (ko) * 2006-07-10 2008-01-15 (주)유리시스 모션트랙킹 기술과 증강현실 기법을 활용한 인지 및행동장애 재활 지원시스템
JP2017217144A (ja) * 2016-06-06 2017-12-14 マクセルホールディングス株式会社 手指運動練習メニュー生成システム、方法、及びプログラム
KR101961844B1 (ko) * 2018-11-29 2019-03-25 (주)인더텍 증강현실 기반 인지훈련용 작업치료 테이블 장치 및 작업치료 방법
KR20210009674A (ko) * 2019-07-17 2021-01-27 주식회사 뉴로공간 원격 인지 훈련 시스템 및 원격 인지 훈련 방법
KR20210055126A (ko) * 2019-11-06 2021-05-17 주식회사 휴메닉 홀로그램을 이용한 실감형 인지재활 훈련 테이블 및 인지재활 훈련방법

Also Published As

Publication number Publication date
US20240249631A1 (en) 2024-07-25
WO2023106634A1 (ko) 2023-06-15

Similar Documents

Publication Publication Date Title
CN105163653B (zh) 针对基于能量的治疗设备的基于个人化图像的指导
JP2022506651A (ja) 情動障害のスクリーニングおよび治療のための顔の表情検出
US11636777B2 (en) System and method for improving exercise performance using a mobile device
CN112040844A (zh) 针对免疫介导和神经退行性疾病的认知筛查、监测和认知处理
JP7159188B2 (ja) ナビゲーション課題を使用するバイオマーカーの識別およびナビゲーション課題を使用する治療のためのプラットフォーム
Patil et al. Body posture detection and motion tracking using AI for medical exercises and recommendation system
JP2022502789A (ja) 認知処置を最適化するための努力メトリックを導出するための認知プラットフォーム
KR20140018253A (ko) 동작 영상화 및 캡처의 의료적 사용을 위한 시스템 및 방법
US11810474B2 (en) Systems and methods for neural pathways creation/reinforcement by neural detection with virtual feedback
US20250311984A1 (en) Method and system for remote phsical examination
US11249549B2 (en) Brain connectivity-based visual perception training device, method and program
US20240046690A1 (en) Approaches to estimating hand pose with independent detection of hand presence in digital images of individuals performing physical activities and systems for implementing the same
KR20230040093A (ko) 영상 컨텐츠를 이용한 바이오피드백 방법, 컴퓨터 프로그램 및 시스템
KR102536409B1 (ko) 인지 운동 훈련을 제공하는 방법 및 장치
CN108630313A (zh) 精神卫生质量控制数据处理方法及装置
JPWO2013105155A1 (ja) 情報処理装置及びその制御方法、並びに立位バランス診断システム
Lacko et al. Possibilities of rehabilitation and telerehabilitation of patients with moderate and severe course of COVID-19 disease using virtual reality
US12374436B2 (en) Method, apparatus, and computer-readable recording medium for providing exercise contents based on motion recognition for movement of bust area
KR102514957B1 (ko) 사용자의 치매 정도 결정 방법 및 장치
KR102216904B1 (ko) 개인화된 영상 제공을 통해 심리 변화 추적이 가능한 심리 상담 방법
Caggianese et al. A rehabilitation system for post-operative heart surgery
Moreira Dynamic analysis of upper limbs movements after breast cancer surgery
KR102348915B1 (ko) 처방 약물 유효성 예측 장치
US20250079014A1 (en) Rehabilitation menu determination assistance apparatus, system, method, and non-transitory computer-readable medium storing program therefor
Hendrikx Monitoring activities for high intensity training in chronic low back pain rehabilitation

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D17-exm-PA0302

St.27 status event code: A-1-2-D10-D16-exm-PA0302

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18 Changes to party contact information recorded

Free format text: ST27 STATUS EVENT CODE: A-5-5-R10-R18-OTH-X000 (AS PROVIDED BY THE NATIONAL OFFICE)

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000