[go: up one dir, main page]

KR20110055062A - 로봇 시스템 및 그 제어 방법 - Google Patents

로봇 시스템 및 그 제어 방법 Download PDF

Info

Publication number
KR20110055062A
KR20110055062A KR1020090111930A KR20090111930A KR20110055062A KR 20110055062 A KR20110055062 A KR 20110055062A KR 1020090111930 A KR1020090111930 A KR 1020090111930A KR 20090111930 A KR20090111930 A KR 20090111930A KR 20110055062 A KR20110055062 A KR 20110055062A
Authority
KR
South Korea
Prior art keywords
gesture
robot
user
taken
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020090111930A
Other languages
English (en)
Inventor
황원준
한우섭
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090111930A priority Critical patent/KR20110055062A/ko
Priority to US12/948,367 priority patent/US20110118877A1/en
Publication of KR20110055062A publication Critical patent/KR20110055062A/ko
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of leader-follower type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35444Gesture interface, controlled machine observes operator, executes commands

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 사용자로부터 제스처를 입력받고, 사용자의 제스처가 제1제스처로 인식되면 제1제스처의 위치를 기준 위치로 설정하고, 사용자의 제스처가 제2제스처로 인식되면 기준 위치에서 제2제스처의 이동 방향을 판단하고, 판단된 이동 방향에 대응하는 로봇의 동작 명령을 인식한다.
본 발명은 로봇에게 명령을 지시하기 위해 사용자가 제스처를 취할 때 제1제스처 위치를 기준 위치로 설정하고, 이 기준 위치를 기준으로 제2제스처의 상대적 거리 및 방향을 판단하여 로봇의 이동 방향, 시점 변경, 이동 속도, 시점 변경 속도를 제어함으로써 로봇의 움직임을 미세하게 조정할 수 있다. 또한 사용자의 각 손은 적어도 두 개의 단순한 제스처를 취하여 로봇의 이동 및 시점 등의 모션을 제어할 수 있다. 이에 따라 다양한 제스처 종류를 모두 기억해야 하는 사용자의 어려움을 감소시킬 수 있고, 제스처 인식의 정확도를 높일 수 있고 나아가 로봇의 이동 및 시점 변경 등의 모션의 제어 정확도를 높일 수 있다.

Description

로봇 시스템 및 그 제어 방법{Robot system and method for controlling the same}
본 발명은 사용자로부터 인식된 동작을 기초로 신속하게 모션을 수행하여 사용자와의 원활한 인터페이스를 위한 로봇 시스템 및 그 제어 방법에 관한 것이다.
로봇은 사용자의 명령에 대응하여 이동 또는 모션을 수행하는 기계로, 산업, 군사용, 서비스 제공 로봇 등이 있다.
여기서 사용자의 명령 지시는, 키보드, 조이스틱이나 마우스 등의 입력장치를 이용하거나, 음성 또는 박수 소리와 같은 특정한 소리를 이용하거나, 또는 사용자의 제스처(gesture), 뇌파, 안전도 및 근전도 등을 이용한다.
로봇에 명령을 지시하기 위해 키보드, 조이스틱, 마우스 등의 입력장치를 이용하는 경우에는 사용자가 직접 입력장치를 조작해야 하기 때문에 불편함이 있고, 사용자가 명령을 위한 각종 명령어를 기억하고 있어야 하는 문제가 있다.
그리고 뇌파, 안전도 및 근전도를 이용하여 로봇에 명령을 지시하는 것은, 사용자가 뇌파, 안전도 및 근전도를 측정하기 위한 장비를 착용해야 하는 불편함이 있다. 즉, 뇌파를 측정하기 위한 전극을 사용자의 이마에 부착하거나, 안전도를 측 정하기 위한 안경이나 헬맷형 측정기를 착용하거나, 근전도 측정을 위한 쌍극전극을 사용자의 어깨나 목 근육에 부착해야 하는 불편함이 있다.
그리고 제스처를 이용하여 로봇에게 명령을 지시하는 것은, 사용자의 제스처를 촬영하고 촬영된 제스처를 인식하여 인식된 결과에 대응하는 명령을 인식하기 때문에 사용자가 입력장치를 직접 조작하거나 사용자가 불편한 장비를 착용하지 않아도 되어 사용자의 편의성이 증대되고, 사용자와 로봇 간의 인터페이스가 자연스런 상호 작용이 가능해진다.
이에 따라 사용자의 제스처(Gesture)를 이용하여 로봇에 명령을 지시하는 제스처 인식을 통한 명령 지시 방법이 로봇의 이동 및 모션을 제어할 수 있는 새로운 휴먼-로봇 인터페이스(Human-Robot Interface)가 각광받고 있는 실정이다.
하지만 사용자의 제스처(Gesture)를 이용하여 로봇에 명령을 지시하는 경우, 제스처의 종류가 많아 사용자가 제스처에 대응한 정확한 손의 모양 정보나 움직임 정보를 추출하는데 많은 오류가 발생하여 실질적으로 사용자의 제스처 인식 결과에 따른 로봇과의 인터페이스가 원활하지 못한 문제점이 있다.
또한 사용자가 각 제스처에 대응하는 로봇 제어 명령을 일일이 기억해야 하는 불편함이 있고, 사용자가 제스처를 잘못하면 사용자의 제스처가 로봇 제어와 직관적으로 연결되지 않아 로봇이 오동작을 하게 되는 문제점이 있다.
이에 따라 기존의 로봇 시스템의 구성을 크게 변경하지 않으면서 사용자의 제스처에 의한 명령을 용이하고 정확하게 인식할 수 있는 시스템이 요구된다.
일 측면에 따르면 사용자의 제스처를 입력받는 사용자 단말기; 입력된 제스처를 통해 기준 위치를 설정하는 제1제스처와, 로봇의 동작을 지시하는 제2제스처를 인식하고, 기준 위치에서 제2제스처의 이동방향에 대응하는 명령을 인식하는 서버; 명령에 대응하는 동작을 수행하는 로봇을 포함한다.
사용자의 한 손의 제1제스처 및 제2제스처는 로봇의 이동 방향을 지시하고, 사용자의 다른 한 손의 제1제스처 및 제2제스처는 로봇의 시점 변경을 지시한다.
서버는, 기준 위치에서 제2제스처가 취해진 위치까지의 거리를 판단하고, 판단된 거리에 기초하여 로봇의 이동 속도를 제어한다.
서버는, 기준 위치에서 제2제스처가 취해진 위치까지의 거리를 판단하고, 판단된 거리에 기초하여 로봇의 시점의 변경 속도를 제어한다.
서버는, 기준 위치에서 제2제스처의 이동 방향에 대응하여 로봇의 시점의 줌배율을 변경한다.
로봇은 주변 환경을 촬영하고, 사용자 단말기는 로봇의 주변 영상을 표시하고, 사용자는 로봇 주변 영상에 기초하여 로봇의 동작을 지시한다.
서버는, 제1제스처가 재인식되면 재인식된 제1제스처가 취해진 위치를 기준 위치로 재설정한다.
다른 측면에 따르면 사용자로부터 제스처를 입력받고, 사용자의 제스처가 제1제스처로 인식되면 제1제스처의 위치를 기준 위치로 설정하고, 사용자의 제스처가 제2제스처로 인식되면 기준 위치에서 제2제스처의 이동 방향을 판단하고, 판단된 이동 방향에 대응하는 로봇의 동작 명령을 인식한다.
로봇의 동작 명령을 로봇으로 전송하고, 명령에 기초하여 로봇의 동작 제어를 수행한다.
로봇을 통해 로봇 주변의 영상을 촬영하여 출력하고, 로봇의 주변 영상에 기초하여 제스처를 입력한다.
제1제스처와 제2제스처는, 로봇의 이동 제어를 지시하기 위한 사용자의 두 손 중 어느 하나의 손에 취해진 제1제스처 및 제2제스처와, 로봇의 시점 변경을 지시하기 위한 다른 하나의 손에 취해진 제1제스처 및 제2제스처를 가진다.
기준 위치에서 제2제스처가 취해진 위치까지의 거리를 판단하고, 판단된 거리에 기초하여 로봇의 이동 속도를 제어한다.
기준 위치에서 제2제스처가 취해진 위치까지의 거리를 판단하고, 판단된 거리에 기초하여 로봇의 시점의 변경 속도를 제어한다.
로봇의 변경을 지시하는 것은, 제2제스처의 이동 방향에 대응하여 줌배율의 변경을 지시하는 것을 포함한다.
제1제스처가 재인식되면 재인식된 제1제스처가 취해진 위치를 기준 위치로 재설정하는 것을 더 포함한다,
제스처를 입력받는 것은, 사용자가 추출되는지 판단하는 것을 더 포함한다.
일 측면에 따르면 로봇에게 명령을 지시하기 위해 사용자가 제스처를 취할 때 제1제스처의 위치를 기준 위치로 설정하고, 이 기준 위치를 기준으로 제2제스처의 상대적 방향 및 거리를 판단하여 로봇의 이동 방향, 시점 변경, 이동 속도, 시점 변경 속도를 제어함으로써 로봇의 움직임을 미세하게 조정할 수 있다.
다른 측면에 따르면 사용자의 두 손의 기능을 분리하여 어느 한 손을 통해 로봇의 이동을 제어하기 위한 명령을 지시하도록 하고 다른 한 손을 통해 로봇의 시점을 제어하기 위한 명령을 지시하도록 함으로써 사용자와 로봇 간의 직관(Intuitive)적인 인터페이스를 제공할 수 있다.
또한 각 손은 적어도 두 개의 단순한 제스처를 취함으로써 로봇의 이동 및 시점 등의 모션을 제어할 수 있어 다양한 제스처 종류를 모두 기억해야 하는 사용자의 어려움을 감소시킬 수 있고, 제스처 인식의 정확도를 높일 수 있고 나아가 로봇의 이동 및 시점 등의 모션 제어 정확도를 높일 수 있다.
또한 사용자가 별도의 장치를 장착하지 않고 제스처 만을 이용하여 원격에서 로봇의 동작을 제어할 수 있어 사용자의 편의성을 향상시킬 수 있다.
이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다.
도 1은 일 실시예에 따른 로봇 시스템의 구성도로서, 간단한 제스처를 이용하여 직관적으로 로봇의 동작을 제어하기 위한 로봇 시스템은 사용자 단말기(10), 서버(20) 및 로봇(30)을 포함한다.
사용자 단말기(10)는 로봇 주변의 영상을 출력하고, 사용자가 로봇 주변의 영상에 기초하여 제스처를 취하면 이 제스처를 입력받아 서버(20)로 전송한다. 이 를 구체적으로 설명하도록 한다.
사용자 단말기(10)는 입력부(11), 제1제어부(12), 표시부(13), 제1통신부(14)를 포함한다.
입력부(11)는 로봇의 동작을 제어하기 위한 사용자의 명령을 입력받는다.
이러한 입력부(11)는 로봇의 동작을 제어하기 위한 사용자의 명령으로 사용자의 제스처를 입력받는다. 즉, 입력부(11)는 제스처 인식이 가능한 제스처 인식 영역에 위치한 사용자를 촬영하여 제1제어부(12)로 전송한다.
여기서 제스처 인식 영역에 위치한 사용자를 촬영하는 입력부(11)는, 3차원 깊이(3D Depth) 및 2차원 픽셀 정보를 동시에 입력할 수 있는 전하 결합 소자(CCD) 카메라, 적외선(IR) 카메라, TOF 카메라, Z-Cam 중 어느 하나이다.
아울러 입력부(11)는 제스처 인식 영역에 위치한 사용자의 존재 여부를 판단하기 위해 인체 감지 센서를 더 포함하고, 이에 따라 인체 감지 센서에 의해 사용자의 존재가 감지되면 사용자 단말기의 각 구성부의 동작이 수행되도록 하는 것도 가능하다.
제1제어부(12)는 입력부(11)로부터 전송된 영상을 영상처리하고, 이때 3차원 깊이 맵(3D Depth Map)을 이용하여 사람 형상 추출을 수행함으로써 제스처 인식 영역에 위치한 사용자의 존재 여부를 판단한다.
제1제어부(12)는 얼굴 인식을 수행하여 추출된 사람이 등록된 사용자인지 판단하고, 추출된 사람이 등록된 사용자가 아니라고 판단되면 로봇(30)의 동작을 제어할 수 없음을 표시부(13)를 통해 표시되도록 제어하고, 추출된 사람이 등록된 사 용자라고 판단되면 입력부(11)로부터 전송된 영상을 서버(20)로 전송한다. 이때 제1제어부(12)는 로봇에게 명령을 지시하는 제스처 대상이 되는 부분을 검출하여 검출된 부분을 포함한 영상을 서버(20)로 전송하는 것이 가능하다.
아울러, 제1제어부(12)는 입력부(11)를 통해 복수의 사람이 촬영된 경우 복수 사람의 얼굴 인식을 통하여 등록된 사용자를 판단하는 것이 가능하고, 등록된 사용자가 적어도 둘 이상인 경우 등록된 사용자 간의 우선 순위에 기초하여 가장 우선 순위에 있는 사용자의 영상을 서버(20)로 전송하는 것이 가능하다. 이때 등록된 사용자에 따른 우선 순위가 미리 저장되어 있다.
여기서 로봇에게 명령을 지시하는 제스처 대상이 되는 부분을 검출하는 것은, 2차원 및 3차원 깊이 맵을 이용하여 손, 손목을 검출하고, 이때 얼굴도 함께 검출하여 제스처 대상 부분인 손과 사용자의 얼굴을 포함하는 사용자의 상체 영상을 서버(20)로 전송하는 것이 가능하다.
제1제어부(12)는 제1통신부(14)를 통해 수신된 로봇(30)의 주변 영상이 표시부(13)를 통해 표시되도록 표시부(13)의 동작을 제어한다.
표시부(13)는 제1제어부(12)의 지시에 따라 로봇(30)의 주변 영상을 출력하고, 로봇(30) 이동 시 로봇(30)의 이동에 따른 해당 주변의 영상을 출력한다. 아울러, 입력부(11)를 통해 추출된 사용자가 등록된 사용자가 아니면 제어부(12)의 지시에 따라 로봇(30)의 동작 제어를 수행할 수 없음을 표시한다.
여기서 표시부(13)는 텔레비전(TV), PC, 노트북 등의 모니터(Monitor), 휴대 단말기의 모바일 디스플레이(Mobile Display) 중 어느 하나인 것이 가능하다.
제1통신부(14)는 제1제어부(12)의 지시에 따라 입력부(11)를 통해 촬영된 영상을 서버(20)의 제2통신부(21)로 송신하고, 서버(20)의 제2통신부(21)로부터 로봇의 주변 영상을 수신하여 제1제어부(12)로 전송한다.
이때 제1통신부(14)와 서버(20)의 제2통신부(21)는 유선 또는 무선 통신으로 연결되어 있어, 이 유선 또는 무선 통신을 통해 사용자의 영상을 송수신 및 로봇 주변의 영상을 송수신한다.
서버(20)는 사용자 단말기(10)로부터 전송된 영상 중에서 사용자의 제스처를 인식하고, 인식된 제스처에 대응하는 명령을 인식하여 로봇(30)으로 전송한다. 이를 구체적으로 설명하도록 한다.
제2통신부(21)는 사용자 단말기(10)의 제1통신부(14)와 유무선 통신을 수행하여, 사용자 단말기(10)의 제1통신부(14)로부터 수신된 영상을 제2제어부(22)로 전송한다.
제2통신부(21)는 로봇(30)의 제3통신부(31)와 유무선 통신을 수행하여 제2제어부(22)의 지시에 따라 제스처에 대응하는 명령을 로봇(30)의 제3통신부(31)로 송신하고, 로봇(30)의 제3통신부(31)로부터 수신된 로봇 주변의 영상을 제1통신부(14)로 송신한다.
이러한 제2통신부(21)는 로봇(30)의 제3통신부(31)와 무선 통신이 가능하여, 로봇(30)과 사용자 단말기(10) 간의 원격 통신이 가능하고 또한 로봇(30)과 서버(20) 간의 원격 통신이 가능하여, 사용자가 원격에서 로봇을 제어하는 것이 가능하다.
제2제어부(22)는 2차원 및 3차원 깊이 맵을 이용하여 사용자의 손의 방향 및 모양을 인식한다. 즉, 사용자의 두 손 중 어느 손이 제1제스처를 취했는지 제2제스처를 취했는지 판단한다. 그리고 제2제어부(22)는 사용자의 상체 영상에서 제1제스처가 취해진 위치를 기준 위치로 설정하고, 설정된 기준 위치에서 제2제스처가 취해진 위치까지의 상대적 방향 및 거리를 산출하고, 산출된 방향 및 거리에 기초하여 로봇의 이동 방향, 시점 변경 방향, 이동 속도, 시점 변경 속도를 결정하고, 결정된 결과에 대응하는 로봇의 명령을 인식하여 로봇(30)으로 전송한다.
도 2 내지 도 7을 참조하여 좀 더 구체적으로 설명하도록 한다.
사용자의 두 손 중 왼 손은 로봇의 전후좌우 이동 방향을 지시하고, 오른 손은 로봇의 상하좌우 시점 변경 방향 및 로봇 시점의 줌배율을 지시하는 경우를 예를 들어 설명하도록 한다.
도 2는 사용자의 왼 손으로 제1제스처(즉, 주먹)를 취하면 제1제스처의 3차원 포인트를 기준 위치로 설정하고, 이 후 제2제스처(즉, 보)를 취하면 제2제스처가 취해진 위치의 방향을 로봇의 이동 방향으로 판단하고 이에 대한 명령을 인식한다. 즉, 왼손에 의한 제1제스처에서 제2제스처의 상대적인 방향이 로봇의 이동 방향이 되고, 이 방향으로의 이동에 대한 명령을 인식하여 로봇으로 전송한다.
좀 더 구체적으로 설명하면 사용자의 몸을 기준으로 좌우를 X축, 상하를 Y축, 앞뒤를 Z축이라 했을 때, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 앞인 Z축 방향으로 취해지면 로봇의 전진 이동 명령으로 인식하고, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 뒤인 Z축 방향으로 취해지면 로봇의 후진 이동 명령으로 인식하고, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 좌측인 X축 방향으로 취해지면 로봇의 좌 회전 및 이동 명령으로 인식하고, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 우측인 X축 방향으로 취해지면 로봇의 우 회전 및 이동 명령으로 인식한다.
그리고 사용자에 의해 제1제스처가 다시 취해지면 제1제스처가 다시 취해진 위치를 기준 위치로 재설정하고, 재설정된 기준 위치를 기준으로 제2제스처의 상대적 방향 및 거리에 대응하는 로봇의 이동 명령을 인식한다.
도 3은 사용자의 오른 손으로 제1제스처(즉, 주먹)가 취해진 위치를 기준 위치로 설정하고, 제2제스처(즉, 보)가 취해진 위치를 로봇의 시점 변경 방향으로 인식한다. 즉, 오른 손에 의한 제1제스처에서 제2제스처의 상대적인 방향은 로봇의 시점 변경 방향이 되고, 이 방향으로의 시점 변경에 대한 명령을 인식하여 로봇으로 전송한다.
사용자의 몸을 기준으로 좌우를 X축, 상하를 Y축, 앞뒤를 Z축이라 했을 때, 오른 손에 의해 제1제스처가 취해진 위치에서 제2 제스처가 사용자 앞인 Z축 방향으로 취해지면 로봇의 시점 확대 명령으로 인식하고, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 뒤인 Z축 방향으로 취해지면 로봇의 시점 축소 명령으로 인식하고, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 좌측인 X축 방향으로 취해지면 로봇의 시점 좌측 변경 명령으로 인식하고, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 우측인 X축 방향으로 취해지면 로봇의 시점 우측 변경 명령으로 인식하고, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 상측인 Y축 방향 으로 취해지면 로봇의 시점 상측 변경 명령으로 인식하고, 제1제스처가 취해진 위치에서 제2 제스처가 사용자 하측인 Y축 방향으로 취해지면 로봇의 시점 하측 변경 명령으로 인식한다.
사용자의 오른 손을 통해 제1제스처가 다시 취해지면 제1제스처가 다시 취해진 위치를 기준 위치로 재설정하고, 재설정된 기준 위치를 기준으로 제2제스처의 상대적 방향 및 거리에 대응하는 로봇 시점 변경 명령을 인식한다.
도 4에 도시된 바와 같이, 사용자의 왼 손의 제1제스처가 취해진 기준 위치(A)에서 제2제스처가 취해진 제1위치(B) 또는 제2위치(C)까지 이동시키는 것이 가능하다. 이때 기준 위치에서 제2제스처가 취해진 위치까지의 거리에 대응하는 속도로 로봇을 이동시킨다.
즉, 사용자의 왼 손의 제1제스처가 취해진 기준 위치(A)에서 제2제스처가 취해진 위치(B)까지의 거리에 대응하는 제1속도로 로봇을 이동시키고, 사용자의 왼 손의 제1제스처가 취해진 기준 위치(A)에서 제2제스처가 취해진 위치(C)까지의 거리에 대응하는 제2속도로 로봇을 이동시킨다. 이때 기준 위치(A)에서 위치(B)까지의 거리보다 기준 위치(A)에서 위치(C)까지의 거리가 더 멀기 때문에 제1속도보다 제2속도가 더 빠르게 설정되어 있다.
도 5에 도시된 바와 같이, 사용자의 왼 손의 제1제스처(즉, 주먹)가 취해진 기준 위치에서 앞으로 제2제스처(즉, 보)가 취해지면 로봇의 전진 이동 명령으로 인식하고, 로봇이 전진하고 있는 상태에서 제2제스처를 취한 손을 좌측 또는 우측으로 이동시켜 기준 위치로부터 제2제스처를 취한 손의 위치를 좌측 또는 우측으로 변경하면 로봇의 좌우 이동 방향 변경 명령으로 인식한다.
여기서 기준 위치를 기준으로 제2제스처의 좌우 이동 각도가 커지면 로봇의 좌우 회전 각도도 커진다.
도 6에 도시된 바와 같이 X축은 사용자의 오른쪽을 의미하고, Z축은 사용자의 앞을 의미하고, 이때 로봇이 정면 기준
Figure 112009071026122-PAT00001
만큼 좌 측으로 회전한 후 전진하게 된다.
이때 기준 위치를 기준으로 상대적 거리(a)는
Figure 112009071026122-PAT00002
에 의해 산출되고, 이때 산출된 거리(a)에 기초하여 로봇의 이동 속도를 결정하는 것이 가능하다.
도 7은 사용자의 오른 손의 제1제스처가 취해진 기준 위치(A)에서 제2제스처가 취해진 제1위치(B) 또는 제2위치(C)까지 이동시키는 것이 가능하다. 이때 기준 위치에서 제2제스처가 취해진 위치까지의 거리에 대응하는 속도로 로봇의 시점을 변경한다.
즉, 사용자의 오른 손의 제1제스처(즉, 주먹)가 취해진 기준 위치(A)에서 제2제스처(즉, 보)가 취해진 위치(B)까지의 거리에 대응하는 제1속도로 로봇의 시점을 변경하고, 사용자의 오른 손의 제1제스처가 취해진 기준 위치(A)에서 제2제스처가 취해진 위치(C)까지의 거리에 대응하는 제2속도로 로봇의 시점을 변경한다. 이때 기준 위치(A)에서 위치(B)까지의 거리보다 기준 위치(A)에서 위치(C)까지의 거 리가 더 멀기 때문에 제1속도보다 제2속도가 더 빠르게 설정되어 있다.
이와 같이 제1제스처와 제2제스처의 상대적 방향을 이용하여 로봇의 동작을 제어함으로써 로봇의 동작을 미세 조정할 수 있다. 또한 제1제스처와 제2제스처의 상대적 거리를 이용하여 로봇의 동작 제어 속도를 조절할 수 있다.
저장부(23)는 사용자의 두 손 중 어느 하나의 손의 제1제스처 및 제2제스처가 로봇의 전후좌우 이동 방향을 지시하는 제스처로 저장되어 있고, 다른 손의 제1제스처 및 제2제스처가 로봇의 상하좌우 시점 방향 지시 및 시점의 확대, 축소를 지시하는 제스처로 저장되어 있다.
그리고 저장부(23)는 하나의 손의 제1제스처가 취해진 위치에서 제2제스처가 취해진 위치까지의 거리에 대응하는 이동 속도가 미리 저장되어 있고, 다른 하나의 손의 제1제스처가 취해진 위치에서 제2제스처가 취해진 위치까지의 거리에 대응하는 시점 변경 속도가 미리 저장되어 있다.
또한 저장부(23)는 다른 하나의 손의 제1제스처가 취해진 위치에서 제2제스처가 취해진 위치까지의 거리에 대응하는 확대 또는 축소 배율이 미리 저장되어 있다.
아울러 저장부(23)는 메뉴 디스플레이를 지시하기 위한 어느 하나의 손의 제스처 및 로봇 시점에서 보이는 물체와의 상호작용 명령을 지시하기 위한 다른 하나의 손의 제스쳐가 더 저장되어 있다.
즉, 서버(20)의 제2제어부(22)는, 사용자의 제스처를 인식하고, 인식된 제스처가 사용자의 두 손 중 어느 손에 의해서 취해졌는지 판단한다. 이때 사용자의 왼 손에 의한 메뉴 디스플레이 제스처로 인식되면 메뉴 디스플레이 명령을 인식하여 메뉴 디스플레이를 지시하고, 오른 손에 의한 물체와의 상호작용 제스처로 인식되면 로봇 시점에서 보이는 물체와의 상호작용을 지시한다.
좀 더 구체적으로, 서버(20)의 제2제어부(22)는 왼손에 의한 흔들기 제스처가 인식되면 메뉴 디스플레이 명령을 인식하여 로봇 행동 메뉴가 출력되도록 하고, 왼손에 의한 상측 이동 제스처가 인식되면 메뉴 상측 명령을 인식하여 메뉴가 위로 이동되도록 하고, 왼손에 의한 하측 이동 제스처가 인식되면 메뉴 하측 명령을 인식하여 메뉴가 아래로 이동되도록 하고, 왼손에 의한 주먹과 보의 반복 제스처가 인식되면 메뉴 선택 명령을 인식하여 어느 하나의 메뉴가 선택되도록 한다. 이때 서버(20)의 제2제어부(22)는 로봇 행동 메뉴가 사용자 단말기(10)를 표시되도록 제어한다.
그리고 서버(20)의 제2제어부(22)는 오른 손에 의한 포인팅 제스처가 인식되면 포인팅 명령을 인식하여 로봇에 전송함으로써 로봇에서 촬영된 주변 영상 중 어느 하나의 물체를 지정하도록 하고, 잡기 제스처가 인식되면 잡기 명령을 인식하여 로봇에 전송함으로써 로봇의 손 구동부(36)의 구동에 의해 물체를 잡도록 하며, 놓기 제스처가 인식되면 놓기 명령을 인식하여 로봇에 전송함으로써 로봇의 손 구동부(36)의 구동에 의해 물체를 놓도록 하고, 던지기 제스처가 인식되면 던지기 명령을 로봇에 전송함으로써 로봇의 손 구동부(36)의 구동에 의해 쥐고 있는 물체를 던지도록 한다.
아울러, 서버(20)는 사용자 단말기(10)로부터 전송된 영상을 분석하여 제스 처 인식 영역의 사용자의 존재 여부 판단, 사용자의 등록 여부 판단, 사용자의 상체 추출을 수행하는 것도 가능하다. 이때 사용자 단말기(10)는 촬영된 영상만을 서버(20)로 전송한다.
또는 사용자 단말기(10)의 구성에 서버(20)가 포함되어 있어, 서버(20)에서 이루어지는 제스처 인식, 인식된 제스처에 대응하는 명령 인식이 사용자 단말기(10)에서 모두 수행되는 것이 가능하다. 이때, 사용자 단말기(10)를 통해 로봇(30)의 동작을 직접 제어하는 것도 가능하다.
로봇(30)은 서버(20)에서 전송된 명령에 기초하여 각 구동부를 구동시킴으로써 이동 및 시점을 변경시키고, 이동된 위치 및 변경된 시점의 영상을 촬영하여 서버(20)를 통해 사용자단말기(10)로 전송한다. 이를 구체적으로 설명하도록 한다.
제3통신부(31)는 서버(20)의 제2통신부(21)로부터 명령을 수신하여 제3제어부(32)로 전송하고, 제3제어부(32)의 지시에 따라 로봇 주변의 영상을 서버(20)의 제2통신부(21)를 통해 사용자단말기(10)로 전송한다.
제3제어부(32)는 제3통신부(31)를 통해 전송된 명령에 따라 다리 구동부(33), 머리 구동부(34), 손 구동부(36)의 동작을 제어하고 제3통신부(31)로 영상 수집부(35)에서 수집된 로봇 주변의 영상의 전송을 지시한다.
다리 구동부(33)는 제3제어부(32)의 지시에 따라 전후좌우 방향으로 전진하고, 머리 구동부(34)는 제3제어부(32)의 지시에 따라 팬틸트를 제어하여 시점을 상하좌우 방향으로 변경하고, 줌을 제어하여 시점의 배율을 확대 또는 축소 변경한다.
영상 수집부(35)는 로봇의 머리에 마련되어 있고, 로봇이 위치한 곳에서 로봇이 바라보는 시점에 대응하는 영상을 촬영하여 제3제어부(32)로 전송한다.
손 구동부(36)는 제3제어부(32)의 지시에 따라 로봇 손을 이용하여 물건을 집거나 던지는 등의 동작을 수행한다.
여기서 서버(20)에서 로봇(30)으로 명령을 전송하는 것은, 서버(20)에서 로봇(30)의 충전 스테이션(미도시)으로 명령을 전송한 후 충전 스테이션과 유무선 연결된 로봇(30)으로 전송하는 것도 가능하다.
이와 같이 사용자의 두 손의 기능을 분리하고, 또한 사용자의 각 손의 제1제스처에서 제2제스처의 상대적 방향 및 거리에 따라 로봇의 동작을 제어하는 로봇 시스템은, 3차원 FPS 게임의 아바타 제어에 적용하는 것도 가능하다.
도 8은 실시예에 따른 로봇 시스템의 제어 순서도로, 도 1 내지 도 7을 참조하여 설명하도록 한다.
사용자 단말기(10)의 표시부(13)를 통해 로봇 주변의 영상을 출력(101)하고, 이때 사용자 단말기(10)의 입력부(11)의 영상을 분석하여 제스처 인식 영역에 사용자가 존재하는지 판단한다. 즉, 사용자 단말기(10)의 영상을 3차원 깊이 맵(3D Depth Map)을 이용하여 영상처리 하고, 이때 사람 형상이 추출되지 않으면 제스처 인식 영역에 사용자가 없다고 판단하여 계속적으로 사용자 단말기(10)의 표시부(13)를 통해 로봇 주변의 영상을 출력하고, 사람 형상이 추출(102)되면 제스처 인식 영역에 사용자가 있다고 판단한다.
그리고 얼굴 인식을 수행하여 추출된 사람이 등록된 사용자인지 판단하고, 이때 추출된 사람이 등록된 사람이 아니라고 판단되면 로봇의 동작을 제어할 수 없음을 사용자 단말기(10)의 표시부(13)를 통해 표시하고, 추출된 사람이 등록된 사용자라고 판단되면 사용자 단말기(10)의 입력부(11)로부터 전송된 영상을 유무선 통신을 통해 서버(20)로 전송한다.
사용자 단말기(10)의 입력부(11)로부터 전송된 영상을 서버(20)로 전송 시, 로봇에게 명령을 지시하는 제스처를 취하는 부분을 검출하여 이 부분의 영상을 서버(20)로 전송하는 것이 가능하다.
여기서 로봇에게 명령을 지시하는 제스처를 취하는 부분을 검출하는 것은, 2차원 및 3차원 깊이 맵을 이용하여 손, 손목을 검출하고, 이때 얼굴도 함께 검출하여 제스처 대상 부분인 손과 사용자의 얼굴을 포함하는 사용자의 상체 영상을 서버(20)로 전송하는 것이 가능하다.
사용자는 사용자 단말기(10)의 표시부(13)를 통해 출력되는 로봇 주변의 영상에 기초하여 로봇에게 명령을 지시하는 제1 및 제 2제스처를 취하게 된다.
서버(20)는 사용자 단말기(10)로부터 전송된 영상 중에서 사용자 제스처를 인식하고, 인식된 제스처에 대응하는 명령을 유무선 통신을 통해 로봇(30)으로 전송한다. 이를 구체적으로 설명하도록 한다.
서버는 2차원 및 3차원 깊이 맵을 이용하여 손의 방향 및 모양을 인식(103)한다. 즉, 어느 손의 제1제스처가 취해졌는지, 제2제스처가 취해졌는지 인식(104)한다.
적어도 하나의 손을 통해 제1제스처가 취해진 경우, 제1제스처가 취해지면 제1제스처의 3차원 포인트를 기준 위치로 설정하고, 제2제스처가 취해지면 기준 위치에서 제2제스처가 취해진 위치까지의 상대적 방향 및 거리를 산출하고, 산출된 방향 및 거리에 기초하여 로봇의 이동 방향, 시점 방향, 이동 속도, 시점 변경 속도 또는 줌 배율을 결정하고, 결정된 결과에 대응하는 로봇의 명령을 인식(105)하여 인식된 명령을 로봇(30)으로 전송(106)한다.
여기서의 명령 인식을 구체적으로 설명하도록 한다.
사용자의 두 손 중 왼 손은 로봇의 전후좌우 이동 방향을 지시하고, 오른 손은 로봇의 상하좌우 시점 변경 및 로봇 시점의 줌배율 변경을 지시하는 경우를 예를 들어 설명하도록 한다.
도 2에 도시된 바와 같이, 사용자의 왼 손으로 제1제스처(즉, 주먹)를 취하면 3차원 포인트가 기준 위치로 설정되고, 제2제스처(즉, 보)를 취하면 그 위치의 방향이 로봇의 이동 방향 명령이다. 이때 왼 손에 의한 제1제스처에서 제2제스처의 상대적인 방향은 로봇의 이동 방향이 되고, 이 이동 방향을 로봇의 이동 방향 명령으로 인식한다.
도 3에 도시된 바와 같이, 사용자의 오른 손으로 제1제스처(즉, 주먹)를 취하면 3차원 포인트가 기준 위치로 설정되고, 제2제스처(즉, 보)를 취하면 그 위치의 방향이 로봇의 시점 변경 명령이 된다. 이때 오른 손에 의한 제1제스처에서 제2제스처의 상대적인 방향은 로봇의 시점 변경 방향이 되고, 이 시점 변경 방향을 로봇의 시점 변경 방향 명령으로 인식한다.
도 4에 도시된 바와 같이, 사용자의 왼 손의 제1제스처가 취해진 기준 위 치(A)에서 제2제스처가 취해진 제1위치(B) 또는 제2위치(C)까지의 이동이 인식되면, 이 때의 이동 거리에 대응하는 로봇의 이동 속도 명령을 인식한다. 즉, 제1제스처의 기준 위치에서 제2제스처의 위치까지의 거리가 멀수록 속도는 더 빠르게 설정되어 있다.
도 5에 도시된 바와 같이, 사용자의 왼 손의 제1제스처(즉, 주먹)가 취해진 기준 위치에서 앞으로 제2제스처(즉, 보)가 취해지면 로봇의 전진 이동 명령으로 인식하고, 로봇이 전진하고 있는 상태에서 제2제스처를 취한 손을 좌측 또는 우측으로 이동시켜 기준 위치로부터 제2제스처를 취한 손의 위치를 좌측 또는 우측으로 변경하면 로봇의 좌우 이동 방향 변경 명령으로 인식한다. 여기서 기준 위치를 기준으로 제2제스처의 좌우 이동 각도가 커지면 로봇의 좌우 회전 각도도 커진다.
도 6에 도시된 바와 같이 X축은 사용자의 우측을 의미하고, Z축은 사용자의 앞을 의미한다.
제1제스처의 기준 위치에서 제2제스처의 위치가 θ각도 만큼 이동하면 θ각도 대응하는 회전 명령을 인식하고, 이때 로봇은 정면 기준
Figure 112009071026122-PAT00003
만큼 좌측으로 회전한 후 전진한다.
그리고 기준 위치를 기준으로 상대적 거리(a)는
Figure 112009071026122-PAT00004
의해 산출되는데, 이때 산출된 거리(a)에 기초하여 로봇의 이동 속도를 결정하고, 결정된 속도를 로봇의 시점 변경 속도 명령으로 인식하는 것이 가능하다.
도 7에 도시된 바와 같이, 사용자의 오른 손의 제1제스처가 취해진 기준 위치(A)에서 제2제스처가 취해진 제1위치(B) 또는 제2위치(C)까지 이동시키면 기준 위치에서 제2제스처가 취해진 위치까지의 거리에 대응하는 속도로 로봇의 시점 변경 명령을 인식한다. 이때 기준 위치(A)에서 위치(B)까지의 거리보다 A에서 C까지의 거리가 더 멀기 때문에 제1속도보다 제2속도가 더 빠르게 설정되어 있다.
이와 같이 제1제스처에서 제2제스처의 상대적 방향을 이용하여 로봇의 동작을 제어함으로써 로봇의 동작을 미세 조정할 수 있다. 또한 제1제스처에서 제2제스처의 상대적 거리를 이용하여 로봇의 동작 제어 속도를 조절할 수 있다.
로봇(30)은 서버(20)에서 전송된 명령에 대응하여 모션을 제어(107)한다.
즉, 로봇(30)은 서버(20)로부터 전후좌우 이동 명령이 전송되면 전송된 명령에 대응하는 속도로 전후좌우 방향으로 다리 구동부(33)를 구동시켜 이동하고, 서버(20)로부터 상하좌우 시점 변경 명령 및 줌배율 변경 명령이 전송되면 전송된 명령에 대응하는 속도로 상하좌우 방향으로 머리 구동부(34)를 팬틸트 제어를 수행하여 시점을 변경하고 또는 줌 배율을 변경하여 시점을 축소 및 확대 등의 모션을 수행한다.
그리고, 이때의 위치 및 이 위치에서의 시점에 대응하는 영상을 촬영하여 서버(20)를 통해 사용자단말기(10)로 전송한다.
이와 같이 사용자의 두 손의 기능을 분리하고, 각 손의 제1제스처에서 제2제스처의 상대적 방향 및 거리에 대응하여 로봇의 동작을 제어하는 로봇 제어 방법은, 3차원 FPS 게임의 아바타 제어 방법에 적용하는 것도 가능하다.
도 1은 실시예에 따른 로봇 시스템의 구성도이다.
도 2 내지 도 7은 실시예에 로봇 시스템의 로봇 제어 예시도이다.
도 8은 실시예에 따른 로봇 시스템의 제어 순서도이다.
*도면의 주요부분에 대한 부호 설명*
10: 사용자 단말기 20: 서버
30: 로봇

Claims (16)

  1. 사용자의 제스처를 입력받는 사용자 단말기;
    상기 입력된 제스처를 통해 기준 위치를 설정하는 제1제스처와, 상기 로봇의 동작을 지시하는 제2제스처를 인식하고, 상기 기준 위치에서 상기 제2제스처의 이동 방향에 대응하는 명령을 인식하는 서버;
    상기 명령에 대응하는 동작을 수행하는 로봇을 포함하는 로봇 시스템.
  2. 제 1 항에 있어서,
    상기 사용자의 한 손의 제1제스처 및 제2제스처는 상기 로봇의 이동 방향을 지시하고,
    상기 사용자의 다른 한 손의 제1제스처 및 제2제스처는 상기 로봇의 시점 변경을 지시하는 로봇 시스템.
  3. 제 2 항에 있어서, 상기 서버는,
    상기 기준 위치에서 제2제스처가 취해진 위치까지의 거리를 판단하고,
    상기 판단된 거리에 기초하여 상기 로봇의 이동 속도를 제어하는 로봇 시스템.
  4. 제 2 항에 있어서, 상기 서버는,
    상기 기준 위치에서 제2제스처가 취해진 위치까지의 거리를 판단하고,
    상기 판단된 거리에 기초하여 상기 로봇의 시점의 변경 속도를 제어하는 로봇 시스템.
  5. 제 2 항에 있어서, 상기 서버는,
    상기 기준 위치에서 상기 제2제스처의 이동 방향에 대응하여 로봇의 시점의 줌배율을 변경하는 로봇 시스템.
  6. 제 1 항에 있어서,
    상기 로봇은 주변 환경을 촬영하고,
    상기 사용자 단말기는 상기 로봇의 주변 영상을 표시하고,
    상기 사용자는 상기 로봇 주변 영상에 기초하여 상기 로봇의 동작을 지시하는 로봇 시스템.
  7. 제 1 항에 있어서, 상기 서버는,
    상기 제1제스처가 재인식되면 재인식된 제1제스처가 취해진 위치를 기준 위치로 재설정하는 로봇 시스템.
  8. 사용자로부터 제스처를 입력받고,
    상기 사용자의 제스처가 제1제스처로 인식되면 제1제스처의 위치를 기준 위 치로 설정하고,
    상기 사용자의 제스처가 제2제스처로 인식되면 상기 기준 위치에서 상기 제2제스처의 이동 방향을 판단하고,
    상기 판단된 이동 방향에 대응하는 로봇의 동작 명령을 인식하는 로봇 시스템의 제어 방법.
  9. 제 8 항에 있어서,
    상기 로봇의 동작 명령을 상기 로봇으로 전송하고,
    상기 명령에 기초하여 상기 로봇의 동작 제어를 수행하는 로봇 시스템의 제어 방법.
  10. 제 8 항에 있어서,
    상기 로봇을 통해 로봇 주변의 영상을 촬영하여 출력하고,
    상기 로봇의 주변 영상에 기초하여 상기 제스처를 입력하는 로봇 시스템의 제어 방법.
  11. 제 8 항에 있어서, 상기 제1제스처와 제2제스처는,
    상기 로봇의 이동 제어를 지시하기 위한 상기 사용자의 두 손 중 어느 하나의 손에 취해진 제1제스처 및 제2제스처와,
    상기 로봇의 시점 변경을 지시하기 위한 다른 하나의 손에 취해진 제1제스처 및 제2제스처를 가지는 로봇 시스템의 제어 방법.
  12. 제 11 항에 있어서,
    상기 기준 위치에서 제2제스처가 취해진 위치까지의 거리를 판단하고,
    상기 판단된 거리에 기초하여 상기 로봇의 이동 속도를 제어하는 로봇 시스템의 제어 방법.
  13. 제 11 항에 있어서,
    상기 기준 위치에서 제2제스처가 취해진 위치까지의 거리를 판단하고,
    상기 판단된 거리에 기초하여 상기 로봇의 시점의 변경 속도를 제어하는 로봇 시스템의 제어 방법.
  14. 제 11 항에 있어서, 상기 로봇의 변경을 지시하는 것은,
    상기 제2제스처의 이동 방향에 대응하여 줌배율의 변경을 지시하는 것을 포함하는 로봇 시스템의 제어 방법.
  15. 제 8 항에 있어서,
    상기 제1제스처가 재인식되면 재인식된 제1제스처가 취해진 위치를 기준 위치로 재설정하는 것을 더 포함하는 로봇 시스템의 제어 방법.
  16. 제 8 항에 있어서, 상기 제스처를 입력받는 것은,
    상기 사용자가 추출되는지 판단하는 것을 더 포함하는 로봇 시스템의 제어 방법.
KR1020090111930A 2009-11-19 2009-11-19 로봇 시스템 및 그 제어 방법 Ceased KR20110055062A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090111930A KR20110055062A (ko) 2009-11-19 2009-11-19 로봇 시스템 및 그 제어 방법
US12/948,367 US20110118877A1 (en) 2009-11-19 2010-11-17 Robot system and method and computer-readable medium controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090111930A KR20110055062A (ko) 2009-11-19 2009-11-19 로봇 시스템 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20110055062A true KR20110055062A (ko) 2011-05-25

Family

ID=44011922

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090111930A Ceased KR20110055062A (ko) 2009-11-19 2009-11-19 로봇 시스템 및 그 제어 방법

Country Status (2)

Country Link
US (1) US20110118877A1 (ko)
KR (1) KR20110055062A (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101314641B1 (ko) * 2012-06-15 2013-10-04 엠텍비젼 주식회사 사용자 제스처를 이용한 조작 방법 및 디지털 장치
KR101396488B1 (ko) * 2011-11-09 2014-05-20 포항공과대학교 산학협력단 신호 입력 장치 및 신호 입력 방법
KR20140145328A (ko) * 2013-06-13 2014-12-23 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR20150127546A (ko) * 2014-05-07 2015-11-17 지멘스 악티엔게젤샤프트 환자 테이블의 비접촉 제어를 위한 디바이스 및 방법
KR20210092357A (ko) * 2020-01-15 2021-07-26 한국과학기술연구원 이동로봇을 제어하기 위한 시스템 및 방법
KR20220018795A (ko) * 2020-08-07 2022-02-15 네이버랩스 주식회사 로봇 원격 제어 방법 및 시스템
KR102456438B1 (ko) * 2022-07-13 2022-10-19 (주)인티그리트 인공지능을 활용한 비주얼 웨이크 업 시스템

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120095575A1 (en) * 2010-10-14 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) human machine interface (hmi)
WO2012140655A2 (en) * 2011-04-12 2012-10-18 Baryakar Dan Robotic system controlled by multi participants, considering administrator's criteria
US20120316679A1 (en) * 2011-06-07 2012-12-13 Microsoft Corporation Providing remote gestural and voice input to a mobile robot
KR101896473B1 (ko) * 2012-01-04 2018-10-24 삼성전자주식회사 로봇 핸드의 제어 방법
US9931154B2 (en) * 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
US9507512B1 (en) 2012-04-25 2016-11-29 Amazon Technologies, Inc. Using gestures to deliver content to predefined destinations
AU2013204965B2 (en) 2012-11-12 2016-07-28 C2 Systems Limited A system, method, computer program and data signal for the registration, monitoring and control of machines and devices
KR20150080741A (ko) * 2014-01-02 2015-07-10 한국전자통신연구원 연속 값 입력을 위한 제스처 처리 장치 및 그 방법
TWI530375B (zh) * 2014-02-05 2016-04-21 廣明光電股份有限公司 機器手臂的教導裝置及方法
CN104827457B (zh) * 2014-02-07 2016-09-14 广明光电股份有限公司 机器手臂的教导装置及方法
US9696813B2 (en) * 2015-05-27 2017-07-04 Hsien-Hsiang Chiu Gesture interface robot
CN105242911B (zh) * 2014-07-09 2020-01-10 腾讯科技(深圳)有限公司 一种游戏场景中物体的控制方法、装置及终端
DE102014224898A1 (de) * 2014-12-04 2016-06-09 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
JP6426025B2 (ja) * 2015-02-20 2018-11-21 クラリオン株式会社 情報処理装置
JP6843050B2 (ja) 2015-08-25 2021-03-17 川崎重工業株式会社 ロボットシステム
US9694494B1 (en) 2015-12-11 2017-07-04 Amazon Technologies, Inc. Feature identification and extrapolation for robotic item grasping
US10318008B2 (en) 2015-12-15 2019-06-11 Purdue Research Foundation Method and system for hand pose detection
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
KR102640420B1 (ko) * 2016-12-22 2024-02-26 삼성전자주식회사 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치
JP6293953B1 (ja) * 2017-04-04 2018-03-14 京セラ株式会社 電子機器、プログラムおよび制御方法
US10427306B1 (en) * 2017-07-06 2019-10-01 X Development Llc Multimodal object identification
CN108845671A (zh) * 2018-06-27 2018-11-20 青岛海信电器股份有限公司 一种用于虚拟现实环境的输入方法及装置
CN109732606A (zh) * 2019-02-13 2019-05-10 深圳大学 机械臂的远程控制方法、装置、系统及存储介质
KR102313622B1 (ko) * 2019-08-21 2021-10-19 한국과학기술연구원 생체신호 기반 아바타 제어시스템 및 방법
CN111531545A (zh) * 2020-05-18 2020-08-14 珠海格力智能装备有限公司 机器人的控制方法及控制系统、计算机存储介质
JP7600675B2 (ja) * 2020-12-24 2024-12-17 セイコーエプソン株式会社 ロボットの制御プログラムを作成する処理をプロセッサーに実行させるコンピュータープログラム、並びに、ロボットの制御プログラムを作成する方法及びシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6252579B1 (en) * 1997-08-23 2001-06-26 Immersion Corporation Interface device and method for providing enhanced cursor control with force feedback
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
EP0991011B1 (en) * 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
JP4149213B2 (ja) * 2002-07-12 2008-09-10 本田技研工業株式会社 指示位置検出装置及び自律ロボット
US7593030B2 (en) * 2002-07-25 2009-09-22 Intouch Technologies, Inc. Tele-robotic videoconferencing in a corporate environment
WO2005104010A2 (en) * 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US7702420B2 (en) * 2004-07-07 2010-04-20 Panasonic Corporation Method for making mobile unit accompany objective person
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396488B1 (ko) * 2011-11-09 2014-05-20 포항공과대학교 산학협력단 신호 입력 장치 및 신호 입력 방법
KR101314641B1 (ko) * 2012-06-15 2013-10-04 엠텍비젼 주식회사 사용자 제스처를 이용한 조작 방법 및 디지털 장치
CN103513762A (zh) * 2012-06-15 2014-01-15 安泰科技有限公司 利用用户手势的操作方法及数码装置
CN103513762B (zh) * 2012-06-15 2016-12-21 安泰科技有限公司 利用用户手势的操作方法及数码装置
KR20140145328A (ko) * 2013-06-13 2014-12-23 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR20150127546A (ko) * 2014-05-07 2015-11-17 지멘스 악티엔게젤샤프트 환자 테이블의 비접촉 제어를 위한 디바이스 및 방법
KR20210092357A (ko) * 2020-01-15 2021-07-26 한국과학기술연구원 이동로봇을 제어하기 위한 시스템 및 방법
KR20220018795A (ko) * 2020-08-07 2022-02-15 네이버랩스 주식회사 로봇 원격 제어 방법 및 시스템
KR20220018905A (ko) * 2020-08-07 2022-02-15 네이버랩스 주식회사 사용자의 제스처에 기반하여 원격 제어되는 로봇이 주행하는 건물
KR102456438B1 (ko) * 2022-07-13 2022-10-19 (주)인티그리트 인공지능을 활용한 비주얼 웨이크 업 시스템

Also Published As

Publication number Publication date
US20110118877A1 (en) 2011-05-19

Similar Documents

Publication Publication Date Title
KR20110055062A (ko) 로봇 시스템 및 그 제어 방법
KR102379245B1 (ko) 웨어러블 디바이스 기반의 이동 로봇 제어 시스템 및 제어 방법
US9962839B2 (en) Robot apparatus, method for controlling the same, and computer program
CN110083202B (zh) 与近眼显示器的多模交互
JP6851470B2 (ja) 無人機の制御方法、頭部装着式表示メガネおよびシステム
CN108292490B (zh) 显示控制装置和显示控制方法
CN103500061B (zh) 控制显示器的方法及设备
US11375162B2 (en) Remote terminal and method for displaying image of designated area received from mobile robot
JP6340301B2 (ja) ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
US20110018804A1 (en) Operation control device and operation control method
CN106664393A (zh) 信息处理装置、信息处理方法以及图像显示系统
CN102508546A (zh) 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法
WO2015013979A1 (zh) 遥控方法及终端
CN105027030A (zh) 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法
CN103116397A (zh) 运动识别装置、运动识别方法、操作装置、电子装置和程序
KR20170062439A (ko) 제어 장치, 제어 방법 및 프로그램
WO2012153805A1 (ja) 監視システム及び監視方法
KR20150040580A (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
KR101444858B1 (ko) 원격 존재 장치
KR101654311B1 (ko) 사용자 모션 인식 방법 및 장치
CN108828996A (zh) 一种基于视觉信息的机械臂遥操作系统及方法
US12430943B2 (en) Camera device and camera system
JP6276954B2 (ja) 映像監視システム
KR101233793B1 (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
US11921523B2 (en) Control device for unmanned aerial vehicle and control method therefor

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20091119

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20141029

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20091119

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160204

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20160429

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20160204

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I