[go: up one dir, main page]

KR20080037287A - Robot and method for expressing emotions by moving body by judging user's action - Google Patents

Robot and method for expressing emotions by moving body by judging user's action Download PDF

Info

Publication number
KR20080037287A
KR20080037287A KR1020060104159A KR20060104159A KR20080037287A KR 20080037287 A KR20080037287 A KR 20080037287A KR 1020060104159 A KR1020060104159 A KR 1020060104159A KR 20060104159 A KR20060104159 A KR 20060104159A KR 20080037287 A KR20080037287 A KR 20080037287A
Authority
KR
South Korea
Prior art keywords
user
robot
behavior
video
emotions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020060104159A
Other languages
Korean (ko)
Other versions
KR101309562B1 (en
Inventor
오연순
심상수
이우승
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=39575303&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20080037287(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020060104159A priority Critical patent/KR101309562B1/en
Publication of KR20080037287A publication Critical patent/KR20080037287A/en
Application granted granted Critical
Publication of KR101309562B1 publication Critical patent/KR101309562B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본원 발명은 화상 카메라가 장착된 로봇에서 다양한 감정 표현에 해당하는 로봇의 행동을 데이터베이스화 시켜둔 뒤 화상카메라로 입력되는 동영상을 움직임 검출방식으로 처리하여 사용자의 행동을 판단하고, 이에 따라 로봇의 머리, 몸, 팔, 표정을 움직여 감정을 표현하는 방법에 관한 발명이다.In the present invention, a robot equipped with an image camera has a database of robot behaviors corresponding to various emotion expressions, and then processes a video inputted by the image camera using a motion detection method to determine a user's behavior. The invention is about how to express emotions by moving body, arms and expressions.

본 발명에 의하면, 로봇에 장착된 화상카메라로 사용자의 동영상을 입력받는 단계와, 상기 화상 카메라로 촬영한 사용자의 동영상에서 사용자의 행동이 변화되는 차영상 정보를 얻기 위해 각 프레임의 동영상을 8*8의 작은 사각형으로 블록화하는 단계와, 상기 블록화된 동영상 프레임을 이전 동영상 프레임과 비교하여 변화된 색상을 기준으로 차영상 정보를 정의하는 단계와, 상기 차영상 정보를 사용자가 한 행위에 대하여 정의된 데이터베이스를 기반으로 분석하여 사용자 행위를 정의하는 단계와, 상기 정의된 사용자 행위가 로봇에서 수행되는 프로그램에서 기대되는 행위인지 판단하는 단계와, 상기 판단된 사용자 행위가 로봇이 기대하는 행위인 경우 긍정적인 감정 표현을 표출하고 기대되는 행위가 아닌경우 부정적인 감정 표현을 표출하는 단계를 포함하는 사용자의 행동을 판단하여 로봇이 몸으로 감정을 표현하는 방법에 관한 발명을 제시한다.According to the present invention, the step of receiving the user's video with the image camera mounted on the robot, and the video of each frame to obtain the difference image information that the user's behavior changes in the user's video taken by the image camera 8 * Blocking the block video frame with a small square of 8, comparing the blocked video frame with the previous video frame, and defining the difference image information based on the changed color; and a database defined for the user's action of the difference image information. Defining user behavior based on the analysis, determining whether the defined user behavior is expected in a program performed by the robot, and positive emotions when the determined user behavior is expected by the robot. Expresses negative emotions when they are not expected behavior The present invention provides a method of expressing emotions by a body by determining a user's behavior including a system.

Description

사용자의 행동을 판단하여 몸을 움직여 감정을 표현하는 로봇 및 그 방법{Bodily sensation Education method using motion detection in Robot and thereof system}Robot and method for moving body to express emotion by judging user's behavior {Bodily sensation Education method using motion detection in Robot and dialogue system}

도 1은 본 발명에 따른 사용자의 행동을 판단하여 로봇이 몸을 움직여 감정을 표현하는 방법에 관한 흐름도이다. 1 is a flowchart illustrating a method of expressing emotions by moving a body by determining a user's behavior according to the present invention.

도 2는 사용자의 행동을 판단하여 몸으로 감정을 표현하는 로봇에 관한 구성도이다. 2 is a block diagram of a robot that determines emotions of a user and expresses emotions with a body.

< 도면의 주요부분에 대한 부호의 설명 ><Description of Symbols for Major Parts of Drawings>

100 : 화상카메라 200 : 차영상 생성부100: image camera 200: difference image generating unit

300 : DB 400 : 판별부300: DB 400: determination unit

500 : 출력부 600 : 제어부500: output unit 600: control unit

본원 발명은 화상 카메라가 장착된 로봇에서 다양한 감정 표현에 해당하는 로봇의 행동을 데이터베이스화 시켜둔 뒤 화상카메라로 입력되는 동영상을 움직임 검출방식으로 처리하여 사용자의 행동을 판단하고, 이에 따라 로봇의 머리, 몸, 팔, 표정을 움직여 감정을 표현하는 방법에 관한 발명이다.In the present invention, a robot equipped with an image camera has a database of robot behaviors corresponding to various emotion expressions, and then processes a video inputted by the image camera using a motion detection method to determine a user's behavior. The invention is about how to express emotions by moving body, arms and expressions.

로봇은 다양한 행동 양식을 표현할 수 있으나, 사용자의 행동을 파악하여 이에 대응하는 행동 양식을 표현한 것은 아니라는 문제점이 있었다. 따라서, 사용자의 행동을 파악하기 위해서는 다양한 vision기술에 의해 사용자의 행동 양식을 파악하고 이에 해당하는 표준화 되고 일반적인 감정 표현 방식이 제공되어야만 한다.Although the robot can express various behavior patterns, there is a problem in that it does not express the behavior patterns corresponding to the user's behavior. Therefore, in order to grasp the user's behavior, the user's behavior pattern must be identified by various vision technologies and a standardized and general emotion expression method corresponding thereto must be provided.

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 본 발명의 목적은 화상 카메라가 장착되어 있는 로봇에서 로봇에서 움직임 검출을 이용하여 사용자의 행동을 판단한 후 로봇이 머리, 몸, 팔, 표정을 움직여 감정을 표현하는 방법을 제공하는데 그 목적이 있다.Therefore, the present invention was created to solve the above problems, an object of the present invention is to determine the user's behavior using the motion detection in the robot in the robot equipped with the image camera, the robot head, body, arm Its purpose is to provide a way to express emotions by moving facial expressions.

상기 본 발명의 목적을 달성하기 위한 기술적 사상으로서, 본 발명에서는 로봇에 장착된 화상카메라로 사용자의 동영상을 입력받는 단계와, 상기 화상 카메라로 촬영한 사용자의 동영상에서 사용자의 행동이 변화되는 차영상 정보를 얻기 위해 각 프레임의 동영상을 8*8의 작은 사각형으로 블록화하는 단계와, 상기 블록화된 동영상 프레임을 이전 동영상 프레임과 비교하여 변화된 색상을 기준으로 차영상 정보를 정의하는 단계와, 상기 차영상 정보를 사용자가 한 행위에 대하여 정의된 데이터베이스를 기반으로 분석하여 사용자 행위를 정의하는 단계와, 상기 정의된 사용자 행위가 로봇에서 수행되는 프로그램에서 기대되는 행위인지 판단하는 단계와, 상기 판단된 사용자 행위가 로봇이 기대하는 행위인 경우 긍정적인 감정 표현을 표출하고 기대되는 행위가 아닌경우 부정적인 감정 표현을 표출하는 단계를 포함하는 사용자의 행동을 판단하여 로봇이 몸으로 감정을 표현하는 방법에 관한 발명을 제시한다.As a technical idea for achieving the object of the present invention, in the present invention, the step of receiving a video of the user with a video camera mounted on the robot, the difference image of the user's behavior in the video of the user photographed with the image camera Blocking video of each frame into small squares of 8 * 8 to obtain information, and comparing the blocked video frames with previous video frames to define difference image information based on a changed color; Defining user behavior by analyzing information based on a database defined for the behavior of the user, determining whether the defined user behavior is expected in a program executed by a robot, and determining the determined user behavior Is an expected behavior of the robot, expressing positive emotions and expecting The present invention relates to a method of expressing emotions by the robot by judging a user's actions including expressing negative emotion expressions when the action is not an action.

이하, 본 발명의 실시 예에 대한 구성 및 그 작용을 첨부한 도면을 참조하면서 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, the configuration and operation of the embodiment of the present invention will be described in detail.

본원발명에서 로봇에서 움직임 검출을 이용하여 로봇의 머리, 몸, 팔, 표정을 움직여 감정을 표현하려면 다음과 같은 환경 구현이 되어있어야 한다. 사용자의 동영상을 입력받을 수 있는 화상 카메라가 장착되어 있고 로봇의 SDK를 통하여 프로그램적으로 로봇의 각 관절의 움직임을 제어할 수 있는 로봇이 구현되어 있어야 한다. 여기서, SDK는 소프트웨어 개발 키트(SDK: software development kit)로서 응용 프로그램의 개발을 간편하고 용이하게 하기 위해 프로그래머에게 유상이나 무상으로 제공되는 개발 도구로 프로그래머들이 솔루션 개발 시 자사의 응용 프로그램 인터페이스(API)를 채택하게 하기 위한 목적으로 대부분 무료로 제공된다. 개발 도구 및 라이브러리, 관련 도큐멘트, 개발 툴 등으로 구성된다.In the present invention, in order to express emotions by moving a robot's head, body, arms, and facial expressions using motion detection in a robot, the following environment should be implemented. An image camera capable of receiving a user's video must be equipped and a robot capable of controlling the movement of each joint of the robot programmatically through the robot's SDK should be implemented. Here, SDK is a software development kit (SDK). It is a development tool that is provided to programmers for free and free of charge in order to facilitate the development of application programs. Most of them are provided free of charge for the purpose of adopting. It consists of development tools and libraries, related documents, and development tools.

상기 환경에서 사용자의 행동 판단에 따른 로봇의 감정 표현 방식은 다음과 같다The robot's emotional expression method according to the user's behavior determination in the environment is as follows.

1. 로봇에게 장착된 화상 카메라로 사용자의 동영상을 입력 받는다1. Receive user's video by robot's video camera

2. 입력된 사용자의 동영상은 초당 30 프레임을 입력 받으며, 연속되는 frame에서 사용자의 행동이 변화되는 차영상 정보를 생성한다.2. The input user's video receives 30 frames per second and generates difference image information that changes the user's behavior in consecutive frames.

3. 차영상 정보를 얻기 위해 각 프레임의 동영상을 8*8의 작은 사각형으로 블록화한다.3. The video of each frame is blocked into 8 * 8 small squares to obtain the difference picture information.

4. 블록화된 동영상 프레임을 이전 동영상 프레임과 비교하여 변화된 색상을 기준으로 차영상 정보를 정의할 수 있다.4. The difference video information may be defined based on the changed color by comparing the blocked video frame with the previous video frame.

5. 차영상 정보를 사용자가 한 행위에 대하여 정의된 데이터베이스를 기반으로 분석하여 사용자 행위가 어떤 것인지 정의한다.5. Analyze the difference image information based on the database defined for the user's action and define what the user's action is.

6. 사용자 행위가 로봇에서 수행되는 프로그램에서 기대되는 행위인 경우에 해당하는 지 판단6. Determining whether the user's behavior corresponds to the expected behavior in the program executed by the robot

7.사용자 행위가 로봇이 기대하는 행위인 경우, 로봇의 SDK를 이용하여 긍정적인 감정 표현을 표출할 수 있고, 기대하는 행위가 아닌경우, 부정적인 감정 표현을 표출할 수 있다.7. If the user's behavior is expected by the robot, the robot's SDK can be used to express positive emotional expressions, and if it is not expected, negative emotional expressions can be expressed.

- 기대하는 행위인 경우 다음과 같이 표현 : 로봇의 Head에서 LED를 웃는 모양으로 반짝이는 행위, 로봇의 팔을 들어 올리는 행위, 고객을 상하로 움직이는 행위-Expecting behavior is expressed as follows: flashing the LED with a smile on the robot's head, lifting the robot's arm, and moving the customer up and down.

- 기대하는 행위가 아닌 경우 다음과 같이 표현 : 위의 기대되는 행위와 반대되는 형태의 행위-If not expected, the expression is as follows:

사용자 행위가 로봇이 기대하는 행위에 대한 기준은 각 Situation과 실행되는 프로그램의 내용에 따라 다른게 정의되며, 각 상황에 따른 긍적표현과 부정표현에 대한 정의도 각 Situation과 실행되는 프로그램에서 정의하여 사용할 수 있다. 그러나 공통적으로 사용되는 표현을 정의하여 통일되게 사용하는 것이 바람직하다.The criteria for the behavior that the user expects from the robot are defined differently according to the contents of each situation and the program being executed, and the definitions of positive and negative expressions for each situation can be defined and used in each situation and the program being executed. have. However, it is desirable to define a commonly used expression and use it uniformly.

도 1은 본 발명에 따른 사용자의 행동을 판단하여 로봇이 몸을 움직여 감정 을 표현하는 방법에 관한 흐름도이다. 먼저, 로봇에 장착된 화상카메라로 사용자의 동영상을 입력받는다(S10). 화상 카메라로 촬영한 사용자의 동영상에서 사용자의 행동이 변화되는 차영상 정보를 생성한다(S11). 차영상 정보를 얻기 위해 각 프레임의 동영상을 8*8의 작은 사각형으로 블록화한다(S12). 블록화된 동영상 프레임을 이전 동영상 프레임과 비교하여 변화된 색상을 기준으로 차영상 정보를 정의한다(S13). 차영상 정보를 사용자가 한 행위에 대하여 정의된 데이터베이스를 기반으로 분석하여 사용자 행위를 정의한다(S14). 사용자 행위가 로봇에서 수행되는 프로그램에서 기대되는 행위인지 판단한다(S15). 사용자 행위가 로봇이 기대하는 행위인 경우 로봇의 SDK을 이용하여 긍정적인 감정 표현을 표출하고 기대되는 행위가 아닌경우 부정적인 감정 표현을 표출한다(S16).1 is a flowchart illustrating a method of expressing emotions by moving a body by determining a user's behavior according to the present invention. First, the user's video is input to the image camera mounted on the robot (S10). In operation S11, the difference image information of the user's behavior is changed from the user's video captured by the image camera. In order to obtain the difference image information, the video of each frame is blocked into small squares of 8 * 8 (S12). The difference video information is defined based on the changed color by comparing the blocked video frame with the previous video frame (S13). The user image is defined by analyzing the difference image information based on a database defined for the user's action (S14). It is determined whether the user action is an expected action in a program executed in the robot (S15). When the user's behavior is the behavior expected by the robot, the robot's SDK expresses a positive emotional expression and when the user's behavior is not an expected behavior, the negative emotional expression is displayed (S16).

로봇마다 제공할 수 있는 행위 및 모션제어가 각기 다를 수 있으며, 이에 동일한 행위를 통해서만 로봇의 감정을 표현할 수는 없다. 이에 일반적으로 사용될 수 있는 모션 제어는 다음과 같다. 즉, 휠 제어은 전후, 좌우로 이동하며, 머리 제어는 상, 하, 좌, 우로 제어되며팔 제어는 좌, 우 및 앞, 뒤로 회전한다. LED 제어는 입, 귀, 팔, 바퀴 파트에서 제어된다. 위와 같은 제어를 통하여 행복 / 놀람 / 보통 / 실망(슬픔) / 부끄러움과 같은 감정에 대한 정의을 하여 Contents에서 운영하며, 정의시에는 휠, 머리, 팔, LED의 조합에 의해 제공되나 로봇마다 지원되는 디바이스와 표현 형태가 다르므로 로봇마다 정의하여 사용한다.Each robot can provide different behaviors and motion control, and the robot's emotions cannot be expressed only through the same behavior. The motion control that can be used generally is as follows. That is, the wheel control moves back and forth, left and right, the head control is controlled up, down, left, right, and the arm control rotates left, right, front and back. LED control is controlled at the mouth, ear, arm and wheel parts. Through the above control, it defines the emotions such as happiness / surprise / normal / disappointment (sorrow) / shyness and operates in Contents, which is provided by the combination of wheel, head, arm, and LED, but is supported by each robot. And expression form is different, so use by each robot.

도 2는 사용자의 행동을 판단하여 몸으로 감정을 표현하는 로봇에 관한 구성도이다. 도 2에서 보듯이 로봇(1000)은 화상카메라(100), 차영상 생성부(200), DB(300), 판별부(400), 출력부(500), 제어부(600)로 구성된다. 화상카메라(100)는 사용자의 행동을 촬영하여 화면에 출력한다. 차영상 생성부(200)는 촬영된 사용자의 행동에서 변화된 차영상 정보를 생성한다. DB(300)는 변화된 차영상 정보에 대하여 어떤 행동인지를 정의한 목록을 가지고 있다. 판별부(400)는 차영상 정보가 로봇에서 기대되는 행위인지 여부를 판단한다. 출력부(500)는 상기 판별부의 판단에 따라 로봇의 감정을 휠, 머리, 팔, LED 중 적어도 어는 하나로 표현한다. 제어부(600)는 상기 로봇의 전체 동작을 제어하는 역할을 한다.2 is a block diagram of a robot that determines emotions of a user and expresses emotions with a body. As shown in FIG. 2, the robot 1000 includes an image camera 100, a difference image generation unit 200, a DB 300, a determination unit 400, an output unit 500, and a control unit 600. The image camera 100 captures the user's behavior and outputs it to the screen. The difference image generating unit 200 generates difference image information changed in the photographed user's behavior. The DB 300 has a list that defines the behavior of the changed difference image information. The determination unit 400 determines whether the difference image information is an expected behavior of the robot. The output unit 500 expresses the emotion of the robot as at least one of a wheel, a head, an arm, and an LED according to the determination of the determination unit. The controller 600 controls the overall operation of the robot.

상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시 예들에서 구체적으로 기술되었으나, 상기한 실시 예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명은 이 기술 분야의 통상의 전문가라면 본 발명의 기술적 사상의 범위에서 다양한 실시 예가 가능함을 이해할 수 있을 것이다.Although the technical spirit of the present invention described above has been described in detail in the preferred embodiments, it should be noted that the above-described embodiment is for the purpose of description and not of limitation. In addition, the present invention will be understood by those of ordinary skill in the art that various embodiments are possible within the scope of the technical idea of the present invention.

이상에서와 같이 본 발명은 화상 카메라가 장착된 로봇에서 화상 카메라로 입력되는 사용자의 행동을 움직임 검출 방식으로 처리하여 판단하여 사용자의 행동 표현이 어떠한 의미를 갖는지를 데이터 베이스를 통해 확인하고 이에 대한 로봇의 감정을 표현하는 로봇의 행동을 정의해 두었다가 이를 표현하게 하는 발명이다. 여러 형태의 컨텐츠에서는 동일한 사용자의 행동 양식에 대해서도 컨텐츠의 특성에 맞는 다양한 로봇 행동을 정의하여 사용할 수 있으나, 일반적으로 통용되는 로봇의 행동을 정의하여 다수의 컨텐츠에서도 사용할 수 있도록 권고하는 것이 사용자에게 통일된 로봇의 행동 양식을 보여주여 통일감을 준다.As described above, the present invention processes and determines the user's action input to the image camera from the robot equipped with the image camera by using a motion detection method to check the meaning of the user's behavior expression through a database and the robot for this. It is an invention that defines the behavior of a robot that expresses emotions and then expresses it. In various types of contents, various robot behaviors can be defined and used for the same user's behavior.However, it is recommended that users define the behaviors of robots that are generally used and recommend them to be used in multiple contents. It shows the behavior of the old robot and gives a sense of unity.

따라서, 본 발명에서는 로봇이 몸으로 감정을 표현함으로써 로봇의 어린이나 관람객에게 다양한 즐거움을 줄 수 있으며 다방면으로 여러가지 사용자의 행동을 정의하여 감정을 표현함으로써 로봇의 용도를 극대화 할 수 있다.Therefore, in the present invention, the robot expresses emotions to the body, thereby providing various pleasures to children or visitors of the robot, and maximizing the use of the robot by expressing emotions by defining various user behaviors in various ways.

Claims (8)

로봇에 장착된 화상카메라로 사용자의 동영상을 입력받는 단계와,Receiving a video of a user with an image camera mounted on a robot, 상기 화상 카메라로 촬영한 사용자의 동영상에서 사용자의 행동이 변화되는 차영상 정보를 얻기 위해 각 프레임의 동영상을 8*8의 작은 사각형으로 블록화하는 단계와,Blocking video of each frame into small rectangles of 8 * 8 to obtain difference image information of the user's behavior in the video of the user photographed by the image camera; 상기 블록화된 동영상 프레임을 이전 동영상 프레임과 비교하여 변화된 색상을 기준으로 차영상 정보를 정의하는 단계와,Comparing the blocked video frame with a previous video frame to define difference image information based on a changed color; 상기 차영상 정보를 사용자가 한 행위에 대하여 정의된 데이터베이스를 기반으로 분석하여 사용자 행위를 정의하는 단계와,Defining user behavior by analyzing the difference image information based on a database defined for the behavior of the user; 상기 정의된 사용자 행위가 로봇에서 수행되는 프로그램에서 기대되는 행위인지 판단하는 단계와,Determining whether the defined user behavior is expected behavior in a program executed in a robot; 상기 판단결과 사용자 행위가 로봇이 기대하는 행위인 경우 긍정적인 감정 표현을 표출하고 기대되는 행위가 아닌경우 부정적인 감정 표현을 표출하는 단계를 포함하는 사용자의 행동을 판단하여 로봇이 몸으로 감정을 표현하는 방법.If the result of the determination is that the user's behavior is expected by the robot, the robot expresses the emotion by determining the user's behavior, including expressing a positive emotional expression and expressing a negative emotional expression when the user's behavior is not expected. Way. 청구항 1에 있어서,The method according to claim 1, 상기 화상 카메라로 촬영한 사용자의 동영상은 초당 30 프레임을 입력받는 것을 특징으로 하는 사용자의 행동을 판단하여 로봇이 몸으로 감정을 표현하는 방법.A method of expressing emotions by a robot by determining a user's behavior, wherein a video of a user photographed by the image camera receives 30 frames per second. 청구항 1에 있어서,The method according to claim 1, 상기 로봇은 소프트웨어 개발 키트(SDK: software development kit)를 통하여 프로그램적으로 로봇의 각 관절의 움직임을 제어 할 수 있는 것을 특징으로 하는 사용자의 행동을 판단하여 로봇이 몸으로 감정을 표현하는 방법.Wherein the robot is a software development kit (SDK) through a program that can control the movement of each joint of the robot programmatically judging the user's behavior characterized in that the robot expresses emotions to the body. 청구항 1에 있어서,The method according to claim 1, 상기 긍정적인 감정 표현은 로봇의 머리에서 LED를 웃는 모양으로 반짝이는 행위 또는 로봇의 팔을 들어 올리는 행위 또는 고객을 상하로 움직이는 행위중 어느 하나의 행위를 하는 것을 특징으로 하는 사용자의 행동을 판단하여 로봇이 몸으로 감정을 표현하는 방법.The positive emotional expression is judged by the user's behavior, characterized in that any one of the act of flashing the LED smiley in the head of the robot, lifting the robot's arm or moving the customer up and down How robots express emotions with their bodies. 청구항 1에 있어서,The method according to claim 1, 상기 사용자 행위가 로봇이 기대하는 행위인지에 대한 기준은 각 상황과 실행되는 프로그램의 내용에 따라 다르게 정의되며, 각 상황에 따른 긍적표현과 부정표현에 대한 정의도 각 상황과 실행되는 프로그램에서 정의하여 사용할 수 있는 것을 특징으로 하는 사용자의 행동을 판단하여 로봇이 몸으로 감정을 표현하는 방법.The criterion of whether the user's behavior is expected by the robot is defined differently according to each situation and the content of the executed program, and the definition of positive and negative expressions according to each situation is defined in each situation and the executed program. A method of expressing emotion with a body by determining a user's behavior, which may be used. 청구항 1에 있어서,The method according to claim 1, 상기 로봇이 감정을 표현시 SDK를 이용하여 감정을 표현하는 것을 특징으로 하는 사용자의 행동을 판단하여 로봇이 몸으로 감정을 표현하는 방법.When the robot expresses the emotion, the robot expresses the emotion by determining the user's behavior characterized in that to express the emotion using the SDK. 사용자의 행동을 판단하여 몸으로 감정을 표현하는 로봇에 있어서,In the robot that judges the user's behavior and expresses emotions with the body, 사용자의 행동을 촬영하여 화면에 출력하는 화상카메라와,A video camera that captures the user's actions and outputs them to the screen; 상기 촬영된 사용자의 행동에서 변화된 차영상 정보를 생성하는 차영상 생성부와,A difference image generation unit generating difference image information changed in the action of the photographed user; 상기 변화된 차영상 정보에 대하여 어떤 행동인지를 정의한 목록을 가지고 있는 DB와,A DB having a list defining what the behavior is to the changed difference image information; 상기 차영상 정보가 로봇에서 기대되는 행위인지 여부를 판단하는 판별부를 포함하는 사용자의 행동을 판단하여 몸으로 감정을 표현하는 로봇.A robot that determines the user's behavior by including a determination unit that determines whether the difference image information is expected behavior of the robot to express emotions with the body. 청구항 6에 있어서,The method according to claim 6, 상기 판별부의 판단에 따라 로봇의 감정을 휠, 머리, 팔, LED 중 적어도 어는 하나로 표현하는 것을 특징으로 하는 사용자의 행동을 판단하여 몸으로 감정을 표현하는 로봇.According to the determination of the determination unit, the robot expresses the emotions to the body by judging the user's behavior, characterized in that at least one of the wheel, head, arms, LEDs to express the emotion of the robot.
KR1020060104159A 2006-10-25 2006-10-25 Bodily sensation Education method using motion detection in Robot and thereof system Expired - Fee Related KR101309562B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060104159A KR101309562B1 (en) 2006-10-25 2006-10-25 Bodily sensation Education method using motion detection in Robot and thereof system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060104159A KR101309562B1 (en) 2006-10-25 2006-10-25 Bodily sensation Education method using motion detection in Robot and thereof system

Publications (2)

Publication Number Publication Date
KR20080037287A true KR20080037287A (en) 2008-04-30
KR101309562B1 KR101309562B1 (en) 2013-09-17

Family

ID=39575303

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060104159A Expired - Fee Related KR101309562B1 (en) 2006-10-25 2006-10-25 Bodily sensation Education method using motion detection in Robot and thereof system

Country Status (1)

Country Link
KR (1) KR101309562B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017773A1 (en) * 2012-07-23 2014-01-30 (주) 퓨처로봇 Method and device for generating robot control scenario
WO2014152015A1 (en) * 2013-03-15 2014-09-25 JIBO, Inc. Apparatus and methods for providing a persistent companion device
USD746886S1 (en) 2014-05-23 2016-01-05 JIBO, Inc. Robot
US10357881B2 (en) 2013-03-15 2019-07-23 Sqn Venture Income Fund, L.P. Multi-segment social robot

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102639904B1 (en) * 2016-12-23 2024-02-26 엘지전자 주식회사 Robot for airport and method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010069800A (en) * 2001-05-11 2001-07-25 노일환 reconstruction device of the video data for a camera
US20030189980A1 (en) * 2001-07-02 2003-10-09 Moonlight Cordless Ltd. Method and apparatus for motion estimation between video frames
KR100458079B1 (en) * 2001-11-23 2004-11-18 (주)로보티즈 A emotion expressing robot
KR100515798B1 (en) * 2003-02-10 2005-09-21 한국과학기술원 Robot driving method using facial gestures

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017773A1 (en) * 2012-07-23 2014-01-30 (주) 퓨처로봇 Method and device for generating robot control scenario
CN104487208A (en) * 2012-07-23 2015-04-01 (株)未来机器人 Method and device for generating robot control scenario
US9636822B2 (en) 2012-07-23 2017-05-02 Future Robot Co., Ltd. Method and device for generating robot control scenario
WO2014152015A1 (en) * 2013-03-15 2014-09-25 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US10357881B2 (en) 2013-03-15 2019-07-23 Sqn Venture Income Fund, L.P. Multi-segment social robot
US10391636B2 (en) 2013-03-15 2019-08-27 Sqn Venture Income Fund, L.P. Apparatus and methods for providing a persistent companion device
US11148296B2 (en) 2013-03-15 2021-10-19 Ntt Disruption Us, Inc. Engaging in human-based social interaction for performing tasks using a persistent companion device
USD746886S1 (en) 2014-05-23 2016-01-05 JIBO, Inc. Robot
USD761895S1 (en) 2014-05-23 2016-07-19 JIBO, Inc. Robot

Also Published As

Publication number Publication date
KR101309562B1 (en) 2013-09-17

Similar Documents

Publication Publication Date Title
US11279279B2 (en) Driver monitoring and response system
CN106293102A (en) A kind of robot affective interaction method based on user mood change emotion
KR101190660B1 (en) Methods and apparatus of robot control scenario making
KR20170107875A (en) Robot control system
US9829974B2 (en) Method for controlling triggering of human-computer interaction operation and apparatus thereof
US20180188815A1 (en) Method and device for enabling virtual reality interaction with gesture control
CN110705467A (en) Facial expression recognition method, system, device and storage medium
US20210240277A1 (en) Systems, Methods and Computer Programs for Method for Determining Information on a Feedback to a Stimulus
KR101309562B1 (en) Bodily sensation Education method using motion detection in Robot and thereof system
CN114140775A (en) Data recording and physiological state detection method, device, equipment and storage medium
JP6855737B2 (en) Information processing equipment, evaluation systems and programs
KR20180074124A (en) Method of controlling electronic device with face recognition and electronic device using the same
CN106547339B (en) Control method and device of computer equipment
Sharma et al. Automatic Office Environment System for Employees Using IoT and Computer Vision
Siby et al. Hand gesture recognition
JP2011033837A (en) Interaction support device, interaction support device, and program
WO2024160105A1 (en) Interaction method and apparatus, and electronic device and storage medium
Latoschik A general framework for multimodal interaction in virtual reality systems: PrOSA
KR20240155462A (en) Method for image segmentation and system thereof
Shukla et al. Explicating resnet for facial expression recognition
Kowalczuk et al. Identification of emotions based on human facial expressions using a color-space approach
JP2018049480A (en) Information processing apparatus, evaluation system, and program
Shastrakar et al. Cursor Movement Control Using Color Detection
JP2021093045A (en) Information processor, program, and information processing system
Bhattacharjee et al. A novel probabilistic approach of colored object detection and design of a gesture based real-time mouse tracking along with virtual teaching intended for color-blind people

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

N231 Notification of change of applicant
PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R14-asn-PN2301

L13-X000 Limitation or reissue of ip right requested

St.27 status event code: A-2-3-L10-L13-lim-X000

U15-X000 Partial renewal or maintenance fee paid modifying the ip right scope

St.27 status event code: A-4-4-U10-U15-oth-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

FPAY Annual fee payment

Payment date: 20160905

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

FPAY Annual fee payment

Payment date: 20170414

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20180912

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20180912

J206 Request for trial to confirm the scope of a patent right
PJ0206 Trial to confirm the scope of a patent

St.27 status event code: A-5-5-V10-V11-apl-PJ0206

J121 Written withdrawal of request for trial
PJ1201 Withdrawal of trial

St.27 status event code: A-5-5-V10-V13-apl-PJ1201