[go: up one dir, main page]

KR101786516B1 - Moving robot and controlling method thereof - Google Patents

Moving robot and controlling method thereof Download PDF

Info

Publication number
KR101786516B1
KR101786516B1 KR1020160032918A KR20160032918A KR101786516B1 KR 101786516 B1 KR101786516 B1 KR 101786516B1 KR 1020160032918 A KR1020160032918 A KR 1020160032918A KR 20160032918 A KR20160032918 A KR 20160032918A KR 101786516 B1 KR101786516 B1 KR 101786516B1
Authority
KR
South Korea
Prior art keywords
information
image
sensor
laser
information related
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020160032918A
Other languages
Korean (ko)
Other versions
KR20170108656A (en
Inventor
최혁두
전형신
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160032918A priority Critical patent/KR101786516B1/en
Publication of KR20170108656A publication Critical patent/KR20170108656A/en
Application granted granted Critical
Publication of KR101786516B1 publication Critical patent/KR101786516B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4061Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 이동 로봇에 관한 것으로서, 보다 상세하게는, 자율 주행을 수행하는 청소기에 관한 것으로서, 본체, 상기 본체를 이동시키기 위한 구동력을 제공하는 구동부, 상기 본체의 외부환경과 관련된 이미지를 생성하는 카메라 센서, 상기 본체 주위에 존재하는 물체를 스캔하여, 레이저 스캔 정보를 생성하는 레이저 센서, 상기 이미지 및 상기 레이저 스캔 정보를 중 적어도 하나를 이용하여, 본체의 위치 및 경로와 관련된 정보를 수정하는 제어부를 포함한다.The present invention relates to a mobile robot, and more particularly, to a vacuum cleaner that performs autonomous traveling, including a main body, a driving unit for providing a driving force for moving the main body, a camera for generating an image related to the external environment of the main body, A sensor, a laser sensor that scans an object existing around the main body and generates laser scan information, a controller that corrects information related to the position and path of the main body using at least one of the image and the laser scan information .

Description

이동 로봇 및 그 제어방법{MOVING ROBOT AND CONTROLLING METHOD THEREOF}[0001] MOVING ROBOT AND CONTROLLING METHOD THEREOF [0002]

본 발명은 이동 로봇 및 그 제어 방법에 관한 것으로서, 보다 상세하게는, 자율 주행을 수행하는 청소기 및 그 제어 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile robot and a control method thereof, and more particularly, to a vacuum cleaner that performs autonomous traveling and a control method thereof.

일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.In general, robots have been developed for industrial use and have been part of factory automation. In recent years, medical robots, aerospace robots, and the like have been developed, and household robots that can be used in ordinary homes are being developed.

상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.A representative example of the domestic robot is a robot cleaner, which is a type of household appliance that sucks and cleanes dust or foreign matter around the robot while traveling in a certain area by itself. Such a robot cleaner is generally equipped with a rechargeable battery and has an obstacle sensor capable of avoiding obstacles during traveling, so that it can run and clean by itself.

최근에는, 로봇 청소기가 청소 영역을 단순히 자율적으로 주행하여 청소를 수행하는 것에서 벗어나 로봇 청소기를 헬스 케어, 스마트홈, 원격제어 등 다양한 분야에 활용하기 위한 연구가 활발하게 이루어지고 있다.In recent years, research has been actively carried out to utilize the robot cleaner in various fields such as health care, smart home, and remote control by moving away from the cleaning operation by merely autonomously moving the cleaning area by the robot cleaner.

구체적으로, 기존의 로봇 청소기는 장애물과 관련된 정보를 검출하기 위해, 적외선 센서, 초음파 센서, RF 센서(Radio Frequency Sensor), 광 센서, 또는 2차원 영상을 획득하는 카메라 센서만을 구비한다. 따라서, 기존의 로봇 청소기에서는 정확한 장애물 정보를 얻기 어려운 문제점이 있다.Specifically, the conventional robot cleaner includes only an infrared sensor, an ultrasonic sensor, an RF sensor, an optical sensor, or a camera sensor for acquiring a two-dimensional image in order to detect information related to an obstacle. Therefore, it is difficult to obtain accurate obstacle information in the conventional robot cleaner.

특히, 기존의 로봇 청소기는 일반적으로 2차원 카메라 센서에 의해 획득된 2차원 영상 정보를 이용하여 장애물을 검출하는데, 이러한 2차원 영상 정보만으로는 장애물과 로봇 본체 사이의 거리, 장애물의 입체적 형태 등을 정확하게 검출하기 어렵다.In particular, conventional robot cleaners generally detect obstacles by using two-dimensional image information obtained by a two-dimensional camera sensor. By using such two-dimensional image information, the distance between the obstacle and the robot body and the three- It is difficult to detect.

또한, 기존의 로봇 청소기는 장애물 정보를 검출하기 위해 2차원 영상 정보로부터 특징점을 추출하는데, 2차원 영상 정보가 특징점 추출이 불리하도록 형성된 경우에는 검출된 장애물 정보의 정확도가 현저히 저하된다.In addition, the conventional robot cleaner extracts feature points from two-dimensional image information to detect obstacle information. When the two-dimensional image information is formed such that feature point extraction is disadvantageous, the accuracy of the detected obstacle information is remarkably degraded.

이와 같은 문제점을 해결하기 위해 레이저 센서를 탑재한 로봇 청소기의 필요성이 대두되고 있다.In order to solve such a problem, there is a need for a robot cleaner equipped with a laser sensor.

레이저 센서를 탑재한 로봇 청소기는, 레이저 센서에서 생성된 레이저 스캔정보를 이용하여, 로봇 청소기의 위치를 검출하거나, 로봇 청소기의 경로를 보정할 수 있다. 또한, 레이저 센서를 탑재한 로봇 청소기는, 로봇 청소기의 본체 주변에 존재하는 장애물이나 벽면과 관련된 정보를 검출할 수 있다.The robot cleaner equipped with the laser sensor can detect the position of the robot cleaner or correct the path of the robot cleaner by using the laser scan information generated by the laser sensor. Further, the robot cleaner equipped with the laser sensor can detect information related to an obstacle or a wall existing around the main body of the robot cleaner.

다만, 레이저 스캔정보만을 근거로 검출된 로봇 청소기의 위치는 그 정확도가 현저히 떨어지는 문제점이 있다. 즉, 레이저 센서는 로봇 청소기의 본체로부터 특정 거리 내의 물체만을 스캔할 수 있기 때문에, 로봇 청소기가 넓은 지역이나 긴 복도와 같은 환경에 위치하는 경우, 레이저 스캔정보를 생성할 수 없다.However, the position of the robot cleaner detected based only on the laser scan information has a problem that the accuracy thereof is remarkably low. That is, since the laser sensor can only scan an object within a specific distance from the main body of the robot cleaner, it can not generate laser scan information when the robot cleaner is located in an environment such as a wide area or a long corridor.

또한, 로봇 청소기는 레이저 스캔정보만으로는 레이저 스캔정보가 생성된 시점에 상기 로봇 청소기가 존재하는 장소에 대해 장소 인식 또는 위치 인식을 수행할 수 없는 문제점이 있다.In addition, the robot cleaner can not recognize the position or the position of the robot cleaner at the time when the laser scan information is generated only by the laser scan information.

본 발명이 해결하고자 하는 기술적 과제는, 로봇 청소기에 설치된 레이저 센서 및 카메라 센서를 함께 이용하여, 로봇의 위치를 인식하거나 경로를 조정하는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.Disclosure of Invention Technical Problem [8] The present invention provides a vacuum cleaner and a control method thereof, which can autonomously travel by recognizing a position of a robot or adjusting a path by using a laser sensor and a camera sensor installed in a robot cleaner.

또한, 본 발명의 목적은 주행 환경에 존재하는 시각적 패턴과, 주행 환경의 형태 중 적어도 하나를 근거하여, 로봇의 위치를 인식하거나 경로를 조정하는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.It is also an object of the present invention to provide a vacuum cleaner that performs autonomous travel for recognizing the position of a robot or adjusting a path based on at least one of a visual pattern existing in the travel environment and a form of the travel environment and a control method thereof will be.

또한, 본 발명의 목적은 로봇 청소기가 주행하는 도중에 슬립이 발생되어도 카메라 센서에서 생성된 이미지와 레이저 센서에서 생성된 레이저 스캔정보를 비교하여, 로봇의 현재 위치를 정확하게 검출할 수 있는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.It is also an object of the present invention to provide an image forming apparatus and an image forming apparatus that compares an image generated by a camera sensor with laser scanning information generated by a laser sensor even if a slip occurs during traveling of the robot cleaner, And a control method thereof.

또한, 본 발명의 목적은 로봇 청소기가 폐곡선을 따라 순환할 때마다, 카메라 센서와 레이저 센서를 함께 이용하여 청소기의 위치 정보와, 경로 정보를 조정할 수 있는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.It is another object of the present invention to provide a vacuum cleaner and a control method therefor that can perform autonomous travel to adjust position information and route information of a cleaner by using a camera sensor and a laser sensor together when the robot cleaner circulates along a closed curve .

또한, 본 발명의 목적은 로봇 청소기가 주행 시작 지점을 복귀하는 때, 카메라 센서에서 촬영된 이미지로부터 추출되는 이미지 패턴과, 레이저 센서에서 생성된 레이저 스캔 정보로부터 추출되는 지형적 형태에 근거하여 복귀 경로를 설정하는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.It is also an object of the present invention to provide a robot cleaner which is capable of detecting a return path based on an image pattern extracted from an image photographed by a camera sensor and a topographic shape extracted from laser scanning information generated by a laser sensor, And to provide a control method of the vacuum cleaner.

본 발명의 기술적 과제를 해결하기 위해, 본 발명에 따른 자율주행을 수행하는 청소기는 본체와, 상기 본체를 이동시키기 위한 구동력을 제공하는 구동부, 상기 본체의 외부환경과 관련된 이미지를 생성하는 카메라 센서, 상기 본체 주위에 존재하는 물체를 스캔하여, 레이저 스캔 정보를 생성하는 레이저 센서 및 상기 이미지 및 상기 레이저 스캔 정보를 중 적어도 하나를 이용하여, 본체의 위치 및 경로와 관련된 정보를 수정하는 제어부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a vacuum cleaner comprising: a main body; a driving unit for providing driving force for moving the main body; a camera sensor for generating an image related to an external environment of the main body; And a controller for modifying information related to a position and a path of the main body using at least one of a laser sensor that scans an object existing around the main body and generates laser scan information and the image and the laser scan information, .

제어부는 소정의 시간 간격으로 카메라 센서 및 레이저 센서를 작동시켜, 본체의 외부환경과 관련된 이미지를 생성시키고, 레이저 스캔 정보를 생성시킬 수 있다.The controller may operate the camera sensor and the laser sensor at predetermined time intervals to generate an image related to the external environment of the main body and generate laser scan information.

아울러, 제어부는 소정의 시간 간격마다 생성되는 이미지 및 레이저 스캔 정보에 근거하여 청소기 본체의 위치를 검출하며, 이미지 및 레이저 스캔 정보가 생성된 시점과, 검출되 위치와 상기 이미지 및 레이저 스캔 정보를 매칭시켜 데이터베이스에 저장되도록 저장부를 제어한다.In addition, the controller detects the position of the cleaner main body based on the image and laser scan information generated at predetermined time intervals, and matches the detected position with the image and the laser scan information And controls the storage unit to be stored in the database.

이후, 제어부는 재방문하는 것으로 판단되는 위치에서 위와 같이 형성된 데이터베이스와, 현재 시점에서 생성된 이미지 및 레이저 스캔 정보를 비교하여, 로봇의 현재 위치 및 경로와 관련된 정보를 수정한다.Thereafter, the controller compares the database and the image and laser scan information generated at the current point of time, and corrects the information related to the current position and path of the robot, at a position determined to return.

일 실시예에 있어서, 상기 제어부는 상기 카메라 센서에서 생성되는 이미지를 이용하여, 상기 외부환경에 포함된 이미지 패턴과 관련된 정보를 추출하는 것을 특징으로 한다.In one embodiment, the controller extracts information related to an image pattern included in the external environment using an image generated by the camera sensor.

일 실시예에 있어서, 상기 제어부는 상기 레이저 센서에서 생성되는 레이저 스캔 정보를 이용하여, 상기 본체 주위에 존재하는 물체에 의해 형성되는 지형적 형태와 관련된 정보를 추출하는 것을 특징으로 한다.In one embodiment, the controller extracts information related to a topographic shape formed by an object existing around the main body, using laser scanning information generated by the laser sensor.

일 실시예에 있어서, 상기 청소기의 작동과 관련된 신호를 수신하는 통신부를 더 포함하고, 상기 제어부는 상기 통신부가 상기 청소기를 주행 시작 지점으로 복귀시키기 위한 신호를 수신하면, 상기 청소기를 상기 주행 시작 지점으로 복귀시키도록 상기 구동부를 제어하는 것을 특징으로 한다.In one embodiment, the communication device further includes a communication unit for receiving a signal related to the operation of the vacuum cleaner. When the communication unit receives a signal for returning the vacuum cleaner to the start of travel, The control unit controls the driving unit to return the driving unit to the driving unit.

일 실시예에 있어서, 상기 이미지, 상기 이미지 패턴과 관련된 정보, 상기 레이저 스캔 정보, 상기 지형적 형태와 관련된 정보 및 상기 이미지와 레이저 스캔 정보가 생성되는 위치 정보로 형성되는 데이터베이스를 저장하는 저장부를 더 포함하고, 상기 제어부는 기 설정된 주기로 카메라 센서 및 레이저 센서를 동작시키고, 상기 기 설정된 주기마다 상기 카메라 센서에 의해 생성된 이미지와, 상기 이미지로부터 추출되는 이미지 패턴과 관련된 정보와, 상기 레이저 센서에 의해 생성된 레이저 스캔 정보와, 상기 레이저 스캔 정보로부터 추출되는 지형적 형태와 관련된 정보와, 상기 카메라 센서 및 레이저 센서가 동작되는 위치와 관련된 정보를 상기 데이터베이스에 업데이트 시키는 것을 특징으로 한다.In one embodiment, the image processing apparatus further includes a storage unit configured to store the image, the information related to the image pattern, the laser scan information, the information related to the topographic shape, and the database formed of the image and the position information on which the laser scan information is generated Wherein the control unit operates the camera sensor and the laser sensor at predetermined intervals, and generates the image generated by the camera sensor, the information related to the image pattern extracted from the image, and the information generated by the laser sensor Information related to the geographical shape extracted from the laser scan information, and information related to the location where the camera sensor and the laser sensor are operated are updated in the database.

일 실시예에 있어서, 상기 제어부는 상기 주행 시작 지점으로 복귀하는 도중에 추출된 이미지 패턴 및 지형적 형태와 관련된 정보와 상기 데이터베이스를 비교하여, 상기 주행 시작 지점으로 복귀하기 위한 경로와 관련된 정보를 설정하는 것을 특징으로 한다.In one embodiment, the control unit compares the database with the information related to the extracted image pattern and the geographical feature during the return to the driving start point, and sets information related to the route for returning to the driving start point .

일 실시예에 있어서, 상기 제어부는 상기 주행 시작 지점으로 복귀하는 도중에 일 지점에서 추출된 이미지 패턴과 관련된 정보와, 상기 데이터베이스에 저장된 이미지 패턴과 관련된 정보 중 상기 일 지점에 대응되는 이미지 패턴과 관련된 정보가 일치하지 않으면, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정하는 것을 특징으로 한다,In one embodiment, the control unit may include information related to the image pattern extracted at one point during the return to the driving start point, information related to the image pattern corresponding to the one point among the information related to the image pattern stored in the database And corrects the route for returning to the starting point of travel if the vehicle does not coincide,

일 실시예에 있어서, 상기 제어부는 상기 주행 시작 지점으로 복귀하는 도중에 일 지점에서 추출된 지형적 형태와 관련된 정보와, 상기 데이터베이스에 저장된 지형적 형태와 관련된 정보 중 상기 일 지점에 대응되는 지형적 형태와 관련된 정보가 일치하지 않으면, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정하는 것을 특징으로 한다.In one embodiment, the control unit may include information related to the geographical shape extracted at one point during the return to the driving start point, information related to the geographical shape corresponding to the one point among information related to the geographical shape stored in the database, The route for returning to the travel start point is corrected.

일 실시예에 있어서, 상기 제어부는 상기 주행 시작 지점으로 복귀하는 도중에 일 지점에서 추출된 이미지 패턴과 상기 데이터베이스에 저장된 이미지 패턴 중 어느 하나가 일치하면, 상기 어느 하나의 이미지 패턴과 대응되는 지형적 형태와, 상기 본체의 현재 위치에서 추출된 지형적 형태를 비교하고, 상기 비교결과에 근거하여, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정하는 것을 특징으로 한다.In one embodiment, when the image pattern extracted at one point and the image pattern stored in the database coincide with each other during the return to the driving start point, , Compares the topographic form extracted at the current position of the main body, and corrects the route for returning to the starting point of travel based on the comparison result.

일 실시예에 있어서, 상기 제어부는 상기 주행 시작 지점으로 복귀하는 도중에 일 지점에서 생성된 레이저 스캔 정보와 상기 데이터베이스에 저장된 레이저 스캔 정보 중 어느 하나가 일치하면, 상기 어느 하나의 레이저 스캔 정보과 대응되는 이미지 패턴과, 상기 본체의 현재 위치에서 추출된 이미지 패턴을 비교하고, 상기 비교결과에 근거하여, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정하는 것을 특징으로 한다.In one embodiment, if the laser scanning information generated at one point and the laser scanning information stored in the database coincide with each other during the return to the driving start point, Pattern is compared with an image pattern extracted at a current position of the main body, and a path for returning to the start point of travel is corrected based on the comparison result.

일 실시예에 있어서, 상기 제어부는 로컬 경로보정모듈과, 글로벌 경로보정모듈을 포함하고, 상기 로컬 경로보정모듈은 복수의 시점에서 획득된 레이저 스캔 정보를 이용하여, 로봇의 위치와 관련된 복수의 프레임을 생성하는 것을 특징으로 한다.In one embodiment, the control unit includes a local path correction module and a global path correction module, wherein the local path correction module detects a plurality of frames related to the position of the robot using the laser scan information obtained at a plurality of points in time, .

일 실시예에 있어서, 상기 로컬 경로보정모듈은 생성된 복수의 프레임 중 어느 하나를 선택하고, 선택된 프레임에 대응되는 이미지를 획득하는 것을 특징으로 한다.In one embodiment, the local path correction module selects any one of the plurality of generated frames and acquires an image corresponding to the selected frame.

일 실시예에 있어서, 상기 선택된 프레임은 상기 본체의 현재 위치에서 생성된 프레임인 것을 특징으로 한다.In one embodiment, the selected frame is a frame generated at a current position of the main body.

일 실시예에 있어서, 상기 로컬 경로보정모듈은 상기 선택된 프레임에 대응되는 이미지에 근거하여, 상기 선택된 프레임에 대응되는 위치에 대해 장소 인식을 수행하는 것을 특징으로 한다.In one embodiment, the local path correction module performs the location recognition on the position corresponding to the selected frame based on the image corresponding to the selected frame.

일 실시예에 있어서, 상기 로컬 경로보정모듈은 상기 이미지로부터 특징점을 추출하고, 추출된 특징점에 근거하여 상기 이미지에 대응되는 기술자를 생성하고, 상기 생성된 기술자에 근거하여 상기 선택된 프레임에 대응되는 위치에 재방문하는 것인지 여부를 판단하는 것을 특징으로 한다.In one embodiment, the local path correction module extracts a feature point from the image, generates a descriptor corresponding to the image based on the extracted feature point, and calculates a position corresponding to the selected frame based on the generated descriptor And determines whether or not to return to the home page.

일 실시예에 있어서, 상기 글로벌 경로보정모듈은 상기 수행된 장소 인식 결과, 상기 선택된 프레임에 대응되는 위치가 다른 프레임에 대응되는 위치와 일치하여 재방문하는 것으로 판단되는 경우, 상기 선택된 프레임의 레이저 스캔 정보와 상기 다른 프레임의 레이저 스캔 정보를 서로 정합시키는 것을 특징으로 한다.In one embodiment, if it is determined that the position corresponding to the selected frame corresponds to a position corresponding to another frame, the global path correction module may perform a laser scan Information and the laser scanning information of the other frame are matched with each other.

일 실시예에 있어서, 상기 글로벌 경로보정모듈은 상기 상기 선택된 프레임의 레이저 스캔 정보와 상기 다른 프레임의 레이저 스캔 정보의 정합 결과에 근거하여, 상기 청소기의 경로를 수정하는 것을 특징으로 한다.In one embodiment, the global path correction module modifies the path of the cleaner based on a result of matching the laser scan information of the selected frame with the laser scan information of the other frame.

본 발명에 따르면, 청소기 주변을 촬영한 이미지와 함께 레이저 스캔 정보를 이용하여 청소기의 위치를 보다 정확하게 획득할 수 있는 효과가 도출되며, 계획된 경로대로 주행할 수 있으므로 청소기 사용자의 편의가 향상된다.According to the present invention, it is possible to acquire the position of the cleaner more precisely by using the laser scan information together with the image of the periphery of the cleaner, and it is possible to travel in a planned route, thereby improving convenience of the cleaner user.

또한, 본 발명에 따르면, 청소기가 현재 위치를 검출하거나 주행방향을 결정함에 있어서, 카메라 센서나 레이저 센서 중 어느 하나에만 의존하지 않고 서로 다른 두 개 이상의 센서를 이용함으로써, 상기 카메라 센서의 단점과 레이저 센서의 단점을 극복할 수 있는 효과가 도출된다.In addition, according to the present invention, in the case where the cleaner detects the current position or determines the running direction, by using two or more different sensors without depending only on one of the camera sensor and the laser sensor, It is possible to overcome the disadvantages of the sensor.

또한, 본 발명에 따르면, 청소기가 현재 위치를 검출하거나 주행방향을 결정함에 있어서, 카메라 센서와 레이저 센서를 함께 이용함으로써, 상기 카메라 센서와 레이저 센서에서 각각 발생되는 오차에 의한 영향을 감소시킬 수 있다.In addition, according to the present invention, when the cleaner detects the current position or determines the traveling direction, the camera sensor and the laser sensor are used together to reduce the influence of errors generated in the camera sensor and the laser sensor, respectively .

또한, 본 발명에 따르면, 폐곡선을 따라 주행하는 청소기의 경우, 상기 폐곡선을 한 바퀴 순환할 때마다 청소기의 위치나 경로 정보를 조정함으로써, 청소기와 바닥 사이의 슬립이 발생하거나 청소기의 센서에서 오차가 발생하더라도, 청소기의 위치나 경로 정보를 정확하게 검출할 수 있는 효과가 도출된다.According to the present invention, in the case of a vacuum cleaner traveling along a closed curve, the position or path information of the vacuum cleaner is adjusted each time the closed curve is circulated one time, thereby causing a slip between the vacuum cleaner and the floor, It is possible to accurately detect the position and path information of the cleaner.

도 1a는 본 발명의 일 실시예에 따른 이동 로봇의 구성요소를 나타내는 블록도이다.
도 1b는 본 발명의 이동 로봇에 포함된 센싱부(140)의 보다 상세한 구성요소를 나타내는 블록도이다.
도 1c 내지 도 1e는 본 발명의 이동 로봇의 외관을 나타내는 개념도이다.
도 2a 내지 도 2c는 본 발명에 따르는 카메라 센서 및 레이저 센서를 구비한 이동 로봇의 일 실시예를 나타내는 개념도이다.
도 3a는 본 발명의 이동 로봇에 포함된 제어부(180)의 보다 상세한 구성요소를 나타내는 블록도이다.
도 3b는 본 발명의 이동 로봇이 이미지와 레이저 스캔정보를 이용하여 로봇의 위치 정보를 검출 또는 수정하는 방법을 나타내는 흐름도이다.
도 3c는 본 발명의 이동 로봇이 서로 다른 시점에서 획득한 레이저 스캔정보를 나타내는 개념도이다.
도 3d는 본 발명의 이동 로봇이 주행 중에 복수의 이미지 또는 레이저 스캔정보를 획득하는 일 실시예를 나타내는 개념도이다.
도 3e는 본 발명의 이동 로봇이 이미지를 이용하여 장소 인식을 수행하는 방법을 나타내는 흐름도이다.
도 3f는 본 발명의 이동 로봇이 서로 다른 레이저 스캔정보를 정합하는 방법을 나타내는 개념도이다.
도 4a 내지 도 4d는 본 발명의 이동 로봇이 카메라 센서와 레이저 센서를 이용하여, 이동 로봇의 현재 위치를 판별하고, 경로를 보정하는 방법을 나타내는 개념도이다.
1A is a block diagram illustrating components of a mobile robot according to an embodiment of the present invention.
1B is a block diagram showing more detailed components of the sensing unit 140 included in the mobile robot of the present invention.
1C to 1E are conceptual diagrams showing the appearance of a mobile robot according to the present invention.
2A to 2C are conceptual diagrams showing an embodiment of a mobile robot having a camera sensor and a laser sensor according to the present invention.
FIG. 3A is a block diagram showing more detailed components of the control unit 180 included in the mobile robot of the present invention.
3B is a flowchart illustrating a method of detecting or correcting the position information of the robot using the image and the laser scan information according to the present invention.
3C is a conceptual diagram showing laser scanning information obtained by the mobile robot of the present invention at different points in time.
FIG. 3D is a conceptual diagram showing an embodiment in which the mobile robot of the present invention acquires a plurality of images or laser scanning information while traveling.
FIG. 3E is a flowchart illustrating a method of performing location recognition using the image of the mobile robot of the present invention.
FIG. 3F is a conceptual diagram illustrating a method in which the mobile robot of the present invention matches different laser scanning information.
4A to 4D are conceptual diagrams illustrating a method of determining a current position of a mobile robot and correcting a path using the camera sensor and the laser sensor according to the present invention.

이하의 도 1a에서는 본 발명의 일 실시예에 따른 이동 로봇의 구성요소가 상세히 설명된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following, FIG. 1A, components of a mobile robot according to an embodiment of the present invention will be described in detail.

도 1a에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 이동 로봇은, 통신부(110), 입력부(120), 구동부(130), 센싱부(140), 출력부(150), 전원부(160), 메모리(170) 및 제어부(180) 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.1A, a mobile robot according to an embodiment of the present invention includes a communication unit 110, an input unit 120, a driving unit 130, a sensing unit 140, an output unit 150, a power source unit 160 ), A memory 170, and a controller 180, or a combination thereof.

이때, 도 1a에 도시한 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 로봇 청소기가 구현될 수 있음은 물론이다. 이하, 각 구성요소들에 대해 살펴보기로 한다.At this time, it is needless to say that the components shown in FIG. 1A are not essential, so that a robot cleaner having components having more components or fewer components can be implemented. Hereinafter, each component will be described.

우선, 전원부(160)는 외부 상용 전원에 의해 충전 가능한 배터리를 구비하여 이동 로봇 내로 전원을 공급한다. 전원부(160)는 이동 로봇에 포함된 각 구성들에 구동 전원을 공급하여, 이동 로봇이 주행하거나 특정 기능을 수행하는데 요구되는 동작 전원을 공급할 수 있다.First, the power supply unit 160 includes a battery that can be charged by an external commercial power supply, and supplies power to the mobile robot. The power supply unit 160 supplies driving power to each of the components included in the mobile robot, and supplies operating power required for the mobile robot to travel or perform a specific function.

이때, 제어부(180)는 배터리의 전원 잔량을 감지하고, 전원 잔량이 부족하면 외부 상용 전원과 연결된 충전대로 이동하도록 제어하여, 충전대로부터 충전 전류를 공급받아 배터리를 충전할 수 있다. 배터리는 배터리 감지부와 연결되어 배터리 잔량 및 충전 상태가 제어부(180)에 전달될 수 있다. 출력부(150)은 제어부에 의해 상기 배터리 잔량을 화면에 표시할 수 있다.At this time, the controller 180 senses the remaining power of the battery, and when the remaining power is insufficient, controls the battery 180 to move to a charge connected to the external commercial power source, and receives the charging current from the charging stand to charge the battery. The battery may be connected to the battery sensing unit so that the battery remaining amount and the charging state may be transmitted to the control unit 180. The output unit 150 can display the battery remaining amount on the screen by the control unit.

배터리는 로봇 청소기 중앙의 하부에 위치할 수도 있고, 좌, 우측 중 어느 한쪽에 위치할 수도 있다. 후자의 경우, 이동 로봇은 배터리의 무게 편중을 해소하기 위해 균형추를 더 구비할 수 있다.The battery may be located at the bottom of the center of the robot cleaner, or may be located at either the left or right side. In the latter case, the mobile robot may further include a balance weight to eliminate weight biases of the battery.

한편, 구동부(130)는 모터를 구비하여, 상기 모터를 구동함으로써, 좌, 우측 주바퀴를 양 방향으로 회전시켜 본체를 회전 또는 이동시킬 수 있다. 구동부(130)는 이동 로봇의 본체를 전후좌우로 진행시키거나, 곡선주행시키거나, 제자리 회전시킬 수 있다.Meanwhile, the driving unit 130 includes a motor. By driving the motor, the left and right main wheels can be rotated in both directions to rotate or move the main body. The driving unit 130 can advance the main body of the mobile robot forward, backward, leftward, rightward, curved, or rotated in place.

한편, 입력부(120)는 사용자로부터 로봇 청소기에 대한 각종 제어 명령을 입력받는다. 입력부(120)는 하나 이상의 버튼을 포함할 수 있고, 예를 들어, 입력부(120)는 확인버튼, 설정버튼 등을 포함할 수 있다. 확인버튼은 감지 정보, 장애물 정보, 위치 정보, 맵 정보를 확인하는 명령을 사용자로부터 입력받기 위한 버튼이고, 설정버튼은 상기 정보들을 설정하는 명령을 사용자로부터 입력받기 위한 버튼이다. Meanwhile, the input unit 120 receives various control commands from the user for the robot cleaner. The input unit 120 may include one or more buttons, for example, the input unit 120 may include an OK button, a setting button, and the like. The OK button is a button for receiving a command for confirming the detection information, the obstacle information, the position information, and the map information from the user, and the setting button is a button for receiving a command for setting the information from the user.

또한, 입력부(120)는 이전 사용자 입력을 취소하고 다시 사용자 입력을 받기 위한 입력재설정버튼, 기 설정된 사용자 입력을 삭제하기 위한 삭제버튼, 작동 모드를 설정하거나 변경하는 버튼, 충전대로 복귀하도록 하는 명령을 입력받는 버튼 등을 포함할 수 있다.Also, the input unit 120 may include an input reset button for canceling the previous user input and receiving the user input again, a delete button for deleting the preset user input, a button for setting or changing the operation mode, A button for receiving an input, and the like.

또한, 입력부(120)는 하드 키나 소프트 키, 터치패드 등으로 이동 로봇의 상부에 설치될 수 있다. 또, 입력부(120)는 출력부(150)와 함께 터치 스크린의 형태를 가질 수 있다. The input unit 120 may be installed on the upper portion of the mobile robot using a hard key, a soft key, a touch pad, or the like. In addition, the input unit 120 may have a form of a touch screen together with the output unit 150.

한편, 출력부(150)는, 이동 로봇의 상부에 설치될 수 있다. 물론 설치 위치나 설치 형태는 달라질 수 있다. 예를 들어, 출력부(150)는 배터리 상태 또는 주행 방식 등을 화면에 표시할 수 있다.On the other hand, the output unit 150 can be installed on the upper portion of the mobile robot. Of course, the installation location and installation type may vary. For example, the output unit 150 may display a battery state, a traveling mode, and the like on a screen.

또한, 출력부(150)는, 센싱부(140)가 검출한 이동 로봇 내부의 상태 정보, 예를 들어 이동 로봇에 포함된 각 구성들의 현재 상태를 출력할 수 있다. 또, 출력부(150)는 센싱부(140)가 검출한 외부의 상태 정보, 장애물 정보, 위치 정보, 지도 정보 등을 화면에 디스플레이할 수 있다. 출력부(150)는 발광 다이오드(Light Emitting Diode; LED), 액정 표시 장치(Liquid Crystal Display; LCD), 플라즈마 표시 패널(Plasma Display Panel), 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 중 어느 하나의 소자로 형성될 수 있다.In addition, the output unit 150 can output the state information of the mobile robot, for example, the current state of each configuration included in the mobile robot, detected by the sensing unit 140. [ The output unit 150 may display the external status information, the obstacle information, the position information, the map information, and the like detected by the sensing unit 140 on the screen. The output unit 150 may include any one of a light emitting diode (LED), a liquid crystal display (LCD), a plasma display panel, and an organic light emitting diode (OLED) As shown in FIG.

출력부(150)는, 제어부(180)에 의해 수행되는 이동 로봇의 동작 과정 또는 동작 결과를 청각적으로 출력하는 음향 출력 수단을 더 포함할 수 있다. 예를 들어, 출력부(150)는 제어부(180)에 의해 생성된 경고 신호에 따라 외부에 경고음을 출력할 수 있다.The output unit 150 may further include sound output means for audibly outputting an operation process or an operation result of the mobile robot performed by the control unit 180. [ For example, the output unit 150 may output a warning sound to the outside in accordance with the warning signal generated by the control unit 180.

한편, 통신부(110)는 단말 장치 및/또는 특정 영역 내 위치한 타 기기(본 명세서에서는 "가전 기기"라는 용어와 혼용하기로 한다)와 유선, 무선, 위성 통신 방식들 중 하나의 통신 방식으로 연결되어 신호와 데이터를 송수신한다.On the other hand, the communication unit 110 is connected to the terminal device and / or another device (referred to as "home appliance" in this specification) located in a specific area and a communication method of one of wired, wireless, And transmits and receives signals and data.

통신부(110)는 특정 영역 내에 위치한 타 기기와 데이터를 송수신할 수 있다. 이때, 타 기기는 네트워크에 연결하여 데이터를 송수신할 수 있는 장치이면 어느 것이어도 무방하며, 일 예로, 공기 조화 장치, 난방 장치, 공기 정화 장치, 전등, TV, 자동차 등과 같은 장치일 수 있다. 또한, 상기 타 기기는, 문, 창문, 수도 밸브, 가스 밸브 등을 제어하는 장치 등일 수 있다. 또한, 상기 타 기기는, 온도, 습도, 기압, 가스 등을 감지하는 센서 등일 수 있다.The communication unit 110 can transmit and receive data with other devices located in a specific area. In this case, the other device may be any device capable of connecting to a network and transmitting / receiving data. For example, the device may be an air conditioner, a heating device, an air purifier, a lamp, a TV, The other device may be a device for controlling a door, a window, a water supply valve, a gas valve, or the like. The other device may be a sensor for detecting temperature, humidity, air pressure, gas, or the like.

따라서, 제어부(180)는 통신부(110)를 통해 상기 타 기기에 제어 신호를 전송할 수 있고, 이에 따라, 상기 타 기기는 수신한 제어 신호에 따라 동작할 수 있다. 일 예로, 상기 타 기기가 공기 조화 장치인 경우, 전원을 켜거나 제어 신호에 따라 특정 영역에 대하여 냉방 또는 난방을 수행할 수 있고, 창문을 제어하는 장치인 경우, 제어 신호에 따라 창문을 개폐하거나 일정 비율로 개방할 수 있다.Accordingly, the control unit 180 can transmit the control signal to the other device through the communication unit 110, so that the other device can operate according to the received control signal. For example, when the other device is an air conditioner, it is possible to turn on the power or perform cooling or heating for a specific area according to a control signal, and in the case of a device for controlling a window, It can be opened at a certain rate.

또한, 통신부(110)는 특정 영역 내에 위치한 적어도 하나의 타 기기로부터 각종 상태 정보 등을 수신할 수 있고, 일 예로, 통신부(110)는 공기 조화 장치의 설정 온도, 창문의 개폐 여부 또는 개폐 정도를 나타내는 개폐 정보, 온도 센서에 의해 감지되는 특정 영역의 현재 온도 등을 수신할 수 있다.In addition, the communication unit 110 may receive various status information from at least one other device located in a specific area. For example, the communication unit 110 may set the temperature of the air conditioner, whether the window is opened or closed, The current temperature of the specific area sensed by the temperature sensor, and the like.

이에 따라, 제어부(180)는 상기 상태 정보, 입력부(120)를 통한 사용자 입력, 또는 단말 장치를 통한 사용자 입력에 따라 상기 타 기기에 대한 제어 신호를 생성할 수 있다.Accordingly, the control unit 180 may generate the control signal for the other device according to the status information, the user input through the input unit 120, or the user input through the terminal apparatus.

이때, 통신부(110)는 적어도 하나의 타 기기와 통신하기 위해 라디오 주파수(RF) 통신, 블루투스(Bluetooth), 적외선 통신(IrDA), 무선 랜(LAN), 지그비(Zigbee) 등과 같은 무선 통신 방식 중 적어도 하나의 통신 방식을 채용할 수 있고, 이에 따라 상기 타 기기 및 이동 로봇(100)은 적어도 하나의 네트워크를 구성할 수 있다. 이때, 상기 네트워크는, 인터넷(internet)인 것이 바람직하다.At this time, the communication unit 110 may be connected to at least one of other wireless communication systems such as radio frequency (RF) communication, Bluetooth, infrared communication (IrDA), wireless LAN (LAN), Zigbee At least one communication method may be employed, and thus the other device and the mobile robot 100 may constitute at least one network. At this time, the network is preferably the Internet.

통신부(110)는 단말 장치로부터 제어 신호를 수신할 수 있다. 이에 따라, 제어부(180)는 상기 통신부(110)를 통해 수신한 제어 신호에 따라 다양한 작업과 관련된 제어 명령을 수행할 수 있다. 또한, 통신부(110)는 상기 단말 장치로 이동 로봇의 상태 정보, 장애물 정보, 위치 정보, 영상 정보, 지도 정보 등을 전송할 수 있다.The communication unit 110 can receive a control signal from the terminal device. Accordingly, the control unit 180 can perform control commands related to various operations according to the control signal received through the communication unit 110. [ In addition, the communication unit 110 may transmit state information, obstacle information, location information, image information, map information, and the like of the mobile robot to the terminal device.

한편, 메모리(170)는 로봇 청소기를 제어 또는 구동하는 제어 프로그램 및 그에 따른 데이터를 저장한다. 메모리(170)는 오디오 정보, 영상 정보, 장애물 정보, 위치 정보, 지도 정보 등을 저장할 수 있다. 또, 메모리(170)는 주행 패턴과 관련된 정보를 저장할 수 있다.Meanwhile, the memory 170 stores a control program for controlling or driving the robot cleaner and data corresponding thereto. The memory 170 may store audio information, image information, obstacle information, location information, map information, and the like. Also, the memory 170 may store information related to the traveling pattern.

상기 메모리(170)는 비휘발성 메모리를 주로 사용한다. 여기서, 상기 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지할 수 있는 저장 장치로서, 일 예로, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브, 마그네틱 RAM, PRAM 등일 수 있다.The memory 170 mainly uses a nonvolatile memory. Here, the non-volatile memory (NVM) is a storage device capable of continuously storing information even when power is not supplied. Examples of the storage device include a ROM, a flash memory, A storage device (e.g., a hard disk, a diskette drive, a magnetic tape), an optical disk drive, a magnetic RAM, a PRAM, and the like.

한편, 도 1b를 참조하면, 센싱부(140)는, 외부 신호 감지 센서(141), 전방 감지 센서(142), 낭떠러지 감지 센서(143), 하부 카메라 센서(144), 상부 카메라 센서(145) 및 3차원 카메라 센서(146) 중 적어도 하나를 포함할 수 있다.1B, the sensing unit 140 includes an external signal sensor 141, a front sensor 142, a cliff sensor 143, a lower camera sensor 144, an upper camera sensor 145, And a three-dimensional camera sensor 146.

외부 신호 감지 센서(141)는 이동 로봇의 외부 신호를 감지할 수 있다. 외부 신호 감지 센서(141)는, 일 예로, 적외선 센서(Infrared Ray Sensor), 초음파 센서(Ultra Sonic Sensor), RF 센서(Radio Frequency Sensor) 등일 수 있다.The external signal detection sensor 141 can sense an external signal of the mobile robot. The external signal detection sensor 141 may be, for example, an infrared ray sensor, an ultrasonic sensor, a radio frequency sensor, or the like.

이동 로봇은 외부 신호 감지 센서(141)를 이용하여 충전대가 발생하는 안내 신호를 수신하여 충전대의 위치 및 방향을 확인할 수 있다. 이때, 충전대는 이동 로봇이 복귀 가능하도록 방향 및 거리를 지시하는 안내 신호를 발신할 수 있다. 즉, 이동 로봇은 충전대로부터 발신되는 신호를 수신하여 현재의 위치를 판단하고 이동 방향을 설정하여 충전대로 복귀할 수 있다.The mobile robot can receive the guidance signal generated by the charging signal using the external signal detection sensor 141 and confirm the position and the direction of the charging base. At this time, the charging base can transmit a guidance signal indicating a direction and a distance so that the mobile robot can return. That is, the mobile robot can receive the signal transmitted from the charging station, determine the current position, set the moving direction, and return to the charging state.

또한, 이동 로봇은 외부 신호 감지 센서(141)를 이용하여 리모컨, 단말기 등의 원격 제어 장치가 발생하는 신호를 감지할 수 있다.In addition, the mobile robot can detect a signal generated by a remote control device such as a remote controller or a terminal by using an external signal detection sensor 141.

외부 신호 감지 센서(141)는 이동 로봇의 내부나 외부의 일 측에 구비될 수 있다. 일 예로, 적외선 센서는 이동 로봇 내부 또는 출력부(150)의 하부 또는 상부 카메라 센서(145) 또는 3차원 카메라 센서(146)의 주변에 설치될 수 있다.The external signal detection sensor 141 may be provided on one side of the inside or outside of the mobile robot. For example, the infrared sensor may be installed in the mobile robot or in the vicinity of the lower or upper camera sensor 145 or the three-dimensional camera sensor 146 of the output unit 150.

한편, 전방 감지 센서(142)는, 이동 로봇의 전방, 구체적으로 이동 로봇의 측면 외주면을 따라 일정 간격으로 설치될 수 있다. 전방 감지 센서(142)는 이동 로봇의 적어도 일 측면에 위치하여, 전방의 장애물을 감지하기 위한 것으로서, 전방 감지 센서(142)는 이동 로봇의 이동 방향에 존재하는 물체, 특히 장애물을 감지하여 검출 정보를 제어부(180)에 전달할 수 있다. 즉, 전방 감지 센서(142)는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(180)에 전달할 수 있다.On the other hand, the front sensor 142 may be installed at a predetermined distance along the outer circumferential surface of the mobile robot in front of the mobile robot, specifically, the side surface of the mobile robot. The front sensing sensor 142 is disposed on at least one side of the mobile robot to sense an obstacle ahead of the mobile robot. The front sensing sensor 142 senses an object, particularly an obstacle, To the control unit 180. That is, the front sensing sensor 142 may sense protrusions existing on the moving path of the mobile robot, household appliances, furniture, walls, wall corners, and the like, and may transmit the information to the controller 180.

전방 감지 센서(142)는, 일 예로, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서 등일 수 있고, 이동 로봇은 전방 감지 센서(142)로 한 가지 종류의 센서를 사용하거나 필요에 따라 두 가지 종류 이상의 센서를 함께 사용할 수 있다.The front sensor 142 may be, for example, an infrared sensor, an ultrasonic sensor, an RF sensor, a geomagnetic sensor, or the like. The mobile robot may use one type of sensor as the front sensor 142, The above sensors can be used together.

일 예로, 초음파 센서는 일반적으로 원거리의 장애물을 감지하는 데에 주로 사용될 수 있다. 초음파 센서는 발신부와 수신부를 구비하여, 제어부(180)는 발신부를 통해 방사된 초음파가 장애물 등에 의해 반사되어 수신부에 수신되는 지의 여부로 장애물의 존부를 판단하고, 초음파 방사 시간과 초음파 수신 시간을 이용하여 장애물과의 거리를 산출할 수 있다.Ultrasonic sensors, for example, can typically be used to detect distant obstacles in general. The ultrasonic sensor includes a transmitter and a receiver. The controller 180 determines whether an obstacle is present or not based on whether the ultrasonic wave radiated through the transmitter is reflected by an obstacle or the like and is received by the receiver, The distance to the obstacle can be calculated.

또한, 제어부(180)는 발신부에서 방사된 초음파와, 수신부에 수신되는 초음파를 비교하여, 장애물의 크기와 관련된 정보를 검출할 수 있다. 예를 들어, 제어부(180)는 수신부에 더 많은 초음파가 수신될수록, 장애물의 크기가 큰 것으로 판단할 수 있다.Also, the controller 180 can detect the information related to the size of the obstacle by comparing the ultrasonic waves emitted from the transmitter and the ultrasonic waves received by the receiver. For example, the control unit 180 can determine that the larger the obstacle is, the more ultrasonic waves are received in the receiving unit.

일 실시 예에서, 복수(일 예로, 5개)의 초음파 센서가 이동 로봇의 전방 측면에 외주면을 따라 설치될 수 있다. 이때, 바람직하게 초음파 센서는 발신부와 수신부가 교대로 이동 로봇의 전면에 설치될 수 있다.In one embodiment, a plurality (e. G., Five) of ultrasonic sensors may be installed along the outer circumferential surface on the front side of the mobile robot. At this time, preferably, the ultrasonic sensor can be installed on the front side of the mobile robot alternately with the transmitting part and the receiving part.

즉, 발신부는 본체의 전면 중앙으로부터 좌, 우측에 이격되도록 배치될 수 있고, 수신부의 사이에 하나 또는 둘 이상의 발신부가 배치되어 장애물 등으로부터 반사된 초음파 신호의 수신 영역을 형성할 수 있다. 이와 같은 배치로 센서의 수를 줄이면서 수신 영역을 확장할 수 있다. 초음파의 발신 각도는 크로스토크(crosstalk) 현상을 방지하도록 서로 다른 신호에 영향을 미치지 아니하는 범위의 각을 유지할 수 있다. 또한, 수신부들의 수신 감도는 서로 다르게 설정될 수 있다.That is, the transmitting unit may be disposed to be spaced left and right from the front center of the main body, and one or two transmitting units may be disposed between the receiving units to form a receiving area of the ultrasonic signal reflected from the obstacle or the like. With this arrangement, the receiving area can be expanded while reducing the number of sensors. The angle of origin of the ultrasonic waves can maintain an angle range that does not affect different signals to prevent crosstalk. Also, the receiving sensitivity of the receiving units may be set differently.

또한, 초음파 센서에서 발신되는 초음파가 상향으로 출력되도록 초음파 센서는 일정 각도만큼 상향으로 설치될 수 있고, 이때, 초음파가 하향으로 방사되는 것을 방지하기 위해 소정의 차단 부재를 더 포함할 수 있다.In addition, the ultrasonic sensor may be installed upward by a predetermined angle so that the ultrasonic wave emitted from the ultrasonic sensor is outputted upward, and the ultrasonic sensor may further include a predetermined blocking member to prevent the ultrasonic wave from being radiated downward.

한편, 전방 감지 센서(142)는, 전술한 바와 같이, 두 가지 종류 이상의 센서를 함께 사용할 수 있고, 이에 따라, 전방 감지 센서(142)는 적외선 센서, 초음파 센서, RF 센서 등 중 어느 한 가지 종류의 센서를 사용할 수 있다.As described above, the front sensing sensor 142 can use two or more kinds of sensors together. Accordingly, the front sensing sensor 142 can be any one of an infrared sensor, an ultrasonic sensor, and an RF sensor Can be used.

일 예로, 전방 감지 센서(142)는 초음파 센서 이외에 다른 종류의 센서로 적외선 센서를 포함할 수 있다.For example, the front sensing sensor 142 may include an infrared sensor in addition to the ultrasonic sensor.

적외선 센서는 초음파 센서와 함께 이동 로봇의 외주면에 설치될 수 있다. 적외선 센서 역시, 전방이나 측면에 존재하는 장애물을 감지하여 장애물 정보를 제어부(180)에 전달할 수 있다. 즉, 적외선 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(180)에 전달한다. 따라서, 이동 로봇은 본체가 장애물과의 충돌없이 특정 영역 내에서 이동할 수 있다.The infrared sensor may be installed on the outer surface of the mobile robot together with the ultrasonic sensor. The infrared sensor can also detect the obstacles existing on the front or side and transmit the obstacle information to the controller 180. That is, the infrared sensor senses protrusions existing on the moving path of the mobile robot, house furniture, furniture, wall surface, wall edge, and the like, and transmits the information to the control unit 180. Therefore, the mobile robot can move within a specific area without collision with the obstacle.

한편, 낭떠러지 감지 센서(143)(또는 클리프 센서(Cliff Sensor))는, 다양한 형태의 광 센서를 주로 이용하여, 이동 로봇의 본체를 지지하는 바닥의 장애물을 감지할 수 있다.On the other hand, the cliff sensor 143 (or Cliff Sensor) can detect obstacles on the floor supporting the main body of the mobile robot by mainly using various types of optical sensors.

즉, 낭떠러지 감지 센서(143)는, 바닥의 이동 로봇의 배면에 설치되되, 이동 로봇의 종류에 따라 다른 위치에 설치될 수 있음은 물론이다. 낭떠러지 감지 센서(143)는 이동 로봇의 배면에 위치하여, 바닥의 장애물을 감지하기 위한 것으로서, 낭떠러지 감지 센서(143)는 상기 장애물 감지 센서와 같이 발광부와 수광부를 구비한 적외선 센서, 초음파 센서, RF 센서, PSD(Position Sensitive Detector) 센서 등일 수 있다.That is, the croft detection sensor 143 is provided on the rear surface of the floor mobile robot, but it may be installed in a different position depending on the type of the mobile robot. The obstacle detection sensor 143 is located on the back surface of the mobile robot and detects an obstacle on the floor. The obstacle detection sensor 143 may include an infrared sensor including an emitting unit and a light receiving unit, an ultrasonic sensor, An RF sensor, a position sensitive detector (PSD) sensor, and the like.

일 예로, 낭떠러지 감지 센서(143) 중 어느 하나는 이동 로봇의 전방에 설치되고, 다른 두 개의 낭떠러지 감지 센서(143)는 상대적으로 뒤쪽에 설치될 수 있다.For example, any one of the cliff detection sensors 143 may be installed in front of the mobile robot, and the other two cliff detection sensors 143 may be installed relatively behind.

예를 들어, 낭떠러지 감지 센서(143)는 PSD 센서일 수 있으나, 복수의 서로 다른 종류의 센서로 구성될 수도 있다.For example, the cliff detection sensor 143 may be a PSD sensor, but it may be composed of a plurality of different kinds of sensors.

PSD 센서는 반도체 표면저항을 이용해서 1개의 p-n접합으로 입사광의 단장거리 위치를 검출한다. PSD 센서에는 일축 방향만의 광을 검출하는 1차원 PSD 센서와, 평면상의 광위치를 검출할 수 있는 2차원 PSD 센서가 있으며, 모두 pin 포토 다이오드 구조를 가질 수 있다. PSD 센서는 적외선 센서의 일종으로서, 적외선을 이용하여, 적외선을 송신한 후 장애물에서 반사되어 돌아오는 적외선의 각도를 측정하여 거리를 측정한다. 즉, PSD 센서는 삼각측량방식을 이용하여, 장애물과의 거리를 산출한다. The PSD sensor uses a semiconductor surface resistance to detect the shortest path distance of incident light at one p-n junction. The PSD sensor includes a one-dimensional PSD sensor for detecting light in only one direction and a two-dimensional PSD sensor for detecting a light position on a plane, all of which can have a pin photodiode structure. The PSD sensor is a type of infrared sensor that measures the distance by measuring the angle of the infrared ray reflected from the obstacle after transmitting the infrared ray by using the infrared ray. That is, the PSD sensor uses the triangulation method to calculate the distance to the obstacle.

PSD 센서는 장애물에 적외선을 발광하는 발광부와, 장애물로부터 반사되어 돌아오는 적외선을 수광하는 수광부를 구비하되, 일반적으로 모듈 형태로 구성된다. PSD 센서를 이용하여, 장애물을 감지하는 경우, 장애물의 반사율, 색의 차이에 상관없이 안정적인 측정값을 얻을 수 있다.The PSD sensor includes a light emitting unit that emits infrared rays to an obstacle, and a light receiving unit that receives infrared rays that are reflected from the obstacle and is returned to the obstacle. When an obstacle is detected by using the PSD sensor, a stable measurement value can be obtained irrespective of the reflectance and the color difference of the obstacle.

제어부(180)는 낭떠러지 감지 센서(143)가 지면을 향해 발광한 적외선의 발광신호와 장애물에 의해 반사되어 수신되는 반사신호 간의 적외선 각도를 측정하여, 낭떠러지를 감지하고 그 깊이를 분석할 수 있다.The control unit 180 can detect the depth of the cliff by measuring the infrared angle between the infrared light emission signal emitted by the cliffing sensor 143 toward the ground and the reflection signal reflected by the obstacle.

한편, 제어부(180)는 낭떠러지 감지 센서(143)를 이용하여 감지한 낭떠러지의 지면 상태에 따라 통과 여부를 판단할 수 있고, 판단 결과에 따라 낭떠러지의 통과 여부를 결정할 수 있다. 예를 들어, 제어부(180)은 낭떠러지 감지 센서(143)를 통해 낭떠러지의 존재 여부 및 낭떠러지 깊이를 판단한 다음, 낭떠러지 감지 센서(143)를 통해 반사 신호를 감지한 경우에만 낭떠러지를 통과하도록 한다.On the other hand, the control unit 180 can determine whether to pass or not according to the ground state of the detected cliff by using the cliff detection sensor 143, and determine whether the cliff passes or not according to the determination result. For example, the control unit 180 determines whether a cliff is present or not through the cliff detection sensor 143, and then passes through the cliff only when the reflection signal is sensed through the cliff detection sensor 143.

다른 예로, 제어부(180)은 낭떠러지 감지 센서(143)를 이용하여 이동 로봇의 들림 현상을 판단할 수도 있다.As another example, the control unit 180 may determine the lifting phenomenon of the mobile robot using the deterioration sensor 143.

한편, 하부 카메라 센서(144)는, 이동 로봇의 배면에 구비되어, 이동 중 하방, 즉, 바닥면(또는 피청소면)에 대한 이미지 정보를 획득한다. 하부 카메라 센서(144)는, 다른 말로 옵티컬 플로우 센서(Optical Flow Sensor)라 칭하기도 한다. 하부 카메라 센서(144)는, 센서 내에 구비된 이미지 센서로부터 입력되는 하방 영상을 변환하여 소정 형식의 영상 데이터를 생성한다. 생성된 영상 데이터는 메모리(170)에 저장될 수 있다.On the other hand, the lower camera sensor 144 is provided on the back side of the mobile robot, and acquires image information on the lower side, that is, the bottom surface (or the surface to be cleaned) during the movement. The lower camera sensor 144 is also referred to as an optical flow sensor in other words. The lower camera sensor 144 converts the downward image input from the image sensor included in the sensor to generate image data of a predetermined format. The generated image data can be stored in the memory 170.

하부 카메라 센서(144)는, 렌즈(미도시)와 상기 렌즈를 조절하는 렌즈 조절부(미도시)를 더 구비할 수 있다. 상기 렌즈로는 초점거리가 짧고 심도가 깊은 팬포커스형 렌즈를 사용하는 것이 좋다. 상기 렌즈 조절부는 전후 이동되도록 하는 소정 모터와 이동수단을 구비하여 상기 렌즈를 조절한다.The lower camera sensor 144 may further include a lens (not shown) and a lens controller (not shown) for adjusting the lens. It is preferable to use a pan-focus lens having a short focal length and a deep depth as the lens. The lens control unit includes a predetermined motor and moving means for moving the lens back and forth to adjust the lens.

또한, 하나 이상의 광원이 이미지 센서에 인접하여 설치될 수 있다. 하나 이상의 광원은, 이미지 센서에 의해 촬영되는 바닥면의 소정 영역에 빛을 조사한다. 즉, 이동 로봇이 바닥면을 따라 특정 영역을 이동하는 경우에, 바닥면이 평탄하면 이미지 센서와 바닥면 사이에는 일정한 거리가 유지된다. 반면, 이동 로봇이 불균일한 표면의 바닥면을 이동하는 경우에는 바닥면의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 하나 이상의 광원은 조사되는 빛의 양을 조절하도록 제어부(180)에 의해 제어될 수 있다. 상기 광원은 광량 조절이 가능한 발광 소자, 예를 들어 LED(Light Emitting Diode) 등일 수 있다.Also, one or more light sources may be installed adjacent to the image sensor. The at least one light source irradiates light onto a predetermined area of the bottom surface, which is photographed by the image sensor. That is, when the mobile robot moves in a specific region along the bottom surface, a certain distance is maintained between the image sensor and the bottom surface when the bottom surface is flat. On the other hand, when the mobile robot moves on the bottom surface of a nonuniform surface, it is distant by a certain distance due to the unevenness and obstacles on the bottom surface. At this time, one or more light sources may be controlled by the control unit 180 to adjust the amount of light to be irradiated. The light source may be a light emitting device capable of adjusting the amount of light, for example, an LED (Light Emitting Diode).

하부 카메라 센서(144)를 이용하여, 제어부(180)는 이동 로봇의 미끄러짐과 무관하게 이동 로봇의 위치를 검출할 수 있다. 제어부(180)은 하부 카메라 센서에 의해 촬영된 영상 데이터를 시간에 따라 비교 분석하여 이동 거리 및 이동 방향을 산출하고, 이를 근거로 이동 로봇의 위치를 산출할 수 있다. 하부 카메라 센서(144)를 이용하여 이동 로봇의 하방에 대한 이미지 정보를 이용함으로써, 제어부(180)는 다른 수단에 의해 산출한 이동 로봇의 위치에 대하여 미끄러짐에 강인한 보정을 할 수 있다.Using the lower camera sensor 144, the control unit 180 can detect the position of the mobile robot regardless of the slip of the mobile robot. The control unit 180 may compute and analyze the image data photographed by the lower camera sensor over time to calculate the moving distance and the moving direction, and calculate the position of the mobile robot on the basis of the movement distance and the moving direction. By using the image information of the lower portion of the mobile robot using the lower camera sensor 144, the controller 180 can perform a correction that is robust against slippage with respect to the position of the mobile robot calculated by other means.

한편, 상부 카메라 센서(145)는 이동 로봇의 상방이나 전방을 향하도록 설치되어 이동 로봇 주변을 촬영할 수 있다. 이동 로봇이 복수의 상부 카메라 센서(145)들을 구비하는 경우, 카메라 센서들은 일정 거리 또는 일정 각도로 이동 로봇의 상부나 옆면에 형성될 수 있다.On the other hand, the upper camera sensor 145 is installed to face upward or forward of the mobile robot, and can photograph the surroundings of the mobile robot. When the mobile robot includes a plurality of upper camera sensors 145, the camera sensors may be formed on the upper or side surface of the mobile robot at a predetermined distance or at a certain angle.

상부 카메라 센서(145)는 피사체의 초점을 맞추는 렌즈와, 카메라 센서를 조절하는 조절부와, 상기 렌즈를 조절하는 렌즈 조절부를 더 포함할 수 있다. 상기 렌즈는 소정의 위치에서도 주변의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 일정 각, 예를 들어 160도, 이상인 렌즈를 포함한다.The upper camera sensor 145 may further include a lens for focusing the subject, an adjusting unit for adjusting the camera sensor, and a lens adjusting unit for adjusting the lens. The lens uses a wide angle lens so that all surrounding areas, for example, all areas of the ceiling, can be photographed even at a predetermined position. For example, a lens whose angle of view is a certain angle, for example, 160 degrees or more.

레이저 센서(147)는 이동 로봇의 본체 일면 또는 일부분에 부착되어, 상기 본체의 전방위를 스캔하며, 이로써 본체로부터 측정 범위 내에 존재하는 물체와 관련된 레이저 스캔정보를 생성할 수 있다. 즉, 레이저 센서(147)는 본체 주변에 위치하는 물체들에 광원을 출력함으로써, 상기 물체와 본체 사이의 거리를 검출할 수 있다.The laser sensor 147 is attached to one side or a part of the body of the mobile robot to scan the omnidirectional side of the body, thereby generating laser scanning information related to an object existing within the measurement range from the body. That is, the laser sensor 147 can detect the distance between the object and the main body by outputting the light source to the objects located around the main body.

구체적으로 레이저 센서(147)는 레이저 송신부, 레이저 검출부, 신호 처리부 및 신호 통신부를 포함할 수 있다. 레이저 센서(147)는 레이저 신호의 변조 방법에 따라 TOF(Time of Flight) 방식과, Phase-shift 방식으로 구분될 수 있다.Specifically, the laser sensor 147 may include a laser transmission unit, a laser detection unit, a signal processing unit, and a signal communication unit. The laser sensor 147 can be classified into a time of flight (TOF) method and a phase-shift method according to a modulation method of a laser signal.

레이저 센서(147)가 TOF 방식인 경우, 레이저 센서(147)는 펄스 신호를 방출하여 측정 범위 내에 있는 물체들로부터의 반사 펄스 신호들이 수신기에 도착하는 시간을 측정함으로써, 이동 로봇과 측정 범위 내에 있는 물체들 사이의 거리를 측정할 수 있다.When the laser sensor 147 is in the TOF mode, the laser sensor 147 emits a pulse signal to measure the time at which the reflected pulse signals from the objects within the measurement range arrive at the receiver, You can measure the distance between objects.

레이저 센서(147)가 Phase-shift 방식인 경우, 레이저 센서(147)는 특정 주파수를 갖고 연속적으로 변조되는 레이저 빔을 방출하고, 측정 범위 내에 있는 물체로부터 반사되어 되돌아 오는 신호의 위상 변화량을 측정함으로써, 이동 로봇과 측정 범위 내에 있는 물체들 사이의 거리를 측정할 수 있다.When the laser sensor 147 is of the phase-shift type, the laser sensor 147 emits a laser beam having a specific frequency continuously modulated, and measures a phase change amount of a signal reflected back from an object within the measurement range , The distance between the mobile robot and objects within the measurement range can be measured.

예를 들어, 레이저 센서(147)는 라이다(Lidar) 센서일 수 있다.For example, the laser sensor 147 may be a Lidar sensor.

이하의 도 2a 내지 도 2c에서는 본 발명에 따르는 카메라 센서 및 레이저 센서를 구비한 이동 로봇의 일 실시예가 설명된다.2A to 2C, an embodiment of a mobile robot having a camera sensor and a laser sensor according to the present invention will be described.

도 2a에 도시된 것과 같이, 이동 로봇(100)은 임의의 작동 영역(1000) 내에서, 미리 설정된 경로(201)에 따라 이동 할 수 있다.As shown in Fig. 2A, the mobile robot 100 can move along a predetermined path 201 within an arbitrary operating area 1000. [0050] As shown in Fig.

예를 들어, 미리 설정된 경로(201)는 작동 영역(1000)을 정의하는 벽을 따라 이동하는 경로일 수 있다. 또 다른 예에서, 미리 설정된 경로(201)는 폐곡선을 형성할 수 있다. 따라서, 이동 로봇(100)은 미리 설정된 경로(201)를 따라 주행하는 경우, 주행을 시작한 지점으로 복귀할 수 있다.For example, the predetermined path 201 may be a path that moves along the wall defining the working area 1000. In yet another example, the preset path 201 may form a closed curve. Therefore, when the mobile robot 100 travels along the preset path 201, it can return to the point where the traveling has started.

도 2b를 참조하면, 이동 로봇(100)은 도 2a에 도시된 경로(201)를 따라 주행 중에 특정 시간 간격마다 카메라 센서를 이용하여 이동 로봇(100)의 본체 주변과 관련된 이미지를 획득할 수 있다. 도 2b에 도시된 것과 같이, 이동 로봇(100)은 복수의 지점(202a)에 위치할 때마다, 본체 전방, 측방, 후방, 상방, 하방 중 적어도 하나와 관련된 이미지를 획득할 수 있다.Referring to FIG. 2B, the mobile robot 100 may acquire an image related to the periphery of the mobile robot 100 using the camera sensor at specific time intervals while traveling along the path 201 shown in FIG. 2A . As shown in FIG. 2B, each time the mobile robot 100 is located at the plurality of points 202a, an image related to at least one of front, side, rear, upper, and lower sides of the main body can be obtained.

또한, 이동 로봇(100)은 도 2a에 도시된 경로(201)를 따라 주행 중에 특정 시간 간격마다 레이저 센서를 이용하여 이동 로봇(100)의 본체로부터 측정 범위 내에 존재하는 물체와 관련된 레이저 스캔정보를 획득할 수 있다. 즉, 이동 로봇(100)은 복수의 지점(202a)에 위치할 때마다, 본체에 대해 측정 범위 내에 존재하는 물체를 스캔하도록 레이저 센서(147)를 제어할 수 있으며, 이로써 레이저 스캔정보를 획득할 수 있다.The mobile robot 100 also uses the laser sensor at specific time intervals along the path 201 shown in Fig. 2A to scan the main body of the mobile robot 100 with laser scanning information related to objects existing within the measurement range Can be obtained. That is, each time the mobile robot 100 is positioned at the plurality of points 202a, it is possible to control the laser sensor 147 to scan an object existing within the measurement range with respect to the main body, .

이동 로봇(100)은 카메라 센서와 레이저 센서의 동작 주기를 동일하게 설정할 수도 있고, 카메라 센서의 동작 주기를 레이저 센서의 동작 주기의 배수로 설정할 수도 있으며, 레이저 센서의 동작 주기를 카메라 센서의 동작 주기의 배수로 설정할 수도 있다.The mobile robot 100 may set the operation cycle of the camera sensor and the laser sensor to the same or set the operation cycle of the camera sensor to a multiple of the operation cycle of the laser sensor, It can be set to multiples.

즉, 도 2a에 도시된 것과 같이, 이동 로봇(100)은 작동 영역(1000)을 정의하는 폐곡선을 따라 주행하며, 주행 시작점으로 복귀할 때까지 일정 시간간격마다 카메라 센서를 이용하여 이동 로봇(100)의 외부 환경과 관련된 이미지를 획득할 수 있다. 또한, 이동 로봇(100)은 작동 영역(1000)을 정의하는 폐곡선을 따라 주행하며, 주행 시작점으로 복귀할 때까지 일정 시간간격마다 레이저 센서(147)를 이용하여 이동 로봇(100)의 외부 환경과 관련된 레이저 스캔정보를 획득할 수 있다.That is, as shown in FIG. 2A, the mobile robot 100 travels along a closed curve that defines the operation area 1000, and uses the camera sensor at a predetermined time interval until the mobile robot 100 returns to the start of travel, ) Of the image. The mobile robot 100 travels along a closed curve defining the operation area 1000 and uses the laser sensor 147 at predetermined time intervals until returning to the start of travel, Related laser scanning information can be obtained.

도 2b에서는 작동 영역(1000)을 정의하는 폐곡선을 따라 주행하며, 복수의 지점(202a)마다 위치 정보를 검출하는 일 실시예가 도시된다.FIG. 2B illustrates an embodiment of running along a closed curve defining an operating region 1000, and detecting position information for each of a plurality of points 202a.

즉, 이동 로봇(100)이 상기 폐곡선을 따라 주행하며, 주행시작지점(Pi)에서부터 주행종료지점(Pf)까지 주행하는 경우, 제어부(180)는 복수의 지점(202a)마다 재방문 여부를 판단할 수 있다. 예를 들어, 이동 로봇(100)이 상기 폐곡선을 따라 순환하는 경우, 제어부(180)는 주행시작지점(Pi)과 주행종료지점(Pf)을 동일한 지점이라 판단할 수 있다.That is, when the mobile robot 100 travels along the closed curve and travels from the travel start point Pi to the travel end point Pf, the control unit 180 determines whether or not it is revisited for each of the plurality of points 202a can do. For example, when the mobile robot 100 circulates along the closed curve, the control unit 180 may determine that the starting point Pi and the ending point Pf are the same point.

한편, 도 2b를 참조하면, 이동 로봇(100)의 제어부(180)는 복수의 지점(202a)마다 획득된 레이저 스캔정보와, 엔코더 및 휠센서 중 적어도 하나를 이용하여 복수의 지점(202a)에 각각 대응되는 위치 정보를 검출할 수 있다. 또한, 제어부(180)는 이동 로봇(100)의 이동 방향 또는 이동 거리와 관련된 정보를 누적시키고, 누적된 정보에 근거하여 경로 정보를 검출할 수 있다.Referring to FIG. 2B, the controller 180 of the mobile robot 100 may scan the plurality of points 202a using at least one of the laser scanning information obtained for each of the plurality of points 202a and the encoder and the wheel sensors. The corresponding position information can be detected. In addition, the control unit 180 accumulates information related to the moving direction or the moving distance of the mobile robot 100, and can detect the path information based on the accumulated information.

그러나, 제어부(180)가 상기 위치 정보 및 경로 정보를 검출하는 과정에서, 이동 로봇(100)의 구동바퀴에 슬립이 발생하거나, 상기 엔코더 및 휠센서에 오차가 발생하면, 상기 누적된 정보에 오차가 발생할 수 있다.However, if the controller 180 detects a slip on the driving wheels of the mobile robot 100 or an error occurs in the encoder and the wheel sensor in the process of detecting the position information and the route information, May occur.

즉, 복수의 지점(202a) 중 어느 한 지점에서 이동 로봇(100)의 이동 방향 또는 이동 거리와 관련된 정보에서 오차가 발생하면, 오차가 발생된 이후의 지점에서 검출되는 위치 정보 또는 레이저 스캔정보에도 오차가 반영된다.That is, when an error occurs in the information related to the moving direction or the moving distance of the mobile robot 100 at any one of the plurality of points 202a, the position information or the laser scanning information detected at the point after the error occurs Error is reflected.

구체적으로, 도 2b에서는 제어부(180)가 제1 이미지(203a)와 제2 이미지(203b)를 비교한 결과, 주행시작지점(Pi)과 주행종료지점(Pf)이 실질적으로 동일한 지점으로 판단되었음에도, 주행시작지점(Pi)에 대응되는 위치정보와 주행종료지점(Pf)에 대응되는 위치정보 사이에 오차가 존재할 수 있다.2B, when the control unit 180 compares the first image 203a with the second image 203b, it is determined that the driving start point Pi and the driving end point Pf are substantially the same point , There may be an error between the position information corresponding to the travel start point Pi and the position information corresponding to the travel end point Pf.

따라서, 도 2c를 참조하면, 제어부(180)는 제1 이미지(203a)와 제2 이미지(203b)를 비교한 결과, 주행시작지점(Pi)과 주행종료지점(Pf)이 실질적으로 동일한 지점으로 판단되면, 주행시작지점(Pi)과 주행종료지점(Pf)에 각각 대응되는 위치 정보와 레이저 스캔정보의 일치 여부를 판단할 수 있다.2C, when the first image 203a and the second image 203b are compared with each other, the control unit 180 determines that the driving start point Pi and the driving end point Pf are substantially the same It is possible to determine whether the position information corresponding to the driving start point Pi and the driving end point Pf match the laser scanning information.

아울러, 제어부(180)는 주행시작지점(Pi)에 대응되는 위치 정보 및 레이저 스캔정보와, 주행종료지점(Pf)에 대응되는 위치 정보와 레이저 스캔정보 사이에 오차가 존재하는 것으로 판단되면, 주행시작지점(Pi)과 주행종료지점(Pf)에 각각 대응되는 위치 정보와 레이저 스캔정보를 매칭시킬 수 있다. 이에 따라, 제어부(180)는 복수의 지점(202a)에 대응되는 경로 정보(202b)를 수정할 수 있다.If it is determined that there is an error between the position information corresponding to the driving start point Pi and the laser scanning information and the position information corresponding to the driving end point Pf and the laser scanning information, It is possible to match the position information corresponding to the starting point Pi and the traveling end point Pf with the laser scanning information. Accordingly, the control unit 180 can modify the route information 202b corresponding to the plurality of points 202a.

이하의 도 3a에서는 본 발명의 이동 로봇에 포함된 제어부(180)의 보다 상세한 구성요소가 설명된다.In the following FIG. 3A, the more detailed components of the control unit 180 included in the mobile robot of the present invention will be described.

제어부(180)는 로컬 경로보정모듈(181)과, 글로벌 경로보정모듈(182)을 포함할 수 있다. 로컬 경로보정모듈(181)은 국부 영역에 대한 이동 로봇(100)의 경로나 위치 정보를 보정하며, 글로벌 경로보정모듈(182)는 전체 주행 경로에 대한 보정을 수행할 수 있다. 이하에서는 로컬 경로보정모듈(181)과, 글로벌 경로보정모듈(182)과 관련된 실시예들을 개별적으로 설명하나, 로컬 경로보정모듈(181)과, 글로벌 경로보정모듈(182)이 수행하는 기능들은 제어부(180)가 실행한다고 설명할 수도 있다.The control unit 180 may include a local path correction module 181 and a global path correction module 182. [ The local path correction module 181 corrects the path or position information of the mobile robot 100 with respect to the local area and the global path correction module 182 can perform correction on the entire travel path. Embodiments related to the local path correction module 181 and the global path correction module 182 will be described separately below. The functions performed by the local path correction module 181 and the global path correction module 182, however, (180) executes.

또한, 글로벌 경로보정모듈(182)은 키 프레임 매니징 유닛(182a), 장소 인식 유닛(182b), 장소 매칭 유닛(182c), 매핑 유닛(182d) 중 적어도 하나를 포함할 수 있다.The global path correction module 182 may also include at least one of a key frame management unit 182a, a place recognition unit 182b, a place matching unit 182c, and a mapping unit 182d.

이하의 도 3b에서는, 로컬 경로보정모듈(181)과, 글로벌 경로보정모듈(182)을 포함하는 제어부(180)가 이동 로봇(100)의 위치 또는 경로를 수정하는 방법이 설명된다.3B, a method of modifying the position or path of the mobile robot 100 by the control unit 180 including the local path correction module 181 and the global path correction module 182 will be described.

로컬 경로보정모듈(181)은 복수의 시점에서 획득된 레이저 스캔 정보를 이용하여, 로봇의 위치와 관련된 복수의 프레임을 생성할 수 있다(S301).The local path correction module 181 may generate a plurality of frames related to the position of the robot using the laser scan information obtained at a plurality of points of view (S301).

또한, 로컬 경로보정모듈(181)은 생성된 복수의 프레임 중 어느 하나를 선택할 수 있으며(S302), 선택된 프레임에 대응되는 이미지를 획득할 수 있다(S303).In addition, the local path correction module 181 can select any one of the generated frames (S302), and obtain an image corresponding to the selected frame (S303).

예를 들어, 로컬 경로보정모듈(181)에 의해 선택된 프레임은, 이동 로봇(100)의 현재 위치 또는 청소기 본체의 현재 위치에서 생성된 프레임일 수 있다.For example, the frame selected by the local path correction module 181 may be a frame generated at the current position of the mobile robot 100 or at the current position of the cleaner main body.

또 다른 예를 들어, 로컬 경로보정모듈(181)에 의해 선택된 프레임은, 가장 최근에 생성된 프레임일 수 있다.As another example, the frame selected by the local path correction module 181 may be the most recently generated frame.

글로벌 경로보정모듈(182)은 상기 선택된 프레임에 대응되는 이미지에 근거하여, 상기 선택된 프레임에 대응되는 위치에 대해 장소 인식을 수행할 수 있다(S304). 즉, 로컬 경로보정모듈(181)이 현재 위치에서 생성된 프레임을 선택한 경우, 글로벌 경로보정모듈(182)은 상기 현재 위치에서 촬영된 이미지에 근거하여, 현재 위치에 대해 장소 인식을 수행할 수 있다.The global path correction module 182 may perform the location recognition on the location corresponding to the selected frame based on the image corresponding to the selected frame (S304). That is, when the local path correction module 181 selects a frame generated at the current position, the global path correction module 182 can perform the position recognition on the current position based on the image photographed at the current position .

글로벌 경로보정모듈(182)은 장소 인식 결과를 이용하여, 선택된 프레임을 인식된 장소와 관련된 정보와 매칭시킬 수 있다(S305).The global path correction module 182 may use the location recognition result to match the selected frame with information associated with the recognized location (S305).

글로벌 경로보정모듈(182)은 매칭 결과를 이용하여, 복수의 프레임에 포함된 이동 로봇(100)의 위치 정보를 수정할 수 있다(S306).The global path correction module 182 can modify the position information of the mobile robot 100 included in the plurality of frames using the matching result (S306).

이하의 도 3c 및 3d에서는 로컬 경로보정모듈(181)이 국부 경로 보정을 수행하는 일 실시예가 설명된다.3C and 3D, an embodiment in which the local path correction module 181 performs local path correction is described.

보다 구체적으로, 제어부(180)의 로컬 경로보정모듈(181)은 레이저 센서(147)에서 획득된 복수의 레이저 스캔정보 사이의 상호 정합(Co-registration)을 이용하여, 이동 로봇(100)의 현재 위치를 추정할 수 있다.More specifically, the local path correction module 181 of the control unit 180 determines whether or not the current position of the mobile robot 100 is coincident with the current position of the mobile robot 100, using co- registration between a plurality of laser scan information obtained by the laser sensor 147. [ The position can be estimated.

로컬 경로보정모듈(181)은 일정한 시간간격으로 레이저 센서(147)가 이동 로봇(100)의 본체 주변을 스캔하여, 복수의 레이저 스캔정보를 획득하도록 상기 레이저 센서(147)를 제어할 수 있다.The local path correction module 181 can control the laser sensor 147 so that the laser sensor 147 scans the periphery of the main body of the mobile robot 100 at a predetermined time interval to acquire a plurality of laser scan information.

이로써, 도 3c를 참조하면, 로컬 경로보정모듈(181)은 제1 시점(t-1)에서 획득된 제1 레이저 스캔정보(310a)와 제2 시점(t)에서 획득된 제2 레이저 스캔정보(310b) 사이의 유클리디안(Euclidean) 거리가 가장 가까운 두 점을 검출할 수 있다. 아울러, 로컬 경로보정모듈(181)은 상기 검출된 두 점을 일치점(Corresponding point)으로 설정할 수 있다.3C, the local path correction module 181 calculates the first laser scan information 310a obtained at the first point-in-time t-1 and the second laser scan information 310a obtained at the second point- The Euclidean distance between the two points 310a and 310b can be detected. In addition, the local path correction module 181 may set the detected two points as a corresponding point.

다음으로, 로컬 경로보정모듈(181)은 상기 설정된 일치점들의 위치를 동일하게 만드는 병진운동량과 회전운동량과 관련된 정보를 검출할 수 있다. 로컬 경로보정모듈(181)은 제1 레이저 스캔정보(310a)의 일치점과 제2 레이저 스캔정보(310b)의 일치점 사이의 거리가 기준치 이하로 감소할 때의 병진운동량과 회전운동량을 이용하여, 이동 로봇(100)의 변위와 관련된 정보를 검출할 수 있다. 이로써, 로컬 경로보정모듈(181)은 이동 로봇(100)이 이동을 시작한 지점과 관련된 위치정보와 상기 검출된 변위를 이용하여 이동 로봇(100)의 현재 지점과 관련된 위치정보를 검출할 수 있다.Next, the local path correction module 181 can detect information related to the translational momentum and the rotational momentum that make the positions of the set points coincident. The local path correction module 181 calculates the movement amount of the first laser scanning information 310a by using the translational momentum and the rotational momentum when the distance between the coincidence point of the first laser scanning information 310a and the coincidence point of the second laser scanning information 310b decreases below the reference value Information related to the displacement of the robot 100 can be detected. Thus, the local path correction module 181 can detect position information related to the current point of the mobile robot 100 using the position information related to the point where the mobile robot 100 starts to move and the detected displacement.

예를 들어, 로컬 경로보정모듈(181)은 ICP(Iterative Closest Point) 알고리즘을 이용하여, 이동 로봇(100)의 위치를 추정할 수 있다.For example, the local path correction module 181 can estimate the position of the mobile robot 100 using an ICP (Iterative Closest Point) algorithm.

도 3d를 참조하면, 이동 로봇(100)의 로컬 경로보정모듈(181)은 작동 영역(1000) 내에서 주행하면서, 복수의 프레임(320a, 320b, 320c, 320d, 320e)을 생성할 수 있다.3D, the local path correction module 181 of the mobile robot 100 may generate a plurality of frames 320a, 320b, 320c, 320d, and 320e while traveling within the operation area 1000. [

이하에서 프레임이란 복수의 지점마다 대응되는 이미지와 레이저 스캔 정보로 형성된 데이터의 단위를 의미한다. 아울러, 복수의 프레임 중 일부는 키 프레임으로 설정될 수 있다.Hereinafter, a frame means a unit of data formed by an image and laser scan information corresponding to each of a plurality of points. In addition, some of the plurality of frames may be set as key frames.

즉, 도 3d를 참조하면, 로컬 경로보정모듈(181)은 이동 로봇(100)이 작동 영역(1000) 내에서 주행하면서, 본체의 외부 환경과 관련된 이미지를 촬영하고, 본체로부터 측정 범위 내에 존재하는 물체들을 스캔하여 레이저 스캔 정보를 생성함으로써, 복수의 프레임(320a, 320b, 320c, 320d, 320e)을 생성할 수 있다. 아울러, 제어부(180)는 프레임(320a)와 프레임(320e)을 키 프레임으로 설정할 수 있다.3D, the local path correction module 181 photographs an image related to the external environment of the main body while the mobile robot 100 travels within the operation area 1000, By scanning objects and generating laser scan information, a plurality of frames 320a, 320b, 320c, 320d, and 320e can be generated. In addition, the controller 180 may set the frame 320a and the frame 320e as key frames.

이와 같이 이동 로봇(100)이 주행하면서 복수의 프레임을 생성하는 경우, 로컬 경로보정모듈(181)은 일 프레임과 그 다음에 생성된 프레임을 이용하여 이동 로봇(100)의 위치 변화량을 산출할 수 있다. 로컬 경로보정모듈(181)은 복수의 프레임에 대해 순차적으로 위치 변화량을 산출할 수 있다.When the mobile robot 100 generates a plurality of frames in this manner, the local path correction module 181 can calculate the position change amount of the mobile robot 100 using one frame and the frame generated next have. The local path correction module 181 can sequentially calculate the position change amount for a plurality of frames.

따라서, 도 3d를 참조하면, 프레임(320d)와 프레임(320e) 사이에서 위치 변화량을 산출할 때는, 그 전 프레임에서 위치 변화량을 산출할 때 발생된 오차가 누적되어, 로컬 경로보정모듈(181)이 프레임(320e)에 대해 최종적으로 이동 로봇(100)의 위치를 검출하는 경우, 상대적으로 큰 오차가 발생할 수 있는 문제점이 있다.3D, when calculating the position change amount between the frame 320d and the frame 320e, the errors generated when calculating the position change amount in the previous frame are accumulated, and the local path correction module 181 When the position of the mobile robot 100 is finally detected with respect to the frame 320e, a relatively large error may occur.

본 발명에서는 이와 같은 오차를 최소화하기 위한 방법으로서, 키 프레임에 대응되는 레이저 스캔 정보와, 현재 프레임의 레이저 스캔 정보를 비교하여 위치 변화량을 산출할 수 있다.In the present invention, as a method for minimizing such an error, the position change amount can be calculated by comparing the laser scan information corresponding to the key frame with the laser scan information of the current frame.

즉, 도 3d에 도시된 것과 같이, 로컬 경로보정모듈(181)은 어느 하나의 키 프레임(320a)이 설정된 후, 그 다음 키 프레임(320e)이 설정되기까지, 상기 키 프레임(320a)과 현재 프레임을 비교하여, 이동 로봇(100)의 위치 변화량을 산출할 수 있다.That is, as shown in FIG. 3D, the local path correction module 181 determines whether or not the key frame 320a and the current key frame 320c are present after setting any one key frame 320a, It is possible to calculate the position change amount of the mobile robot 100 by comparing the frames.

일 실시예에서, 로컬 경로보정모듈(181)은 설정된 키 프레임과 현재 프레임 사이의 거리가 기준 거리 이상 증가하면, 현재 프레임을 다음 키 프레임으로 설정할 수 있다.In one embodiment, the local path correction module 181 may set the current frame to the next key frame if the distance between the set key frame and the current frame increases beyond the reference distance.

다른 실시예에서, 로컬 경로보정모듈(181)은 임의의 키 프레임이 설정된 후, 기 설정된 개수의 프레임이 생성되면, 마지막으로 생성된 프레임을 다음 키 프레임으로 설정할 수 있다.In another embodiment, the local path correction module 181 may set the last generated frame to the next key frame if a predetermined number of frames are generated after an arbitrary key frame is set.

이하의 도 3e에서는 글로벌 경로보정모듈(182)이 이동 로봇(100)의 위치 정보 또는 경로 정보를 수정하는 일 실시예가 설명된다.3E, an embodiment in which the global path correction module 182 modifies the position information or the path information of the mobile robot 100 will be described.

글로벌 경로보정모듈(182)의 장소 인식유닛(182b)은 카메라 센서를 이용하여 이동 로봇(100)의 현재 위치에 대해 장소인식을 수행할 수 있다.The location recognition unit 182b of the global path correction module 182 can perform the location recognition for the current position of the mobile robot 100 using the camera sensor.

구체적으로, 장소 인식유닛(182b)은 복수의 위치와 관련된 복수의 이미지를 포함하여 형성된 데이터베이스와, 현재 카메라 센서에서 생성된 이미지를 비교하여 유사성 검사를 수행할 수 있다.Specifically, the place recognizing unit 182b can perform a similarity check by comparing an image generated at a current camera sensor with a database formed by including a plurality of images related to a plurality of positions.

장소 인식유닛(182b)은 현재 카메라 센서에서 생성된 이미지로부터 복수의 특징점(Features)을 추출할 수 있다(S314).The place recognition unit 182b can extract a plurality of feature points from the image generated by the current camera sensor (S314).

예를 들어, 장소 인식유닛(182b)은 임의의 이미지를 이용하여 장소인식을 수행하기 위해, OpenFABMAP과 같은 오픈 소스를 이용할 수 있다.For example, the location recognition unit 182b may use an open source such as OpenFABMAP to perform location recognition using any image.

장소 인식유닛(182b)은 추출된 특징점에 근거하여, 현재 카메라 센서에서 생성된 이미지에 대응되는 기술자(Descriptor)를 생성할 수 있다(S324).The place recognition unit 182b can generate a descriptor corresponding to the image generated by the current camera sensor based on the extracted feature point (S324).

즉, 장소 인식유닛(182b)은 추출된 특징점을 클러스터링(Clustering)하고, 클러스터링 결과로 생성된 복수의 클러스터에 각각 대응되는 기술자(Descriptor)를 생성할 수 있다.That is, the location recognizing unit 182b may perform clustering of the extracted minutia points and generate a descriptor corresponding to each of the plurality of clusters generated as the clustering result.

장소 인식유닛(182b)은 복수의 장소정보와, 상기 장소정보에 대응되는 이미지 정보로 형성되는 데이터베이스 및 상기 생성된 기술자를 이용하여, 상기 생성된 기술자에 대응되는 위치에 재방문하는 것인지 여부를 판단할 수 있다(S334).The place recognizing unit 182b judges whether or not to return to a location corresponding to the generated descriptor by using a database formed by a plurality of place information, image information corresponding to the place information, and the generated descriptor (S334).

장소 인식유닛(182b)은 이동 로봇(100)이 상기 생성된 기술자에 대응되는 위치에 처음 방문하는 것으로 판단되는 경우, 상기 생성된 기술자를 상기 데이터베이스에 업데이트 할 수 있다(S344).If it is determined that the mobile robot 100 first visits the location corresponding to the generated descriptor, the location recognition unit 182b may update the generated descriptor to the database (S344).

장소 매칭유닛(182c)은 장소 인식유닛(182b)에서 이동 로봇(100)이 상기 생성된 기술자에 대응되는 위치에 재방문하는 것으로 판단되는 경우, 상기 데이터베이스에 저장된 프레임의 레이저 스캔 정보와, 현재 생성된 레이저 스캔 정보를 매칭시킬 수 있다(S305). 이하에서는 이러한 장소 매칭유닛(182c)의 기능을 장소 정합 또는 장소 매칭이라고 정의한다.When it is determined that the mobile robot 100 is to return to the position corresponding to the generated descriptor in the place recognizing unit 182b, the location matching unit 182c compares the laser scan information of the frame stored in the database, (Step S305). Hereinafter, the function of this place matching unit 182c is defined as a place match or place match.

즉, 장소 매칭유닛(182c)은 장소 인식유닛(182b)에서 수행된 장소 인식 결과, 상기 선택된 프레임에 대응되는 위치가 다른 프레임에 대응되는 위치와 일치하여 재방문하는 것으로 판단되는 경우, 상기 선택된 프레임의 레이저 스캔 정보와 상기 다른 프레임의 레이저 스캔 정보를 서로 정합시킬 수 있다.That is, when the location matching unit 182c determines that the location corresponding to the selected frame matches the location corresponding to another frame, the location matching unit 182c determines that the selected frame The laser scanning information of the other frame can be matched with the laser scanning information of the other frame.

아울러, 글로벌 경로보정모듈(182)에 포함되는 매핑유닛(182d)은 선택된 프레임의 레이저 스캔 정보와 상기 다른 프레임의 레이저 스캔 정보의 정합 결과에 근거하여, 상기 청소기의 경로를 수정할 수 있다.In addition, the mapping unit 182d included in the global path correction module 182 can modify the path of the cleaner based on the matching result between the laser scan information of the selected frame and the laser scan information of the other frame.

구체적으로, 도 3f에서는 장소 매칭유닛(182c)이 장소 정합을 수행하는 일 실시예가 설명된다.Specifically, in Fig. 3F, an embodiment in which the place matching unit 182c performs the place matching will be described.

도 3f에 도시된 것과 같이, 이동 로봇(100)이 주행 시작 지점에서 생성한 제1 프레임과, 주행 종료 지점에서 생성한 제n 프레임이 서로 동일한 장소인 것으로 판별되면, 장소 매칭유닛(182c)은 제1 프레임의 레이저 스캔정보(330a)와, 제n 프레임의 레이저 스캔정보(330b)를 매칭시킬 수 있다.If it is determined that the first frame generated by the mobile robot 100 at the travel start point and the n-th frame generated at the travel end point are the same place as shown in Fig. 3F, the place matching unit 182c The laser scan information 330a of the first frame and the laser scan information 330b of the nth frame can be matched.

장소 매칭유닛(182c)은 장소 인식유닛(182b)에서 이동 로봇(100)이 상기 생성된 기술자에 대응되는 위치에 재방문하는 것으로 판단되면, 제1 프레임의 레이저 스캔정보(330a)와, 제n 프레임의 레이저 스캔정보(330b) 사이의 구속 조건과 관련된 정보를 검출할 수 있다. 예를 들어, 상기 구속 조건과 관련된 정보는 제1 프레임의 레이저 스캔정보(330a)와 제n 프레임의 레이저 스캔정보(330b) 사이의 상대변위 값을 포함할 수 있다.When the location matching unit 182c determines that the mobile robot 100 is to return to the position corresponding to the generated descriptor in the place recognizing unit 182b, the laser scanning information 330a of the first frame, Information relating to the constraint between the laser scanning information 330b of the frame can be detected. For example, the information related to the constraint condition may include a relative displacement value between the laser scan information 330a of the first frame and the laser scan information 330b of the nth frame.

장소 매칭유닛(182c)은 위와 같이 구속 조건이 설정되면, 제n 프레임 전에 생성된 복수의 프레임에 포함된 정보를 수정할 수 있다. 도 3f를 참조하면, 장소 매칭유닛(182c)은 제1 내지 제n 프레임 중 일부에 대응되는 레이저 스캔 정보 또는 위치 정보를 수정할 수 있다.When the constraint condition is set as above, the place matching unit 182c can modify the information included in the plurality of frames generated before the n-th frame. Referring to FIG. 3F, the location matching unit 182c may modify the laser scanning information or the position information corresponding to a part of the first to n-th frames.

따라서, 이동 로봇(100)의 제어부(180) 또는 로컬 경로보정모듈(181)은 이동 중에 1차적으로 복수의 프레임과 관련된 위치 정보(340a)를 생성할 수 있다. Accordingly, the control unit 180 or the local path correction module 181 of the mobile robot 100 can generate the position information 340a related to a plurality of frames primarily on the move.

또한, 장소 인식유닛(182b)에 의해 제1 프레임에 대응되는 위치와, 제N 프레임에 대응되는 위치가 동일한 것으로 판단되면, 장소 매칭유닛(182c)은 제1 프레임의 레이저 스캔정보(330a)와 제N 프레임의 레이저 스캔정보(330b)를 매칭시킬 수 있다.If it is determined by the place recognizing unit 182b that the position corresponding to the first frame is the same as the position corresponding to the Nth frame, the place matching unit 182c compares the laser scan information 330a of the first frame The laser scanning information 330b of the Nth frame can be matched.

매핑유닛(182d)은 장소 매칭유닛(182c)에 의해 수행된 매칭결과에 근거하여, 상기 1차적으로 생성된 위치 정보(340a)를 수정함으로써, 2차적으로 복수의 프레임과 관련된 위치 정보(340b)를 생성할 수 있다. 즉, 매핑유닛(182d)은 이동 로봇(100)이 지나온 경로와 관련된 정보를 수정할 수 있다.The mapping unit 182d may modify the primarily generated position information 340a based on the matching result performed by the place matching unit 182c so that the position information 340b related to the plurality of frames is obtained, Lt; / RTI > That is, the mapping unit 182d can modify the information related to the path that the mobile robot 100 has traveled.

도 3f에서 매핑유닛(182d)에 의해 2차적으로 생성된 위치 정보(340b)는 도 2a에 도시된 이동 로봇(100)의 작동 영역(1000)을 정의하는 폐곡선 중 일부 지점과 대응될 수 있다.The position information 340b generated secondarily by the mapping unit 182d in Fig. 3F may correspond to some point in the closed curve defining the operating region 1000 of the mobile robot 100 shown in Fig. 2A.

이하의 도 4a 내지 도 4d에서는 본 발명의 이동 로봇이 카메라 센서와 레이저 센서를 이용하여, 이동 로봇의 현재 위치를 판별하고, 경로를 보정하는 방법이 설명된다.4A to 4D, a method of determining the current position of the mobile robot and correcting the path using the camera sensor and the laser sensor according to the present invention will be described.

도 4a를 참조하면, 이동 로봇(100)은 주행시작지점(P1)에서 주행을 시작하면서, 소정의 시간 간격마다 이미지 및 레이저 스캔 정보를 획득할 수 있다. 즉, 제어부(180)는 이동 로봇(100)의 본체가 제1 주행 경로(M1)를 따라 이동하는 동안, 소정의 시간 간격마다 카메라 센서와 레이저 센서를 작동시켜, 상기 본체의 외부환경과 관련된 이미지를 생성시키고, 상기 본체의 주변에 위치하는 물체에 의해 형성되는 레이저 스캔 정보를 생성시킬 수 있다.Referring to FIG. 4A, the mobile robot 100 can acquire image and laser scan information at predetermined time intervals while starting to travel at the starting point P1. That is, the control unit 180 operates the camera sensor and the laser sensor at predetermined time intervals while the main body of the mobile robot 100 moves along the first travel path M1, And generate laser scanning information formed by an object located in the periphery of the main body.

제어부(180)는, 카메라 센서에서 생성되는 이미지를 이용하여, 이동 로봇(100)의 본체의 외부환경에 포함된 이미지 패턴과 관련된 정보를 추출할 수 있다.The control unit 180 can extract information related to the image pattern included in the external environment of the main body of the mobile robot 100 using the image generated by the camera sensor.

제어부(180)는, 레이저 센서에서 생성되는 레이저 스캔 정보를 이용하여, 본체 주위에 존재하는 물체에 의해 형성되는 지형적 형태와 관련된 정보를 추출할 수도 있다.The control unit 180 may extract information related to the topographic form formed by the objects existing around the main body using the laser scanning information generated by the laser sensor.

예를 들어, 작동영역(400)은 제1 방(ROOM 1) 및 제2 방(ROOM 2)을 포함할 수 있으며, 제1 방의 입구와 제2 방의 입구에는 각각 제1 문(401)과, 제2 문(403)이 설치될 수 있다. 아울러, 제1 문(402)의 일면에는 인식 가능한 이미지 패턴이 표시된 패턴부재(402)가 부착될 수 있다. 이 경우, 주행시작지점(P1)은 제1 방 내부에 위치할 수 있다.For example, the operation area 400 may include a first room ROOM 1 and a second room ROOM 2, and the first door 401 and the second door may have a first door 401 and a second door 402, respectively. A second door 403 may be provided. In addition, a pattern member 402 having a recognizable image pattern may be attached to one side of the first door 402. In this case, the travel starting point P1 may be located inside the first room.

도 4a에 도시된 것과 같이, 이동 로봇(100)의 통신부(110)는 주행 중에, 주행시작지점(P1)으로 복귀하라는 명령을 포함하는 복귀 신호를 수신할 수 있으며, 복귀 신호를 수신한 지점을 복귀지점(P2)으로 정의한다.4A, the communication unit 110 of the mobile robot 100 can receive a return signal including an instruction to return to the travel start point P1 during traveling, and the point at which the return signal is received And is defined as a return point P2.

즉, 통신부(110)는 이동 로봇 또는 청소기의 작동과 관련된 신호를 수신할 수 있으며, 제어부(180)는 통신부가 이동 로봇 또는 청소기를 주행 시작 지점으로 복귀시키기 위한 신호를 수신하면, 이동 로봇 또는 청소기를 주행 시작 지점으로 복귀시키도록 구동부(130)를 제어할 수 있다.That is, the communication unit 110 can receive a signal related to the operation of the mobile robot or the vacuum cleaner. When the communication unit receives a signal for returning the mobile robot or the vacuum cleaner to the start point, The driving unit 130 may be controlled to return to the driving start point.

메모리(170)는 상기 카메라 센서에 의해 촬영된 이미지, 상기 이미지로부터 인식된 이미지 패턴과 관련된 정보, 상기 레이저 센서에 의해 생성된 레이저 스캔 정보, 상기 레이저 스캔정보로부터 추출된 이동 로봇(100)의 주변의 지형적 형태와 관련된 정보 및 상기 이미지와 레이저 스캔 정보가 생성되는 위치 정보를 포함하여 형성되는 데이터베이스를 저장할 수 있다.The memory 170 stores the image captured by the camera sensor, the information related to the image pattern recognized from the image, the laser scan information generated by the laser sensor, the periphery of the mobile robot 100 extracted from the laser scan information, And information related to the topographic shape of the laser scan information and position information on the image and the laser scan information are generated.

제어부(180)는 기 설정된 주기로 카메라 센서를 동작시키고, 상기 기 설정된 주기마다 상기 카메라 센서에 의해 생성된 이미지와, 상기 이미지로부터 추출되는 이미지 패턴과 관련된 정보를 상기 데이터베이스에 업데이트 시킬 수 있다.The control unit 180 may operate the camera sensor at a predetermined period and update the database with information related to the image generated by the camera sensor and the image pattern extracted from the image every predetermined period.

제어부(180)는 기 설정된 주기로 레이저 센서를 동작시키고, 상기 기 설정된 주기마다 상기 레이저 센서에 의해 생성된 레이저 스캔 정보와, 상기 레이저 스캔 정보로부터 추출되는 지형적 형태와 관련된 정보를 상기 데이터베이스에 업데이트 시킬 수 있다.The control unit 180 may operate the laser sensor at a predetermined cycle and update the database with information related to the laser scan information generated by the laser sensor and the geometric shape extracted from the laser scan information at the predetermined period have.

아울러 제어부(180)는 상기 카메라 센서 및 레이저 센서가 동작된 시점에서의 상기 이동 로봇(100)의 위치와 관련된 정보를 상기 데이터베이스에 업데이트 시킬 수 있다.In addition, the control unit 180 may update the database with information related to the position of the mobile robot 100 at the time the camera sensor and the laser sensor are operated.

또한, 제어부(180)는, 주행 시작 지점(P1)으로 복귀하는 도중에 추출된 이미지 패턴 및 지형적 형태와 관련된 정보와 상기 데이터베이스를 비교하여, 상기 주행 시작 지점(P1)으로 복귀하기 위한 경로와 관련된 정보를 설정할 수 있다.The control unit 180 also compares the database with the information related to the extracted image pattern and the geographical feature during the return to the start point P1 to determine the information related to the path for returning to the start point P1 Can be set.

제어부(180)는, 주행 시작 지점(P1)으로 복귀하는 도중에 일 지점에서 추출된 이미지 패턴과 관련된 정보와, 상기 데이터베이스에 저장된 이미지 패턴과 관련된 정보 중 상기 일 지점에 대응되는 이미지 패턴과 관련된 정보가 일치하지 않으면, 상기 주행 시작 지점(P1)으로 복귀하기 위한 경로를 수정할 수 있다.The control unit 180 determines whether information related to the image pattern extracted at one point during the return to the travel start point P1 and information related to the image pattern corresponding to the one point among the information related to the image pattern stored in the database is If they do not match, the route for returning to the travel start point P1 can be modified.

또한, 제어부(180)는 주행 시작 지점(P1)으로 복귀하는 도중에 일 지점에서 추출된 지형적 형태와 관련된 정보와, 상기 데이터베이스에 저장된 지형적 형태와 관련된 정보 중 상기 일 지점에 대응되는 지형적 형태와 관련된 정보가 일치하지 않으면, 주행 시작 지점(P1)으로 복귀하기 위한 경로를 수정할 수 있다.In addition, the control unit 180 may store information related to the geographical shape extracted at one point in the course of returning to the travel start point P1 and information related to the geographical shape corresponding to the one point among the information related to the geographical shape stored in the database It is possible to modify the route for returning to the travel start point P1.

한편, 제어부(180)는 주행 시작 지점(P1)으로 복귀하는 도중에 일 지점에서 추출된 이미지 패턴과 상기 데이터베이스에 저장된 이미지 패턴 중 어느 하나가 일치하는지 여부를 판단할 수 있다. 판단결과 일치하면, 제어부(180)는 상기 어느 하나의 이미지 패턴과 대응되는 지형적 형태와, 상기 본체의 현재 위치에서 추출된 지형적 형태를 비교하고, 상기 비교결과에 근거하여, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정할 수 있다.On the other hand, the controller 180 may determine whether any one of the image patterns extracted at one point and the image patterns stored in the database coincide with each other during the return to the driving start point P1. If it is determined that there is a match, the controller 180 compares the topographical shape corresponding to any one of the image patterns with the topographical shape extracted from the current position of the main body, and based on the comparison result, The path to be updated can be modified.

아울러, 제어부(180)는 주행 시작 지점(P1)으로 복귀하는 도중에 일 지점에서 생성된 레이저 스캔 정보와 상기 데이터베이스에 저장된 레이저 스캔 정보 중 어느 하나가 일치하는지 여부를 판단할 수 있다. 판단결과 일치하면, 제어부(180)는 상기 어느 하나의 레이저 스캔 정보과 대응되는 이미지 패턴과, 상기 본체의 현재 위치에서 추출된 이미지 패턴을 비교하고, 상기 비교결과에 근거하여, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정할 수 있다.In addition, the controller 180 can determine whether any one of the laser scan information generated at one point and the laser scan information stored in the database coincide with the return to the start point P1. The control unit 180 compares the image pattern corresponding to any one of the laser scan information with the image pattern extracted from the current position of the main body and returns to the start point of the travel based on the comparison result The path to be updated can be modified.

따라서, 도 4a를 참조하면, 이동 로봇(100)이 복귀지점(P2)으로부터 주행시작지점(P1)으로 복귀하기 위해, 제2 주행 경로(M2)를 따라 이동하는 동안, 제어부(180)는 카메라 센서에 의해 생성된 이미지와, 레이저 센서에 의해 생성된 레이저 스캔 정보를 함께 이용하여, 이동 로봇(100)의 경로를 결정할 수 있다.4A, while the mobile robot 100 moves along the second travel route M2 in order to return from the return point P2 to the travel start point P1, The path of the mobile robot 100 can be determined using the image generated by the sensor and the laser scan information generated by the laser sensor together.

즉, 이동 로봇(100)의 제2 주행 경로(M2)를 따라 이동하는 동안, 제어부(180)는 레이저 스캔 정보로부터 지형적 형태와 관련된 정보를 검출할 수 있고, 이미지로부터 이미지 패턴을 추출할 수 있다.That is, while moving along the second travel path M2 of the mobile robot 100, the controller 180 can detect information related to the topographic form from the laser scan information and extract the image pattern from the image .

예를 들어, 도 4a를 참조하면, 지형적 형태와 관련된 정보는 제1 문(401)과 제2 문(403)의 배치된 위치, 제1 및 제2 방을 형성하는 벽의 형태와 관련된 정보를 포함할 수 있다.For example, referring to FIG. 4A, information related to the topographic form may include information related to the location of the first door 401 and the second door 403, the type of wall forming the first and second rooms, .

또 다른 예를 들어, 도 4a를 참조하면, 상기 추출된 이미지 패턴은, 패턴부재(401)의 일면에 표시된 이미지 패턴일 수 있다.For example, referring to FIG. 4A, the extracted image pattern may be an image pattern displayed on one side of the pattern member 401.

한편, 도 4b와 도 4a를 비교하면, 이동 로봇(100)이 제1 주행 경로(M1)를 따라 이동한 후에, 패턴부재(402)의 위치가 제1 문(401)에서 제2 문(403)으로 변경되었다.4B and 4A, when the mobile robot 100 moves along the first travel path M1, the position of the pattern member 402 moves from the first door 401 to the second door 403 ).

이 경우, 제어부(180)가 카메라 센서만을 이용하여 주행시작지점(P1)까지 복귀하기 위한 경로를 설정한다면, 이동 로봇(100)이 제3 지점(P3)을 통과할 때 제어부(180)는 이동 로봇(100)의 위치 정보를 검출함에 있어서 오차를 발생시킬 수 있다.In this case, if the control unit 180 sets a path for returning to the travel start point P1 using only the camera sensor, when the mobile robot 100 passes through the third point P3, the control unit 180 moves It is possible to generate an error in detecting the position information of the robot 100.

즉, 제어부(180)는 제3 주행경로(M3)를 따라 복귀하는 중에 제3 지점(P3)에서 촬영된 이미지로부터 제2 문(403)에 부착된 패턴부재(402)에 표시된 이미지 패턴을 인식하고, 인식결과에 따라 제2 방(ROOM 2)을 제1 방(ROOM 1)으로 오인하게 된다.That is, the control unit 180 recognizes the image pattern displayed on the pattern member 402 attached to the second door 403 from the image photographed at the third point P3 while returning along the third travel path M3 And the second room ROOM 2 is mistaken as the first room ROOM 1 according to the recognition result.

한편, 본 발명에 따르는 이동 로봇(100)의 제어부(180)는 카메라 센서와 레이저 센서를 함께 이용하여 복귀 경로를 설정하므로, 도 4b와 같은 오차를 방지할 수 있다.Meanwhile, the control unit 180 of the mobile robot 100 according to the present invention sets the return path by using the camera sensor and the laser sensor together, so that the error as shown in FIG. 4B can be prevented.

즉, 이동 로봇(100)이 제3 지점(P3)을 통과할 때, 제어부(180)가 제2 문(403)에 부착된 패턴부재(402)에 표시된 이미지 패턴을 인식하더라도, 상기 제3 지점(P3)에 대응되는 레이저 스캔 정보를 고려하여, 제2 방(ROOM 2)을 제1 방(ROOM 1)과 다른 장소로 판별할 수 있다.That is, even if the control unit 180 recognizes the image pattern displayed on the pattern member 402 attached to the second door 403 when the mobile robot 100 passes through the third point P3, The second room ROOM 2 can be distinguished from the first room ROOM 1 in consideration of the laser scanning information corresponding to the third room P3.

한편, 도 4c와 도 4a를 비교하면, 이동 로봇(100)이 제1 주행 경로(M1)를 따라 이동한 후에, 제3 문(404)이 추가되었다.4C and FIG. 4A, the third door 404 is added after the mobile robot 100 moves along the first travel route M1.

이 경우, 제어부(180)가 레이저 센서만을 이용하여 주행시작지점(P1)까지 복귀하기 위한 경로를 설정한다면, 이동 로봇(100)이 제4 지점(P4)을 통과할 때 제어부(180)는 이동 로봇(100)의 위치 정보를 검출함에 있어서 오차를 발생시킬 수 있다.In this case, when the control unit 180 sets a path for returning to the travel start point P1 using only the laser sensor, when the mobile robot 100 passes through the fourth point P4, the control unit 180 moves It is possible to generate an error in detecting the position information of the robot 100.

즉, 제어부(180)는 제3 주행경로(M3)를 따라 복귀하는 중에 제4 지점(P4)에서 생성된 레이저 스캔정보로부터 제2 문(403)과 제3 문(404)에 의해 형성되는 지형적 형태와 관련된 정보를 추출하고, 상기 지형적 형태에 따라 제2 방(ROOM 2)을 제1 방(ROOM 1)으로 오인하게 된다.That is, from the laser scanning information generated at the fourth point P4 during the return along the third travel path M3, the control unit 180 determines whether the topological information And the second room ROOM 2 is mistaken as the first room ROOM 1 according to the geographical shape.

반면, 본 발명에 따르는 이동 로봇(100)의 제어부(180)는 카메라 센서와 레이저 센서를 함께 이용하여 복귀 경로를 설정하므로, 도 4c와 같은 오차를 방지할 수 있다.On the other hand, the control unit 180 of the mobile robot 100 according to the present invention sets the return path by using the camera sensor and the laser sensor together, thereby preventing the error as shown in FIG. 4C.

즉, 이동 로봇(100)이 제4 지점(P4)을 통과할 때, 제어부(180)가 제2 문(403)과 제3 문(404)에 의해 형성되는 지형적 형태와 관련된 정보를 추출하더라도, 상기 제4 지점(P4)에 대응되는 이미지 또는 상기 이미지로부터 인식되는 이미지 패턴을 고려하여, 제2 방(ROOM 2)을 제1 방(ROOM 1)과 다른 장소로 판별할 수 있다.That is, even when the control unit 180 extracts information related to the topography formed by the second door 403 and the third door 404 when the mobile robot 100 passes through the fourth point P4, The second room ROOM 2 may be distinguished from the first room ROOM 1 in consideration of the image corresponding to the fourth point P4 or the image pattern recognized from the image.

한편, 도 4d와 도 4a를 비교하면, 이동 로봇(100)이 제1 주행 경로(M1)를 따라 이동한 후에, 패턴부재(402)의 위치가 제1 문(401)에서 제2 문(403)으로 변경되고, 제3 문(404)이 추가되었다.4D and FIG. 4A, when the mobile robot 100 moves along the first travel path M1, the position of the pattern member 402 moves from the first door 401 to the second door 403 ), And the third statement 404 is added.

도 4d의 경우, 본원발명의 제어부(180)가 카메라 센서와 레이저 센서를 함께 이용한다고 하더라도, 제5 지점(P5)에서 인식된 이미지 패턴과 레이저 스캔정보가, 제1 주행 경로(M1)를 따라 이동하는 중에 제1 방(ROOM 1)에서 나온 후 인식된 이미지 패턴과 레이저 스캔정보와 유사할 수 있다.4D, even if the control unit 180 of the present invention uses the camera sensor and the laser sensor together, the image pattern and the laser scan information recognized at the fifth point P5 are moved along the first travel path M1 It may be similar to the recognized image pattern and laser scan information after leaving the first room ROOM 1 during movement.

따라서, 본원발명의 일 실시예에 따르면, 제어부(180)는 카메라 센서와 레이저 센서를 사용하여 이동 로봇(100)의 위치나 경로 정보를 설정하되, 제어부(180)는 상기 설정된 위치나 경로 정보를 센싱부(140)에 포함된 외부 신호 감지 센서(141), 전방 감지 센서(142), 낭떠러지 감지 센서(143) 등을 이용하여 보정하는 것이 바람직하다.Accordingly, in accordance with an embodiment of the present invention, the control unit 180 sets the position and path information of the mobile robot 100 using the camera sensor and the laser sensor, It is preferable to correct the signal by using an external signal detection sensor 141, a front detection sensor 142, a cliff detection sensor 143 or the like included in the sensing unit 140.

본 발명에 따르면, 청소기 주변을 촬영한 이미지와 함께 레이저 스캔 정보를 이용하여 청소기의 위치를 보다 정확하게 획득할 수 있는 효과가 도출되며, 계획된 경로대로 주행할 수 있으므로 청소기 사용자의 편의가 향상된다.According to the present invention, it is possible to acquire the position of the cleaner more precisely by using the laser scan information together with the image of the periphery of the cleaner, and it is possible to travel in a planned route, thereby improving convenience of the cleaner user.

또한, 본 발명에 따르면, 청소기가 현재 위치를 검출하거나 주행방향을 결정함에 있어서, 카메라 센서나 레이저 센서 중 어느 하나에만 의존하지 않고 서로 다른 두 개 이상의 센서를 이용함으로써, 상기 카메라 센서의 단점과 레이저 센서의 단점을 극복할 수 있는 효과가 도출된다.In addition, according to the present invention, in the case where the cleaner detects the current position or determines the running direction, by using two or more different sensors without depending only on one of the camera sensor and the laser sensor, It is possible to overcome the disadvantages of the sensor.

또한, 본 발명에 따르면, 청소기가 현재 위치를 검출하거나 주행방향을 결정함에 있어서, 카메라 센서와 레이저 센서를 함께 이용함으로써, 상기 카메라 센서와 레이저 센서에서 각각 발생되는 오차에 의한 영향을 감소시킬 수 있다.In addition, according to the present invention, when the cleaner detects the current position or determines the traveling direction, the camera sensor and the laser sensor are used together to reduce the influence of errors generated in the camera sensor and the laser sensor, respectively .

또한, 본 발명에 따르면, 폐곡선을 따라 주행하는 청소기의 경우, 상기 폐곡선을 한 바퀴 순환할 때마다 청소기의 위치나 경로 정보를 조정함으로써, 청소기와 바닥 사이의 슬립이 발생하거나 청소기의 센서에서 오차가 발생하더라도, 청소기의 위치나 경로 정보를 정확하게 검출할 수 있는 효과가 도출된다.According to the present invention, in the case of a vacuum cleaner traveling along a closed curve, the position or path information of the vacuum cleaner is adjusted each time the closed curve is circulated one time, thereby causing a slip between the vacuum cleaner and the floor, It is possible to accurately detect the position and path information of the cleaner.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

Claims (17)

본체;
상기 본체를 이동시키기 위한 구동력을 제공하는 구동부;
상기 본체의 외부환경과 관련된 이미지를 생성하는 카메라 센서;
상기 본체 주위에 존재하는 물체를 스캔하여, 레이저 스캔 정보를 생성하는 레이저 센서;
상기 카메라 센서에서 생성되는 이미지를 이용하여, 상기 외부환경에 포함된 이미지 패턴과 관련된 정보를 추출하고,
상기 레이저 센서에서 생성되는 레이저 스캔 정보를 이용하여, 상기 본체 주위에 존재하는 물체에 의해 형성되는 지형적 형태와 관련된 정보를 추출하며,
상기 이미지 패턴과 관련된 정보와, 상기 지형적 형태와 관련된 정보를 이용하여 상기 본체의 위치 및 경로와 관련된 정보를 수정하는 제어부 및
상기 이미지, 상기 이미지 패턴과 관련된 정보, 상기 레이저 스캔 정보, 상기 지형적 형태와 관련된 정보 및 상기 이미지와 레이저 스캔 정보가 생성되는 위치 정보로 형성되는 데이터베이스를 저장하는 저장부를 포함하고,
상기 제어부는,
기 설정된 주기로 상기 카메라 센서 및 레이저 센서를 동작시키고,
상기 기 설정된 주기마다 상기 카메라 센서에 의해 생성된 이미지와, 상기 이미지로부터 추출되는 이미지 패턴과 관련된 정보와, 상기 레이저 센서에 의해 생성된 레이저 스캔 정보와, 상기 레이저 스캔 정보로부터 추출되는 지형적 형태와 관련된 정보와, 상기 카메라 센서 및 레이저 센서가 동작되는 위치와 관련된 정보를 상기 데이터베이스에 업데이트 시키는 것을 특징으로 하는 자율주행을 수행하는 청소기.
main body;
A driving unit for providing driving force for moving the main body;
A camera sensor for generating an image associated with the external environment of the body;
A laser sensor for scanning an object existing around the main body to generate laser scanning information;
Extracting information related to an image pattern included in the external environment using an image generated by the camera sensor,
Extracting information related to a topographic form formed by an object existing around the main body using laser scanning information generated by the laser sensor,
A controller for modifying information related to the position and the route of the main body using information related to the image pattern and information related to the topographic type,
And a storage unit configured to store a database formed of the image, the information related to the image pattern, the laser scan information, the information related to the topographic shape, and the position information on which the image and the laser scan information are generated,
Wherein,
The camera sensor and the laser sensor are operated at predetermined intervals,
Information relating to the image pattern extracted from the image, the laser scan information generated by the laser sensor, and the geometric shape extracted from the laser scan information And information related to a position where the camera sensor and the laser sensor are operated is updated in the database.
삭제delete 삭제delete 제1항에 있어서,
상기 청소기의 작동과 관련된 신호를 수신하는 통신부를 더 포함하고,
상기 제어부는,
상기 통신부가 상기 청소기를 주행 시작 지점으로 복귀시키기 위한 신호를 수신하면, 상기 청소기를 상기 주행 시작 지점으로 복귀시키도록 상기 구동부를 제어하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
The method according to claim 1,
Further comprising a communication unit for receiving a signal related to the operation of the vacuum cleaner,
Wherein,
Wherein the control unit controls the driving unit to return the cleaner to the driving start point when the communication unit receives a signal for returning the cleaner to the driving start point.
삭제delete 제1항에 있어서,
상기 제어부는,
주행 시작 지점으로 복귀하는 도중에 추출된 이미지 패턴 및 지형적 형태와 관련된 정보와 상기 데이터베이스를 비교하여, 상기 주행 시작 지점으로 복귀하기 위한 경로와 관련된 정보를 설정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
The method according to claim 1,
Wherein,
Wherein the information relating to the extracted image pattern and the geographical shape is returned to the driving start point by comparing the database with information related to the extracted image pattern and the geographical shape to set the information related to the route for returning to the driving start point.
제6항에 있어서,
상기 제어부는,
상기 주행 시작 지점으로 복귀하는 도중에 일 지점에서 추출된 이미지 패턴과 관련된 정보와, 상기 데이터베이스에 저장된 이미지 패턴과 관련된 정보 중 상기 일 지점에 대응되는 이미지 패턴과 관련된 정보가 일치하지 않으면, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
The method according to claim 6,
Wherein,
If the information related to the image pattern extracted at one point during the return to the driving start point and the information related to the image pattern corresponding to the one point among the information related to the image pattern stored in the database do not match, Wherein the path for returning to the self-traveling mode is modified.
제6항에 있어서,
상기 제어부는,
상기 주행 시작 지점으로 복귀하는 도중에 일 지점에서 추출된 지형적 형태와 관련된 정보와, 상기 데이터베이스에 저장된 지형적 형태와 관련된 정보 중 상기 일 지점에 대응되는 지형적 형태와 관련된 정보가 일치하지 않으면, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
The method according to claim 6,
Wherein,
If the information related to the geographical shape extracted at one point during the return to the driving start point and the information related to the geographical shape corresponding to the one point among the information related to the geographical shape stored in the database do not match, Wherein the path for returning to the self-traveling mode is modified.
제6항에 있어서,
상기 제어부는,
상기 주행 시작 지점으로 복귀하는 도중에 일 지점에서 추출된 이미지 패턴과 상기 데이터베이스에 저장된 이미지 패턴 중 어느 하나가 일치하면, 상기 어느 하나의 이미지 패턴과 대응되는 지형적 형태와, 상기 본체의 현재 위치에서 추출된 지형적 형태를 비교하고,
상기 비교결과에 근거하여, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
The method according to claim 6,
Wherein,
If one of the image pattern extracted from the one point and the image pattern stored in the database coincide with each other in the course of returning to the travel start point, the topographic pattern corresponding to the one of the image patterns, Comparing topographical forms,
And corrects a path for returning to the starting point of travel based on the comparison result.
제6항에 있어서,
상기 제어부는,
상기 주행 시작 지점으로 복귀하는 도중에 일 지점에서 생성된 레이저 스캔 정보와 상기 데이터베이스에 저장된 레이저 스캔 정보 중 어느 하나가 일치하면, 상기 어느 하나의 레이저 스캔 정보과 대응되는 이미지 패턴과, 상기 본체의 현재 위치에서 추출된 이미지 패턴을 비교하고,
상기 비교결과에 근거하여, 상기 주행 시작 지점으로 복귀하기 위한 경로를 수정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
The method according to claim 6,
Wherein,
Wherein when one of the laser scan information generated at the one point and the laser scan information stored in the database coincide with each other during the return to the travel start point, the image pattern corresponding to any one of the laser scan information, The extracted image patterns are compared,
And corrects a path for returning to the starting point of travel based on the comparison result.
제1항에 있어서,
상기 제어부는 로컬 경로보정모듈과, 글로벌 경로보정모듈을 포함하고,
상기 로컬 경로보정모듈은,
복수의 시점에서 획득된 레이저 스캔 정보를 이용하여, 로봇의 위치와 관련된 복수의 프레임을 생성하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
The method according to claim 1,
Wherein the control unit includes a local path correction module and a global path correction module,
Wherein the local path correction module comprises:
Wherein a plurality of frames related to the position of the robot are generated using the laser scanning information obtained at a plurality of time points.
제11항에 있어서,
상기 로컬 경로보정모듈은,
생성된 복수의 프레임 중 어느 하나를 선택하고, 선택된 프레임에 대응되는 이미지를 획득하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
12. The method of claim 11,
Wherein the local path correction module comprises:
Selects one of the plurality of generated frames, and acquires an image corresponding to the selected frame.
제12항에 있어서,
상기 선택된 프레임은 상기 본체의 현재 위치에서 생성된 프레임인 것을 특징으로 하는 자율주행을 수행하는 청소기.
13. The method of claim 12,
Wherein the selected frame is a frame generated at a current position of the main body.
제12항에 있어서,
상기 로컬 경로보정모듈은,
상기 선택된 프레임에 대응되는 이미지에 근거하여, 상기 선택된 프레임에 대응되는 위치에 대해 장소 인식을 수행하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
13. The method of claim 12,
Wherein the local path correction module comprises:
And performs a position recognition on a position corresponding to the selected frame based on the image corresponding to the selected frame.
제14항에 있어서,
상기 로컬 경로보정모듈은,
상기 이미지로부터 특징점을 추출하고,
추출된 특징점에 근거하여 상기 이미지에 대응되는 기술자를 생성하고,
상기 생성된 기술자에 근거하여 상기 선택된 프레임에 대응되는 위치에 재방문하는 것인지 여부를 판단하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
15. The method of claim 14,
Wherein the local path correction module comprises:
Extracting feature points from the image,
Generating a descriptor corresponding to the image based on the extracted feature points,
And determines whether to return to a position corresponding to the selected frame based on the generated descriptor.
제14항에 있어서,
상기 글로벌 경로보정모듈은.
상기 수행된 장소 인식 결과, 상기 선택된 프레임에 대응되는 위치가 다른 프레임에 대응되는 위치와 일치하여 재방문하는 것으로 판단되는 경우, 상기 선택된 프레임의 레이저 스캔 정보와 상기 다른 프레임의 레이저 스캔 정보를 서로 정합시키는 것을 특징으로 하는 자율주행을 수행하는 청소기.
15. The method of claim 14,
Wherein the global path correction module comprises:
When it is determined that the position corresponding to the selected frame is the same as the position corresponding to the other frame, the laser scanning information of the selected frame and the laser scanning information of the other frame are matched with each other Wherein the self-propelled vehicle is a self-propelled vehicle.
제16항에 있어서,
상기 글로벌 경로보정모듈은,
상기 선택된 프레임의 레이저 스캔 정보와 상기 다른 프레임의 레이저 스캔 정보의 정합 결과에 근거하여, 상기 청소기의 경로를 수정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
17. The method of claim 16,
Wherein the global path correction module comprises:
And corrects the path of the cleaner based on a result of matching the laser scan information of the selected frame with the laser scan information of the other frame.
KR1020160032918A 2016-03-18 2016-03-18 Moving robot and controlling method thereof Expired - Fee Related KR101786516B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160032918A KR101786516B1 (en) 2016-03-18 2016-03-18 Moving robot and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160032918A KR101786516B1 (en) 2016-03-18 2016-03-18 Moving robot and controlling method thereof

Publications (2)

Publication Number Publication Date
KR20170108656A KR20170108656A (en) 2017-09-27
KR101786516B1 true KR101786516B1 (en) 2017-10-18

Family

ID=60036593

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160032918A Expired - Fee Related KR101786516B1 (en) 2016-03-18 2016-03-18 Moving robot and controlling method thereof

Country Status (1)

Country Link
KR (1) KR101786516B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200036677A (en) * 2018-09-20 2020-04-07 삼성전자주식회사 Cleaning robot and Method of performing task thereof
US12140954B2 (en) 2018-09-20 2024-11-12 Samsung Electronics Co., Ltd. Cleaning robot and method for performing task thereof

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107890325B (en) * 2017-11-08 2021-06-04 地邦环境产业有限公司 Intelligent sweeper capable of automatically cleaning dust collecting box based on data processing
CN108125622A (en) * 2017-12-15 2018-06-08 珊口(上海)智能科技有限公司 Control method, system and the clean robot being applicable in
CN109570768A (en) * 2019-01-25 2019-04-05 华东交通大学 A kind of omni-directional wheel is to laser rust-removing device
KR102293657B1 (en) * 2019-07-31 2021-08-24 엘지전자 주식회사 Moving Robot
CN114371486A (en) * 2021-12-30 2022-04-19 南京驭领科技有限公司 Laser road sign assisted laser radar mapping method in corridor environment
CN114983273B (en) * 2022-06-01 2024-07-09 深圳市倍思科技有限公司 A recharging positioning method and cleaning system for a cleaning device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101366860B1 (en) * 2011-09-20 2014-02-21 엘지전자 주식회사 Mobile robot and controlling method of the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101366860B1 (en) * 2011-09-20 2014-02-21 엘지전자 주식회사 Mobile robot and controlling method of the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200036677A (en) * 2018-09-20 2020-04-07 삼성전자주식회사 Cleaning robot and Method of performing task thereof
KR102577785B1 (en) 2018-09-20 2023-09-13 삼성전자주식회사 Cleaning robot and Method of performing task thereof
US12140954B2 (en) 2018-09-20 2024-11-12 Samsung Electronics Co., Ltd. Cleaning robot and method for performing task thereof
US12233555B2 (en) 2018-09-20 2025-02-25 Samsung Electronics Co., Ltd. Cleaning robot and task performing method therefor

Also Published As

Publication number Publication date
KR20170108656A (en) 2017-09-27

Similar Documents

Publication Publication Date Title
KR101786516B1 (en) Moving robot and controlling method thereof
KR102398330B1 (en) Moving robot and controlling method thereof
AU2019336870B2 (en) Plurality of autonomous mobile robots and controlling method for the same
AU2017402126B2 (en) Vacuum cleaner and control method thereof
KR101822942B1 (en) Robot cleaner and controlling method of the same
KR101649665B1 (en) Moving robot and controlling method thereof
AU2016299576B2 (en) Mobile robot and control method thereof
KR101952414B1 (en) Cleaner and controlling method thereof
KR101897775B1 (en) Moving robot and controlling method thereof
EP3409177B1 (en) Moving robot and controlling method thereof
KR101542498B1 (en) Robot cleaner and method for detecting position thereof
US11998159B2 (en) Vacuum cleaner and control method thereof
KR101917701B1 (en) Cleaner and controlling method thereof
TWI739255B (en) Mobile robot
US20180338661A1 (en) Cleaner and controlling method thereof
US20230371769A1 (en) Moving robot system
EP3788928B1 (en) Artificial intelligence vacuum cleaner and control method therefor
EP3788927A1 (en) Vacuum cleaner and control method therefor
KR20210004453A (en) Cleaner and controlling method thereof
US20230081449A1 (en) Mobile robot and control method therefor
KR20190020006A (en) Cleaner and controlling method thereof
KR20250159833A (en) Moving Robot and controlling method

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20221012

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20221012