[go: up one dir, main page]

KR20230154363A - System and method for controlling dangerousness tasks using robot based on xtended reality - Google Patents

System and method for controlling dangerousness tasks using robot based on xtended reality Download PDF

Info

Publication number
KR20230154363A
KR20230154363A KR1020220053641A KR20220053641A KR20230154363A KR 20230154363 A KR20230154363 A KR 20230154363A KR 1020220053641 A KR1020220053641 A KR 1020220053641A KR 20220053641 A KR20220053641 A KR 20220053641A KR 20230154363 A KR20230154363 A KR 20230154363A
Authority
KR
South Korea
Prior art keywords
robot
information
user
server
extended reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020220053641A
Other languages
Korean (ko)
Inventor
오인수
Original Assignee
(주)제스엔지니어링
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제스엔지니어링 filed Critical (주)제스엔지니어링
Priority to KR1020220053641A priority Critical patent/KR20230154363A/en
Publication of KR20230154363A publication Critical patent/KR20230154363A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)

Abstract

Disclosed are a system and method for controlling a dangerous task using a robot based on extended reality. According to an aspect of the present invention, the system for controlling a dangerous task using a robot based on extended reality comprises: a server learning a task performed in a dangerous region, one or more scenarios on the sequence and moving path of each task, and an operation model on vision information and movement information of a robot performing each scenario; a robot system having a photographing device, and moving in accordance with an operation control signal, and performing a relevant task; and a user system displaying an image photographed by the photographing device through an extended reality display device worn on the head of a user, and transmitting a control command in accordance with the speech and movement of the user to the server. The server is able to generate an operation control signal by acquiring the vision information or the movement information of the robot in accordance with the control command based on the operation model, and transmit the operation control signal to the robot system. Therefore, a user can be enabled to control and monitor a robot by using the extended reality technology.

Description

확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템 및 방법{SYSTEM AND METHOD FOR CONTROLLING DANGEROUSNESS TASKS USING ROBOT BASED ON XTENDED REALITY}System and method for controlling dangerous tasks using extended reality-based robots {SYSTEM AND METHOD FOR CONTROLLING DANGEROUSNESS TASKS USING ROBOT BASED ON XTENDED REALITY}

본 발명은 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템 및 방법에 관한 것으로서, 보다 상세하게는 발전소 등의 위험 작업에 로봇을 투입하는 경우 확장현실 기술을 이용하여 사용자가 로봇을 제어 및 모니터링할 수 있도록 하는 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for controlling dangerous work using an extended reality-based robot. More specifically, when a robot is put into dangerous work such as a power plant, the user can control and monitor the robot using extended reality technology. It relates to a hazardous work control system and method using an extended reality-based robot.

일반적으로 발전소, 중소형 공장 등을 포함하여 유해물질, 이상온도, 습도, 소음, 가스 등 작업환경이 열악한 현장이나 위험한 곳에서는 인간이 노동을 기피하는 경향이 있기 때문에 이와 같은 업종에서 노동력을 확보하는 수급관계가 큰 문제로 대두되고 있다.In general, people tend to avoid working in sites or dangerous places with poor working environments such as hazardous substances, abnormal temperatures, humidity, noise, and gas, including power plants and small and medium-sized factories, so the supply and demand for securing labor in these industries Relationships are emerging as a big problem.

이를 해결하기 위해 최근에는 산업용 로봇이 사용되며, 단조로운 반복작업으로 인간이 빠지기 쉬운 일에 대한 권태감과 부주의로 생기기 쉬운 제품의 불량률 및 안전사고를 최소한으로 하기 위한 수단으로도 이용된다.To solve this problem, industrial robots have been used recently, and they are also used as a means to minimize product defect rates and safety accidents that can easily occur due to boredom and carelessness in monotonous repetitive tasks that humans tend to fall into.

또한, 용접·도장작업과 같이 작업환경도 나쁘지만 노동의 숙련도를 필요로 하는 업종에서도 해마다 증대되는 작업량에 못 미치는 숙련공 수급문제와 인력부족으로 인한 인건비 상승이 미치는 제품원가의 상승을 해결하는 수단으로 로봇이 각광받고 있다.In addition, even in industries such as welding and painting, which have poor working conditions but require skilled labor, robots are used as a means of solving the problem of supply and demand of skilled workers who do not meet the increasing workload each year and the increase in product costs caused by rising labor costs due to manpower shortage. This is in the spotlight.

로봇은 작업환경이 나쁜 곳에서 인간이 싫어하는 일과 인간의 노동능력을 초월한 극한노동을 대신해 주며 인간의 부주의로 생기기 쉬운 실수를 방지하므로, 인간의 노동을 보완하여 인간의 노동인력을 감소시켜 주는 보조기기로 이용되고 있는 것이다. Robots are auxiliary devices that complement human labor and reduce the human workforce by taking the place of jobs that humans dislike and extreme labor that exceeds human labor capabilities in places with poor working environments and preventing mistakes that can easily occur due to human carelessness. It is being used as.

이처럼 위험 지역에 인간이 직접 접근하지 않고 로봇을 이용하여 위험 작업을 수행하는 것은 가능하였으나, 로봇이 수행하는 동작을 모니터링만 가능할 뿐, 사용자의 동작을 실시간으로 반영하여 로봇의 동작을 제어할 수는 없었다. In this way, it is possible to perform dangerous tasks using a robot without humans directly approaching the dangerous area, but it is only possible to monitor the movements performed by the robot, and it is not possible to control the robot's movements by reflecting the user's movements in real time. There wasn't.

본 발명의 배경기술은 대한민국 등록특허공보 제10-1592904호(2016.02.18. 공고)의 '풍력 발전기 유지 보수 유닛 및 이를 이용한 유지 보수 방법'에 개시되어 있다.The background technology of the present invention is disclosed in 'Wind power generator maintenance unit and maintenance method using the same' in Republic of Korea Patent Publication No. 10-1592904 (announced on February 18, 2016).

본 발명은 전술한 문제점을 개선하기 위하여 인출된 것으로, 본 발명의 목적은 발전소 등의 위험 작업에 로봇을 투입하는 경우 확장현실 기술을 이용하여 사용자가 로봇을 제어 및 모니터링할 수 있도록 하는 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템 및 방법을 제공하는 것이다. The present invention was brought out to improve the above-mentioned problems, and the purpose of the present invention is to use extended reality technology to enable users to control and monitor robots when putting robots into dangerous work such as power plants. To provide a system and method for controlling hazardous work using robots.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and other problem(s) not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 일 측면에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템은, 위험 지역에서 수행되는 작업, 각 작업의 순서 및 이동경로에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 서버, 촬영장치를 구비하고, 동작제어신호에 따라 이동하여 해당 작업을 수행하는 로봇 시스템, 및 사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 상기 촬영장치에서 촬영된 영상을 표시하고, 상기 사용자의 음성 및 움직임에 따른 제어명령을 상기 서버로 전송하는 사용자 시스템을 포함하되, 상기 서버는, 상기 동작 모델을 기초로 상기 제어명령에 따른 로봇의 비전정보 또는 움직임 정보를 획득하여 상기 동작제어신호를 생성하고, 상기 동작제어신호를 상기 로봇 시스템으로 전송할 수 있다. A hazardous work control system using an extended reality-based robot according to an aspect of the present invention includes at least one scenario for tasks performed in a hazardous area, the sequence and movement path of each task, and vision information of a robot performing each scenario. and a server that learns a motion model for motion information, a robot system equipped with a photographing device, and moves according to a motion control signal to perform the corresponding task, and the photographing device through an extended reality display device worn on the user's head. It includes a user system that displays a captured image and transmits a control command according to the user's voice and movement to the server, wherein the server provides vision information or movement of the robot according to the control command based on the operation model. Information can be acquired to generate the motion control signal, and the motion control signal can be transmitted to the robot system.

본 발명에서 상기 로봇 시스템은, 통신회로, 상기 확장현실 디스플레이 장치의 움직임에 따라 동작하여 영상을 촬영하는 촬영장치, 상기 동작제어신호에 따라 이동하여 작업을 수행하는 로봇, 및 상기 촬영장치를 통해 촬영된 영상을 상기 통신회로를 통해 상기 서버로 전송하고, 상기 서버로부터의 동작제어신호를 상기 로봇 또는 촬영장치로 전송하여, 상기 로봇 또는 촬영장치가 상기 동작제어신호에 따라 동작하도록 하는 제어장치를 포함할 수 있다. In the present invention, the robot system includes a communication circuit, a photographing device that operates according to the movement of the extended reality display device to capture images, a robot that moves according to the motion control signal and performs a task, and captures images through the photographing device. It includes a control device that transmits the image to the server through the communication circuit, transmits an operation control signal from the server to the robot or imaging device, and causes the robot or imaging device to operate according to the operation control signal. can do.

본 발명에서 상기 사용자 시스템은, 통신회로, 상기 사용자의 머리에 착용되고, 상기 촬영장치를 통해 촬영된 영상을 확장현실로 표시하는 확장현실 디스플레이 장치, 상기 사용자의 음성을 인식하는 음성인식장치, 상기 사용자의 촉각 정보를 인식하는 햅틱 센서 및 상기 음성인식장치에서 인식된 음성데이터 또는 상기 햅틱 센서를 통해 인식된 촉각 정보로부터 상기 로봇의 움직임에 대한 사용자의 의도를 파악하고, 상기 파악된 의도에 따라 상기 로봇을 제어하기 위한 제어명령을 상기 서버로 전송하며, 상기 로봇 시스템으로부터 수신된 영상을 상기 확장현실 디스플레이 장치를 통해 출력하는 제어장치를 포함할 수 있다. In the present invention, the user system includes a communication circuit, an extended reality display device worn on the user's head and displaying images captured through the photographing device in extended reality, a voice recognition device that recognizes the user's voice, and Determine the user's intention regarding the movement of the robot from voice data recognized by a haptic sensor that recognizes the user's tactile information and the voice recognition device or tactile information recognized through the haptic sensor, and determine the user's intention for the movement of the robot according to the identified intention. It may include a control device that transmits control commands for controlling the robot to the server and outputs images received from the robot system through the extended reality display device.

본 발명에서 상기 서버는, 상기 동작제어신호에 따라 수행한 상기 로봇의 비전정보 또는 움직임 정보를 상기 로봇 시스템으로부터 수신하고, 상기 수신한 로봇의 비전정보 또는 움직임 정보가 학습되지 않은 정보인 경우 상기 수신한 로봇의 비전정보 또는 움직임 정보를 학습하여 상기 동작 모델을 업데이트할 수 있다. In the present invention, the server receives vision information or movement information of the robot performed according to the motion control signal from the robot system, and if the received vision information or movement information of the robot is unlearned information, the server receives the vision information or movement information of the robot performed according to the motion control signal. The motion model can be updated by learning the vision information or movement information of one robot.

본 발명의 다른 측면에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 방법은, 사용자 시스템이, 사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 로봇 시스템의 촬영장치를 통해 촬영된 영상을 디스플레이하는 상태에서 상기 사용자의 음성데이터 또는 움직임 정보가 획득되면, 상기 음성데이터 또는 움직임 정보를 포함하는 제어명령을 서버로 전송하는 단계, 상기 서버가, 기 학습된 동작 모델을 기초로 상기 제어명령에 따른 로봇 구성요소들의 좌표를 획득하여 동작제어신호를 생성하고, 상기 생성된 동작제어신호를 로봇 시스템으로 전송하는 단계, 및 상기 로봇 시스템이 동작제어신호에 따라 이동하여 작업을 수행하는 단계를 포함한다. A method of controlling hazardous work using an extended reality-based robot according to another aspect of the present invention is a state in which the user system displays images captured through the imaging device of the robot system through the extended reality display device worn on the user's head. When the user's voice data or movement information is obtained, transmitting a control command including the voice data or movement information to a server, the server configuring the robot according to the control command based on a previously learned motion model. It includes obtaining the coordinates of elements to generate a motion control signal, transmitting the generated motion control signal to a robot system, and performing a task by moving the robot system according to the motion control signal.

본 발명은 상기 서버가, 위험 지역에서 수행되는 작업, 각 작업의 순서 및 이동경로에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 단계를 더 포함하고, 상기 작업을 수행하는 단계 이후, 상기 서버가, 상기 작업 수행에 따라 로봇이 수행한 비전정보 및 움직임 정보를 상기 로봇 시스템으로부터 수신하고, 상기 수신한 로봇의 비전정보 및 움직임 정보가 학습되지 않은 정보인 경우 상기 수신한 로봇의 비전정보 및 움직임 정보를 학습하여 상기 동작 모델을 업데이트하는 단계를 더 포함할 수 있다. The present invention further includes the step of the server learning a motion model for tasks performed in a dangerous area, at least one scenario for the sequence and movement path of each task, and vision information and movement information of a robot performing each scenario. And after the step of performing the task, the server receives vision information and movement information performed by the robot according to the task performance from the robot system, and the received vision information and movement information of the robot are not learned. If the information is not available, the step of updating the motion model by learning the received vision information and movement information of the robot may be further included.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, other methods for implementing the present invention, other systems, and computer programs for executing the methods may be further provided.

본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템 및 방법은, 발전소 등의 위험 작업에 로봇을 투입하는 경우 확장현실 기술을 이용하여 사용자가 로봇을 제어 및 모니터링할 수 있다. The system and method for controlling dangerous work using an extended reality-based robot according to an embodiment of the present invention allows the user to control and monitor the robot using extended reality technology when a robot is put into dangerous work such as a power plant. .

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다. Meanwhile, the effects of the present invention are not limited to the effects mentioned above, and various effects may be included within the range apparent to those skilled in the art from the contents described below.

도 1은 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 시스템의 구성을 개략적으로 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 확장현실 디스플레이 장치를 통해 디스플레이되는 화면을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 로봇 시스템의 구성을 개략적으로 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 방법을 설명하기 위한 도면이다.
Figure 1 is a diagram for explaining a hazardous work control system using an extended reality-based robot according to an embodiment of the present invention.
Figure 2 is a block diagram schematically showing the configuration of a user system according to an embodiment of the present invention.
Figure 3 is an example diagram illustrating a screen displayed through an extended reality display device according to an embodiment of the present invention.
Figure 4 is a block diagram schematically showing the configuration of a robot system according to an embodiment of the present invention.
Figure 5 is a diagram for explaining a method of controlling dangerous work using an extended reality-based robot according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템 및 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, a hazardous work control system and method using an extended reality-based robot according to an embodiment of the present invention will be described with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation.

또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Additionally, implementations described herein may be implemented as, for example, a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device that includes a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Additionally, the terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof. Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by these terms. The above terms are used only for the purpose of distinguishing one component from another.

명세서 전체에서 "확장 현실(XR: eXtended Reality)"이라 함은, 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다. MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나 AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.Throughout the specification, “extended reality (XR)” refers to virtual reality (VR), augmented reality (AR), and mixed reality (MR). VR technology provides objects and backgrounds in the real world only as CG images, AR technology provides virtual CG images on top of images of real objects, and MR technology provides computer technology that mixes and combines virtual objects in the real world. It is a graphic technology. MR technology is similar to AR technology in that it shows real objects and virtual objects together. However, in AR technology, virtual objects are used to complement real objects, whereas in MR technology, virtual objects and real objects are used equally.

이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, identical or corresponding components are assigned the same drawing numbers and duplicate descriptions thereof are omitted. I decided to do it.

도 1은 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템을 설명하기 위한 도면, 도 2는 본 발명의 일 실시예에 따른 사용자 시스템의 구성을 개략적으로 나타낸 블록도, 도 3은 본 발명의 일 실시예에 따른 확장현실 디스플레이 장치를 통해 디스플레이되는 화면을 설명하기 위한 예시도, 도 4는 본 발명의 일 실시예에 따른 로봇 시스템의 구성을 개략적으로 나타낸 블록도이다. FIG. 1 is a diagram illustrating a hazardous work control system using an extended reality-based robot according to an embodiment of the present invention. FIG. 2 is a block diagram schematically showing the configuration of a user system according to an embodiment of the present invention. FIG. 3 is an example diagram for explaining a screen displayed through an extended reality display device according to an embodiment of the present invention, and FIG. 4 is a block diagram schematically showing the configuration of a robot system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템은 서버(100), 사용자 시스템(200) 및 로봇 시스템(300)을 포함한다.Referring to FIG. 1, a hazardous work control system using an extended reality-based robot according to an embodiment of the present invention includes a server 100, a user system 200, and a robot system 300.

서버(100)는 발전소 등에서 수행되는 작업, 각 작업의 순서 및 이동경로에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇(330)의 비전정보 및 움직임 정보에 대한 동작 모델을 학습할 수 있다. 여기서, 동작 모델은 물품의 잡기, 밀기, 이동하기 등의 움직임 정보를 포함할 수 있고, 움직임 정보는 로봇(330)을 구성하는 구성요소들(예, 구동부, 몸체, 링크, 엔드 이펙터 등)의 회전력, 회전 범위, 구동 범위, 파지력, 흡착력 등을 포함할 수 있다. 이때, 서버(100)는 전문가가 주어진 동작을 수행한 데이터(전문가 데이터 또는 빅데이터)를 이용하여 인공 신경망으로 구성된 동작 모델을 학습시킬 수 있다.The server 100 may learn a motion model for tasks performed in a power plant, etc., at least one scenario for the sequence and movement path of each task, and vision information and movement information of the robot 330 performing each scenario. Here, the motion model may include movement information such as grabbing, pushing, and moving the item, and the motion information may be related to the components constituting the robot 330 (e.g., driving unit, body, link, end effector, etc.). It may include rotational force, rotation range, driving range, gripping force, adsorption force, etc. At this time, the server 100 can learn a motion model composed of an artificial neural network using data (expert data or big data) in which an expert performs a given motion.

서버(100)는 확장현실 환경에서 전문가가 위험 작업을 수행하는 동작에 대한 데이터(비전, 움직임 정보, 각 시나리오당 100개 이상)를 받아서 실제 로봇(330)이 작업을 수행할 수 있도록 비전정보(CNN), 움직임 정보(NN) 등을 포함하는 동작모델(인공신경망 모델)을 학습시키고, 학습된 동작모델을 로봇(330)의 입력으로 활용할 수 있다. The server 100 receives data (vision, movement information, more than 100 for each scenario) about the movements of experts performing dangerous tasks in an extended reality environment and provides vision information (vision information) so that the actual robot 330 can perform the task. A motion model (artificial neural network model) including CNN), motion information (NN), etc. can be trained, and the learned motion model can be used as an input to the robot 330.

서버(100)는 확장현실 환경에서 작업 수행 동작을 반복하는 움직임 정보를 획득하고, 확장현실 디스플레이 장치(220)를 장착한 사용자의 끝단 손 움직임을 기반으로 팔 움직임 및 양팔 움직임 동작을 추론함으로써, 사용자의 움직임 의도를 판단하고, 그 판단된 의도에 따라 로봇(330)이 동작하도록 하는 동작모델을 학습할 수 있다. 이때, 서버(100)는 model-based inverse reinforcement learning 알고리즘을 이용하여 동작모델을 학습할 수 있다. The server 100 acquires movement information that repeats task performance actions in an extended reality environment, and infers arm movements and both arm movement movements based on the hand movements of the user equipped with the extended reality display device 220, so that the user It is possible to determine the movement intention and learn a motion model that causes the robot 330 to operate according to the determined intention. At this time, the server 100 can learn the motion model using a model-based inverse reinforcement learning algorithm.

사용자 시스템(200)의 햅틱 센서(240)를 통해 감지된 힘/촉각 정보를 활용하여 작업(파지, 밀기 등)을 수행하기 위해서는 로봇(330)의 kinematic 정보와 함께 사용해야 하고, 물품과 안정적인 상호작용을 위해서 힘의 평형 관계를 맞춰야 한다. 이에, 서버(100)는 behavior cloning/inverse reinforcement learning 알고리즘을 사용해서 policy와 목적함수 모델에 힘의 평형 관계를 활용할 수 있다. In order to perform a task (grasping, pushing, etc.) using the force/tactile information detected through the haptic sensor 240 of the user system 200, it must be used together with the kinematic information of the robot 330 to ensure stable interaction with the item. For this, the balance of power must be maintained. Accordingly, the server 100 can utilize the balance of power relationship in the policy and objective function model using the behavior cloning/inverse reinforcement learning algorithm.

서버(100)는 작업 수행에 따라 로봇(330)이 수행한 비전정보 및 움직임 정보를 로봇 시스템(300)으로부터 수신하고, 수신한 로봇(330)의 비전정보 및 움직임 정보가 학습되지 않은 정보인 경우 수신한 로봇(330)의 비전정보 및 움직임 정보를 학습하여 동작 모델을 업데이트할 수 있다. The server 100 receives vision information and movement information performed by the robot 330 according to task performance from the robot system 300, and when the received vision information and movement information of the robot 330 are unlearned information. The motion model can be updated by learning the received vision information and movement information of the robot 330.

서버(100)는 사용자 시스템(200)으로부터 제어명령 수신 시, 동작 모델에 기초하여 제어명령에 따른 로봇(330)의 비전정보 및 움직임 정보를 획득하여 동작제어신호를 생성하고, 동작제어신호를 로봇 시스템(300)으로 전송할 수 있다. 여기서, 동작제어신호는 로봇(330)의 비전정보 및 움직임 정보를 포함할 수 있다. When receiving a control command from the user system 200, the server 100 acquires vision information and movement information of the robot 330 according to the control command based on the motion model, generates a motion control signal, and sends the motion control signal to the robot. It can be transmitted to system 300. Here, the motion control signal may include vision information and movement information of the robot 330.

제어명령은 사용자의 비전정보 및 움직임 정보를 포함하고, 비전정보 및 움직임 정보는 좌표값을 포함하므로, 서버(100)는 사용자의 비전정보 및 움직임 정보를 로봇(330)의 비전정보 및 움직임 정보로 변환하여 로봇 시스템(300)으로 전송할 수도 있다.Since the control command includes the user's vision information and movement information, and the vision information and movement information include coordinate values, the server 100 converts the user's vision information and movement information into the vision information and movement information of the robot 330. It can also be converted and transmitted to the robot system 300.

이러한 서버(100)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. This server 100 may refer to a device that trains an artificial neural network using a machine learning algorithm or uses a learned artificial neural network.

서버(100)는 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치일 수 있다. 서버(100)는 클라우드 서버를 의미할 수도 있다. 일 실시예로, 서버(100)는 플랫폼과 혼용되어 사용될 수 있다. Server 100 may be a computing device including at least one processor. Server 100 may also mean a cloud server. In one embodiment, the server 100 may be used interchangeably with a platform.

사용자 시스템(200)은 사용자의 머리에 착용된 확장현실 디스플레이 장치(220)를 통해 촬영장치(320)에서 촬영된 영상을 표시하고, 사용자의 음성 및 움직임에 따른 제어명령을 서버(100)로 전송할 수 있다. The user system 200 displays the image captured by the photographing device 320 through the extended reality display device 220 worn on the user's head, and transmits control commands according to the user's voice and movement to the server 100. You can.

사용자 시스템(200)은 로봇 시스템(300)의 촬영장치(320)를 통해 촬영된 영상을 VR/AR/MR 영상으로 제공받을 수 있다. The user system 200 can receive images captured through the imaging device 320 of the robot system 300 as VR/AR/MR images.

사용자 시스템(200)은 로봇 시스템(300)의 이동/모션/움직임, 카메라 각도 등을 조작하기 위한 제어명령을 서버(100)를 통해 로봇 시스템(300)으로 전송할 수 있으며, 로봇 시스템(300)은 사용자 시스템(200)으로부터 수신한 제어명령에 대응하는 동작제어신호에 따라 이동/모션/움직임이 제어되어 확장현실 영상을 실시간 전송할 수 있다.The user system 200 can transmit control commands for manipulating the movement/motion/movement, camera angle, etc. of the robot system 300 to the robot system 300 through the server 100, and the robot system 300 Movement/motion/movement is controlled according to the operation control signal corresponding to the control command received from the user system 200, and extended reality images can be transmitted in real time.

이러한 사용자 시스템(200)은 도 2에 도시된 바와 같이 통신회로(210), 확장현실 디스플레이 장치(220), 음성인식장치(230), 햅틱 센서(240) 및 제어장치(250)를 포함할 수 있다. As shown in FIG. 2, this user system 200 may include a communication circuit 210, an extended reality display device 220, a voice recognition device 230, a haptic sensor 240, and a control device 250. there is.

통신회로(210)는 통신망과 연동하여 사용자 시스템(200)과 서버(100) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 특히, 통신회로(210)는 서버(100)로부터 로봇 시스템(300)에서 촬영된 영상을 수신하고, 로봇(330)을 제어하기 위한 제어명령을 서버(100)로 전송하는 역할을 수행할 수 있다. 또한 통신회로(210)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 또한, 통신회로(210)는 근거리 통신모듈, 무선 통신모듈, 이동통신 모듈, 유선 통신모듈 등 다양한 형태로 구현될 수 있다.The communication circuit 210 can provide a communication interface necessary to provide transmission and reception signals between the user system 200 and the server 100 in the form of packet data in conjunction with a communication network. In particular, the communication circuit 210 may receive images captured in the robot system 300 from the server 100 and transmit control commands for controlling the robot 330 to the server 100. . Additionally, the communication circuit 210 may be a device that includes hardware and software necessary to transmit and receive signals such as control signals or data signals through wired or wireless connections with other network devices. Additionally, the communication circuit 210 may be implemented in various forms such as a short-distance communication module, wireless communication module, mobile communication module, and wired communication module.

확장현실 디스플레이 장치(220)는 사용자의 머리에 착용되고, 로봇 시스템(300)의 촬영장치(320)를 통해 촬영된 영상을 확장현실로 디스플레이할 수 있다. The extended reality display device 220 is worn on the user's head and can display images captured through the imaging device 320 of the robot system 300 in extended reality.

확장현실 디스플레이 장치(220)는 사용자의 양측 눈에 대응하는 위치에 머리 착용 디스플레이(HMD, Head Mounted Display)와 같은 형태로 구현될 수 있다. 또한, 확장현실 디스플레이 장치(220)는 VR 헤드셋(virtual reality headset), 홀로렌즈(HoloLens), AR/MR 글래스 등의 형태로 구현될 수 있다.The extended reality display device 220 may be implemented in the form of a head mounted display (HMD) at a location corresponding to both eyes of the user. Additionally, the extended reality display device 220 may be implemented in the form of a virtual reality headset, HoloLens, AR/MR glasses, etc.

확장현실 디스플레이 장치(220)는 적어도 하나의 방향/자이로/각도/가속도 센서를 구비하여 사용자의 헤드 방향/각도를 센싱하고, 센싱한 결과를 제어장치(250)를 통해 로봇 시스템(300)으로 전송할 수 있다. 그러면, 로봇 시스템(300)의 촬영장치(320)는 확장현실 디스플레이 장치(220)의 방향/각도에 대응되는 방향/각도로 동작할 수 있다. 확장현실 디스플레이 장치(220)는 로봇 시스템(300)으로부터 전송받은 영상을 확장현실 영상으로 디스플레이할 수 있다.The extended reality display device 220 is equipped with at least one direction/gyro/angle/acceleration sensor to sense the direction/angle of the user's head, and transmits the sensed results to the robot system 300 through the control device 250. You can. Then, the imaging device 320 of the robot system 300 may operate in a direction/angle corresponding to the direction/angle of the extended reality display device 220. The extended reality display device 220 can display the image transmitted from the robot system 300 as an extended reality image.

따라서, 사용자는 확장현실 디스플레이 장치(220)를 통해 로봇 시스템(300)의 촬영장치(320)에서 촬영되는 영상정보를 실시간으로 확인하면서 해당 작업을 수행할 수 있다. Accordingly, the user can perform the corresponding task while checking image information captured by the imaging device 320 of the robot system 300 in real time through the extended reality display device 220.

음성인식장치(230)는 사용자의 음성을 인식하여, 제어장치(250)로 전송할 수 있다. The voice recognition device 230 can recognize the user's voice and transmit it to the control device 250.

음성인식장치(230)는 확장현실 디스플레이 장치(220) 일측에 착탈가능하게 구비되거나 확장현실 디스플레이 장치(220)에 일체로 구비된 마이크로폰(microphone)의 형태로 구현될 수 있다.The voice recognition device 230 may be detachably provided on one side of the extended reality display device 220 or may be implemented in the form of a microphone integrally provided in the extended reality display device 220.

햅틱 센서(240)는 사용자의 힘/촉각을 인식하고 인식된 촉각 정보를 제어장치(250)로 전송할 수 있다. The haptic sensor 240 can recognize the user's force/tactile sensation and transmit the recognized tactile information to the control device 250.

제어장치(250)는 음성인식장치(230)에서 인식된 음성데이터 또는 햅틱 센서(240)를 통해 인식된 촉각 정보로부터 로봇(330)의 움직임에 대한 사용자의 의도를 파악하고, 파악된 의도에 따라 로봇(330)을 제어하기 위한 제어명령을 생성하여 서버(100)로 전송할 수 있다.The control device 250 determines the user's intention regarding the movement of the robot 330 from voice data recognized by the voice recognition device 230 or tactile information recognized through the haptic sensor 240, and performs the operation according to the identified intention. Control commands for controlling the robot 330 can be generated and transmitted to the server 100.

또한, 제어장치(250)는 로봇 시스템(300)으로부터 수신된 영상을 확장현실 디스플레이 장치(220)를 통해 출력할 수 있다. 즉, 제어장치(250)는 로봇 시스템(300)으로부터 수신된 영상을 VR/AR/MR 영상으로 렌더링하여 확장현실 디스플레이 장치(220)를 통해 출력되도록 할 수 있다. 이때, 제어장치(250)는 확장현실 디스플레이 장치(220) 상에 복수의 가상화면을 구성하여 로봇(330)이 수행하는 작업 과정을 제어 및 모니터링할 수 있다. Additionally, the control device 250 may output the image received from the robot system 300 through the extended reality display device 220. That is, the control device 250 can render the image received from the robot system 300 into a VR/AR/MR image and output it through the extended reality display device 220. At this time, the control device 250 can configure a plurality of virtual screens on the extended reality display device 220 to control and monitor the work process performed by the robot 330.

예를 들면, 제어장치(250)는 도 3에 도시된 바와 같이 5개의 가상화면을 확장현실 디스플레이 장치(220) 상에 디스플레이되도록 할 수 있다. 사용자가 정면을 바라볼 때는 정면화면이 디스플레이되도록 하고, 사용자가 고개를 좌측으로 돌리면 좌측화면이 디스플레이되도록 하며, 사용자가 우측으로 고개를 돌리면 우측화면이 디스플레이되도록 하고, 사용자가 위를 보면 상단화면이 디스플레이되도록 하며, 사용자가 아래를 보면 하단화면이 디스플레이되도록 할 수 있다. For example, the control device 250 can display five virtual screens on the extended reality display device 220 as shown in FIG. 3. When the user looks straight ahead, the front screen is displayed, when the user turns his head to the left, the left screen is displayed, when the user turns his head to the right, the right screen is displayed, and when the user looks up, the top screen is displayed. It can be displayed, and the bottom screen can be displayed when the user looks down.

이처럼 제어장치(250)는 로봇(330)이 보는 환경(visual 정보)과 사용자가 사용하는 확장현실 환경을 연동시킬 수 있다. In this way, the control device 250 can link the environment (visual information) seen by the robot 330 with the extended reality environment used by the user.

또한, 제어장치(250)는 확장현실 디스플레이 장치(220)를 장착한 사용자의 끝단 손 움직임을 햅틱 센서(240)를 통해 획득하고, 획득된 사용자의 손 움직임을 기반으로 팔 움직임 및 양팔 움직임 동작을 추론하며, 추론된 팔 움직임 및 양팔 움직임에 기초하여 사용자의 의도를 파악하고, 파악된 사용자의 의도에 따른 제어명령을 생성하여 서버(100)로 전송할 수 있다. In addition, the control device 250 acquires the end hand movements of the user equipped with the extended reality display device 220 through the haptic sensor 240, and performs arm movements and both arm movement actions based on the acquired hand movements of the user. Inferring, the user's intention can be determined based on the inferred arm movement and both arm movements, and a control command according to the identified user's intention can be generated and transmitted to the server 100.

로봇 시스템(300)은 촬영장치(320)를 구비하고, 서버(100)로부터의 동작제어신호에 따라 위험 작업을 수행할 수 있다.The robot system 300 is equipped with an imaging device 320 and can perform dangerous tasks according to operation control signals from the server 100.

이러한 로봇 시스템(300)은 도 4에 도시된 바와 같이 통신회로(310), 촬영장치(320), 로봇(330) 및 제어장치(340)를 포함할 수 있다. This robot system 300 may include a communication circuit 310, an imaging device 320, a robot 330, and a control device 340, as shown in FIG. 4.

통신회로(310)는 통신망과 연동하여 로봇 시스템(300)과 서버(100) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 특히, 통신회로(310)는 서버(100)로부터 동작제어신호를 수신하고, 촬영장치(320)를 통해 촬영된 영상을 서버(100)로 전송하는 역할을 수행할 수 있다. 또한 통신회로(310)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 또한, 통신회로(310)는 근거리 통신모듈, 무선 통신모듈, 이동통신 모듈, 유선 통신모듈 등 다양한 형태로 구현될 수 있다.The communication circuit 310 can provide a communication interface necessary to provide transmission and reception signals between the robot system 300 and the server 100 in the form of packet data in conjunction with a communication network. In particular, the communication circuit 310 may receive an operation control signal from the server 100 and transmit an image captured through the photographing device 320 to the server 100. Additionally, the communication circuit 310 may be a device that includes hardware and software necessary to transmit and receive signals such as control signals or data signals through wired or wireless connections with other network devices. Additionally, the communication circuit 310 may be implemented in various forms such as a short-distance communication module, wireless communication module, mobile communication module, and wired communication module.

촬영장치(320)는 사용자(즉, 확장현실 디스플레이 장치(220))의 움직임에 따라 동작하여 영상을 촬영할 수 있다. 즉, 촬영장치(320)는 로봇(330)이 보는 비전정보와 사용자가 사용하는 확장현실 환경을 연동시킬 수 있다. 이러한 촬영장치(320)는 예컨대, PTZ 카메라로 구현될 수 있다.The photographing device 320 can capture images by operating according to the movement of the user (i.e., the extended reality display device 220). In other words, the imaging device 320 can link the vision information seen by the robot 330 with the extended reality environment used by the user. This imaging device 320 may be implemented as, for example, a PTZ camera.

로봇(330)은 서버(100)로부터의 동작제어신호에 따라 이동하여 작업을 수행할 수 있다. 즉, 로봇(330)은 동작제어신호에 포함된 이동경로에 따라 이동하면서 작업을 수행할 수 있다. The robot 330 can move and perform work in accordance with the motion control signal from the server 100. In other words, the robot 330 can perform work while moving according to the movement path included in the motion control signal.

로봇(330)은 액츄에이터 또는 모터를 포함하는 구동부(미도시)를 구비하여 로봇(330) 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇(330)은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.The robot 330 is equipped with a driving unit (not shown) including an actuator or motor and can perform various physical movements, such as moving the joints of the robot 330. In addition, the movable robot 330 includes wheels, brakes, propellers, etc. in the driving part, and can travel on the ground or fly in the air through the driving part.

로봇(330)에는 스마트 센서(미도시)가 장착될 수 있다. 스마트 센서는 로봇(330)의 팔에 장착되어, 로봇(330)의 촉각 정보를 사용자의 촉각 정보와 연동시킬 수 있다. The robot 330 may be equipped with a smart sensor (not shown). The smart sensor is mounted on the arm of the robot 330 and can link the tactile information of the robot 330 with the user's tactile information.

한편, 본 발명의 실시예에서는 로봇(330)으로 설명하였으나, 로봇(330)은 로봇 팔일 수 있다. 로봇(330) 및 로봇 팔은 종래의 구성과 동일하므로 이에 대한 설명은 생략하기로 한다. Meanwhile, although the embodiment of the present invention is described as a robot 330, the robot 330 may be a robot arm. Since the robot 330 and the robot arm have the same configuration as the conventional one, their description will be omitted.

제어장치(340)는 촬영장치(320)를 통해 촬영된 영상을 통신회로(310)를 통해 서버(100)로 전송하고, 서버(100)로부터의 동작제어신호를 로봇(330) 및 촬영장치(320)로 전송하여, 로봇(330) 및 촬영장치(320)가 동작제어신호에 따라 동작하도록 제어할 수 있다. The control device 340 transmits the image captured through the imaging device 320 to the server 100 through the communication circuit 310, and transmits the operation control signal from the server 100 to the robot 330 and the imaging device ( 320), the robot 330 and the imaging device 320 can be controlled to operate according to the operation control signal.

도 5는 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 방법을 설명하기 위한 도면이다. Figure 5 is a diagram for explaining a method of controlling dangerous work using an extended reality-based robot according to an embodiment of the present invention.

도 5를 참조하면, 사용자 시스템(200)은 사용자의 음성데이터 또는 움직임 정보가 획득되면(S510), 음성데이터 또는 움직임 정보를 포함하는 제어명령을 서버(100)로 전송한다(S520). Referring to FIG. 5, when the user's voice data or motion information is acquired (S510), the user system 200 transmits a control command including the voice data or motion information to the server 100 (S520).

S520 단계가 수행되면, 서버(100)는 동작 모델에 기초하여 제어명령에 따른 로봇 구성요소들의 좌표를 획득하여 동작제어신호를 생성하고(S530), 생성된 동작제어신호를 로봇 시스템(300)으로 전송한다(S540). 여기서, 제어명령은 사용자의 비전정보 및 움직임 정보를 포함하고, 비전정보 및 움직임 정보는 좌표값을 포함하므로, 서버(100)는 사용자의 비전정보 및 움직임 정보를 로봇(330)의 비전정보 및 움직임 정보로 변환하고, 변환된 비전정보 및 움직임 정보를 포함하는 동작제어신호를 로봇 시스템(300)으로 전송할 수 있다.When step S520 is performed, the server 100 acquires the coordinates of robot components according to the control command based on the motion model, generates a motion control signal (S530), and sends the generated motion control signal to the robot system 300. Transmit (S540). Here, the control command includes the user's vision information and movement information, and the vision information and movement information include coordinate values, so the server 100 combines the user's vision information and movement information with the vision information and movement of the robot 330. It can be converted into information, and a motion control signal including the converted vision information and movement information can be transmitted to the robot system 300.

S540 단계가 수행되면, 로봇 시스템(300)은 동작제어신호에 따라 이동하여 작업을 수행한다(S550).When step S540 is performed, the robot system 300 moves according to the motion control signal and performs the task (S550).

이후, 로봇 시스템(300)은 로봇(330)의 작업 수행 시 비전정보 및 움직임 정보를 서버(100)로 전송하고, 서버(100)는 로봇(330)의 비전정보 및 움직임 정보가 학습되지 않은 정보인 경우 수신한 로봇(330)의 비전정보 및 움직임 정보를 학습하여 동작 모델을 업데이트할 수 있다. Afterwards, the robot system 300 transmits vision information and movement information to the server 100 when the robot 330 performs a task, and the server 100 transmits the vision information and movement information of the robot 330 to information that has not been learned. In this case, the motion model can be updated by learning the received vision information and movement information of the robot 330.

상술한 바와 같이 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템 및 방법은, 발전소 등의 위험 작업에 로봇을 투입하는 경우 확장현실 기술을 이용하여 사용자가 로봇을 제어 및 모니터링할 수 있다. As described above, the system and method for controlling hazardous work using an extended reality-based robot according to an embodiment of the present invention allows the user to control and control the robot using extended reality technology when putting a robot into dangerous work such as a power plant. It can be monitored.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will recognize that various modifications and other equivalent embodiments are possible therefrom. You will understand. Therefore, the true technical protection scope of the present invention should be determined by the scope of the patent claims below.

100 : 서버
200 : 사용자 시스템
210, 310 : 통신회로
220 : 확장현실 디스플레이 장치
230 : 음성인식장치
240 : 햅틱 센서
250, 340 : 제어장치
300 : 로봇 시스템
320 : 촬영장치
330 : 로봇
100: Server
200: user system
210, 310: Communication circuit
220: Extended reality display device
230: Voice recognition device
240: Haptic sensor
250, 340: Control device
300: Robot system
320: filming device
330: robot

Claims (6)

위험 지역에서 수행되는 작업, 각 작업의 순서 및 이동경로에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 서버;
촬영장치를 구비하고, 동작제어신호에 따라 이동하여 해당 작업을 수행하는 로봇 시스템; 및
사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 상기 촬영장치에서 촬영된 영상을 표시하고, 상기 사용자의 음성 및 움직임에 따른 제어명령을 상기 서버로 전송하는 사용자 시스템을 포함하되,
상기 서버는,
상기 동작 모델을 기초로 상기 제어명령에 따른 로봇의 비전정보 또는 움직임 정보를 획득하여 상기 동작제어신호를 생성하고, 상기 동작제어신호를 상기 로봇 시스템으로 전송하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템.
A server that learns a motion model for tasks performed in a dangerous area, at least one scenario for the sequence and movement path of each task, and vision information and movement information of a robot performing each scenario;
A robot system equipped with an imaging device and moving according to motion control signals to perform the corresponding task; and
It includes a user system that displays images captured by the photographing device through an extended reality display device worn on the user's head and transmits control commands according to the user's voice and movement to the server,
The server is,
Based on the motion model, the vision information or movement information of the robot according to the control command is acquired, the motion control signal is generated, and the motion control signal is transmitted to the robot system. Hazardous work control system used.
제1항에 있어서,
상기 로봇 시스템은,
통신회로;
상기 확장현실 디스플레이 장치의 움직임에 따라 동작하여 영상을 촬영하는 촬영장치;
상기 동작제어신호에 따라 이동하여 작업을 수행하는 로봇; 및
상기 촬영장치를 통해 촬영된 영상을 상기 통신회로를 통해 상기 서버로 전송하고, 상기 서버로부터의 동작제어신호를 상기 로봇 또는 촬영장치로 전송하여, 상기 로봇 또는 촬영장치가 상기 동작제어신호에 따라 동작하도록 하는 제어장치를 포함하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템.
According to paragraph 1,
The robot system is,
communication circuit;
a photographing device that operates according to the movement of the extended reality display device to capture images;
A robot that moves and performs work according to the motion control signal; and
The image captured through the imaging device is transmitted to the server through the communication circuit, and an operation control signal from the server is transmitted to the robot or imaging device, so that the robot or imaging device operates according to the operation control signal. A hazardous work control system using an extended reality-based robot, characterized in that it includes a control device to do so.
제1항에 있어서,
상기 사용자 시스템은,
통신회로;
상기 사용자의 머리에 착용되고, 상기 촬영장치를 통해 촬영된 영상을 확장현실로 표시하는 확장현실 디스플레이 장치;
상기 사용자의 음성을 인식하는 음성인식장치;
상기 사용자의 촉각 정보를 인식하는 햅틱 센서; 및
상기 음성인식장치에서 인식된 음성데이터 또는 상기 햅틱 센서를 통해 인식된 촉각 정보로부터 상기 로봇의 움직임에 대한 사용자의 의도를 파악하고, 상기 파악된 의도에 따라 상기 로봇을 제어하기 위한 제어명령을 상기 서버로 전송하며, 상기 로봇 시스템으로부터 수신된 영상을 상기 확장현실 디스플레이 장치를 통해 출력하는 제어장치를 포함하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템.
According to paragraph 1,
The user system is,
communication circuit;
an extended reality display device worn on the user's head and displaying images captured through the photographing device in extended reality;
A voice recognition device that recognizes the user's voice;
A haptic sensor that recognizes the user's tactile information; and
The server determines the user's intention for the movement of the robot from voice data recognized by the voice recognition device or tactile information recognized through the haptic sensor, and sends a control command to control the robot according to the identified intention. A hazardous work control system using an extended reality-based robot, comprising a control device that transmits the image received from the robot system and outputs the image received from the robot system through the extended reality display device.
제1항에 있어서,
상기 서버는,
상기 동작제어신호에 따라 수행한 상기 로봇의 비전정보 또는 움직임 정보를 상기 로봇 시스템으로부터 수신하고, 상기 수신한 로봇의 비전정보 또는 움직임 정보가 학습되지 않은 정보인 경우 상기 수신한 로봇의 비전정보 또는 움직임 정보를 학습하여 상기 동작 모델을 업데이트하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 위험 작업 제어 시스템.
According to paragraph 1,
The server is,
Vision information or movement information of the robot performed according to the motion control signal is received from the robot system, and if the received vision information or movement information of the robot is unlearned information, the received vision information or movement information of the robot A hazardous work control system using an extended reality-based robot, characterized in that the motion model is updated by learning information.
사용자 시스템이, 사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 로봇 시스템의 촬영장치를 통해 촬영된 영상을 디스플레이하는 상태에서 상기 사용자의 음성데이터 또는 움직임 정보가 획득되면, 상기 음성데이터 또는 움직임 정보를 포함하는 제어명령을 서버로 전송하는 단계;
상기 서버가, 기 학습된 동작 모델을 기초로 상기 제어명령에 따른 로봇 구성요소들의 좌표를 획득하여 동작제어신호를 생성하고, 상기 생성된 동작제어신호를 로봇 시스템으로 전송하는 단계; 및
상기 로봇 시스템이 동작제어신호에 따라 이동하여 작업을 수행하는 단계
를 포함하는 확장현실 기반의 로봇을 이용한 위험 작업 제어 방법.
When the user's voice data or motion information is acquired while the user system is displaying an image captured through the imaging device of the robot system through the extended reality display device worn on the user's head, the voice data or motion information is Transmitting a control command including a control command to a server;
The server generates a motion control signal by acquiring coordinates of robot components according to the control command based on a previously learned motion model, and transmitting the generated motion control signal to the robot system; and
A step in which the robot system moves according to a motion control signal and performs work.
A method of controlling dangerous work using an extended reality-based robot including.
제5항에 있어서,
상기 서버가, 위험 지역에서 수행되는 작업, 각 작업의 순서 및 이동경로에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 단계를 더 포함하고,
상기 작업을 수행하는 단계 이후,
상기 서버가, 상기 작업 수행에 따라 로봇이 수행한 비전정보 및 움직임 정보를 상기 로봇 시스템으로부터 수신하고, 상기 수신한 로봇의 비전정보 및 움직임 정보가 학습되지 않은 정보인 경우 상기 수신한 로봇의 비전정보 및 움직임 정보를 학습하여 상기 동작 모델을 업데이트하는 단계를 더 포함하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 위험 작업 제어 방법.
According to clause 5,
The server further includes a step of learning a motion model for tasks performed in a dangerous area, at least one scenario for the sequence and movement path of each task, and vision information and movement information of a robot performing each scenario,
After performing the above operations,
The server receives vision information and movement information performed by the robot according to the task performance from the robot system, and when the received vision information and movement information of the robot are unlearned information, the received vision information of the robot And a hazardous task control method using an extended reality-based robot, further comprising the step of updating the motion model by learning motion information.
KR1020220053641A 2022-04-29 2022-04-29 System and method for controlling dangerousness tasks using robot based on xtended reality Pending KR20230154363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220053641A KR20230154363A (en) 2022-04-29 2022-04-29 System and method for controlling dangerousness tasks using robot based on xtended reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220053641A KR20230154363A (en) 2022-04-29 2022-04-29 System and method for controlling dangerousness tasks using robot based on xtended reality

Publications (1)

Publication Number Publication Date
KR20230154363A true KR20230154363A (en) 2023-11-08

Family

ID=88746143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220053641A Pending KR20230154363A (en) 2022-04-29 2022-04-29 System and method for controlling dangerousness tasks using robot based on xtended reality

Country Status (1)

Country Link
KR (1) KR20230154363A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20250095204A (en) 2023-12-19 2025-06-26 김인권 Communication system using extended reality, and its communication method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20250095204A (en) 2023-12-19 2025-06-26 김인권 Communication system using extended reality, and its communication method

Similar Documents

Publication Publication Date Title
Krupke et al. Comparison of multimodal heading and pointing gestures for co-located mixed reality human-robot interaction
Pan et al. Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device
US10919152B1 (en) Teleoperating of robots with tasks by mapping to human operator pose
Matsas et al. Design of a virtual reality training system for human–robot collaboration in manufacturing tasks
US7714895B2 (en) Interactive and shared augmented reality system and method having local and remote access
Khatib et al. Human-robot contactless collaboration with mixed reality interface
CN113829343B (en) Real-time multitasking and multi-man-machine interaction system based on environment perception
CN111459277B (en) Construction method of manipulator teleoperation system and interactive interface based on mixed reality
US11529737B2 (en) System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment
JP2012171024A (en) Robot system
Huy et al. See-through and spatial augmented reality-a novel framework for human-robot interaction
CN119501929A (en) A robot teleoperation method and system based on virtual reality and digital twin
Krupke et al. Prototyping of immersive HRI scenarios
US11461867B2 (en) Visual interface and communications techniques for use with robots
CN107257946B (en) System for virtual debugging
KR20230154363A (en) System and method for controlling dangerousness tasks using robot based on xtended reality
KR102788639B1 (en) How to display on a robot simulator panel
Su et al. Development of an optical tracking based teleoperation system with virtual reality
Wang et al. Construction of Human-Robot Cooperation Assembly Simulation System Based on Augmented Reality
CN109213306A (en) A kind of robot remote control platform and its design method
KR20240081551A (en) System and method for acquisition dataset of robot control
Bjerkeng et al. Active camera control with obstacle avoidance for remote operations with industrial manipulators: Implementation and experimental results
Stone Virtual reality: A tool for telepresence and human factors research
KR20230100101A (en) Robot control system and method for robot setting and robot control using the same
Lukawski et al. Towards the Development of Telepresence Applications with TIAGo and TIAGo++ Using a Virtual Reality Headset

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20220429

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240509

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20241021

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20250218