[go: up one dir, main page]

WO2019012612A1 - 情報処理装置及び情報処理システム - Google Patents

情報処理装置及び情報処理システム Download PDF

Info

Publication number
WO2019012612A1
WO2019012612A1 PCT/JP2017/025334 JP2017025334W WO2019012612A1 WO 2019012612 A1 WO2019012612 A1 WO 2019012612A1 JP 2017025334 W JP2017025334 W JP 2017025334W WO 2019012612 A1 WO2019012612 A1 WO 2019012612A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
indoor
area
virtual lane
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/025334
Other languages
English (en)
French (fr)
Inventor
雄治 五十嵐
佳明 安達
雅彦 伊川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017563272A priority Critical patent/JP6289791B1/ja
Priority to PCT/JP2017/025334 priority patent/WO2019012612A1/ja
Publication of WO2019012612A1 publication Critical patent/WO2019012612A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to information processing.
  • Patent Documents 1 to 3 disclose techniques relating to a moving device that performs autonomous movement.
  • Patent No. 5902275 gazette JP, 2015-138489, A JP, 2010-86416, A
  • an object of the present invention is to provide a technology that enables a mobile device to autonomously move appropriately indoors.
  • One aspect of the information processing apparatus is a first area (240, 240a1, 240a2, 240b1, 240b2) in which movement of the mobile device (13) is permitted in the indoor where the mobile device (13) performs autonomous movement.
  • 240c, 240d includes a creation unit (1e) for creating first region information (130) indicating the set first regions (240, 240a1, 240a2, 240b1, 240b, 240c, 240d).
  • the moving device (13) detects the features (150, 220, 220a, 220b) present indoors, and the sensor device (s) detects the features (150 220 220a, 220b) present indoors 11) is installed indoors, and the creation unit (1e) includes map information indicating a map of the indoor and a detection distance of the mobile device (13). 1), wherein the sensor device (11) based on the location of the indoor feature to be detected, setting the first region to the indoors (240,240a1,240a2,240b1,240b2,240c, 240d).
  • one aspect of the information processing apparatus is a first area (240, 240a1, 2) where movement of the mobile device (13) is permitted, which is set indoors where the mobile device (13) performs autonomous movement.
  • the mobile device (13) includes a determination unit (1 y) that determines whether or not 240a 2, 240b 1, 240b 2, 240c, and 240d) are appropriately set, and the moving device (13) is a feature (150, 220) present indoors , 220a, 220b), and outputs first position information indicating the position of the detected feature (150, 220, 220a, 220b), and detects and detects the mobile device (13) indoors
  • a sensor device (11) for outputting second position information indicating a position of the moving device (13) is installed indoors, and the determination unit determines the first area based on the first and second position information.
  • 240,240A1,240a2,240b1,240b2,240c determines whether 240d) is properly set.
  • the mobile device can appropriately move autonomously indoors.
  • FIG. 1 is a diagram showing an example of the configuration of an information processing system 10.
  • An information processing system 10 according to the present embodiment is indoor map information indicating an indoor map (indoor map) on which the mobile device autonomously travels, and indicates an area in which movement of the mobile device is permitted in the indoor. Create indoor map information including information. Therefore, it can be said that the information processing system 10 is an indoor mapping system.
  • the information processing system 10 includes an information processing apparatus 1 and an indoor installation type sensor apparatus 11 (hereinafter, may be referred to as a first sensor apparatus 11) installed indoors. And a robot 13 that is a mobile device that moves autonomously.
  • the robot 13 includes a mobile unit mounted sensor device 12 (hereinafter, may be referred to as a second sensor device 12).
  • the information processing apparatus 1 uses the information indicating the area in which the robot 13 is permitted to move indoors based on the information output from the indoor installation type sensor device 11 and the information output from the mobile body mounted sensor device 12. It is possible to create indoor map information including: Therefore, it can be said that the information processing device 1 is an indoor map creating device.
  • indoor refers to indoors in which the robot 13 moves autonomously.
  • an area in which movement of the robot 13 is permitted indoors may be referred to as a movement permitted area.
  • information indicating the movement permission area may be referred to as movement permission area information.
  • At least one first sensor device 11 is installed indoors.
  • the information processing system 10 comprises at least one first sensor device 11.
  • the first sensor device 11 is installed on, for example, a ceiling or a pillar indoors.
  • the first sensor device 11 can detect each of the indoor feature, the person, and the robot 13 as the first detection target.
  • the indoor feature means an object (physically existing object) other than a person, the robot 13 and the first sensor device 11 existing indoors.
  • indoor features that can be detected by the first sensor device 11 include columns, walls, floors, windows, and lighting.
  • the first sensor device 11 is, for example, a laser range sensor or a camera sensor.
  • the first sensor device 11 specifies the type of the detected first detection target. Further, the first sensor device 11 obtains the position of the first detection object (the relative position of the first detection object to the position of the first sensor device 11) with the position of the first sensor device 11 as the origin. The first sensor device 11 measures the distance from the first sensor device 11 to the first detection target, and based on the measurement result, the first detection object whose origin is the position of the first sensor device 11 It is possible to determine the position of an object.
  • the position of the first detection target having the position of the first sensor device 11 as the origin may be referred to as a first relative position.
  • the first sensor device 11 outputs indoor installation type sensor information 110 including type information indicating the specified type and position information indicating the obtained first relative position.
  • type information indicating the type of the first detection target and position information indicating the first relative position of the first detection target are associated with each other.
  • the first sensor device 11 detects the first detection target, for example, periodically (for example, every 100 ms). Then, each time the first sensor device 11 detects the first detection object, the type information and position information on the detected first detection object, and identification information for identifying the first sensor device 11 Output indoor sensor information 110 including the The first sensor device 11 outputs the indoor installation type sensor information 110, for example, periodically (for example, every 100 ms).
  • the indoor installation type sensor information 110 may be referred to as first sensor information 110.
  • the second sensor device 12 mounted on the robot 13 can detect each of the indoor feature and the person as a second detection target.
  • indoor features that can be detected by the second sensor device 12 include columns, walls, floors, windows, and lighting.
  • the second sensor device 12 is, for example, a laser range sensor or a camera sensor. In the present embodiment, the detection accuracy of the first sensor device 11 is higher than the detection accuracy of the second sensor device 12.
  • the second sensor device 12 specifies the type of the detected second detection target. Further, the second sensor device 12 obtains the position of the second detection object (the relative position of the second detection object with respect to the position of the second sensor device 12) with the position of the second sensor device 12 as the origin. The second sensor device 12 measures the distance from the second sensor device 12 to the second detection object, and based on the measurement result, the second detection object whose position is the position of the second sensor device 12 is the origin. It is possible to determine the position of an object.
  • the position of the second detection target with the position of the second sensor device 12 as the origin may be referred to as a second relative position.
  • the second sensor device 12 outputs moving body mounted sensor information 120 including type information indicating the specified type and position information indicating the obtained second relative position.
  • type information indicating the type of the second detection target and position information indicating the second relative position of the second detection target are associated with each other.
  • the second sensor device 12 detects the second detection target, for example, periodically (for example, every 100 ms). Then, each time the second sensor device 12 detects the second detection target, the second sensor device 12 outputs the mobile-body mounted sensor information 120 including type information and position information on the detected second detection target. The second sensor device 12 outputs the mobile unit mounted sensor information 120, for example, periodically (for example, every 100 ms). Hereinafter, the mobile unit mounted sensor information 120 may be referred to as second sensor information 120.
  • the information processing apparatus 1 includes, as functional blocks, an indoor installation type sensor information collecting unit 1a, a moving body position calculating unit 1b, an indoor map information storage unit 1c, a moving body mounted sensor information collecting unit 1d, and indoor virtual lane information A creation unit 1e and an indoor virtual lane information verification unit 1f are provided.
  • the information processing device 1 is, for example, a type of computer device (computer circuit). The information processing device 1 may be provided indoors or outdoors.
  • the indoor installation type sensor information collecting unit 1a collects the first sensor information 110 output by the first sensor device 11.
  • the indoor installation type sensor information collecting unit 1a can perform wired communication or wireless communication with the first sensor device 11.
  • the indoor installation type sensor information collecting unit 1 a collects the first sensor information 110 by communicating with the first sensor device 11.
  • the indoor installation type sensor information collecting unit 1a may communicate, for example, in compliance with Ethernet (registered trademark) or may perform serial communication.
  • the indoor installation type sensor information collecting unit 1a may perform communication in compliance with Wi-Fi, for example, or perform communication in compliance with Bluetooth (registered trademark). It is also good.
  • the indoor installation type sensor information collecting unit 1a may be referred to as a first collecting unit 1a.
  • the mobile unit mounted sensor information collecting unit 1 d collects the second sensor information 120 output from the second sensor device 12.
  • the mobile unit mounted sensor information collecting unit 1 d can perform, for example, wireless communication with the second sensor device 12.
  • the mobile unit mounted sensor information collecting unit 1 d collects the second sensor information 120 by communicating with the second sensor device 12.
  • the mobile unit mounted sensor information collecting unit 1d may perform communication in compliance with Wi-Fi, for example, or may perform communication in compliance with Bluetooth.
  • the mobile unit mounted sensor information collecting unit 1d communicates with the communication unit of the robot 13 on which the second sensor device 12 is mounted, thereby outputting the second sensor unit 12 via the communication unit.
  • Sensor information 120 may be collected.
  • the mobile unit mounted sensor information collecting unit 1d may be referred to as a second collecting unit 1d.
  • the indoor map information storage unit 1c stores indoor map information indicating an indoor map.
  • the indoor map information includes, for example, feature information for identifying indoor features such as columns, walls, and passages, and first sensor identification information for identifying the first sensor device 11.
  • feature information for example, an identification number (ID) assigned to the indoor feature, type information indicating the type of the indoor feature (post and wall, etc.), and position information indicating the position of the indoor feature Are associated.
  • the feature information for specifying the passage includes passage shape information indicating the shape of the passage.
  • identification information for identifying the first sensor device 11 and position information indicating the position of the first sensor device 11 are associated with each other.
  • an XYZ orthogonal coordinate system having an origin at a predetermined position in the room is set indoors.
  • Indoor map information is created using this XYZ orthogonal coordinate system.
  • This XYZ orthogonal coordinate system is called a map coordinate system.
  • the position information included in the indoor map information indicates the position in the map coordinate system.
  • the map coordinate system can be said to be a coordinate system set in an indoor map or indoor map information.
  • the indoor map information is generated based on, for example, an architectural drawing or the like, and is stored in advance in the indoor map information storage unit 1c.
  • indoor virtual lane information as movement permitted area information generated by the indoor virtual lane information creation unit 1e is not stored in advance in the indoor map information storage unit 1c, but is stored in the indoor map information storage.
  • the indoor map information previously stored in the unit 1c is included later.
  • the indoor map information storage unit 1c may be referred to as a storage unit 1c.
  • the mobile body position calculation unit 1b uses the position information indicating the first relative position of the robot 13 included in the first sensor information 110 collected by the first collection unit 1a to determine the position of the robot 13 on the indoor map. Calculate In other words, the mobile body position calculation unit 1 b calculates the position of the robot 13 in the map coordinate system using the first relative position of the robot 13 detected by the first sensor device 11. The position in the map coordinate system may be called map position.
  • the position of the robot 13 in the map coordinate system which is calculated using the first relative position of the robot 13 by the mobile body position calculation unit 1b, may be referred to as a first map position of the robot.
  • the mobile body position calculation unit 1b may be referred to as a calculation unit 1b.
  • the calculation unit 1b calculates the map position of the robot 13 using the position information indicating the second relative position of the indoor feature included in the second sensor information 120 collected by the second collection unit 1d. In other words, the calculation unit 1 b calculates the map position of the robot 13 using the second relative position of the indoor feature detected by the second sensor device 12.
  • the map position of the robot 13 calculated by the calculation unit 1 b using the second relative position of the indoor feature may be referred to as a second map position of the robot 13.
  • the indoor virtual lane information creating unit 1 e is a movement in which the robot 13 is permitted to move indoors based on the map position of the indoor feature detected by the first sensor device 11 and the indoor map information in the storage unit 1 c. Set the permission area. Then, the indoor virtual lane information creation unit 1e creates movement permission area information 130 indicating the set movement permission area, and includes the movement permission area information 130 in the indoor map information in the storage unit 1c.
  • the movement permission area information 130 is information for specifying the movement permission area in the indoor map.
  • the movement permitted area and movement permitted area information 130 may be referred to as indoor virtual lane and indoor virtual lane information 130, respectively.
  • the indoor virtual lane information creation unit 1e may be referred to as a creation unit 1e.
  • the indoor virtual lane information verification unit 1 f verifies whether the indoor virtual lane information 130 created by the creation unit 1 e is appropriate based on the first map position and the second map position of the robot 13 calculated by the calculation unit 1 b. Do. In other words, the indoor virtual lane information verification unit 1 f verifies whether the indoor virtual lane is properly set.
  • the indoor virtual lane information verification unit 1 f includes verification result information 140 indicating the indoor virtual lane information 130 in the verified indoor virtual lane information 130.
  • indoor virtual lane information 130 including verification result information 140 may be referred to as indoor virtual lane information (verified) 130.
  • indoor virtual lane information 130 (including indoor virtual lane information 130 not verified by the indoor virtual lane information verification unit 1 f) that is not determined to be appropriate by the indoor virtual lane information verification unit 1 f (Unverified) It may be called 130.
  • the indoor virtual lane information verification unit 1 f may be referred to as a verification unit 1 f.
  • position information indicating the first relative position of the robot 13 which is output by the first sensor device 11 by the calculation unit 1 b and the verification unit 1 f and an indoor feature which is output by the second sensor device 12.
  • the determination unit 1y is configured to determine whether the indoor virtual lane set by the creation unit 1e is appropriately set based on the position information indicating the second relative position.
  • FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus 1.
  • the information processing device 1 includes a processing circuit 2, a storage device 3, a first communication device 4, and a second communication device 5 as hardware.
  • the processing circuit 2 is, for example, a CPU (Central Processing Unit).
  • the processing circuit 2 may include a DSP (Digital Signal Processor).
  • the storage device 3 includes, for example, a non-temporary recording medium readable by the processing circuit 2 (CPU), such as a read only memory (ROM) and a random access memory (RAM).
  • the storage device 3 may include a non-transitory storage medium readable by a computer other than the ROM and the RAM.
  • the storage device 3 may include, for example, a hard disk drive (HDD) or a solid state drive (SSD).
  • the storage device 3 includes a control program 3 a for controlling the information processing device 1.
  • the storage device 3 stores indoor map information and functions as the above-mentioned storage unit 1c.
  • each of the calculation unit 1b, the creation unit 1e, and the verification unit 1f includes, for example, functional blocks realized by the processing circuit 2 (CPU) executing the control program 3a in the storage device 3. It is done.
  • the first communication device 4 is a communication circuit that performs wired communication or wireless communication with the first sensor device 11.
  • the first communication device 4 functions as the above-described first collecting unit 1a.
  • the second communication device 5 is a communication circuit that performs wired communication or wireless communication with the second sensor device 12.
  • the second communication device 5 functions as the above-described second collecting unit 1 d.
  • the processing circuit 2 may be realized by a hardware circuit that does not require software to realize its function.
  • the processing circuit 2 is, for example, at least a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), and a field-programmable gate array (FPGA). You may be comprised by one.
  • each of the calculation unit 1 b, the creation unit 1 e, and the verification unit 1 f has hardware that does not require software to realize its function. It is realized by the wear circuit.
  • at least one of the calculation unit 1 b, the creation unit 1 e, and the verification unit 1 f may be realized by a hardware circuit that does not require software to realize the function.
  • the robot 13 on which the second sensor device 12 is mounted moves autonomously on the indoor virtual lane indicated by the indoor virtual lane information 130 in the storage unit 1 c based on the position of the indoor feature detected by the second sensor device 12. can do.
  • FIG. 3 is a view showing an example of the robot 13 autonomously moving on the indoor virtual lane 240.
  • the second sensor device 12 mounted on the robot 13 calculates the distance to the indoor feature 150, and the calculation result is Based on the position of the indoor feature 150 with the second sensor device 12 as the origin, the second relative position of the indoor feature 150 is determined.
  • the detection distance d1 of the second sensor device 12 (the radius of the circular detection range 12a) is, for example, 5 to 30 m.
  • the robot 13 obtains the map position of the robot 13 from the second relative position of the indoor feature 150.
  • the robot 13 repeatedly obtains the map position of the robot 13 by using, for example, a CPU mounted thereon.
  • the robot 13 each time the robot 13 obtains the map position of the robot 13, the calculated map position is compared with the indoor virtual lane (movement permitted area) 240 indicated by the indoor virtual lane information 130, and based on the comparison result. And move toward the destination so that the map position does not deviate from the indoor virtual lane 240. Thus, the robot 13 can move autonomously on the indoor virtual lane 240 appropriately.
  • the robot 13 may determine a route including only the indoor virtual lane indicated by the indoor virtual lane information (verified) 130 or the indoor virtual lane information (verified) 130 A route including both the indoor virtual lane indicated by and the indoor virtual lane indicated by indoor virtual lane information (unverified) 130 may be determined. In the latter case, for example, the robot 13 gives priority to the indoor virtual lane indicated by the indoor virtual lane information (verified) 130 as the moving area, rather than the indoor virtual lane indicated by the indoor virtual lane information (not verified) 130. Decide.
  • the robot 13 When obtaining the map position of the robot 13, the robot 13 detects the map position of the detected indoor feature 150 included in the indoor map information in the storage unit 1 c as the second collecting unit 1 d (second communication device 5 ) From the information processing apparatus 1). Then, the robot 13 obtains the map position of the robot 13 based on the map position of the indoor feature 150 received from the information processing device 1 and the obtained second relative position of the indoor feature 150. Assuming that the map position of the indoor feature 150 is (X0, Y0, Z0) and the second relative position of the indoor feature 150 is (Xr, Yr, Zr), the map position of the robot 13 is (X0-Xr, Y0- It becomes Yr, Z0-Zr). When the robot 13 autonomously moves, for example, the pillar is detected, and the map position of the robot 13 is obtained based on the detected second relative position of the pillar and the map position of the pillar.
  • the robot 13 can determine its own map position by detecting the indoor feature 150. Then, the robot 13 can autonomously move indoors based on the obtained map position and the indoor virtual lane information 130.
  • the indoor feature that can be detected by the second sensor device 12 of the robot 13 may include a dedicated marker (marker for position recognition) for the robot 13 to obtain its own map position.
  • a dedicated marker marker for position recognition
  • the shape of the detection range 12a of the second sensor device 12 shown in FIG. 3 is merely an example, and the shape of the detection range 12a is not limited to this.
  • FIG. 4 is a flowchart showing an example of processing for creating indoor virtual lane information (movable area information) 130 performed by the information processing apparatus 1.
  • FIG. 5 is a diagram showing an example of the indoor virtual lane 240 indicated by the indoor virtual lane information 130 created by the information processing device 1.
  • FIG. 5 shows the passage 200, the wall 210, the first pillar 220a, the second pillar 220b, and the first sensor device 11 in which the person and the robot 13 can move indoors.
  • an indoor virtual lane 240 is set for the passage 200 divided by the wall 210 indoors.
  • the first sensor device 11 to be described may be referred to as a target first sensor device 11.
  • step S101 the first collection unit 1a collects first sensor information (indoor installation type sensor information) 110 output by the target first sensor device 11.
  • the creation unit 1e is an indoor feature detected by the target first sensor device 11 based on the first sensor information 110 collected in step S101 and the indoor map information in the storage unit 1c.
  • a range in which the robot 13 can detect and the range in which the robot 13 can move is set indoors.
  • a range in which the robot 13 can detect an indoor feature detected by the target first sensor device 11 may be referred to as a detectable range.
  • the creating unit 1 e sets an area in which the robot 13 can detect the pillar 220 detected by the target first sensor device 11 as a detectable range. Then, the creation unit 1e defines, for example, a range in which the passage 200 in which the robot 13 can move and the detectable range overlap with each other is the detectable / movable range 230.
  • the creating unit 1e determines the map position of the pillar 220 detected by the target first sensor device 11 as the indoor map in the storage unit 1c. Get from the information. Specifically, the creation unit 1 e identifies the type of the column 220 detected by the first sensor device 11 from the type information included in the first sensor information 110. Then, the creation unit 1e acquires, from the indoor map information in the storage unit 1c, the position information associated with the type information indicating the specified column type. Since the position information indicates the map position of the pillar 220 detected by the target first sensor device 11, the creating unit 1 e can acquire the map position of the pillar 220 detected by the target first sensor device 11.
  • the creation unit 1e sets a circular area having a detection distance d1 (see FIG. 3) of the target first sensor device 11 as a radius centering on the acquired map position of the pillar 220 as a detectable range.
  • a detection distance d1 used in the setting of the detectable range, a value obtained in advance by experiment may be adopted, or a value described in a spec sheet of the robot may be adopted.
  • the creation unit 1e specifies the overlapping range of the determined detectable range and the passage 200 indoors, and sets the specified range as the detectable / movable range 230.
  • the creation unit 1e sets a circular area having a detection distance d1 of the target first sensor device 11 as a radius centering on the map position (X1, Y1, Z1) of the first pillar 220a. Then, the creation unit 1e sets a range where the determined detectable range and the passage 200 overlap to be a first detection / movable range 230a based on the first pillar 220a.
  • the creation unit 1e sets a circular area having a detection distance d1 of the target first sensor device 11 as a radius centering on the map position (X2, Y2, Z2) of the second pillar 220b. Then, the creation unit 1e sets a range in which the determined detectable range and the passage 200 overlap to be a second detectable / movable range 230b based on the second pillar 220b.
  • the first detection and movement range 230a and the second detection and movement range 230b are schematically shown.
  • step S102 when the detection and movement range 230 is set indoors, the creation unit 1e sets an indoor virtual lane 240 in the detection and movement range 230 in step S103.
  • the creating unit 1 e sets the indoor virtual lane 240 in the detection / movability range 230 based on, for example, passage direction information indicating the passage direction indoors and robot dimension information indicating the size of the robot.
  • the passage direction information includes, for example, information indicating whether the indoor passage is passing on the right or passing on the left.
  • the robot dimension information includes the dimensions of the robot, that is, the width Wr, the depth Dr and the height Hr of the robot. As the robot dimension information, an actual measurement value may be adopted, or a value described in a specification sheet of the robot may be adopted.
  • the generation unit 1e specifies the passage direction in the detection and movement range 230 from the passage direction information.
  • the creating unit 1 e is an area where there is no obstacle (indoor feature that becomes an obstacle to the movement of the robot 13) to the movement of the robot 13 extending along the identified passing direction, and the width of the robot 13 is An area having a width W1 corresponding to Wr is set as the indoor virtual lane 240 in the detection / movable range 230.
  • the robot 13 can move on the indoor virtual lane 240 along the traveling direction defined indoors.
  • the obstacles to the movement of the robot include pillars, walls and exhibits.
  • the creating unit 1 e can specify the map position of the indoor feature that is an obstacle to the movement of the robot 13.
  • the margin ⁇ is that when the robot 13 moves on the indoor virtual lane 240 indoors, the robot 13 moves on the indoor virtual lane 240 even if the position of the robot 13 is slightly shifted. It is set to the value that can be done.
  • the margin ⁇ can be said to be an offset value or a margin value.
  • the first indoor virtual lane 240a1 and the second indoor virtual lane 240a2 having a width W1 extending along the passing direction 250 are included in the detection / movability range 230a based on the first pillar 220a.
  • the third indoor virtual lane 240a3 are set.
  • a fourth indoor virtual lane 240b1 of a width W1 extending along the passing direction 250, a fifth indoor virtual lane 240b2, and a sixth An indoor virtual lane 240b3 is set.
  • the creation unit 1e follows the passing direction 250 in the detection / movable range 230.
  • An elongated rectangular area having a predetermined width is sequentially arranged from the wall 210 toward the inside thereof.
  • the creating unit 1 e sets an area obtained by bundling a rectangular area that does not overlap with an obstacle such as the pillar 220 by the width W 1 as an indoor virtual lane 240.
  • the method of setting the indoor virtual lane 240 having the width W1 in the detectable / movable range 230 by the creation unit 1e is not limited to this.
  • the passing direction 250 is a straight line, but may not be a straight line.
  • the creating unit 1 e When the creating unit 1 e sets the indoor virtual lane 240 in the detection / movable range 230, the creating unit 1 e creates indoor virtual lane information 130 indicating the set indoor virtual lane 240. As a result, indoor virtual lane information (unverified) 130 is obtained.
  • the indoor virtual lane information 130 includes information indicating the range of the indoor virtual lane 240 on the indoor map and information indicating the map position.
  • the creation unit 1e includes the created indoor virtual lane information 130 in the indoor map information in the storage unit 1c.
  • the indoor virtual lane information 130 indicating the indoor virtual lane 240 set in the detection and movement range 230 also includes information indicating the detection and movement range 230 and information indicating the passing direction in the indoor virtual lane 240. include.
  • first to third indoor virtual lane information 130 respectively indicating the first indoor virtual lane 240a1, the second indoor virtual lane 240a2, and the third indoor virtual lane 240a3 is created.
  • fourth to sixth indoor virtual lane information 130 respectively indicating the fourth indoor virtual lane 240b1, the fifth indoor virtual lane 240b2, and the sixth indoor virtual lane 240b3 are created.
  • indoor virtual lane information 130 indicating the indoor virtual lane 240 set in the detection / movable range 230 based on the indoor feature (in this example, a pillar) detected by the target first sensor device 11
  • feature information ID, type information and position information
  • FIG. 6 is a diagram showing an example of information included in indoor map information 100 corresponding to the example of FIG.
  • the first feature information for specifying the first pillar 220a is associated with the first to third indoor virtual lane information respectively indicating the indoor virtual lane 240a3.
  • the ID of the first column 220a is 1.
  • Second feature information for specifying the second pillar 220b is associated with the fourth to sixth indoor virtual lane information shown.
  • the ID of the second pillar 220b is two.
  • the indoor virtual lane 240 which is an area where the robot 13 is permitted to move is set indoors, and indoor virtual lane information 130 indicating the indoor virtual lane 240 is included in the indoor map information.
  • the robot 13 can specify the area permitted to move indoors by acquiring indoor map information from the information processing device 1. Therefore, the robot 13 can autonomously move on the area permitted to move. That is, the robot 13 can autonomously move indoors appropriately.
  • the information processing apparatus 1 may execute indoor virtual lane information creation processing (steps S101 to S103) shown in FIG. 4 according to a user's execution instruction, or may automatically execute it. Good.
  • the first sensor information 110 output by the first sensor device 11 is used for each of the plurality of first sensor devices 11.
  • Indoor virtual lane information 130 is created.
  • the detection distance d1 of the second sensor device 12, the passing direction information, and the robot dimension information, which are used to create the indoor virtual lane information 130, may be stored in advance in the storage unit 1c, or the indoor virtual lane
  • the information processing apparatus 1 may be input to the information processing apparatus 1 from the outside.
  • the user may input the detected distance d1, the passing direction information and the robot dimension information to the information processing apparatus 1, or the information processing apparatus 1 stores the detected distance d1, the passing direction information and the robot dimension information
  • the wireless communication or the wired communication may be performed with the device to obtain the information from the device.
  • the indoor virtual lane 240 When the indoor virtual lane 240 is in contact with an indoor feature such as a pillar or a wall, when the robot 13 moving on the indoor virtual lane 240 protrudes from the indoor virtual lane 240, the indoor feature is an obstacle. And the robot 13 may come into contact with the indoor feature.
  • an indoor feature such as a pillar or a wall
  • the creating unit 1 e includes an indoor virtual lane 240 and indoor features 150 (pillars, walls, exhibits, etc.) that may become an obstacle when the robot 13 protrudes from there.
  • the indoor virtual lane 240 may be set indoors such that the distance L1 between the distance L1 and the distance L1 is equal to or greater than a predetermined distance Lo.
  • the detection distance of the first sensor device 11 (hereinafter also referred to as first detection distance) is greater than the detection distance d1 of the second sensor device 12 (hereinafter also referred to as second detection distance) It may be, may be the same as it, or may be smaller than it.
  • the first sensor device 11 detects an indoor feature that can be detected by the second sensor device 12 depending on the installation location of the first sensor device 11. There is something I can not do.
  • the detection and movable range 230 based on that is not set, so indoor virtual near the indoor features is assumed. Lane 240 is not set. Therefore, even if the robot 13 can detect the indoor feature and obtain its own map position, movement is permitted because the indoor virtual lane 240 does not exist near the indoor feature. It becomes difficult to move the area.
  • the first detection distance is larger than the second detection distance
  • the possibility that the first sensor device 11 can not detect indoor features that can be detected by the second sensor device 12 can be reduced. Therefore, the possibility that the indoor virtual lane 240 does not exist near the indoor feature detected by the robot 13 can be reduced.
  • the robot 13 can move more reliably in the area permitted to move.
  • the first detection distance is larger than the second detection distance, assuming that the second detection distance (d1) is 5 to 10 m as described above, the first detection distance is set to, for example, about 100 m.
  • the second detection distance is smaller than the first detection distance
  • the power consumption of the second sensor device 12 can be reduced, and as a result, the power consumption of the robot 13 can be reduced.
  • the drive time of the robot 13 can be extended by the second detection distance being smaller than the first detection distance.
  • 1st sensor apparatus 11 installed indoors is not driven by a battery but a commercial power supply etc. is always supplied, 1st detection distance is set larger than 2nd detection distance. Even if the power consumption of the first sensor device 11 is increased, the possibility that the driving time of the first sensor device 11 is shortened is low.
  • the second sensor device 12 which is less expensive than the first sensor device 11 can be adopted, thereby reducing the material cost of the robot 13 It becomes possible.
  • an average value of the widths of the plurality of types of robots 13 may be adopted as the width Wr included in the robot dimension information, or the maximum value is adopted. May be When the maximum value of the widths of a plurality of types of robots 13 is adopted as the width Wr, the possibility of each robot 13 moving out of the indoor virtual lane 240 can be reduced. Therefore, each robot 13 can move autonomously indoors appropriately.
  • the indoor virtual lane information 130 indicating the indoor virtual lane 240 may include the height from the floor surface to the ceiling in the indoor virtual lane 240.
  • the indoor map information includes the floor-to-ceiling height at the aisle.
  • the height from the floor surface to the ceiling is called the ceiling height.
  • the creating unit 1 e identifies the ceiling height in the indoor virtual lane 240 set in the detection / movable range 230 from the ceiling height of the passage included in the indoor map information, and determines the identified ceiling height It is included in indoor virtual lane information 130 indicating the lane 240.
  • the robot 13 determines a route that moves on the indoor virtual lane 240 indicated by the indoor virtual lane information 130 including a ceiling height lower than its own height. As a result, the robot 13 can autonomously move indoors properly.
  • the robot 13 passes through the certain area. As a result, it is difficult to move between the two indoor virtual lanes 240.
  • the creation unit 1e can not move from the indoor virtual lanes 240 to the next indoor virtual lane 240 in the indoor virtual lanes 240.
  • An immovable area may be set.
  • the creating unit 1 e includes, in the indoor virtual lane information 130 indicating the indoor virtual lane 240, non-moving area information indicating the non-moveable region set in the indoor virtual lane 240.
  • the movement impossible area information is information for specifying the movement impossible area in the indoor map.
  • the creation unit 1 e can specify the map position of the obstacle between the two indoor virtual lanes 240 adjacent to each other based on the feature information and the indoor virtual lane information 130 included in the indoor map information.
  • FIG. 8 shows that an obstacle 280 is present between the first indoor virtual lane 240a1 and the second indoor virtual lane 240a2 in FIG. 5 described above.
  • a non-moveable area 290 a 1 which can not move to a second indoor virtual lane 240 a 2 next to the first indoor virtual lane 240 a 1 is set.
  • a movement impossible area 290a2 which can not move from there to the adjacent first indoor virtual lane 240a1 is set.
  • the robot 13 moving on the indoor virtual lane 240 by including the immobile area information in the indoor virtual lane information 130 is based on the indoor virtual lane information 130 indicating the indoor virtual lane 240 and the indoor virtual lane information 130. It can be determined whether it is possible to move from lane 240 to the next indoor virtual lane 240. Therefore, the robot 13 moving on the indoor virtual lane 240 can determine whether it can move from the indoor virtual lane 240 to the next indoor virtual lane 240 without detecting an obstacle. As a result, processing by the robot 13 is simplified.
  • the floor surface is made of tempered glass, wood or the like indoors.
  • the floor surface may be damaged.
  • the indoor virtual lane information 130 indicating the indoor virtual lane 240 may include load resistance information indicating the load resistance of the floor surface of the indoor virtual lane 240.
  • the indoor map information includes, for example, load bearing information indicating the load bearing of the floor surface of the passage.
  • the creating unit 1e acquires load resistance information indicating the load resistance of the floor surface of the set indoor virtual lane 240 from load resistance information included in indoor map information, and acquires the acquired load resistance information as the indoor virtual lane 240 It is included in indoor virtual lane information 130 shown.
  • the load bearing information indicating the load bearing of the floor surface of a certain area may be the upper limit value (for example, unit kg) of the weight of the robot 13 capable of moving the certain area, or the floor of the certain area
  • the load capacity per unit area of the surface in units of, for example, kg / m 2 ) may be used.
  • the robot 13 when the robot 13 performs the route search by including the load bearing information in the indoor virtual lane information 130, the load bearing information included in the indoor virtual lane information 130 and its own weight stored in advance (robot weight And based on that, it is possible to determine such a path as to move on the indoor virtual lane 240 whose own weight does not exceed the load bearing capacity of the floor surface.
  • the robot 13 can appropriately move indoors autonomously.
  • the creating unit 1 e is based on indoor map information, the detection distance d 1 of the robot 13, and the position of the indoor feature detected by the first sensor device 11.
  • the indoor virtual lane 240 which is an area where movement is permitted, is set indoors. As a result, it is possible to set an indoor virtual lane 240 which can autonomously move on the robot 13 while detecting the indoor feature, indoors. Thus, the robot 13 can appropriately move indoors autonomously.
  • the line tracer is a technology that enables the robot to move autonomously by recognizing a line drawn in advance with respect to the floor.
  • the indoor virtual lane 240 can be automatically made indoor by updating the map position of the indoor feature included in the indoor map information. It can be set.
  • the appropriate indoor virtual lane 240 is automatically set indoors by updating the map position of the first sensor device 11 included in the indoor map information. can do.
  • the robot 13 can easily move along the passing direction determined indoors.
  • the creating unit 1e can easily set the indoor virtual lane 240 of an appropriate width.
  • the creation unit 1e may set the indoor virtual lane 240 without using the passing direction information.
  • the creation unit 1 e sets, for example, an area where no obstacle exists in the detection / movability range 230 as the indoor virtual lane 240.
  • the creating unit 1e sets the indoor virtual lane 240 without using the passing direction information.
  • the creation unit 1e may set the indoor virtual lane 240 without using the width Wr included in the robot dimension information.
  • the creation unit 1e sets, for example, an indoor virtual lane 240 having a fixed width W1 stored in advance in the storage unit 1c indoors.
  • FIG. 9 is a flowchart showing an example of the verification process.
  • the verification process illustrated in FIG. 9 is repeatedly performed periodically or irregularly.
  • the second sensor device 12 to be described may be referred to as a target second sensor device 12.
  • step S201 the first collection unit 1a collects the first sensor information 110 output by the target first sensor device 11.
  • the second collecting unit 1d collects the second sensor information 120 output by the target second sensor device 12 in parallel with the collection of the first sensor information 110 by the first collecting unit 1a.
  • step S202 the calculation unit 1b obtains the map position of the robot 13 based on the first relative position of the robot 13 included in the first sensor information 110 collected in step S201. Specifically, the calculation unit 1b identifies identification information for identifying the target first sensor device 11 from the first sensor information 110 collected in step S201 (hereinafter, may be referred to as first sensor identification information). To get Then, the calculation unit 1b acquires position information associated with the acquired first sensor identification information in the indoor map information in the storage unit 1c. Since this position information indicates the map position of the target first sensor device 11, the calculation unit 1b can acquire the map position of the target first sensor device 11.
  • the first sensor identification information may be the IP address or port number of the network to which the target first sensor device 11 is connected, or the COM number (COM 1 or COM number of serial communication performed by the target first sensor device 11). It may be a physical port number such as COM2).
  • the calculation unit 1b uses the acquired map position to map the first relative position of the robot 13 included in the first sensor information 110 collected in step S201 to the map position. Convert to For example, assuming that the map position of the target first sensor device 11 is (X3, Y3, Z3) and the first relative position of the robot 13 included in the first sensor information 110 is (Xp, Yp, Zp), The map position (the first map position of the robot) is represented by (X3 + Xp, Y3 + Yp, Z3 + Zp).
  • step S203 the calculation unit 1b obtains the map position of the robot 13 based on the second relative position of the indoor feature included in the second sensor information 120 collected in step S201. Specifically, calculation unit 1 b acquires the map position of the indoor feature whose second relative position is included in second sensor information 120 collected in step S 202 from the indoor map information in storage unit 1 c. In other words, the calculation unit 1 b acquires the map position of the indoor feature detected by the second sensor device 12 from the indoor map information in the storage unit 1 c. In the present example, the calculation unit 1 b acquires the map position of the pillar detected by the second sensor device 12 from the indoor map information in the storage unit 1 c.
  • the calculation unit 1b calculates the map position of the indoor feature (pillar) detected by the second sensor device 12 and the second feature of the indoor feature (pillar) included in the second sensor information 120 collected in step S201. Based on the relative position (the second relative position of the indoor feature detected by the second sensor device 12), the map position of the robot 13 is obtained. For example, assuming that the map position and the second relative position of the indoor feature detected by the second sensor device 12 are (X4, Y4, Z4) and (Xq, Yq, Zq), respectively, the map position of the robot 13 (robot 13 The second map position of is expressed by (X4-Xq, Y4-Yq, Z4-Zq).
  • the second map position of the robot 13 obtained in step s203 is the same as the map position of the robot 13 which the robot 13 itself detects and finds indoor features.
  • the verification unit 1f determines the distance D between the first map position of the robot 13 determined in step S202 and the second map position of the robot 13 determined in step S203 (in cm, for example). Ask for). It can be said that the distance D indicates the difference between the first map position and the second map position of the robot 13.
  • the distance D is expressed as follows using the first map position (X3 + Xp, Y3 + Yp, Z3 + Zp) of the robot 13 and the second map position (X4-Xq, Y4-Yq, Z4-Zq) of the robot 13.
  • step S205 the verification unit 1 f determines whether the distance D obtained in step S204 is equal to or less than the threshold value K.
  • the threshold value K a value obtained in advance by experiment or the like is employed.
  • the threshold value K is set to, for example, less than 25 cm.
  • step S206 the verification unit 1 f is appropriate for indoor virtual lane information 130 indicating the indoor virtual lane 240 where the robot 13 is currently located. It is determined that In other words, the verification unit 1 f determines that the indoor virtual lane 240 in which the robot 13 is currently positioned is appropriately set. The verification unit 1 f then determines that the indoor virtual lane information 130 is appropriate for the indoor virtual lane information 130 indicating the indoor virtual lane 240 in which the robot 13 is currently located, which is included in the indoor map information in the storage unit 1 c. Include verification result information 140 indicating that.
  • the verification unit 1 f specifies the indoor virtual lane 240 in which the robot 13 is positioned, with the first map position of the robot 13 (the map position obtained from the first sensor information 110) as the current position of the robot 13.
  • indoor virtual lane information (verified) 130 is obtained.
  • the acquired indoor virtual lane information (verified) 130 is included in the indoor map information.
  • the first map position of the robot 13 obtained by using the first relative position of the robot 13 obtained by the first sensor device 11 having high detection accuracy is regarded as the current correct position of the robot 13. Used. Therefore, when the distance D is equal to or less than the threshold value K, it can be said that the calculation accuracy of the second map position of the robot 13 is high. In other words, it can be said that the position calculation accuracy is high when the robot 13 determines its own map position.
  • the position calculation accuracy of the robot 13 moving on the indoor virtual lane 240 is high, the robot 13 is less likely to be detached from the indoor virtual lane 240, and appropriately moves on the indoor virtual lane 240. Can.
  • the distance D is equal to or less than the threshold value K
  • the indoor virtual lane 240 in which the robot 13 currently moves is properly set. That is, when the distance D is equal to or less than the threshold value K, it can be said that indoor virtual lane information 130 indicating the indoor virtual lane 240 in which the robot 13 currently travels is appropriate.
  • the robot 13 moves on the indoor virtual lane 240 while maintaining a predetermined position calculation accuracy. It can be said that you can.
  • the robot 13 when the distance D obtained when the robot 13 moves on the indoor virtual lane 240 is equal to or less than the threshold value K, the robot 13 itself determines using the second sensor information 120. It can be said that the user can appropriately move on the indoor virtual lane 240 based on the map position of the robot 13.
  • the indoor virtual lane 240 in which the robot 13 is located is an area where the map position of the robot 13 can be calculated within a predetermined error range when the robot 13 moves thereon. It can be said that
  • step S205 when it is determined in step S205 that the distance D is equal to or less than the threshold value K, the indoor virtual lane information 130 is determined to be appropriate, and the indoor virtual lane information (verified) 130 is created. Ru.
  • step S205 if it is determined in step S205 that the distance D is larger than the threshold value K, the verification process ends without performing step s206.
  • the verification unit 1 f may determine that the indoor virtual lane information 130 is appropriate.
  • the information processing apparatus 1 may execute the indoor virtual lane verification process (steps S201 to S206) shown in FIG. 9 according to a user's execution instruction or may automatically execute it.
  • the information processing apparatus 1 determines whether the indoor virtual lane information 130 is appropriate. That is, the information processing apparatus 1 appropriately moves on the indoor virtual lane 240 based on the map position of the robot 13 determined using the second sensor information 120 output by the second sensor device 12 of the information processing apparatus 1. It is determined whether you can Therefore, the indoor virtual lane 240 that the robot 13 can actually use can be set indoors. That is, reliable indoor virtual lane information 130 that can be actually used by the robot 13 can be provided to the robot 13. As a result, the robot 13 can autonomously move indoors properly.
  • the determination unit 1y determines whether the indoor virtual lane set in the indoor by another method is appropriately set, not the indoor virtual lane 240 set in the indoor by the creation unit 1e as described above. May be
  • the robot 13 moving indoors may move near the door.
  • the robot 13 stops in front of the opening door door that opens and closes in the front and rear direction
  • the robot 13 may inhibit the opening and closing of the opening door.
  • the robot 13 may use elevators such as an elevator and an escalator. In this case, when the robot 13 stops near the boarding gate of the elevator, the robot 13 may get in the way of the user of the elevator. In addition, when the robot 13 stops near the entrance or exit of the escalator, the robot 13 may interfere with the user of the escalator.
  • elevators such as an elevator and an escalator.
  • the indoor virtual lane information 130 indicating the indoor virtual lane 240 is included in the indoor virtual lane 240 indicating the stop prohibition area information indicating the stop prohibition area for prohibiting the robot 13 from stopping.
  • FIG. 10 shows an example of the stop prohibition area.
  • a predetermined range including the opening and closing range 320 where the door 310 opens and closes is set as the stop prohibition area 300c.
  • the smallest rectangle (a circumscribed rectangle) including the open / close range 320 is set as the stop prohibition area 300c.
  • information indicating the open / close range 320 is included in advance in the indoor map information.
  • the creation unit 1e identifies the open / close range 302 from the indoor map information, and sets the stop prohibition area 300c including the identified open / close range 302 in the set indoor virtual lane 240c. Then, the creation unit 1e includes stop prohibition area information indicating the set stop prohibition area 300c in indoor virtual lane information 130 indicating the indoor virtual lane 240c.
  • the stop prohibition area information is information for specifying the stop prohibition area 300c on the indoor map.
  • FIG. 11 is a diagram showing another example of the stop prohibition area.
  • an elevator elevator car 350, a door 360 and a call button 370 are shown.
  • the stop prohibition area 300d is set in front of the door 360 in the indoor virtual lane 240d.
  • the stop prohibition area 300d is set in such an area that the robot 13 interferes with the person coming out of the lift cage 350 and the person who gets on the lift cage 350. Ru.
  • information indicating the size and the map position of the door 360 of the elevator is included in the indoor map information in advance.
  • the creation unit 1e specifies the size and map position of the elevator door from the indoor map information, and sets the stop prohibition area 300d in front of the specified door 260 in the set indoor virtual lane 240d. Then, the creation unit 1e includes stop prohibition area information indicating the set stop prohibition area 300d in indoor virtual lane information indicating the indoor virtual lane 240d.
  • the stop prohibition area information is information for specifying the stop prohibition area 300 d on the indoor map.
  • the indoor virtual lane information 130 indicating the indoor virtual lane 240 includes information indicating an area where the stopping of the robot 13 is prohibited in the indoor virtual lane 240.
  • the robot 13 can not stop in an area which disturbs people indoors at its own discretion.
  • it is possible to realize an indoor traffic environment in which a person and the robot 13 can move smoothly.
  • the congestion degree of the person in the indoor virtual lane 240 is included in the indoor virtual lane information 130 indicating the indoor virtual lane 240.
  • the robot 13 can move indoors avoiding the crowded indoor virtual lane 240.
  • FIG. 12 is a diagram showing an example of the configuration of the information processing system 10 according to the present embodiment.
  • An information processing system 10 according to the present embodiment further includes a congestion degree calculator 1g in the information processing system 10 shown in FIG. 1 described above.
  • the congestion degree calculation unit 1g calculates the degree of congestion of people indoors.
  • the congestion degree calculation unit 1 g may be a functional block realized by the above-described processing circuit 2 (CPU) executing the control program 3 a in the storage device 3, and no software is required to realize the function. It may be realized by a hardware circuit.
  • the congestion degree calculation unit 1g may be referred to as a calculation unit 1g.
  • the mobile object position calculation unit 1 b and the congestion degree calculation unit 1 g cause congestion in the indoor virtual lane 240 based on position information indicating the first relative position of a person included in the first sensor information 110.
  • the acquisition part 1z which acquires a degree is comprised. It can be said that the acquiring unit 1z acquires the degree of congestion in the indoor virtual lane 240 based on the position of the person detected by the first sensor device 11.
  • the mobile body position calculation unit 1b obtains the map position of the person based on the first relative position of the person included in the first sensor information 110 collected by the first collection unit 1a. In other words, the calculation unit 1 b obtains the map position of the person based on the first relative position of the person detected by the first sensor device 11.
  • the calculation unit 1 b acquires the map position of the first sensor device 11 from the indoor map information in the storage unit 1 c. Then, the calculation unit 1 b obtains the map position of the person based on the map position of the first sensor device 11 and the first relative position of the person included in the first sensor information 110.
  • the map position of the first sensor device 11 is (X3, Y3, Z3) and the first relative position of a person is (Xs, Ys, Zs)
  • the map position of the person is represented by (X3 + Xs, Y3 + Ys, Z3 + Zs) Be done.
  • the calculation unit 1 b obtains a map position for each person detected by the first sensor device 11.
  • the congestion degree calculation unit 1g obtains the congestion degree of the person in each indoor virtual lane 240 set by the creation unit 1e based on the map position of each person obtained by the moving body position calculation unit 1b.
  • the first map position of the person obtained by the calculation unit 1b is input to the calculation unit 1g, for example, at fixed time intervals.
  • the calculation unit 1 g periodically or irregularly obtains the degree of crowded person in each indoor virtual lane 240.
  • the indoor virtual lane 240 that is the target of the description is referred to as a target indoor virtual lane 240.
  • the calculation unit 1 g divides the target indoor virtual lane 240 into a plurality of divided areas for each unit area when obtaining the degree of human congestion in the target indoor virtual lane 240.
  • the shape of the divided area is, for example, a square with a side length of 50 cm.
  • the calculation unit 1g individually obtains the degree of congestion of the person for each divided area based on the map position of the person who is input. For example, for each divided area, the calculation unit 1g obtains the number of persons who enter the divided area during the unit time based on the input map position of the person.
  • the calculation unit 1g obtains, for example, the number of persons who enter the division area in 30 minutes. Then, the calculation unit 1g adopts the obtained number as the degree of congestion of people.
  • the calculation unit 1g obtains the degree of human congestion for each divided area of the target indoor virtual lane 240
  • the calculation unit 1g creates the calculated degree of human congestion for each divided area as the degree of human congestion in the target indoor virtual lane 240.
  • the creation unit 1 e includes the degree of human congestion in the target indoor virtual lane 240 received from the calculation unit 1 g in the indoor virtual lane information 130 indicating the target indoor virtual lane 240.
  • the calculation unit 1 g may obtain the congestion degree of the person in the indoor virtual lane 240 by another method. For example, for each divided area of the target indoor virtual lane 240, the calculation unit 1g obtains a time average of the number of people present in the divided area. For example, the calculation unit 1 g obtains the number of people present in the divided area a plurality of times at predetermined timings, and calculates the average value of the number of people present in the divided area a plurality of times A time average of the number of Then, the calculation unit 1 g sets the obtained time average of the number of persons present in the divided area as the degree of congestion of the person in the divided area. Then, the calculation unit 1 g sets the degree of human congestion in each divided area obtained as the degree of human congestion in the target indoor virtual lane 240.
  • the degree of human congestion in the indoor virtual lane 240 is included in the indoor virtual lane information 130 indicating the indoor virtual lane 240.
  • the robot 13 can move indoors while avoiding the crowded indoor virtual lane 240. Therefore, it is possible to realize an indoor traffic environment in which a person and the robot 13 can move smoothly.
  • the robot 13 can predict the traveling time to the destination using the degree of congestion of the person included in the indoor virtual lane information 130.
  • each embodiment can be freely combined, or each embodiment can be appropriately modified or omitted.
  • SYMBOLS 1 information processing apparatus 1e creation part, 1y determination part, 1z acquisition part, 10 information processing system, 11 indoor installation type sensor apparatus (1st sensor apparatus), 13 robots, 130 indoor virtual lane information (movement permission area

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

作成部(1e)は、屋内において、移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す第1領域情報(130)を作成する。移動装置(13)は、屋内に存在する地物(150,220,220a,220b)を検出する。屋内に存在する地物(150,220,220a,220b)を検出するセンサ装置(11)が屋内に設置されている。作成部(1e)は、屋内の地図を示す地図情報と、移動装置(13)の検出距離(d1)と、センサ装置(11)が検出する屋内地物の位置とに基づいて、屋内に第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する。

Description

情報処理装置及び情報処理システム
 本発明は、情報処理に関する。
 近年、高齢者の増加及び労働力人口の減少などの社会的問題への対策として、屋内における様々な作業をロボットに行わせるための技術開発が進められている。屋内おいてロボットに行わせる作業としては、例えば、物資の運搬、清掃、あるいは人の移動支援などが挙げられる。
 特許文献1~3には、自律移動を行う移動装置に関する技術が開示されている。
特許第5902275号公報 特開2015-138489号公報 特開2010-86416号公報
 ロボット等の移動装置については、屋内において適切に自律移動できることが望まれる。
 そこで、本発明は上述の点に鑑みて成されたものであり、移動装置が屋内において適切に自律移動することを可能にする技術を提供することを目的とする。
 本発明に係る情報処理装置の一態様は、移動装置(13)が自律移動を行う屋内において、当該移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す第1領域情報(130)を作成する作成部(1e)を備え、前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、前記屋内に存在する地物(150,220,220a,220b)を検出するセンサ装置(11)が前記屋内に設置され、前記作成部(1e)は、前記屋内の地図を示す地図情報と、前記移動装置(13)の検出距離(d1)と、前記センサ装置(11)が検出する屋内地物の位置とに基づいて、前記屋内に前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する。
 また、本発明に係る情報処理装置の一態様は、移動装置(13)が自律移動を行う屋内に設定された、当該移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が、適切に設定されているか否かを判定する判定部(1y)を備え、前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、検出した当該地物(150,220,220a,220b)の位置を示す第1位置情報を出力し、前記屋内の前記移動装置(13)を検出し、検出した前記移動装置(13)の位置を示す第2位置情報を出力するセンサ装置(11)が前記屋内に設置され、前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が適切に設定されているか否かを判定する。
 本発明によれば、移動装置が屋内において適切に自律移動することができる。
情報処理システムの一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 ロボットが屋内仮想レーン上を移動する様子の一例を示す図である。 情報処理装置の動作の一例を示すフローチャートである。 屋内仮想レーンの一例を示す図である。 屋内地図情報に含まれる情報の一例を示す図である。 屋内仮想レーンの一例を示す図である。 屋内仮想レーンに設定される移動不可領域の一例を示す図である。 情報処理装置の動作の一例を示すフローチャートである。 屋内仮想レーンに設定される停止禁止領域の一例を示す図である。 屋内仮想レーンに設定される停止禁止領域の一例を示す図である。 情報処理システムの一例を示す図である。
 実施の形態1.
 <情報処理システムの概要>
 図1は情報処理システム10の構成の一例を示す図である。本実施の形態に係る情報処理システム10は、移動装置が自律移動する屋内の地図(屋内地図)を示す屋内地図情報であって、当該屋内における、当該移動装置の移動が許可された領域を示す情報を含む屋内地図情報を作成する。したがって、情報処理システム10は、屋内地図作成システムであるとも言える。
 図1に示されるように、情報処理システム10は、情報処理装置1と、屋内に設置される屋内設置型センサ装置11(以後、第1センサ装置11と呼ぶことがある)と、当該屋内を自律移動する移動装置であるロボット13とを備える。ロボット13は、移動体搭載センサ装置12(以後、第2センサ装置12と呼ぶことがある)を備える。情報処理装置1は、屋内設置型センサ装置11から出力される情報と、移動体搭載センサ装置12から出力される情報とに基づいて、屋内においてロボット13の移動が許可された領域を示す情報を含む屋内地図情報を作成することが可能である。したがって、情報処理装置1は、屋内地図作成装置であるとも言える。
 以後、屋内と言えば、ロボット13が自律移動する屋内を意味する。また、屋内において、ロボット13の移動が許可された領域を移動許可領域と呼ぶことがある。また、移動許可領域を示す情報を移動許可領域情報と呼ぶことがある。
 屋内には少なくとも一つの第1センサ装置11が設置される。したがって、情報処理システム10は少なとも一つの第1センサ装置11を備える。第1センサ装置11は、例えば、屋内の天井あるいは柱等に設置される。第1センサ装置11は、屋内地物、人及びロボット13のそれぞれを第1検出対象物として検出することが可能である。ここで、屋内地物とは、屋内に存在する、人、ロボット13及び第1センサ装置11以外の物体(物理的に存在する物)を意味する。第1センサ装置11が検出可能な屋内地物としては、例えば、柱、壁、床、窓及び照明などが挙げられる。第1センサ装置11は、例えば、レーザーレンジセンサあるいはカメラセンサである。
 第1センサ装置11は、検出した第1検出対象物の種別を特定する。また第1センサ装置11は、当該第1センサ装置11の位置を原点とした第1検出対象物の位置(第1センサ装置11の位置に対する第1検出対象物の相対的な位置)を求める。第1センサ装置11は、当該第1センサ装置11から第1検出対象物までの距離を測定し、その測定結果に基づいて、当該第1センサ装置11の位置を原点とした当該第1検出対象物の位置を求めることが可能である。以後、第1センサ装置11の位置を原点とした第1検出対象物の位置を第1相対位置と呼ぶことがある。
 第1センサ装置11は、特定した種別を示す種別情報と、求めた第1相対位置を示す位置情報とを含む屋内設置型センサ情報110を出力する。屋内設置型センサ情報110では、第1検出対象物の種別を示す種別情報と、当該第1検出対象物の第1相対位置を示す位置情報とが互いに対応付けられている。
 第1センサ装置11は、例えば定期的に(例えば100msごとに)第1検出対象物を検出する。そして、第1センサ装置11は、第1検出対象物を検出するたびに、検出した第1検出対象物についての種別情報及び位置情報と、当該第1センサ装置11を識別するための識別情報とを含む屋内設置型センサ情報110を出力する。第1センサ装置11は、屋内設置型センサ情報110を例えば定期的に(例えば100msごとに)出力する。以後、屋内設置型センサ情報110を第1センサ情報110と呼ぶことがある。
 ロボット13に搭載された第2センサ装置12は、屋内地物及び人のそれぞれを第2検出対象物として検出することが可能である。第2センサ装置12が検出可能な屋内地物としては、例えば、柱、壁、床、窓及び照明などが挙げられる。第2センサ装置12は、例えば、レーザーレンジセンサあるいはカメラセンサである。本実施の形態では、第1センサ装置11の検出精度が、第2センサ装置12の検出精度よりも高くなっている。
 第2センサ装置12は、検出した第2検出対象物の種別を特定する。また第2センサ装置12は、当該第2センサ装置12の位置を原点とした第2検出対象物の位置(第2センサ装置12の位置に対する第2検出対象物の相対的な位置)を求める。第2センサ装置12は、当該第2センサ装置12から第2検出対象物までの距離を測定し、その測定結果に基づいて、当該第2センサ装置12の位置を原点とした当該第2検出対象物の位置を求めることが可能である。以後、第2センサ装置12の位置を原点とした第2検出対象物の位置を第2相対位置と呼ぶことがある。
 第2センサ装置12は、特定した種別を示す種別情報と、求めた第2相対位置を示す位置情報とを含む移動体搭載センサ情報120を出力する。移動体搭載センサ情報120では、第2検出対象物の種別を示す種別情報と、当該第2検出対象物の第2相対位置を示す位置情報とが互いに対応付けられている。
 第2センサ装置12は、例えば定期的に(例えば100msごとに)第2検出対象物を検出する。そして、第2センサ装置12は、第2検出対象物を検出するたびに、検出した第2検出対象物についての種別情報及び位置情報を含む移動体搭載センサ情報120を出力する。第2センサ装置12は、移動体搭載センサ情報120を例えば定期的に(例えば100msごとに)出力する。以後、移動体搭載センサ情報120を第2センサ情報120と呼ぶことがある。
 情報処理装置1は、機能ブロックとして、屋内設置型センサ情報収集部1aと、移動体位置算出部1bと、屋内地図情報記憶部1cと、移動体搭載センサ情報収集部1dと、屋内仮想レーン情報作成部1eと、屋内仮想レーン情報検証部1fとを備えている。情報処理装置1は、例えば、一種のコンピュータ装置(コンピュータ回路)である。情報処理装置1は、屋内に設けられてもよいし、屋外に設けられてもよい。
 屋内設置型センサ情報収集部1aは、第1センサ装置11が出力する第1センサ情報110を収集する。屋内設置型センサ情報収集部1aは、第1センサ装置11と有線通信あるいは無線通信を行うことが可能である。屋内設置型センサ情報収集部1aは、第1センサ装置11と通信することによって、第1センサ情報110を収集する。屋内設置型センサ情報収集部1aは、有線通信を行う場合には、例えば、Ethernet(登録商標)に準拠して通信してもよいし、シリアル通信を行ってもよい。また、屋内設置型センサ情報収集部1aは、無線通信を行う場合には、例えば、Wi-Fiに準拠して通信を行ってもよいし、Bluetooth(登録商標)に準拠して通信を行ってもよい。以後、屋内設置型センサ情報収集部1aを第1収集部1aと呼ぶことがある。
 移動体搭載センサ情報収集部1dは、第2センサ装置12が出力する第2センサ情報120を収集する。移動体搭載センサ情報収集部1dは、第2センサ装置12と例えば無線通信を行うことが可能である。移動体搭載センサ情報収集部1dは、第2センサ装置12と通信することによって、第2センサ情報120を収集する。移動体搭載センサ情報収集部1dは、例えば、Wi-Fiに準拠して通信を行ってもよいし、Bluetoothに準拠して通信を行ってもよい。なお、移動体搭載センサ情報収集部1dは、第2センサ装置12が搭載されたロボット13が有する通信部と通信することによって、当該通信部を介して、第2センサ装置12が出力する第2センサ情報120を収集してもよい。以後、移動体搭載センサ情報収集部1dを第2収集部1dと呼ぶことがある。
 屋内地図情報記憶部1cは、屋内地図を示す屋内地図情報を記憶する。屋内地図情報には、例えば、柱、壁及び通路等の屋内地物を特定するための地物情報と、第1センサ装置11を特定するため第1センサ特定情報とが含まれている。地物情報では、例えば、屋内地物に割り当てられた識別番号(ID)と、当該屋内地物の種別(柱及び壁など)を示す種別情報と、当該屋内地物の位置を示す位置情報とが対応付けられている。また、通路を特定するための地物情報には、当該通路の形状を示す通路形状情報が含まれている。第1センサ特定情報では、第1センサ装置11を識別するための識別情報と、第1センサ装置11の位置を示す位置情報とが対応付けられている。
 ここで、屋内には、当該屋内の所定の位置を原点とするXYZ直交座標系が設定されている。屋内地図情報は、このXYZ直交座標系が用いられて作成されている。このXYZ直交座標系を地図座標系と呼ぶ。屋内地図情報に含まれる位置情報は、地図座標系での位置を示している。地図座標系は、屋内地図あるいは屋内地図情報に設定された座標系であるとも言える。屋内地図情報は、例えば建築図面等に基づいて生成され、屋内地図情報記憶部1cに予め記憶される。
 なお、後述するように、屋内仮想レーン情報作成部1eが生成する、移動許可領域情報としての屋内仮想レーン情報は、屋内地図情報記憶部1c内に予め記憶されているのでなく、屋内地図情報記憶部1c内に予め記憶された屋内地図情報に対して後から含められる。以後、屋内地図情報記憶部1cを記憶部1cと呼ぶことがある。
 移動体位置算出部1bは、第1収集部1aが収集した第1センサ情報110に含まれる、ロボット13の第1相対位置を示す位置情報を用いて、屋内地図上での当該ロボット13の位置を算出する。言い換えれば、移動体位置算出部1bは、第1センサ装置11が検出したロボット13の第1相対位置を用いて、地図座標系での当該ロボット13の位置を算出する。地図座標系での位置を地図位置と呼ぶことがある。また、移動体位置算出部1bが、ロボット13の第1相対位置を用いて算出する、地図座標系での当該ロボット13の位置を、ロボットの第1地図位置と呼ぶことがある。また、移動体位置算出部1bを算出部1bと呼ぶことがある。
 算出部1bは、第2収集部1dが収集した第2センサ情報120に含まれる、屋内地物の第2相対位置を示す位置情報を用いて、ロボット13の地図位置を算出する。言い換えれば、算出部1bは、第2センサ装置12が検出した屋内地物の第2相対位置を用いてロボット13の地図位置を算出する。以後、算出部1bが、屋内地物の第2相対位置を用いて算出するロボット13の地図位置を、ロボット13の第2地図位置と呼ぶことがある。
 屋内仮想レーン情報作成部1eは、第1センサ装置11が検出した屋内地物の地図位置と、記憶部1c内の屋内地図情報とに基づいて、屋内において、ロボット13の移動が許可された移動許可領域を設定する。そして、屋内仮想レーン情報作成部1eは、設定した移動許可領域を示す移動許可領域情報130を作成して記憶部1c内の屋内地図情報に含める。移動許可領域情報130は、屋内地図において移動許可領域を特定するための情報である。以後、移動許可領域及び移動許可領域情報130を、屋内仮想レーン及び屋内仮想レーン情報130とそれぞれ呼ぶことがある。また、屋内仮想レーン情報作成部1eを作成部1eと呼ぶことがある。
 屋内仮想レーン情報検証部1fは、算出部1bが算出した、ロボット13の第1地図位置及び第2地図位置に基づいて、作成部1eが作成した屋内仮想レーン情報130が適切か否かを検証する。言い換えれば、屋内仮想レーン情報検証部1fは、屋内仮想レーンが適切に設定されているか否かを検証する。屋内仮想レーン情報検証部1fは、屋内仮想レーン情報130が適切であると判定すると、それを示す検証結果情報140を、検証した屋内仮想レーン情報130に含める。
 以後、検証結果情報140を含む屋内仮想レーン情報130を屋内仮想レーン情報(検証済)130と呼ぶことがある。また、屋内仮想レーン情報検証部1fで適切であると判定されていない屋内仮想レーン情報130(屋内仮想レーン情報検証部1fによって検証されていない屋内仮想レーン情報130を含む)を、屋内仮想レーン情報(未検証)130と呼ぶことがある。また、屋内仮想レーン情報検証部1fを検証部1fと呼ぶことがある。
 本実施の形態では、算出部1b及び検証部1fによって、第1センサ装置11が出力する、ロボット13の第1相対位置を示す位置情報と、第2センサ装置12が出力する、屋内地物の第2相対位置を示す位置情報とに基づいて、作成部1eが設定した屋内仮想レーンが、適切に設定されているか否かを判定する判定部1yが構成されている。
 図2は情報処理装置1のハードウェア構成の一例を示す図である。図2に示されるように、情報処理装置1は、ハードウェアとして、処理回路2と、記憶装置3と、第1通信装置4と、第2通信装置5とを備えている。
 処理回路2は、例えば、CPU(Central Processing Unit)である。処理回路2は、DSP(Digital Signal Processor)を備えてもよい。記憶装置3は、例えば、ROM(Read Only Memory)及びRAM(Random Access Memory)などの、処理回路2(CPU)が読み取り可能な非一時的な記録媒体を含む。記憶装置3は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶装置3は、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などを備えてもよい。記憶装置3は、情報処理装置1を制御するための制御プログラム3aを備えている。また記憶装置3は、屋内地図情報を記憶しており、上述の記憶部1cとして機能する。
 本実施の形態では、算出部1b、作成部1e及び検証部1fのそれぞれは、例えば、処理回路2(CPU)が記憶装置3内の制御プログラム3aを実行することによって実現される機能ブロックで構成されている。
 第1通信装置4は、第1センサ装置11と有線通信あるいは無線通信を行う通信回路である。第1通信装置4は、上述の第1収集部1aとして機能する。第2通信装置5は、第2センサ装置12と有線通信あるいは無線通信を行う通信回路である。第2通信装置5は、上述の第2収集部1dとして機能する。
 なお、処理回路2は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。この場合には、処理回路2は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)及びFPGA(field-programmable gate array)の少なくとも一つで構成されてもよい。処理回路2が、その機能の実現にソフトウェアが不要なハードウェア回路によって実現される場合には、算出部1b、作成部1e及び検証部1fのそれぞれが、その機能の実現にソフトウェアが不要なハードウェア回路によって実現される。また、算出部1b、作成部1e及び検証部1fの少なくとも一つが、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。
 <ロボットの自律移動>
 第2センサ装置12が搭載されたロボット13は、当該第2センサ装置12が検出する屋内地物の位置に基づいて、記憶部1c内の屋内仮想レーン情報130が示す屋内仮想レーン上を自律移動することができる。
 図3はロボット13が屋内仮想レーン240上を自律移動する様子の一例を示す図である。図3に示されるように、ロボット13に搭載された第2センサ装置12は、その検出範囲12a内に屋内地物150が入ると、屋内地物150との距離を算出し、その算出結果に基づいて、第2センサ装置12を原点とした屋内地物150の位置、つまり屋内地物150の第2相対位置を求める。第2センサ装置12の検出距離d1(円形の検出範囲12aの半径)は、例えば5~30mである。そして、ロボット13は、屋内地物150の第2相対位置から、当該ロボット13の地図位置を求める。ロボット13は、例えばそれに搭載されたCPUにおいて、当該ロボット13の地図位置を繰り返し求める。そして、ロボット13は、当該ロボット13の地図位置を求めるたびに、求めた地図位置と、屋内仮想レーン情報130が示す屋内仮想レーン(移動許可領域)240とを比較し、その比較結果に基づいて、当該地図位置が当該屋内仮想レーン240から外れないように、目的地に向かって移動する。これにより、ロボット13は、屋内仮想レーン240上を適切に自律移動することができる。
 ロボット13は、目的地までの移動経路を決定する場合、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンだけを含む経路を決定してもよいし、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンと屋内仮想レーン情報(未検証)130が示す屋内仮想レーンとの両方を含む経路を決定してもよい。後者の場合、ロボット13は、例えば、屋内仮想レーン情報(未検証)130が示す屋内仮想レーンよりも、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンを移動する領域として優先させて経路を決定する。
 ロボット13は、当該ロボット13の地図位置を求める際には、記憶部1c内の屋内地図情報に含まれる、検出した屋内地物150の地図位置を、第2収集部1d(第2通信装置5)を通じて情報処理装置1から受け取る。そして、ロボット13は、情報処理装置1から受け取った屋内地物150の地図位置と、求めた屋内地物150の第2相対位置とに基づいて、当該ロボット13の地図位置を求める。屋内地物150の地図位置を(X0,Y0,Z0)とし、屋内地物150の第2相対位置を(Xr,Yr,Zr)とすると、ロボット13の地図位置は(X0-Xr,Y0-Yr,Z0-Zr)となる。ロボット13は、自律移動する際、例えば、柱を検出し、検出した柱の第2相対位置と、当該柱の地図位置とに基づいて、当該ロボット13の地図位置を求める。
 このように、ロボット13は、屋内地物150を検出することによって自己の地図位置を求めることが可能である。そして、ロボット13は、求めた自己の地図位置と屋内仮想レーン情報130とに基づいて、屋内を自律移動することが可能である。
 なお、ロボット13の第2センサ装置12が検出可能な屋内地物には、ロボット13が自己の地図位置を求めるための専用のマーカー(位置認識用マーカー)が含まれてもよい。また図3に示される、第2センサ装置12の検出範囲12aの形状は、あくまでも一例であって、検出範囲12aの形状はこれに限れない。
 <屋内仮想レーン情報の作成処理>
 図4は、情報処理装置1で行われる、屋内仮想レーン情報(移動可能領域情報)130の作成処理の一例を示すフローチャートである。図5は、情報処理装置1が作成した屋内仮想レーン情報130が示す屋内仮想レーン240の一例を示す図である。図5には、屋内における、人及びロボット13が移動することが可能な通路200、壁210、第1の柱220a、第2の柱220b及び第1センサ装置11が示されている。図5の例では、屋内において、壁210で区分された通路200に対して屋内仮想レーン240が設定されている。以後、説明の対象の第1センサ装置11を対象第1センサ装置11と呼ぶことがある。
 図4に示されるように、ステップS101において、第1収集部1aは、対象第1センサ装置11が出力する第1センサ情報(屋内設置型センサ情報)110を収集する。
 次にステップS102において、作成部1eは、ステップS101で収集された第1センサ情報110と、記憶部1c内の屋内地図情報とに基づいて、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲であって、ロボット13が移動することが可能な範囲を、屋内に設定する。以後、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲を検出可能範囲と呼ぶことがある。また、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲であって、ロボット13が移動することが可能な範囲を検出・移動可能範囲と呼ぶことがある。以下にステップS102について詳細に説明する。
 作成部1eは、例えば、対象第1センサ装置11で検出された柱220をロボット13が検出することが可能な領域を検出可能範囲とする。そして、作成部1eは、例えば、ロボット13が移動することが可能な通路200と検出可能範囲とが重なる範囲を、検出・移動可能範囲230とする。
 作成部1eが屋内に検出可能範囲を設定する方法の一例を説明すると、まず、作成部1eは、対象第1センサ装置11で検出された柱220の地図位置を、記憶部1c内の屋内地図情報から取得する。具体的には、作成部1eは、第1センサ情報110に含まれる種別情報から、第1センサ装置11が検出した柱220の種別を特定する。そして、作成部1eは、記憶部1c内の屋内地図情報から、特定した柱の種別を示す種別情報に対応付けられた位置情報を取得する。この位置情報は、対象第1センサ装置11で検出された柱220の地図位置を示すことから、作成部1eは、対象第1センサ装置11で検出された柱220の地図位置を取得できる。
 次に作成部1eは、取得した柱220の地図位置を中心とし、対象第1センサ装置11の検出距離d1(図3参照)を半径とする円領域を、検出可能範囲として屋内に設定する。検出可能範囲の設定で使用される検出距離d1は、あらかじめ実験で求められた値が採用されてもよいし、ロボットのスペックシートに記載されている値が採用されてもよい。
 作成部1eは、検出可能範囲を決定すると、屋内において、決定した検出可能範囲と通路200とが重複する範囲を特定し、特定した当該範囲を検出・移動可能範囲230とする。
 例えば、図5の例において、第1センサ装置11が第1の柱220aと第2の柱220bを検出したとする。この場合、作成部1eは、第1の柱220aの地図位置(X1,Y1,Z1)を中心とし、対象第1センサ装置11の検出距離d1を半径とする円領域を検出可能範囲とする。そして、作成部1eは、決定した検出可能範囲と通路200とが重複する範囲を、第1の柱220aを基準とした第1の検出・移動可能範囲230aとする。同様に、作成部1eは、第2の柱220bの地図位置(X2,Y2,Z2)を中心とし、対象第1センサ装置11の検出距離d1を半径とする円領域を検出可能範囲とする。そして、作成部1eは、決定した検出可能範囲と通路200とが重複する範囲を、第2の柱220bを基準とした第2の検出・移動可能範囲230bとする。なお図5では、第1の検出・移動可能範囲230a及び第2の検出・移動可能範囲230bが模式的に示されている。
 ステップS102において、検出・移動可能範囲230が屋内に設定されると、ステップS103において、作成部1eは、検出・移動可能範囲230内において、屋内仮想レーン240を設定する。作成部1eは、例えば、屋内での通行方向を示す通行方向情報と、ロボットの大きさを示すロボット寸法情報とに基づいて、検出・移動可能範囲230内において、屋内仮想レーン240を設定する。通行方向情報には、例えば、屋内の通路が、右側通行であるいのか、左側通行であるのかを示す情報が含まれている。ロボット寸法情報には、ロボットの各寸法、つまりロボットの幅Wr、奥行きDr及び高さHrが含まれる。ロボット寸法情報は、実測値が採用されてもよいし、ロボットのスペックシートに記載されている値が採用されてもよい。
 作成部1eが検出・移動可能範囲230内に屋内仮想レーン240を設定する方法の一例を説明すると、作成部1eは、まず、通行方向情報から、検出・移動可能範囲230での通行方向を特定する。そして、作成部1eは、特定した通行方向に沿って延びる、ロボット13の移動に対する障害物(ロボット13の移動に対して障害となる屋内地物)が存在しない領域であって、ロボット13の幅Wrに応じた幅W1を有する領域を屋内仮想レーン240として検出・移動可能範囲230内に設定する。これにより、ロボット13は、屋内に定められた通行方向に沿って屋内仮想レーン240上を移動することが可能となる。ロボットの移動に対する障害物としては、柱、壁及び展示物などが挙げられる。作成部1eは、屋内地図情報から、ロボット13の移動に対して障害物となる屋内地物の地図位置を特定することができる。
 屋内仮想レーンの幅W1は、例えば、ロボット13の幅Wrに対してマージンαを加えた値に設定される(W1=Wr+α)。マージンαは、屋内において、ロボット13が屋内仮想レーン240上を移動する際に、当該ロボット13の位置が多少ずれた場合であっても、当該ロボット13が屋内仮想レーン240上を移動することができる程度の値に設定される。マージンαは、オフセット値あるいは余裕値とも言える。
 図5の例では、第1の柱220aを基準とする検出・移動可能範囲230a内には、通行方向250に沿って延びる幅W1の第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3が設定されている。また、第2の柱220bを基準とする検出・移動可能範囲230b内には、通行方向250に沿って延びる幅W1の第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第6の屋内仮想レーン240b3が設定されている。
 例えば、図5に示される第1の屋内仮想レーン240a1及び第2の屋内仮想レーン240a2等が設定される場合には、作成部1eは、検出・移動可能範囲230内において、通行方向250に沿って延びる、所定幅の長細い矩形領域を、壁210からその内側に向けて順に配置していく。そして、作成部1eは、柱220等の障害物と重ならない矩形領域を幅W1の分だけ束ねて得られる領域を屋内仮想レーン240とする。なお、作成部1eが検出・移動可能範囲230内に幅W1の屋内仮想レーン240を設定する方法はこれに限られない。また図5の例では、通行方向250は直線であるが、直線でなくてもよい。
 作成部1eは、検出・移動可能範囲230内に屋内仮想レーン240を設定すると、設定した屋内仮想レーン240を示す屋内仮想レーン情報130を作成する。これにより、屋内仮想レーン情報(未検証)130が得られる。屋内仮想レーン情報130には、屋内地図上での屋内仮想レーン240の範囲を示す情報とその地図位置を示す情報とが含まれている。そして、作成部1eは、作成した屋内仮想レーン情報130を、記憶部1c内の屋内地図情報に含める。検出・移動可能範囲230内に設定された屋内仮想レーン240を示す屋内仮想レーン情報130には、当該検出・移動可能範囲230を示す情報と、当該屋内仮想レーン240での通行方向を示す情報も含まれている。
 図5の例では、第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3をそれぞれ示す第1~第3の屋内仮想レーン情報130が作成される。また、第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第6の屋内仮想レーン240b3をそれぞれ示す第4~第6の屋内仮想レーン情報130が作成される。
 屋内地図情報では、対象第1センサ装置11が検出した屋内地物(本例では柱)を基準とする検出・移動可能範囲230内に設定された屋内仮想レーン240を示す屋内仮想レーン情報130に対して、当該屋内地物を特定するための地物情報(ID、種別情報及び位置情報)が対応付けられる。
 図6は、図5の例に対応する屋内地図情報100に含まれる情報の一例を示す図である。図6に示されるように、第1の柱220aを基準とする第1の検出・移動可能範囲内230aに設定された第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3をそれぞれ示す第1~第3の屋内仮想レーン情報に対しては、第1の柱220aを特定するための第1の地物情報が対応付けられている。図6の例では、第1の柱220aのIDは1となっている。また、第2の柱220bを基準とする第2の検出・移動可能範囲内230bに設定された第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第5の屋内仮想レーン240b3をそれぞれ示す第4~第6の屋内仮想レーン情報に対しては、第2の柱220bを特定するための第2の地物情報が対応付けられている。図6の例では、第2の柱220bのIDは2となっている。
 このようにして、ロボット13が移動することが許可された領域である屋内仮想レーン240が屋内に設定され、当該屋内仮想レーン240を示す屋内仮想レーン情報130が屋内地図情報に含められる。これにより、ロボット13は、情報処理装置1から屋内地図情報を取得することによって、屋内において移動することが許可された領域を特定することができる。よって、ロボット13は、移動することが許可された領域上を自律移動することができる。つまり、ロボット13は、屋内を適切に自律移動することができる。
 なお、情報処理装置1は、図4に示される、屋内仮想レーン情報の作成処理(ステップS101~S103)を、ユーザの実行指示に応じて実行してもよいし、自動的に実行してもよい。
 また、情報処理システム10が、複数の第1センサ装置11を備える場合には、当該複数の第1センサ装置11のそれぞれについて、当該第1センサ装置11が出力する第1センサ情報110が使用されて屋内仮想レーン情報130が作成される。
 また、屋内仮想レーン情報130の作成で使用される、第2センサ装置12の検出距離d1、通行方向情報及びロボット寸法情報については、記憶部1cに予め記憶されていてもよいし、屋内仮想レーン情報130の作成時に、情報処理装置1の外部から当該情報処理装置1に入力されてもよい。後者の場合、ユーザが、検出距離d1、通行方向情報及びロボット寸法情報を情報処理装置1に入力してもよいし、情報処理装置1が、検出距離d1、通行方向情報及びロボット寸法情報を記憶する装置と無線通信あるいは有線通信を行って、当該装置からそれらの情報を取得してもよい。
 また、屋内仮想レーン240が、柱あるいは壁などの屋内地物に接していると、当該屋内仮想レーン240上を移動するロボット13が当該屋内仮想レーン240からはみ出ると、当該屋内地物が障害物となってロボット13が当該屋内地物に接触する可能がある。
 そこで、作成部1eは、図7に示されるように、屋内仮想レーン240と、そこからロボット13がはみ出した場合に障害となる可能性のある屋内地物150(柱、壁及び展示物など)との間の距離L1が、所定距離Lo以上となるように、当該屋内仮想レーン240を屋内に設定してもよい。これにより、ロボット13が屋内仮想レーン240からはみ出したとしても、ロボット13が屋内地物に接触する可能性を低減することができる。
 また、第1センサ装置11の検出距離(以後、第1検出距離と呼ぶことがある)は、第2センサ装置12の検出距離d1(以後、第2検出距離と呼ぶことがある)よりも大きくてもよいし、それと同じであってもよいし、それよりも小さくてもよい。
 ここで、第1検出距離が第2検出距離よりも小さい場合には、第1センサ装置11の設置場所によっては、第2センサ装置12が検出できる屋内地物を、第1センサ装置11が検出できないことがある。上述の説明から理解できるように、第1センサ装置11が検出できない屋内地物については、それを基準とした検知・移動可能範囲230は設定されないことから、当該屋内地物の近くには屋内仮想レーン240が設定されない。したがって、ロボット13は、当該屋内地物を検出して自己の地図位置を求めることができたとしても、当該屋内地物の近くには屋内仮想レーン240が存在しないことから、移動が許可された領域を移動することが困難となる。
 一方で、第1検出距離が第2検出距離よりも大きい場合には、第2センサ装置12が検出できる屋内地物を、第1センサ装置11が検出できない可能性を低減することができる。したがって、ロボット13が検出する屋内地物の近くに屋内仮想レーン240が存在しない可能性を低減することができる。よって、ロボット13は、移動が許可された領域をより確実に移動することができる。第1検出距離が第2検出距離よりも大きい場合、第2検出距離(d1)が上述のように5~10mであるとすると、第1検出距離は例えば100m程度に設定される。
 また、第2検出距離が第1検出距離よりも小さい場合には、第2センサ装置12の消費電力を低減することができ、その結果、ロボット13の消費電力を低減することができる。ロボット13がバッテリで駆動される場合には、第2検出距離が第1検出距離よりも小さいことによって、ロボット13の駆動時間を長くすることができる。
 なお、屋内に設置される第1センサ装置11が、バッテリで駆動されるのではなく、商用電源等が常時供給される場合には、第1検出距離が第2検出距離よりも大きく設定されて、第1センサ装置11の消費電力が大きくなったとしても、それが原因で第1センサ装置11の駆動時間が短くなる可能性は低い。
 また、第2検出距離が第1検出距離よりも小さい場合には、第1センサ装置11と比較して安価な第2センサ装置12を採用することができることから、ロボット13の材料コストを低減することが可能となる。
 また、屋内において複数種類のロボット13が移動する場合には、ロボット寸法情報に含まれる幅Wrとして、当該複数種類のロボット13の幅の平均値が採用されてもよいし、最大値が採用されてもよい。幅Wrとして、複数種類のロボット13の幅の最大値が採用される場合には、各ロボット13が屋内仮想レーン240から外れる可能性を低減することができる。よって、各ロボット13は屋内を適切に自律移動することができる。
 また、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240での、床面から天井までの高さを含めてもよい。この場合、屋内地図情報は、通路での、床面から天井までの高さを含む。以後、床面から天井までの高さを天井高さと呼ぶ。作成部1eは、屋内地図情報に含まれる通路の天井高さから、検出・移動可能範囲230に設定した屋内仮想レーン240での天井高さを特定し、特定した天井高さを、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。ロボット13は、経路探索を行う場合、自身の高さよりも低い天井高さを含む屋内仮想レーン情報130が示す屋内仮想レーン240上を移動するような経路を決定する。これにより、ロボット13は屋内を適切に自律移動することができる。
 また、互いに隣り合う2つの屋内仮想レーン240の間のある領域に、柱、壁あるいは展示物などの、障害物となる屋内地物が存在する場合には、ロボット13は、当該ある領域を通過して、当該2つの屋内仮想レーン240間を移動することが困難となる。
 そこで、作成部1eは、屋内仮想レーン240間に位置する障害物(屋内地物)の地図位置に基づいて、屋内仮想レーン240において、そこから隣の屋内仮想レーン240への移動が不可である移動不可領域を設定してもよい。この場合、作成部1eは、屋内仮想レーン240に設定した移動不可領域を示す移動不可領域情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。移動不可領域情報は、屋内地図において移動不可領域を特定するための情報である。作成部1eは、屋内地図情報に含まれる地物情報及び屋内仮想レーン情報130に基づいて、隣り合う2つの屋内仮想レーン240の間の障害物の地図位置を特定することができる。
 図8には、上述の図5において、第1の屋内仮想レーン240a1と、第2の屋内仮想レーン240a2との間に障害物280が存在する様子が示されている。図8の例では、第1の屋内仮想レーン240a1において、そこから隣の第2の屋内仮想レーン240a2に移動することができない移動不可領域290a1が設定されている。また、第2の屋内仮想レーン240a2において、そこから隣の第1の屋内仮想レーン240a1に移動することができない移動不可領域290a2が設定されている。
 このように、屋内仮想レーン情報130に移動不可領域情報を含めることによって、屋内仮想レーン240上を移動するロボット13は、当該屋内仮想レーン240を示す屋内仮想レーン情報130に基づいて、当該屋内仮想レーン240から隣の屋内仮想レーン240に移動することができるか否かを判断することができる。よって、屋内仮想レーン240上を移動するロボット13は、当該屋内仮想レーン240から隣の屋内仮想レーン240に移動することができるか否かを、障害物を検出することなく判断することができる。その結果、ロボット13での処理が簡素化される。
 また、屋内においては、床面が強化ガラスあるいは木材などで構成された、耐荷重が低い領域が存在することがある。このような領域上をロボット13が移動すると、床面が破損する可能性がある。
 そこで、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240の床面の耐荷重を示す耐荷重情報を含めてもよい。この場合、屋内地図情報には、例えば、通路の床面の耐荷重を示す耐荷重情報が含まれている。作成部1eは、屋内地図情報に含まれる耐荷重情報から、設定した屋内仮想レーン240の床面の耐荷重を示す耐荷重情報を取得し、取得した耐荷重情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。ある領域の床面の耐荷重を示す耐荷重情報は、当該ある領域を移動することが可能なロボット13の重量の上限値(例えば単位はkg)であってもよいし、当該ある領域の床面についての、単位面積あたりの耐荷重(単位は、例えばkg/m)であってもよい。
 このように、屋内仮想レーン情報130に耐荷重情報を含めることによって、ロボット13は、経路探索を行う場合、屋内仮想レーン情報130に含まれる耐荷重情報と、予め記憶する自身の重量(ロボット重量)とに基づいて、自身の重量が、その床面の耐荷重を超えない屋内仮想レーン240上を移動するような経路を決定することができる。よって、ロボット13は、屋内を適切に自律移動することができる。
 以上のように、本実施の形態では、作成部1eは、屋内地図情報と、ロボット13の検出距離d1と、第1センサ装置11が検出する屋内地物の位置とに基づいて、ロボット13の移動が許可された領域である屋内仮想レーン240を屋内に設定する。これにより、ロボット13が屋内地物を検出しながらその上を自律移動することができるような屋内仮想レーン240を、屋内に設定することができる。よって、ロボット13は、屋内を適切に自律移動することができる。
 また、屋内仮想レーン240が自動的に設定されることから、工場などで活用されているライントレーサーとは異なり、ロボット13が自律移動するために床の表面に線を引く必要がない。ライントレーサーとは、床に対して予め引かれた線をロボットが認識することによって、ロボットの自律移動を可能にする技術である。
 また本実施の形態では、屋内地物の実際の位置が変化したとしても、屋内地図情報に含まれる屋内地物の地図位置を更新することによって、適切な屋内仮想レーン240を自動的に屋内に設定することができる。
 また、第1センサ装置11の実際の位置が変化したとしても、屋内地図情報に含まれる第1センサ装置11の地図位置を更新することによって、適切な屋内仮想レーン240を自動的に屋内に設定することができる。
 また本実施の形態では、通行方向情報に基づいて屋内仮想レーン240が設定されることから、ロボット13は、屋内で定められている通行方向に沿って容易に移動することができる。
 また本実施の形態では、ロボット13の幅に基づいて屋内仮想レーン240が設定されることから、作成部1eは、適切な幅の屋内仮想レーン240を容易に設定することができる。
 なお、作成部1eは、通行方向情報を使用せずに屋内仮想レーン240を設定してもよい。この場合、作成部1eは、例えば、検出・移動可能範囲230のうち、障害物が存在しない領域を屋内仮想レーン240に設定する。また、検出・移動可能範囲230内に通行方向が定められていない場合には、作成部1eは、通行方向情報を使用せずに屋内仮想レーン240を設定することになる。
 また、作成部1eは、ロボット寸法情報に含まれる幅Wrを使用せずに屋内仮想レーン240を設定してもよい。この場合には、作成部1eは、例えば、記憶部1cに予め記憶されている固定の幅W1を有する屋内仮想レーン240を屋内に設定する。
 <屋内仮想レーン情報の検証処理>
 次に、情報処理装置1で行われる、屋内仮想レーン情報130の検証処理について説明する。図9は、当該検証処理の一例を示すフローチャートである。図9に示される検証処理は、例えば、ロボット13が上述のように屋内地図情報に基づいて屋内を自律移動している場合に、定期的にあるいは不定期的に繰り返して実行される。以後、説明の対象の第2センサ装置12を対象第2センサ装置12と呼ぶことがある。
 図9に示されるように、ステップS201において、第1収集部1aは、対象第1センサ装置11が出力する第1センサ情報110を収集する。また、ステップS201において、第2収集部1dは、第1収集部1aでの第1センサ情報110の収集と並行して、対象第2センサ装置12が出力する第2センサ情報120を収集する。
 次にステップS202において、算出部1bは、ステップS201で収集された第1センサ情報110に含まれるロボット13の第1相対位置に基づいて、ロボット13の地図位置を求める。具体的には、算出部1bは、ステップS201で収集された第1センサ情報110から、対象第1センサ装置11を識別するための識別情報(以後、第1センサ識別情報と呼ぶことがある)を取得する。そして、算出部1bは、記憶部1c内の屋内地図情報において、取得した第1センサ識別情報に対応付けられている位置情報を取得する。この位置情報は、対象第1センサ装置11の地図位置を示すことから、算出部1bは、対象第1センサ装置11の地図位置を取得することができる。なお、第1センサ識別情報は、対象第1センサ装置11が接続しているネットワークのIPアドレスあるいはポート番号であってもよいし、対象第1センサ装置11が行うシリアル通信のCOM番号(COM1あるいはCOM2など)などの物理ポート番号であってもよい。
 算出部1bは、対象第1センサ装置11の地図位置を取得すると、取得した地図位置を用いて、ステップS201で収集された第1センサ情報110に含まれるロボット13の第1相対位置を地図位置に変換する。例えば、対象第1センサ装置11の地図位置を(X3,Y3,Z3)とし、第1センサ情報110に含まれるロボット13の第1相対位置を(Xp,Yp,Zp)とすると、ロボット13の地図位置(ロボットの第1地図位置)は、(X3+Xp,Y3+Yp,Z3+Zp)で表される。
 次にステップS203において、算出部1bは、ステップS201で収集された第2センサ情報120に含まれる屋内地物の第2相対位置に基づいて、ロボット13の地図位置を求める。具体的には、算出部1bは、ステップS202で収集された第2センサ情報120に第2相対位置が含まれる屋内地物についての地図位置を、記憶部1c内の屋内地図情報から取得する。言い換えれば、算出部1bは、第2センサ装置12が検出した屋内地物についての地図位置を、記憶部1c内の屋内地図情報から取得する。本例では、算出部1bは、第2センサ装置12が検出した柱についての地図位置を、記憶部1c内の屋内地図情報から取得する。そして、算出部1bは、第2センサ装置12が検出した屋内地物(柱)の地図位置と、ステップS201で収集された第2センサ情報120に含まれる当該屋内地物(柱)の第2相対位置(第2センサ装置12が検出した屋内地物の第2相対位置)とに基づいて、ロボット13の地図位置を求める。例えば、第2センサ装置12が検出した屋内地物の地図位置及び第2相対位置を、それぞれ(X4,Y4,Z4)及び(Xq,Yq,Zq)とすると、ロボット13の地図位置(ロボット13の第2地図位置)は、(X4-Xq,Y4-Yq,Z4-Zq)で表される。
 なお、上述の説明から理解できるように、ステップs203において求められるロボット13の第2地図位置は、ロボット13自身が屋内地物を検出して求める、当該ロボット13の地図位置と同じである。
 次にステップS204において、検証部1fは、ステップS202で求められたロボット13の第1地図位置と、ステップS203で求められたロボット13の第2地図位置との間の距離D(単位は例えばcm)を求める。距離Dは、ロボット13の第1地図位置と第2地図位置との差を示していると言える。距離Dは、ロボット13の第1地図位置(X3+Xp,Y3+Yp,Z3+Zp)と、ロボット13の第2地図位置(X4-Xq,Y4-Yq,Z4-Zq)を用いて以下のように表せられる。
Figure JPOXMLDOC01-appb-M000001
 次にステップS205において、検証部1fは、ステップS204で求めた距離Dがしきい値K以下であるか否かを判定する。しきい値Kは、予め実験等で求められた値が採用される。しきい値Kは、例えば25cm未満に設定される。
 ステップS205において、距離Dがしきい値K以下であると判定されると、ステップS206において、検証部1fは、ロボット13が現在位置する屋内仮想レーン240を示す屋内仮想レーン情報130は適切であると判定する。言い換えれば、検証部1fは、ロボット13が現在位置する屋内仮想レーン240が適切に設定されていると判定する。そして、検証部1fは、記憶部1c内の屋内地図情報に含まれる、ロボット13が現在位置する屋内仮想レーン240を示す屋内仮想レーン情報130に対して、当該屋内仮想レーン情報130が適切であることを示す検証結果情報140を含める。このとき、検証部1fは、ロボット13の第1地図位置(第1センサ情報110から得られる地図位置)を、ロボット13の現在位置として、当該ロボット13が位置する屋内仮想レーン240を特定する。これにより、屋内仮想レーン情報(検証済)130が得られる。得られた屋内仮想レーン情報(検証済)130は屋内地図情報に含められる。
 ここで、ロボット13が、自己の地図位置を計算しながら屋内仮想レーン240上を適切に移動することが困難である場合には、当該屋内仮想レーン240は適切に設定されているとは言い難い。つまり、ロボット13がその上を適切に移動することが困難な屋内仮想レーン240は、適切に設定されているとは言い難い。
 本実施の形態では、検出精度が高い第1センサ装置11で取得される、ロボット13の第1相対位置が使用されて求められるロボット13の第1地図位置が、現在のロボット13の正しい位置として用いられる。したがって、距離Dがしきい値K以下である場合には、ロボット13の第2地図位置の計算精度が高いと言える。つまり、ロボット13が自己の地図位置を求める際の位置計算精度が高いと言える。屋内仮想レーン240上を移動するロボット13での位置計算精度が高い場合には、当該ロボット13は、当該屋内仮想レーン240から外れる可能性が低く、当該屋内仮想レーン240上を適切に移動することができる。よって、距離Dがしきい値K以下である場合には、ロボット13が現在移動する屋内仮想レーン240は適切に設定されていると言える。つまり、距離Dがしきい値K以下である場合には、ロボット13が現在移動する屋内仮想レーン240を示す屋内仮想レーン情報130は適切であると言える。屋内仮想レーン240上をロボット13が移動する際に求められる距離Dがしきい値K以下である場合には、当該ロボット13は、当該屋内仮想レーン240上を所定の位置計算精度を保ちながら移動することができると言える。また、屋内仮想レーン240上をロボット13が移動する際に求められる距離Dがしきい値K以下である場合には、当該ロボット13は、それ自身が第2センサ情報120を利用して求める当該ロボット13の地図位置に基づいて当該屋内仮想レーン240上を適切に移動することができると言える。距離Dがしきい値K以下である場合、ロボット13が位置する屋内仮想レーン240は、ロボット13がその上を移動する際に自身の地図位置を所定誤差範囲内で計算することが可能な領域であると言える。
 このように、ステップS205において、距離Dがしきい値K以下であると判定されると、屋内仮想レーン情報130が適切であると判定されて、屋内仮想レーン情報(検証済)130が作成される。
 一方で、ステップS205において、距離Dがしきい値Kよりも大きいと判定されると、ステップs206が実行されずに検証処理が終了する。
 なお検証部1fは、距離Dがしきい値K未満の場合、屋内仮想レーン情報130は適切であると判定してもよい。
 また情報処理装置1は、図9に示される、屋内仮想レーンの検証処理(ステップS201~S206)を、ユーザの実行指示に応じて実行してもよいし、自動的に実行してもよい。
 このように、本実施の形態では、情報処理装置1は、屋内仮想レーン情報130が適切であるか否かを判断している。つまり、情報処理装置1は、ロボット13が、自己の第2センサ装置12が出力する第2センサ情報120を使用して求める自己の地図位置に基づいて屋内仮想レーン240上を適切に移動することができるか否かを判断している。したがって、ロボット13が実際に利用することができる屋内仮想レーン240を屋内に設定することができる。つまり、ロボット13が実際に利用することができる、信頼性のある屋内仮想レーン情報130を当該ロボット13に対して提供することができる。これにより、ロボット13は屋内を適切に自律移動することができる。なお判定部1yは、上述のようにして作成部1eが屋内に設定した屋内仮想レーン240ではなく、他の方法で屋内に設定された屋内仮想レーンが適切に設定されているか否かを判定してもよい。
 実施の形態2.
 屋内を移動するロボット13は、扉の近くを移動することがある。ロボット13が、開き戸(前後に開閉する扉)の前に停止すると、当該開き戸の開閉をロボット13が阻害する可能性がある。
 また、ロボット13はエレベータ及びエスカレータなどの昇降機を利用することがある。この場合、ロボット13が、エレベータの搭乗口の近くで停止すると、ロボット13が当該エレベータの利用者の邪魔になる可能性がある。また、ロボット13が、エスカレータの乗り口あるいは降り口の近くで停止すると、ロボット13がエスカレータの利用者の邪魔になる可能性がある。
 そこで、本実施の形態では、屋内仮想レーン240において、ロボット13の停止を禁止する停止禁止領域を示す停止禁止領域情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。
 図10は停止禁止領域の一例を示す図である。図10では、屋内仮想レーン240cにおいて、開き戸310が開閉する開閉範囲320を含む所定の範囲が、停止禁止領域300cとして設定されている。図10の例では、開閉範囲320を含む最小の矩形(外接矩形)が停止禁止領域300cに設定されている。図10の例では、屋内地図情報に開閉範囲320を示す情報が予め含められる。作成部1eは、屋内地図情報から開閉範囲302を特定し、設定した屋内仮想レーン240cにおいて、特定した開閉範囲302を含む停止禁止領域300cを設定する。そして、作成部1eは、設定した停止禁止領域300cを示す停止禁止領域情報を、屋内仮想レーン240cを示す屋内仮想レーン情報130に含める。この停止禁止領域情報は、屋内地図上において停止禁止領域300cを特定するための情報である。
 図11は停止禁止領域の他の一例を示す図である。図11には、エレベータの昇降カゴ350、扉360及び呼びボタン370が示されている。図11の例では、屋内仮想レーン240dにおいて、扉360の前に停止禁止領域300dが設定されている。停止禁止領域300dは、屋内仮想レーン240dにおいて、そこにロボット13が停止すると、当該ロボット13が、昇降カゴ350から出てくる人及び昇降カゴ350に乗り込む人の邪魔になるような領域に設定される。図11の例では、屋内地図情報に、エレベータの扉360の大きさ及び地図位置を示す情報が予め含められる。作成部1eは、屋内地図情報から、エレベータの扉の大きさ及び地図位置を特定し、設定した屋内仮想レーン240dにおいて、特定した扉260の前に停止禁止領域300dを設定する。そして、作成部1eは、設定した停止禁止領域300dを示す停止禁止領域情報を、屋内仮想レーン240dを示す屋内仮想レーン情報に含める。この停止禁止領域情報は、屋内地図上において停止禁止領域300dを特定するための情報である。
 このように、本実施の形態では、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240において、ロボット13の停止が禁止されている領域を示す情報が含められる。これにより、ロボット13は、自身の判断で、屋内での人の邪魔になる領域で停止しないようにすることができる。これにより、人とロボット13が円滑に移動可能な屋内交通環境を実現することができる。
 実施の形態3.
 人が混雑している屋内仮想レーン240をロボット13が移動すると、当該ロボット13と人とが接触する可能性がある。
 そこで、本実施の形態では、屋内仮想レーン240での人の混雑度を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。これより、ロボット13は、人が混雑している屋内仮想レーン240を避けて屋内を移動することができる。
 図12は、本実施の形態に係る情報処理システム10の構成の一例を示す図である。本実施の形態に係る情報処理システム10は、上述の図1に示される情報処理システム10において、混雑度算出部1gをさらに備えるものである。混雑度算出部1gは、屋内での人の混雑度を算出する。混雑度算出部1gは、上述の処理回路2(CPU)が記憶装置3内の制御プログラム3aを実行することよって実現される機能ブロックであってもよいし、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。以後、混雑度算出部1gを算出部1gと呼ぶことがある。
 本実施の形態では、移動体位置算出部1b及び混雑度算出部1gによって、第1センサ情報110に含まれる、人の第1相対位置を示す位置情報に基づいて、屋内仮想レーン240での混雑度を取得する取得部1zが構成されている。取得部1zは、第1センサ装置11で検出された人の位置に基づいて、屋内仮想レーン240での混雑度を取得するとも言える。
 本実施の形態では、移動体位置算出部1bは、第1収集部1aで収取される第1センサ情報110に含まれる人の第1相対位置に基づいて、当該人の地図位置を求める。言い換えれば、算出部1bは、第1センサ装置11で検出される人の第1相対位置に基づいて、当該人の地図位置を求める。算出部1bは、人の地図位置を求める際には、記憶部1c内の屋内地図情報から、第1センサ装置11の地図位置を取得する。そして、算出部1bは、第1センサ装置11の地図位置と、第1センサ情報110に含まれる人の第1相対位置に基づいて、当該人の地図位置を求める。第1センサ装置11の地図位置を(X3,Y3,Z3)とし、人の第1相対位置を(Xs,Ys,Zs)とすると、当該人の地図位置は(X3+Xs,Y3+Ys,Z3+Zs)で表される。算出部1bは、第1センサ装置11で検出される各人について地図位置を求める。
 混雑度算出部1gは、移動体位置算出部1bで求められる各人の地図位置に基づいて、作成部1eで設定された各屋内仮想レーン240での人の混雑度を求める。算出部1gには、算出部1bで求められる人の第1地図位置が例えば一定時間ごとに入力される。算出部1gは、定期的にあるいは不定期的に、各屋内仮想レーン240での人の混雑度を求める。以後、説明の対象の屋内仮想レーン240を対象屋内仮想レーン240と呼ぶ。
 算出部1gは、対象屋内仮想レーン240での人の混雑度を求める際には、対象屋内仮想レーン240を単位面積ごとに複数の分割エリアに分割する。分割エリアの形状は、例えば、一辺の長さが50cmの正方形である。そして、算出部1gは、入力される人の地図位置に基づいて、各分割エリアについて個別に人の混雑度を求める。例えば、算出部1gは、各分割エリアについて、入力される人の地図位置に基づいて、単位時間の間に、当該分割エリアに入る人の数を求める。算出部1gは、例えば、30分の間に分割エリアに入る人の数を求める。そして、算出部1gは、求めた数を人の混雑度として採用する。例えば、30分の間に分割エリアに入る人の数が150人であるとすると、当該分割エリアでの人の混雑度は、150人/30分(=5人/分)となる。算出部1gは、対象屋内仮想レーン240の各分割エリアについての人の混雑度を求めると、求めた各分割エリアの人の混雑度を、対象屋内仮想レーン240での人の混雑度として作成部1eに入力する。作成部1eは、算出部1gから受け取った、対象屋内仮想レーン240での人の混雑度を、対象屋内仮想レーン240を示す屋内仮想レーン情報130に含める。
 なお、算出部1gは、屋内仮想レーン240での人の混雑度を他の方法で求めてもよい。例えば、算出部1gは、対象屋内仮想レーン240の各分割エリアについて、当該分割エリアに存在する人の数の時間平均を求める。算出部1gは、例えば、分割エリアに存在する人の数を所定タイミングごとに複数回求め、複数回求めた、分割エリアに存在する人の数についての平均値を、当該分割エリアに存在する人の数の時間平均とする。そして、算出部1gは、求めた、分割エリアに存在する人の数の時間平均を、当該分割エリアでの人の混雑度とする。そして、算出部1gは、求めた各分割エリアでの人の混雑度を、対象屋内仮想レーン240での人の混雑度とする。
 このように、本実施の形態では、屋内仮想レーン240での人の混雑度が、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含められる。これにより、ロボット13は、人が混雑している屋内仮想レーン240を避けて屋内を移動することができる。よって、人とロボット13が円滑に移動可能な屋内交通環境を実現することができる。また、ロボット13は、屋内仮想レーン情報130に含まれる人の混雑度を用いて、目的地までの移動時間を予測することが可能となる。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 1 情報処理装置、1e 作成部、1y 判定部、1z 取得部、10 情報処理システム、11 屋内設置型センサ装置(第1センサ装置)、13 ロボット、130 屋内仮想レーン情報(移動許可領域情報)、150,220,220a,220b 屋内地物、240,240a1,240a2,240b1,240b2,240c,240d 屋内仮想レーン(移動許可領域)、250 通行方向、290a1,290a2 移動不可領域、300c,300d 停止禁止領域。

Claims (13)

  1.  移動装置(13)が自律移動を行う屋内において、当該移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す第1領域情報(130)を作成する作成部(1e)を備え、
     前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、
     前記屋内に存在する地物(150,220,220a,220b)を検出するセンサ装置(11)が前記屋内に設置され、
     前記作成部(1e)は、前記屋内の地図を示す地図情報と、前記移動装置(13)の検出距離(d1)と、前記センサ装置(11)が検出する地物の位置とに基づいて、前記屋内に前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する、情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記作成部(1e)は、前記屋内での通行方向(250)を示す通行方向情報にも基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する、情報処理装置。
  3.  請求項1及び請求項2のいずれか一つに記載の情報処理装置であって、
     前記作成部(1e)は、前記移動装置の幅にも基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する、情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記作成部(1e)は、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)での床面から天井までの高さを前記第1領域情報(130)に含める、情報処理装置。
  5.  請求項1乃至請求項4のいずれか一つに記載の情報処理装置であって、
     前記作成部(1e)は、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)において、そこから隣の前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)への移動が不可である第2領域(290a1,290a2)を設定し、設定した当該第2領域(290a1,290a2)を示す第2領域情報を、前記第1領域情報(130)に含める、情報処理装置。
  6.  請求項1乃至請求項5のいずれか一つに記載の情報処理装置であって、
     前記作成部(1e)は、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)の床面の耐荷重を示す耐荷重情報を前記第1領域情報(130)に含める、情報処理装置。
  7.  請求項1乃至請求項6のいずれか一つに記載の情報処理装置であって、
     前記作成部(1e)は、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)において前記移動装置(13)の停止を禁止する第3領域(300c,300d)を示す第3領域情報を前記第1領域情報(130)に含める、情報処理装置。
  8.  請求項1乃至請求項7のいずれか一つに記載の情報処理装置であって、
     前記センサ装置(11)は、前記屋内に存在する人を検出し、検出した人の位置を示す第1位置情報を出力し、
     前記第1位置情報に基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)での人の混雑度を取得する取得部(1z)をさらに備え、
     前記作成部(1e)は、前記混雑度を前記第1領域情報(130)に含める、情報処理装置。
  9.  請求項1乃至請求項8のいずれか一つに記載の情報処理装置であって、
     前記センサ装置(11)は、前記屋内の前記移動装置(13)を検出し、検出した当該移動装置(13)の位置を示す第2位置情報を出力し、
     前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、検出した当該地物(150,220,220a,220b)の位置を示す第3位置情報を出力し、
     前記第2及び第3位置情報に基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が適切に設定されているか否かを判定する判定部(1y)をさらに備える、情報処理装置。
  10.  移動装置(13)が自律移動を行う屋内に設定された、当該移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が、適切に設定されているか否かを判定する判定部(1y)を備え、
     前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、検出した当該地物(150,220,220a,220b)の位置を示す第1位置情報を出力し、
     前記屋内の前記移動装置(13)を検出し、検出した前記移動装置(13)の位置を示す第2位置情報を出力するセンサ装置(11)が前記屋内に設置され、
     前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が適切に設定されているか否かを判定する、情報処理装置。
  11.  屋内を自律移動し、当該屋内の地物(150,220,220a,220b)を検出する移動装置(13)と、
     前記屋内に存在する地物(150,220,220a,220b)を検出する、前記屋内に設置されたセンサ装置(11)と、
     前記屋内の地図を示す地図情報と、前記移動装置(13)の検出距離(d1)と、前記センサ装置(11)が検出する屋内地物の位置とに基づいて、前記屋内において、前記移動装置(13)の移動が許可された領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す領域情報(130)を作成する作成部(1e)と
    を備える、情報処理システム。
  12.  屋内を自律移動し、当該屋内の地物(150,220,220a,220b)を検出し、検出した当該地物(150,220,220a,220b)の位置を示す第1位置情報を出力する移動装置(13)と、
     前記屋内の前記移動装置(13)を検出し、検出した当該移動装置(13)の位置を示す第2位置情報を出力するセンサ装置(11)と、
     前記屋内に設定された、前記移動装置(13)の移動が許可された領域(240,240a1,240a2,240b1,240b2,240c,240d)が、適切に設定されているか否かを、前記第1及び第2位置情報に基づいて判定する判定部(1y)と
    を備える、情報処理システム。
  13.  請求項11及び請求項12のいずれか一つに記載の情報処理システムであって、
     前記センサ装置(11)の検出距離は、前記移動装置(13)の検出距離(d1)よりも大きい、情報処理システム。
PCT/JP2017/025334 2017-07-12 2017-07-12 情報処理装置及び情報処理システム Ceased WO2019012612A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017563272A JP6289791B1 (ja) 2017-07-12 2017-07-12 情報処理装置及び情報処理システム
PCT/JP2017/025334 WO2019012612A1 (ja) 2017-07-12 2017-07-12 情報処理装置及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/025334 WO2019012612A1 (ja) 2017-07-12 2017-07-12 情報処理装置及び情報処理システム

Publications (1)

Publication Number Publication Date
WO2019012612A1 true WO2019012612A1 (ja) 2019-01-17

Family

ID=61557997

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/025334 Ceased WO2019012612A1 (ja) 2017-07-12 2017-07-12 情報処理装置及び情報処理システム

Country Status (2)

Country Link
JP (1) JP6289791B1 (ja)
WO (1) WO2019012612A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023015634A (ja) * 2021-07-20 2023-02-01 キヤノン株式会社 情報処理装置、移動体の制御システム、情報処理方法、プログラム
US20230066510A1 (en) * 2021-09-02 2023-03-02 Toshiba Tec Kabushiki Kaisha Movement instruction device and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154907A (ja) * 2004-11-25 2006-06-15 Matsushita Electric Works Ltd 走行制御装置
JP2009217330A (ja) * 2008-03-07 2009-09-24 Toyota Motor Corp 移動ロボットシステム及びその制御方法
JP2012022468A (ja) * 2010-07-13 2012-02-02 Murata Mach Ltd 自律移動体
WO2016067467A1 (ja) * 2014-10-31 2016-05-06 三菱電機株式会社 ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム
JP2017090796A (ja) * 2015-11-16 2017-05-25 トヨタ自動車株式会社 地図作成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154907A (ja) * 2004-11-25 2006-06-15 Matsushita Electric Works Ltd 走行制御装置
JP2009217330A (ja) * 2008-03-07 2009-09-24 Toyota Motor Corp 移動ロボットシステム及びその制御方法
JP2012022468A (ja) * 2010-07-13 2012-02-02 Murata Mach Ltd 自律移動体
WO2016067467A1 (ja) * 2014-10-31 2016-05-06 三菱電機株式会社 ロボット制御装置、ロボットシステム、ロボット制御方法及びプログラム
JP2017090796A (ja) * 2015-11-16 2017-05-25 トヨタ自動車株式会社 地図作成方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023015634A (ja) * 2021-07-20 2023-02-01 キヤノン株式会社 情報処理装置、移動体の制御システム、情報処理方法、プログラム
JP7763049B2 (ja) 2021-07-20 2025-10-31 キヤノン株式会社 情報処理装置、移動体の制御システム、情報処理方法、プログラム
US12462398B2 (en) 2021-07-20 2025-11-04 Canon Kabushiki Kaisha Information processing apparatus, control system for mobile object, information processing method, and storage medium
US20230066510A1 (en) * 2021-09-02 2023-03-02 Toshiba Tec Kabushiki Kaisha Movement instruction device and method

Also Published As

Publication number Publication date
JP6289791B1 (ja) 2018-03-07
JPWO2019012612A1 (ja) 2019-07-11

Similar Documents

Publication Publication Date Title
JP4658155B2 (ja) 自律移動ロボット装置及び自律移動ロボット装置の回避方法
KR101382982B1 (ko) 로봇의 주행 경로 계획 장치 및 방법
US8504202B2 (en) Autonomous mobile robot apparatus and a rush-out collision avoidance method in the same apparatus
JP5539596B2 (ja) 自律移動装置、自律移動方法、及び、自律移動装置用のプログラム
JP4576445B2 (ja) 自律移動型装置および自律移動型装置用プログラム
CN105366458B (zh) 电梯的呼梯登记系统
JP6672076B2 (ja) 情報処理装置及び移動体装置
CN112581790B (zh) 车辆避障的方法、装置、计算设备和存储介质
KR20220055167A (ko) 자율주행 로봇, 자율주행 로봇의 충돌 회피 방법 및 월드 맵 관리 방법
CN105182979A (zh) 一种移动机器人障碍物检测及避让方法和系统
WO2014016602A1 (en) Method of estimating position of a device
CN103003667A (zh) 室内似然性热图
JP6094279B2 (ja) 追跡装置、追跡プログラムおよび追跡方法
CN105967007B (zh) 电梯系统
US20110085707A1 (en) Method and apparatus for automated determination of features on an electronic map
CN105867386A (zh) 机器人导航系统及方法
US10976424B2 (en) Automatic determination of position and orientation of elevator device entry terminals and hallway fixtures
JP6289791B1 (ja) 情報処理装置及び情報処理システム
JP7683878B2 (ja) 移動体、制御装置及びそのプログラム
KR102435640B1 (ko) 고소작업용 로봇 및 이를 이용한 동작방법
JP7194955B1 (ja) 自律型ロボット、自律型ロボットの制御方法、および自律型ロボットを用いた検査システム
CN111830963B (zh) 用于运行无驾驶员的运输系统的方法
JP2020184274A (ja) 制御装置、制御システム、制御方法及び制御プログラム
KR20210055428A (ko) 대피 경로 안내 장치 및 방법
JP7227944B2 (ja) 作業車および作業方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017563272

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17917734

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17917734

Country of ref document: EP

Kind code of ref document: A1