[go: up one dir, main page]

WO2023119566A1 - 搬送システム - Google Patents

搬送システム Download PDF

Info

Publication number
WO2023119566A1
WO2023119566A1 PCT/JP2021/047923 JP2021047923W WO2023119566A1 WO 2023119566 A1 WO2023119566 A1 WO 2023119566A1 JP 2021047923 W JP2021047923 W JP 2021047923W WO 2023119566 A1 WO2023119566 A1 WO 2023119566A1
Authority
WO
WIPO (PCT)
Prior art keywords
marker
position information
camera device
transport vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2021/047923
Other languages
English (en)
French (fr)
Inventor
アンドレイ ピディン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to PCT/JP2021/047923 priority Critical patent/WO2023119566A1/ja
Publication of WO2023119566A1 publication Critical patent/WO2023119566A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to a transport system.
  • Patent Document 1 discloses a work system that detects the position of a transport vehicle based on GPS signals.
  • Positioning signals such as GPS signals are used for highly accurate positioning, but when the construction site is indoors or surrounded by buildings, there may be cases where the positioning signals cannot be stably received.
  • the present invention provides a transport technology that can move a transport vehicle to a predetermined position in a work area based on image information captured by a camera without relying on positioning signals such as GPS signals. for the purpose of providing
  • a transport system includes a camera device provided in a work area, a transport vehicle capable of autonomous movement in the work area, and a server capable of communicating with the camera device and the transport vehicle.
  • a transport system The camera device Acquiring relative position information of the camera device with respect to the first marker and the second marker based on an image of the first marker and the second marker set with information indicating a three-dimensional direction in the work area.
  • the server is processing means for generating relative position information obtained by coordinate-converting the relative position information acquired from the camera device into position information in the work area;
  • the transport vehicle is an image acquisition means for acquiring an image of the surroundings; computing means for computing the position information of the second marker based on the image of the first marker acquired by the image acquisition means and the relative position information acquired from the server; setting the position information as a target value; and a control means for controlling movement of the carrier.
  • a transport technology capable of moving a transport vehicle to a predetermined position in a work area based on image information captured by a camera without using a positioning signal such as a GPS signal. can be done.
  • FIG. 4 is a diagram showing an example of an image in front of the transport vehicle captured by a camera of the transport vehicle;
  • FIG. 10 is a diagram illustrating an image captured by a camera of a transport vehicle, ST61 is a diagram showing a running state of the transport vehicle, and ST62 is a diagram showing an example of an image of a second marker;
  • FIG. 4 is a diagram for explaining the flow of processing in the camera device;
  • FIG. 1 is a diagram showing a configuration example of the transport system STM according to the embodiment.
  • the transport system STM includes at least a camera device 10 provided in a work area and a transport vehicle 20 ( (also referred to as an “autonomous guided vehicle”), a camera device 10, a guided vehicle 20, and a server 30 (information processing device) capable of communicating via a network NW.
  • a terminal 40 of an operator who manages the transport system STM can communicate with the server 30 via the network NW.
  • the server 30 transmits a confirmation request to the terminal 40 of the operator when transmitting information to the carrier 20 .
  • the operator approves via terminal 40 .
  • the operator can monitor the status of the transport vehicle 20 in the transport system STM through the terminal 40 .
  • FIG. 2 is a diagram schematically showing the camera device 10 and the carrier 20 in the work area WA, and the camera device 10 is arranged at a predetermined position in the work area WA.
  • the camera device 10 is arranged at a position P (x, y, z) within the work area WA.
  • At least one camera device 10 may be arranged in the work area WA, and a plurality of camera devices 10 may be arranged.
  • identification information is assigned to each of the plurality of camera devices 10, and the identification information is added to information (relative position information) transmitted from each camera device 10 to the server 30. do it.
  • the server 30 can identify each camera device arranged within the work area WA based on the identification information.
  • the work area WA in which the carrier 20 moves may be either outdoors or indoors, but in this embodiment, an example of movement of the carrier 20 indoors will be described. In the example shown in FIG. 2, an example in which the transport vehicle 20 moves indoors will be described.
  • the camera device 10 has an imaging unit 11, an image processing unit 12, and a communication unit 13 as functional configurations.
  • the imaging unit 11 of the camera device 10 is capable of capturing still images or moving images.
  • a digital camera with a sensor is used.
  • the image processing unit 12 acquires the relative distance (relative position information) between the object and the camera device 10 based on the image of the object captured by the imaging unit 11 .
  • the image processing unit 12 acquires relative position information between the object and the camera device 10 by image processing the image captured by the imaging unit 11 .
  • the object to be imaged by the imaging unit 11 is a two-dimensional marker (ArUco marker) in which a predetermined pattern is formed in a rectangular area.
  • ArUco marker a two-dimensional marker
  • FIG. 1 A first marker MK1 provided on one plane and a second marker MK2 provided on a second plane of the work area WA.
  • the first marker MK1 is provided on a plane WA10 (for example, an indoor plane: first plane) that intersects the road surface WA20 on which the carrier 20 moves
  • the second marker MK2 is , the road surface WA20 (for example, indoor road surface: second plane).
  • Acquisition of relative position information using an ArUco marker is a known technique, and detailed description thereof will be omitted.
  • FIG. 3 is a diagram illustrating an image of the first marker MK1 and the second marker MK2 captured by the imaging unit 11 of the camera device 10.
  • the first marker MK1 and the second marker MK2 (ArUco marker) each have coordinate information indicating a three-dimensional direction.
  • the image processing unit 12 performs various image processing such as smoothing processing and sharpening processing on the captured image, and recognizes the first marker MK1 and the second marker MK2 from the image.
  • the image processing unit 12 uses the first marker MK1 and the second marker MK2 recognized based on the image processing to determine the distance (relative position information d1) between the camera device 10 and the first marker MK1 and the camera device 10 and the distance (relative position information d2) between and the second marker MK2.
  • the communication unit 13 can bi-directionally communicate with the server 30 via the network NW.
  • the communication unit 13 transmits the relative position information d1 and d2 acquired by the image processing unit 12 to the server 30 .
  • the communication unit 13 transmits identification information specifying the camera device 10 to the server 30 together with the relative position information d1 and d2.
  • the server 30 can manage the identification information of the camera device 10 and the relative position information (d1, d2) in association with each other.
  • the server 30 includes a processing unit 31, a communication unit 32, and a storage unit 33, which are connected by a bus (not shown).
  • the processing unit 31 is a processor represented by a CPU, and implements various functions related to the server 30 by executing programs stored in the storage unit 33 . That is, information processing by software stored in the storage unit 33 can be specifically realized by the processing unit 31 which is an example of hardware, and can be executed as each functional unit included in the processing unit 31 .
  • the storage unit 33 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), or an SSD (Solid State Drive). data is stored.
  • the communication unit 32 is a communication interface with an external device.
  • the processing unit 31 acquires the relative position information (relative position information d1, relative position information d2) transmitted from the camera device 10 via the communication unit 32. Then, based on the obtained relative position information, the processing unit 31 generates relative position information D1 and D2 in the system coordinate system indicating the overall position in the work area WA, and converts the generated relative position information D1 and D2 to It is transmitted to the transport vehicle 20 .
  • the relative position information transmitted from the camera device 10 is information acquired in the coordinate system of the camera device 10 (camera coordinate system).
  • the processing unit 31 identifies the position P of the camera device 10 within the work area WA based on the identification information transmitted from the camera device 10 . Then, the processing unit 31 converts the relative position information d1 and d2 of the camera coordinate system to the system coordinate system (x, y , z), and transmits the generated relative position information D1 and D2 to the transport vehicle 20 .
  • FIG. 4 is a block diagram of the transport vehicle 20 according to one embodiment of the present invention.
  • ST41 is a plan view of the transport vehicle 20
  • ST42 is a side view of the transport vehicle 20.
  • FIG. In the drawing, Fr, Rr, L, and R indicate front, rear, left, and right when the transport vehicle 20 travels forward. Also, Up and Dn indicate the upper side and the lower side of the transport vehicle 20 .
  • the transport vehicle 20 is a vehicle that can move autonomously in the work area WA, is a vehicle that does not have a driver's seat or a driving mechanism for a passenger, and is unmanned during travel.
  • the transport vehicle 20 of the present embodiment is a four-wheeled vehicle having two front wheels 40f and two rear wheels 40r, and loads a load on a carrier 400 to transport the load.
  • the transport vehicle 20 is an electric vehicle that uses a battery 41 as a main power source.
  • the battery 41 is, for example, a secondary battery such as a lithium ion battery.
  • the transport vehicle 20 includes an electric travel mechanism 42 .
  • the electric travel mechanism 42 includes a travel mechanism 43 , a steering mechanism 45 and a braking mechanism 46 .
  • the traveling mechanism 43 is a mechanism that advances or reverses the transport vehicle 20 by using the traveling motor 44 as a drive source, and in the case of this embodiment, the rear wheels 40r are used as driving wheels.
  • Braking mechanisms 46 such as disc brakes are provided for the front wheels 40f and the rear wheels 40r, respectively.
  • the steering mechanism 45 is a mechanism that uses a steering motor 47 as a drive source to give a steering angle to the front wheels 40f.
  • the electric drive mechanism 42 of this embodiment may include a two-wheel steering mechanism that steers only the front wheels 40f, or may include a four-wheel steering mechanism that steers the front wheels 40f and the rear wheels 40r.
  • the transport vehicle 20 includes a detection unit 480 that detects surrounding conditions.
  • the detection unit 480 is a group of external sensors that monitor the surroundings of the carrier 20 .
  • the external sensor is, for example, a millimeter wave radar, and detects obstacles around the transport vehicle 20 using radio waves.
  • the external sensor is, for example, Light Detection and Ranging (LIDAR), and detects obstacles around the transport vehicle 20 by light.
  • a control unit (ECU) 49 can measure the distance to an obstacle by analyzing information detected by the detection unit 480 .
  • External sensors can be provided at the front, rear, left and right sides of the transport vehicle 20, respectively, so that the four directions of the transport vehicle 20 can be monitored.
  • the transport vehicle 20 includes a positioning sensor 410 and a communication device 420.
  • the positioning sensor 410 receives positioning signals from artificial satellites forming a GNSS (Global Navigation Satellite System).
  • GNSS Global Navigation Satellite System
  • An example of GNSS is GPS (Global Positioning System).
  • the positioning sensor 410 receives a positioning signal (GNSS signal, eg, GPS signal) to detect the current position of the transport vehicle 20 .
  • the communication device 420 performs communication (wireless communication) with the server 30 and acquires information.
  • the transport vehicle 20 includes a control unit (ECU) 49.
  • the control unit 49 includes a processor represented by a CPU, a storage device such as a semiconductor memory and a hard disk, and an interface with an external device.
  • the storage device stores programs executed by the processor, data (map information) used by the processor for processing, and the like.
  • a plurality of sets of processors, storage devices, and interfaces may be provided for each function of the transport vehicle 20 and configured to communicate with each other.
  • a control unit (ECU) 49 controls the electric drive mechanism 42, performs information processing on the detection results of the positioning sensor 410, and the communication results of the communication device 420.
  • the control unit 49 searches for a route from the current location to the destination based on the map information.
  • the communication device 420 can access the database of the server 30 on the network NW and acquire map information.
  • the transport vehicle 20 includes an image acquisition unit (camera) 48 that acquires images of the surroundings.
  • the image acquisition unit (camera) 48 is provided, for example, in front of the transport vehicle 20, and acquires an image in front when the transport vehicle 20 travels.
  • the control unit 49 can control automatic operation of the transport vehicle 20 based on image information acquired by the image acquisition unit (camera) 48, information (relative position information D1, D2) acquired by the communication device 420, and map information. can.
  • FIG. 5 is a diagram showing an example of an image in front of the transport vehicle 20 captured by the image acquisition unit (camera) 48 of the transport vehicle 20.
  • FIG. A control unit (ECU) 49 can perform image processing similar to that of the image processing section 12 of the camera device 10 .
  • Objects captured by the image acquisition unit (camera) 48 are the first marker MK1 and the second marker MK2 (ArUco markers), and the control unit (ECU) 49 captures the image captured by the image acquisition unit (camera) 48.
  • relative position information between the object and the camera device 10 is acquired by the image processing of .
  • the control unit (ECU) 49 acquires the coordinate information of the first marker MK1 and acquires the relative position information with respect to the first marker MK1. Is possible.
  • the coordinate information of the second marker MK2 and the relative position information with respect to the second marker MK2 cannot be acquired.
  • the work area WA where GPS signals cannot be stably detected, assuming that the position of the second marker MK2 is the transport target position of the transport vehicle 20, only the information from the image acquisition unit (camera) 48 can determine the relative position of the second marker MK2. There may be cases where location information cannot be acquired.
  • control unit (ECU) 49 uses relative position information acquired by the camera device 10 (relative position information generated by the server 30) and a first Based on the relative position information with respect to the marker MK1, the relative position information of the second marker MK2 (the target position of transportation) is obtained, and the travel of the transport vehicle 20 is controlled.
  • FIG. 7 is a diagram explaining the flow of processing in the camera device 10
  • FIG. 8 is a diagram explaining the flow of processing in the server 30
  • FIG. 9 is a diagram explaining the flow of processing in the transport vehicle 20.
  • step S710 the image capturing unit 11 captures an image of the object (first marker MK1, second marker MK2) to acquire an image.
  • step S720 the image processing unit 12 performs image processing on the image captured by the imaging unit 11.
  • step S730 the image processing unit 12 calculates the distance (relative position information) between the object and the camera device 10. to get
  • the first marker MK1 and the second marker MK2 (ArUco marker) are set with coordinate information indicating three-dimensional directions.
  • the distance (relative position information d1) between the camera device 10 and the first marker MK1 and the distance (relative position information d2) between the camera device 10 and the second marker MK2 are calculated. get.
  • step S740 the communication unit 13 transmits the relative position information d1 and d2 acquired by the image processing unit 12 to the server 30.
  • the communication unit 13 may transmit identification information for specifying the camera device 10 to the server 30 together with the relative position information d1 and d2.
  • the server 30 specifies the position of the camera device 10 in advance, it is not always necessary to transmit the identification information.
  • step S ⁇ b>810 the processing unit 31 acquires the relative position information (the relative position information d ⁇ b>1 and the relative position information d ⁇ b>2 ) transmitted from the camera device 10 and the identification information of the camera device 10 via the communication unit 32 .
  • step S820 the processing unit 31 identifies the position P of the camera device 10 within the work area WA based on the identification information transmitted from the camera device 10. Then, the processing unit 31 converts the relative position information d1 and d2 of the camera coordinate system to the system coordinate system (x, y , z) to generate relative position information D1 and D2.
  • step S830 the processing unit 31 transmits the relative position information D1 and D2 generated in step S820 to the transport vehicle 20 via the communication unit 32.
  • step S ⁇ b>900 the guided vehicle 20 travels using the GPS information detected by the positioning sensor 410 .
  • step S910 the control unit 49 determines whether the first marker MK1 has been recognized from the image captured by the image acquisition section (camera) 48. If the first marker MK1 is not recognized (S910-No), the process returns to step S900 and repeats the same process. On the other hand, when the first marker MK1 is recognized in the determination of step S910 (S910-Yes), the control unit 49 advances the process to step S920.
  • step S920 the control unit 49 acquires the coordinate information of the first marker MK1 and acquires relative position information with respect to the first marker MK1 based on the current position of the transport vehicle 20.
  • step S930 the control unit 49 acquires the relative position information D1 and D2 generated by the server 30 via the communication device 420.
  • step S940 the control unit 49 calculates the position of the second marker MK2 in the work area WA (position information ) as the target position for the new transfer.
  • the control unit 49 sets the position (position information) of the second marker MK2 as a target value and controls the movement of the transport vehicle 20.
  • FIG. 6 is a diagram illustrating an image captured by the image acquisition unit (camera) 48 of the carrier 20, and ST61 is a side view showing the running state of the carrier 20.
  • FIG. ST62 is a diagram showing an example image of the second marker MK2.
  • the second marker MK2 is provided on the road surface WA20, and when the second marker MK2 enters the imaging range 600 by the image acquisition section (camera) 48, an image as shown in ST62 can be acquired.
  • the control unit (ECU) 49 obtains the coordinate information of the second marker MK2, and the relative position information with respect to the second marker MK2. can be obtained.
  • step S950 the control unit 49 determines whether the second marker MK2 has been recognized from the image captured by the image acquisition section (camera) 48. If the second marker MK2 is not recognized (S950-No), the process returns to step S920 and repeats the same process. On the other hand, if the second marker MK2 is recognized in step S950 (S950-Yes), the control unit 49 advances the process to step S960.
  • step S960 the control unit 49 acquires the coordinate information of the second marker MK2 and sets the acquired coordinate information of the second marker MK2 as the final target position (target value).
  • the control unit 49 updates the target value based on the coordinate information acquired from the second marker MK2, and based on the target value, It controls the movement of the carrier 20 .
  • step S970 the control unit 49 sets the route to the second marker MK2 using the current position of the carrier 20 and the coordinate information of the second marker MK2, and controls movement (navigation) of the carrier 20.
  • the target point of the transport vehicle 20 is designated based on the map information created in advance from the 3D point cloud, but it is not realistic to create map information in a place such as a construction site where the layout changes frequently.
  • the transport system STM of the present embodiment it is possible to move the transport vehicle to a predetermined position in the work area based on the information of the image captured by the camera without using a positioning signal such as a GPS signal. . Further, according to the transport system STM of the present embodiment, the transport vehicle 20 is positioned at a predetermined position (second marker MK2) in the work area WA with a simpler system configuration without frequently creating map information. be able to.
  • the transport system of the above embodiment includes a camera device (10) provided in a work area, a transport vehicle (20) capable of autonomous movement in the work area, and a server capable of communicating with the camera device and the transport vehicle.
  • a transport system (STM) comprising: The camera device (10) Acquiring relative position information of the camera device with respect to the first marker and the second marker based on an image of the first marker and the second marker set with information indicating a three-dimensional direction in the work area.
  • An image processing means (12) is provided,
  • the server (30) Processing means (31) for generating relative position information obtained by coordinate-converting the relative position information acquired from the camera device into position information in the work area
  • the transport vehicle (20) is an image acquisition means (48) for acquiring an image of the surroundings; computing means (49) for computing the position information of the second marker based on the image of the first marker acquired by the image acquisition means and the relative position information acquired from the server;
  • a control means (49) for setting the position information as a target value and controlling movement of the carrier.
  • the control means (49) updates the target value based on the coordinate information acquired from the second marker, to control the movement of the carrier based on.
  • the first marker is provided on a plane (WA10) that intersects the road surface (WA20) on which the transport vehicle moves, and the second marker is provided on the road surface.
  • the first marker and the second marker are ArUco markers.
  • the transport vehicle further comprises detection means (480) for receiving a positioning signal and detecting the current position of the transport vehicle,
  • the control means (49) controls the movement of the transport vehicle based on at least one of the positioning signal detected by the detection means and the position information of the second marker calculated by the calculation means. to control.
  • a transport technology capable of moving a transport vehicle to a predetermined position in a work area based on image information captured by a camera without relying on positioning signals such as GPS signals.
  • the transport vehicle 20 is positioned at a predetermined position (second marker MK2) in the work area WA with a simpler system configuration without frequently creating map information. be able to.
  • the present invention supplies a program that realizes the functions of the above-described embodiments to a system or a camera device, carrier vehicle, or server that constitutes the system via a network or a storage medium. It is also possible for one or more processors to read the program and perform the processing of the notification device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

搬送システムは、作業エリアに設けられたカメラ装置と、作業エリアを自律的に移動可能な搬送車と、カメラ装置および搬送車と通信可能なサーバと、を有する。カメラ装置は、作業エリアにおける3次元の方向を示す情報が設定された第1マーカー及び第2マーカーを撮像した画像に基づいて、第1マーカー及び第2マーカーに対するカメラ装置の相対位置情報を取得する画像処理部を備える。サーバは、カメラ装置から取得した相対位置情報を、作業エリアにおける位置情報に座標変換した相対位置情報を生成する処理部を備える。搬送車は、周辺の画像を取得する画像取得部により取得された第1マーカーの画像と、サーバから取得した相対位置情報とに基づいて、第2マーカーの位置情報を演算する演算部と、位置情報を目標値として設定し、搬送車の移動を制御する制御部と、を備える。

Description

搬送システム
 本発明は搬送システムに関する。
 特許文献1には、GPS信号に基づいて、運搬車両の位置を検出する作業システムが開示されている。
特開2021-188364号公報
 工事現場等ではフォークリフト操縦者の負担を減らすため、荷物を搬送する搬送車(走行台車)を所定の位置に高精度に位置決めする必要がある。高精度な位置決めには、GPS信号等の測位信号が活用されるが、工事現場が屋内や建物に囲まれている場合は、測位信号を安定的に受信できない場合が生じ得る。
 本発明は、上記の課題に鑑み、GPS信号等の測位信号によらず、カメラにより撮像された画像の情報に基づいて、作業エリアの所定の位置に搬送車を移動させることが可能な搬送技術の提供を目的とする。
 本発明の一態様による搬送システムは、作業エリアに設けられたカメラ装置と、前記作業エリアを自律的に移動可能な搬送車と、前記カメラ装置および前記搬送車と通信可能なサーバと、を有する搬送システムであって、
 前記カメラ装置は、
 前記作業エリアにおける3次元の方向を示す情報が設定された第1マーカー及び第2マーカーを撮像した画像に基づいて、前記第1マーカー及び前記第2マーカーに対する前記カメラ装置の相対位置情報を取得する画像処理手段を備え、
 前記サーバは、
 前記カメラ装置から取得した前記相対位置情報を、前記作業エリアにおける位置情報に座標変換した相対位置情報を生成する処理手段を備え、
 前記搬送車は、
 周辺の画像を取得する画像取得手段と、
 前記画像取得手段により取得された前記第1マーカーの画像と、前記サーバから取得した前記相対位置情報とに基づいて、前記第2マーカーの位置情報を演算する演算手段前記位置情報を目標値として設定し、前記搬送車の移動を制御する制御手段と、を備える。
 本発明によれば、GPS信号等の測位信号によらず、カメラにより撮像された画像の情報に基づいて、作業エリアの所定の位置に搬送車を移動させることが可能な搬送技術を提供することができる。
実施形態に係る搬送システムの構成例を示す図。 作業エリアにおける、カメラ装置および搬送車を模式的に示す図。 カメラ装置が第1マーカー及び第2マーカーを撮像した画像を例示する図。 実施形態に係る搬送車のブロック図。 搬送車のカメラにより撮像された搬送車の前方の画像例を示す図。 搬送車のカメラにより撮像された画像を例示する図であり、ST61は搬送車の走行状態を示す図であり、ST62は、第2マーカーの画像例を示す図。 カメラ装置における処理の流れを説明する図。 サーバにおける処理の流れを説明する図。 搬送車における処理の流れを説明する図。
 以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
 図1は実施形態に係る搬送システムSTMの構成例を示す図であり、搬送システムSTMは、少なくとも、作業エリアに設けられたカメラ装置10と、作業エリアを自律的に移動可能な搬送車20(「自律搬送車」ともいう)と、カメラ装置10および搬送車20と、ネットワークNWを介して通信可能なサーバ30(情報処理装置)と、を有する。また、搬送システムSTMを管理するオペレータの端末40はネットワークNWを介してサーバ30と通信可能である。サーバ30は、搬送車20への情報送信に際して、確認要求をオペレータの端末40に送信する。オペレータは、端末40を介して承認を行う。また、オペレータは端末40により搬送システムSTMにおける搬送車20の状態を監視することが可能である。
 図2は、作業エリアWAにおける、カメラ装置10および搬送車20を模式的に示す図であり、カメラ装置10は作業エリアWAの所定の位置に配置されている。ここでは、作業エリアWA内の位置P(x、y、z)にカメラ装置10が配置されているものとする。また、カメラ装置10は、作業エリアWA内に少なくとも一つが配置されていればよく、複数のカメラ装置10が配置されていてもよい。複数のカメラ装置10を作業エリアWA内に配置する場合、複数のカメラ装置10のそれぞれに識別情報を付与し、各カメラ装置10からサーバ30に送信する情報(相対位置情報)に識別情報を付加すればよい。これにより、サーバ30は、識別情報に基づいて、作業エリアWA内に配置された各カメラ装置を特定することができる。
 搬送車20が移動する作業エリアWAは、屋外または屋内のいずれであってもよいが、本実施形態では、屋内における搬送車20の移動の例を説明する。図2に示す例では、屋内を搬送車20が移動する例を説明する。
 (カメラ装置10)の構成
 図1に示すように、カメラ装置10は、機能構成として、撮像部11および画像処理部12および通信部13を有する。カメラ装置10の撮像部11は、静止画または動画を撮像することが可能であり、撮像部11には、例えば、CMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサを備えるデジタルカメラが用いられる。
 画像処理部12は、撮像部11で撮像した対象物の画像に基づいて、対象物とカメラ装置10との間の相対距離(相対位置情報)を取得する。画像処理部12は、撮像部11により撮像された画像の画像処理により、対象物とカメラ装置10との間の相対位置情報を取得する。
 本実施形態において、撮像部11による撮像の対象物は、矩形の領域に所定のパターンが形成された二次元マーカー(ArUcoマーカー)であり、例えば、図2に示すように、作業エリアWAの第1平面に設けられている第1マーカーMK1、及び作業エリアWAの第2平面に設けられている第2マーカーMK2である。図2に示す例では、第1マーカーMK1は、搬送車20が移動する路面WA20に対して交差する面WA10(例えば、屋内の平面:第1平面)に設けられており、第2マーカーMK2は、路面WA20(例えば、屋内の路面:第2平面)に設けられている。なお、ArUcoマーカーによる相対位置情報の取得は公知技術であるため、詳細な説明は省略する。
 図3は、カメラ装置10の撮像部11が第1マーカーMK1及び第2マーカーMK2を撮像した画像を例示する図である。第1マーカーMK1及び第2マーカーMK2(ArUcoマーカー)は、それぞれ3次元の方向を示す座標情報を有している。画像処理部12は、撮像した画像に、例えば、平滑化処理や鮮鋭化処理等種々の画像処理を施して、画像から第1マーカーMK1及び第2マーカーMK2を認識する。画像処理部12は、画像処理に基づいて認識した第1マーカーMK1及び第2マーカーMK2を用いて、カメラ装置10と第1マーカーMK1との間の距離(相対位置情報d1)と、カメラ装置10と第2マーカーMK2との間の距離(相対位置情報d2)と、を取得する。
 通信部13は、ネットワークNWを介してサーバ30と双方向に通信を行うことが可能である。通信部13は、画像処理部12により取得された相対位置情報d1及びd2をサーバ30に送信する。ここで、通信部13は、相対位置情報d1及びd2をサーバ30に送信する際に、カメラ装置10を特定する識別情報を、相対位置情報d1及びd2と合わせてサーバ30に送信する。これにより、サーバ30は、カメラ装置10の識別情報と、相対位置情報(d1、d2)とを対応付けて管理することができる。
 (サーバ30)
 サーバ30は、処理部31と、通信部32と、記憶部33とを含み、これらは不図示のバスにより接続されている。処理部31はCPUに代表されるプロセッサであり、記憶部33に記憶されたプログラムを実行することにより、サーバ30に係る種々の機能を実現する。すなわち、記憶部33に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である処理部31によって具体的に実現されることで、処理部31に含まれる各機能部として実行されうる。記憶部33は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等であり、処理部31が実行するプログラムの他、各種のデータが格納される。通信部32は、外部装置との通信インタフェースである。
 本実施形態において、処理部31は、カメラ装置10から送信された相対位置情報(相対位置情報d1、相対位置情報d2)を、通信部32を介して取得する。そして、処理部31は、取得した相対位置情報に基づいて、作業エリアWA内における全体的な位置を示すシステム座標系における相対位置情報D1及びD2を生成し、生成した相対位置情報D1及びD2を搬送車20に送信する。ここで、カメラ装置10から送信された相対位置情報は、カメラ装置10の座標系(カメラ座標系)で取得された情報である。処理部31は、カメラ装置10から送信された識別情報に基づいて、作業エリアWA内におけるカメラ装置10の位置Pを特定する。そして、処理部31は、特定したカメラ装置10の位置Pを基準として、カメラ座標系の相対位置情報d1及びd2を、作業エリアWA内における全体的な位置情報を示すシステム座標系(x、y、z)に座標変換した相対位置情報D1及びD2を生成し、生成した相対位置情報D1及びD2を搬送車20に送信する。
 (搬送車20)
 図4は本発明の一実施形態に係る搬送車20のブロック図である。ST41は搬送車20の平面図であり、ST42は搬送車20の側面図である。図中、Fr、Rr、L及びRは、搬送車20の前進走行時における前、後、左、右を示す。また、Up、Dnは搬送車20の上方、下方を示す。搬送車20は、作業エリアWAを自律的に移動可能な車両であり、運転席或いは乗員による運転機構を備えない車両であり、走行中は無人である。本実施形態の搬送車20は、前輪40f、後輪40rをそれぞれ二つ備えた四輪車であり、荷台400に荷物を積み、荷物の搬送を行う。
 搬送車20は、バッテリ41を主電源とした電動車両である。バッテリ41は例えばリチウムイオンバッテリ等の二次電池であり、搬送車20はバッテリ41から供給される電力により自走する。搬送車20は、電動走行機構42を備える。電動走行機構42は、走行機構43と、操舵機構45と、制動機構46を備える。
 走行機構43は、走行モータ44を駆動源として搬送車20を前進又は後進させる機構であり、本実施形態の場合、後輪40rを駆動輪としている。前輪40f、後輪40rにはそれぞれディスクブレーキ等の制動機構46が設けられている。
 操舵機構45は操舵モータ47を駆動源として前輪40fに舵角を与える機構である。なお、本実施形態の電動走行機構42は、前輪40fのみを操舵する二輪操舵機構を備えてもよいし、前輪40f及び後輪40rを操舵する四輪操舵機構を備えてもよい。
 搬送車20は、周囲状況を検知する検知ユニット480を備える。検知ユニット480は、搬送車20の周辺を監視する外界センサ群である。外界センサは、例えば、ミリ波レーダであり、電波により搬送車20の周囲の障害物を検知する。また、外界センサは、例えば、Light Detection and Ranging(LIDAR:ライダ)であり、光により搬送車20の周囲の障害物を検知する。制御ユニット(ECU)49は、検知ユニット480で検出された情報の解析により、障害物との距離を測距することが可能である。外界センサは、搬送車20の前部、後部、左右の側部にそれぞれ設けることができ、これにより搬送車20の四方を監視することができる。
 搬送車20は、測位センサ410、通信装置420を備える。測位センサ410は、GNSS(Global Navigation Satellite System)を構成する人工衛星から測位信号を受信する。GNSSの一例として、GPS(Global Positioning System)が挙げられる。測位センサ410は、測位信号(GNSS信号、例えば、GPS信号)を受信して搬送車20の現在位置を検知する。通信装置420はサーバ30と通信(無線通信)を行い、情報を取得する。
 搬送車20は、制御ユニット(ECU)49を備える。制御ユニット49は、CPUに代表されるプロセッサ、半導体メモリやハードディスク等の記憶デバイス、外部デバイスとのインタフェースを含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ(地図情報)等が格納される。プロセッサ、記憶デバイス、インタフェースは、搬送車20の機能別に複数組設けられて互いに通信可能に構成されてもよい。
 制御ユニット(ECU)49は、電動走行機構42の制御、測位センサ410の検知結果、通信装置420の通信結果の情報処理を行う。制御ユニット49は、地図情報に基づいて、現在地から目的地へのルート探索等を行う。通信装置420はネットワークNW上のサーバ30のデータベースにアクセスして、地図情報を取得することが可能である。
 搬送車20は、周辺の画像を取得する画像取得部(カメラ)48を備える。図4に示すように、画像取得部(カメラ)48は、例えば、搬送車20の前方に設けられており、搬送車20の走行に際して、前方の画像を取得する。制御ユニット49は、画像取得部(カメラ)48により取得された画像情報や通信装置420により取得した情報(相対位置情報D1、D2)や地図情報により、搬送車20の自動運転を制御することができる。
 図5は、搬送車20の画像取得部(カメラ)48により撮像された搬送車20の前方の画像例を示す図である。制御ユニット(ECU)49は、カメラ装置10の画像処理部12と同様の画像処理を行うことが可能である。画像取得部(カメラ)48による撮像の対象物は、第1マーカーMK1及び第2マーカーMK2(ArUcoマーカー)であり、制御ユニット(ECU)49は、画像取得部(カメラ)48により撮像された画像の画像処理により、対象物とカメラ装置10との間の相対位置情報を取得する。
 第1マーカーMK1は、二次元マーカー全体のパターンが撮像されているため、制御ユニット(ECU)49は、第1マーカーMK1の座標情報を取得して、第1マーカーMK1に対する相対位置情報を取得することが可能である。一方、第2マーカーMK2については、二次元マーカー全体のパターンが撮像されていないため、第2マーカーMK2の座標情報を取得したり、第2マーカーMK2に対する相対位置情報を取得することができない。GPS信号を安定的に検出できないような作業エリアWAにおいて、第2マーカーMK2の位置を搬送車20の搬送目標位置とすると、画像取得部(カメラ)48の情報のみでは、第2マーカーMK2の相対位置情報を取得することができない場合が生じ得る。
 本実施形態では、制御ユニット(ECU)49は、カメラ装置10で取得された相対位置情報(サーバ30で生成された相対位置情報)と、画像取得部(カメラ)48の画像から取得した第1マーカーMK1に対する相対位置情報と、に基づいて、第2マーカーMK2(搬送の目標位置)の相対位置情報を求め、搬送車20の走行を制御する。
 (処理)
 次に、搬送システムSTMにおける処理の流れを説明する。図7はカメラ装置10における処理の流れを説明する図であり、図8はサーバ30における処理の流れを説明する図であり、図9は搬送車20における処理の流れを説明する図である。
 (カメラ装置10の処理)
 ステップS710において、撮像部11が撮像を行い、対象物(第1マーカーMK1、第2マーカーMK2)が撮像された画像を取得する。
 ステップS720において、画像処理部12は、撮像部11により撮像された画像の画像処理を行い、ステップS730において、画像処理部12は、対象物とカメラ装置10との間の距離(相対位置情報)を取得する。第1マーカーMK1及び第2マーカーMK2(ArUcoマーカー)には、それぞれ3次元の方向を示す座標情報が設定されており、画像処理部12は、画像処理に基づいて認識した第1マーカーMK1及び第2マーカーMK2を用いて、カメラ装置10と第1マーカーMK1との間の距離(相対位置情報d1)と、カメラ装置10と第2マーカーMK2との間の距離(相対位置情報d2)と、を取得する。
 ステップS740において、通信部13は、画像処理部12により取得された相対位置情報d1及びd2をサーバ30に送信する。通信部13は、相対位置情報d1及びd2をサーバ30に送信する際に、カメラ装置10を特定する識別情報を、相対位置情報d1及びd2と合わせてサーバ30に送信してもよい。なお、搬送システムSTMにおいて、サーバ30がカメラ装置10の位置を予め特定している場合には識別情報の送信は必ずしも必要ではない。
 (サーバ30の処理)
 ステップS810において、処理部31は、カメラ装置10から送信された相対位置情報(相対位置情報d1、相対位置情報d2)およびカメラ装置10の識別情報を、通信部32を介して取得する。
 ステップS820において、処理部31は、カメラ装置10から送信された識別情報に基づいて、作業エリアWA内におけるカメラ装置10の位置Pを特定する。そして、処理部31は、特定したカメラ装置10の位置Pを基準として、カメラ座標系の相対位置情報d1及びd2を、作業エリアWA内における全体的な位置情報を示すシステム座標系(x、y、z)に座標変換した相対位置情報D1及びD2を生成する。
 ステップS830において、処理部31は、ステップS820で生成した相対位置情報D1及びD2を、通信部32を介して搬送車20に送信する。
 (搬送車20の処理)
 ステップS900において、搬送車20は、測位センサ410で検出されたGPS情報を用いて走行する。
 ステップS910において、制御ユニット49は、画像取得部(カメラ)48により撮像された画像から第1マーカーMK1を認識したか判定する。第1マーカーMK1を認識していない場合(S910-No)、処理はステップS900に戻され、同様の処理を繰り返す。一方、ステップS910の判定で、第1マーカーMK1を認識した場合(S910-Yes)、制御ユニット49は、処理をステップS920に進める。
 ステップS920において、制御ユニット49は、第1マーカーMK1の座標情報を取得して、搬送車20の現在位置に基づいて、第1マーカーMK1に対する相対位置情報を取得する。
 ステップS930において、制御ユニット49は、サーバ30で生成された相対位置情報D1及びD2を、通信装置420を介して取得する。
 ステップS940において、制御ユニット49は、第1マーカーMK1の座標情報(S920)と、相対位置情報D1及びD2(S930)とに基づいて算出した、作業エリアWAにおける第2マーカーMK2の位置(位置情報)を、新しい搬送の目標位置として設定する。制御ユニット49は、第2マーカーMK2の位置(位置情報)を目標値として設定し、搬送車20の移動を制御する。
 図6は、搬送車20の画像取得部(カメラ)48により撮像された画像を例示する図であり、ST61は搬送車20の走行状態を示す側面図である。ST62は、第2マーカーMK2の画像例を示す図である。第2マーカーMK2は路面WA20に設けられており、画像取得部(カメラ)48により撮像可能範囲600に第2マーカーMK2が入ると、ST62に示すような画像を取得することができる。ST62において、第2マーカーMK2は、二次元マーカー全体のパターンが撮像されているため、制御ユニット(ECU)49は、第2マーカーMK2の座標情報を取得して、第2マーカーMK2に対する相対位置情報を取得することが可能である。
 ステップS950において、制御ユニット49は、画像取得部(カメラ)48により撮像された画像から第2マーカーMK2を認識したか判定する。第2マーカーMK2を認識していない場合(S950-No)、処理はステップS920に戻され、同様の処理を繰り返す。一方、ステップS950の判定で、第2マーカーMK2を認識した場合(S950-Yes)、制御ユニット49は、処理をステップS960に進める。
 ステップS960において、制御ユニット49は、第2マーカーMK2の座標情報を取得して、取得した第2マーカーMK2の座標情報を最終的な目標位置(目標値)として設定する。制御ユニット49は、画像取得部(カメラ)48により第2マーカーMK2の画像が取得された場合に、当該第2マーカーMK2から取得される座標情報により目標値を更新し、当該目標値に基づいて搬送車20の移動を制御する。
 ステップS970において、制御ユニット49は、搬送車20の現在位置と第2マーカーMK2の座標情報とを用いて、第2マーカーMK2へのルートを設定し、搬送車20の移動(ナビゲーション)を制御する。搬送車20の目標地点は事前に3Dポイントクラウドから作成した地図情報に基づいて指定されるが、工事現場のように頻繁にレイアウトが変わる場所では地図情報を作成するのは現実的ではない。
 本実施形態の搬送システムSTMによれば、GPS信号等の測位信号によらず、カメラにより撮像された画像の情報に基づいて、作業エリアの所定の位置に搬送車を移動させることが可能になる。また、本実施形態の搬送システムSTMによれば、地図情報を頻繁に作成することなく、より簡易なシステム構成で、搬送車20を作業エリアWAの所定の位置(第2マーカーMK2)に位置決めすることができる。
 [実施形態のまとめ]
 構成1.上記実施形態の搬送システムは、作業エリアに設けられたカメラ装置(10)と、前記作業エリアを自律的に移動可能な搬送車(20)と、前記カメラ装置および前記搬送車と通信可能なサーバ(30)と、を有する搬送システム(STM)であって、
 前記カメラ装置(10)は、
 前記作業エリアにおける3次元の方向を示す情報が設定された第1マーカー及び第2マーカーを撮像した画像に基づいて、前記第1マーカー及び前記第2マーカーに対する前記カメラ装置の相対位置情報を取得する画像処理手段(12)を備え、
 前記サーバ(30)は、
 前記カメラ装置から取得した前記相対位置情報を、前記作業エリアにおける位置情報に座標変換した相対位置情報を生成する処理手段(31)を備え、
 前記搬送車(20)は、
 周辺の画像を取得する画像取得手段(48)と、
 前記画像取得手段により取得された前記第1マーカーの画像と、前記サーバから取得した前記相対位置情報とに基づいて、前記第2マーカーの位置情報を演算する演算手段(49)と、
 前記位置情報を目標値として設定し、前記搬送車の移動を制御する制御手段(49)と、を備える。
 構成2.前記制御手段(49)は、前記画像取得手段(48)により前記第2マーカーの画像が取得された場合に、当該第2マーカーから取得される座標情報により前記目標値を更新し、当該目標値に基づいて前記搬送車の移動を制御する。
 構成3.前記第1マーカーは前記搬送車が移動する路面(WA20)に対して交差する面(WA10)に設けられており、前記第2マーカーは、前記路面に設けられている。
 構成4.前記第1マーカー及び前記第2マーカーは、ArUcoマーカーである。
 構成5.前記搬送車は、測位信号を受信して前記搬送車の現在位置を検知する検知手段(480)を更に備え、
 前記制御手段(49)は、前記検知手段により検出された測位信号、および前記演算手段により演算した前記第2マーカーの位置情報のうち、少なくともいずれか一方の情報に基づいて、前記搬送車の移動を制御する。
 構成6.前記サーバ(30)の前記処理手段(31)は、
 前記カメラ装置(10)から送信された識別情報に基づいて特定したカメラ装置の位置を基準として、前記カメラ装置から取得した前記相対位置情報を、前記作業エリアにおける位置情報に座標変換した相対位置情報を生成する。
 本実施形態の搬送システムによれば、GPS信号等の測位信号によらず、カメラにより撮像された画像の情報に基づいて、作業エリアの所定の位置に搬送車を移動させることが可能な搬送技術を提供することができる。また、本実施形態の搬送システムSTMによれば、地図情報を頻繁に作成することなく、より簡易なシステム構成で、搬送車20を作業エリアWAの所定の位置(第2マーカーMK2)に位置決めすることができる。
 (その他の実施形態)
 本発明は、上述の実施形態の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステムまたはシステムを構成するカメラ装置、搬送車、サーバに供給し、カメラ装置、搬送車、サーバのコンピュータにおける1つ以上のプロセッサがプログラムを読出して、報知装置の処理を実行することも可能である。
 発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
 10:カメラ装置、20:搬送車、30:サーバ、40:端末
 11:撮像部、12:画像処理部、13:通信部、31:処理部、
 48:画像取得部(カメラ)、49:制御ユニット(ECU)

Claims (6)

  1.  作業エリアに設けられたカメラ装置と、前記作業エリアを自律的に移動可能な搬送車と、前記カメラ装置および前記搬送車と通信可能なサーバと、を有する搬送システムであって、
     前記カメラ装置は、
     前記作業エリアにおける3次元の方向を示す情報が設定された第1マーカー及び第2マーカーを撮像した画像に基づいて、前記第1マーカー及び前記第2マーカーに対する前記カメラ装置の相対位置情報を取得する画像処理手段を備え、
     前記サーバは、
     前記カメラ装置から取得した前記相対位置情報を、前記作業エリアにおける位置情報に座標変換した相対位置情報を生成する処理手段を備え、
     前記搬送車は、
     周辺の画像を取得する画像取得手段と、
     前記画像取得手段により取得された前記第1マーカーの画像と、前記サーバから取得した前記相対位置情報とに基づいて、前記第2マーカーの位置情報を演算する演算手段と、
     前記位置情報を目標値として設定し、前記搬送車の移動を制御する制御手段と、
     を備えることを特徴とする搬送システム。
  2.  前記制御手段は、前記画像取得手段により前記第2マーカーの画像が取得された場合に、当該第2マーカーから取得される座標情報により前記目標値を更新し、当該目標値に基づいて前記搬送車の移動を制御することを特徴とする請求項1に記載の搬送システム。
  3.  前記第1マーカーは前記搬送車が移動する路面に対して交差する面に設けられており、
     前記第2マーカーは、前記路面に設けられていることを特徴とする請求項1または2に記載の搬送システム。
  4.  前記第1マーカー及び前記第2マーカーは、ArUcoマーカーであることを特徴とする請求項1乃至3のいずれか1項に記載の搬送システム。
  5.  前記搬送車は、測位信号を受信して前記搬送車の現在位置を検知する検知手段を更に備え、
     前記制御手段は、前記検知手段により検出された測位信号、および前記演算手段により演算した前記第2マーカーの位置情報のうち、少なくともいずれか一方の情報に基づいて、前記搬送車の移動を制御することを特徴とする請求項1に記載の搬送システム。
  6.  前記サーバの前記処理手段は、
     前記カメラ装置から送信された識別情報に基づいて特定したカメラ装置の位置を基準として、前記カメラ装置から取得した前記相対位置情報を、前記作業エリアにおける位置情報に座標変換した相対位置情報を生成することを特徴とする請求項1に記載の搬送システム。
PCT/JP2021/047923 2021-12-23 2021-12-23 搬送システム Ceased WO2023119566A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/047923 WO2023119566A1 (ja) 2021-12-23 2021-12-23 搬送システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/047923 WO2023119566A1 (ja) 2021-12-23 2021-12-23 搬送システム

Publications (1)

Publication Number Publication Date
WO2023119566A1 true WO2023119566A1 (ja) 2023-06-29

Family

ID=86901793

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047923 Ceased WO2023119566A1 (ja) 2021-12-23 2021-12-23 搬送システム

Country Status (1)

Country Link
WO (1) WO2023119566A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019240208A1 (ja) * 2018-06-13 2019-12-19 Groove X株式会社 ロボットおよびその制御方法、ならびにプログラム
JP2020149463A (ja) * 2019-03-14 2020-09-17 株式会社東芝 移動体行動登録装置、移動体行動登録システム、及び移動体行動決定装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019240208A1 (ja) * 2018-06-13 2019-12-19 Groove X株式会社 ロボットおよびその制御方法、ならびにプログラム
JP2020149463A (ja) * 2019-03-14 2020-09-17 株式会社東芝 移動体行動登録装置、移動体行動登録システム、及び移動体行動決定装置

Similar Documents

Publication Publication Date Title
RU2720138C2 (ru) Способ автоматического подведения к погрузочно-разгрузочной площадке для применения в грузовых автомобилях большой грузоподъемности
EP4165376B1 (en) Methods and systems for performing inter-trajectory re-linearization about an evolving reference path for an autonomous vehicle
CN109278672B (zh) 用于辅助各种操纵的无线汽车拖车的方法、设备和系统
US20200110410A1 (en) Device and method for processing map data used for self-position estimation, mobile body, and control system for mobile body
JP2021520000A (ja) トレーラの検出および自律的なヒッチング
JP2020107324A (ja) 車両隊列構成車両間で分配されたデータの収集と処理
CN109624973B (zh) 车辆控制装置、车辆控制方法及存储介质
KR101049906B1 (ko) 자율 이동 장치 및 이의 충돌 회피 방법
CN110998472A (zh) 移动体以及计算机程序
JPWO2012164691A1 (ja) 自律移動システム
CN113459852A (zh) 一种路径规划方法、装置以及移动工具
JP6876863B2 (ja) 車両制御システム、車両制御方法、及びプログラム
US12307781B2 (en) Information processing device and information processing method associated with compression of point cloud data obtained by sensing the vicinity of a moving body
EP4172969B1 (en) Method for mapping, mapping device, computer program, computer readable medium, and vehicle
CN113734179A (zh) 一种行驶轨迹应用方法、装置、设备、存储介质及车辆
US11807224B2 (en) Automated valet parking system
US20200292332A1 (en) Map information distribution system and vehicle
WO2023119566A1 (ja) 搬送システム
CN115158347A (zh) 移动体控制装置、移动体控制方法及存储介质
JP7602100B2 (ja) 物体認識システム
CN114562997A (zh) 车辆定位系统以及包括该车辆定位系统的封闭区域导航系统
JP7682091B2 (ja) 車両管理装置、車両管理方法、車両管理システム及び車両管理プログラム
CN115900709A (zh) 室内外一体无人驾驶导航方法
JP7752980B2 (ja) 車両走行制御装置、車両走行制御方法および車両走行制御プログラム
WO2023132080A1 (ja) 作業車両、制御装置、制御方法及びシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21969001

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21969001

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP