[go: up one dir, main page]

WO2022118476A1 - 自動運転システム、サーバ、および、ダイナミックマップの生成方法 - Google Patents

自動運転システム、サーバ、および、ダイナミックマップの生成方法 Download PDF

Info

Publication number
WO2022118476A1
WO2022118476A1 PCT/JP2020/045316 JP2020045316W WO2022118476A1 WO 2022118476 A1 WO2022118476 A1 WO 2022118476A1 JP 2020045316 W JP2020045316 W JP 2020045316W WO 2022118476 A1 WO2022118476 A1 WO 2022118476A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
vehicle
range
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2020/045316
Other languages
English (en)
French (fr)
Inventor
哲朗 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to CN202080107611.XA priority Critical patent/CN116615773A/zh
Priority to JP2022566748A priority patent/JP7345684B2/ja
Priority to PCT/JP2020/045316 priority patent/WO2022118476A1/ja
Priority to DE112020007815.9T priority patent/DE112020007815T5/de
Priority to US18/033,674 priority patent/US20230399017A1/en
Publication of WO2022118476A1 publication Critical patent/WO2022118476A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • This disclosure relates to an automatic driving system, a server that generates a dynamic map, and a method of generating a dynamic map by the server.
  • Dynamic maps used during autonomous driving are known.
  • the dynamic map provides quasi-static information such as construction schedule or lane regulation schedule, quasi-dynamic information such as construction section or lane regulation, and dynamic information such as vehicles or pedestrians on a high-precision 3D map. It is a digital map generated by superimposing.
  • a vehicle capable of autonomous driving performs automatic driving control while collating the information on the dynamic map with the information detected by the sensor mounted on the vehicle. This makes it possible to grasp blind spots or dynamic information over a wide range that cannot be observed with a single vehicle, leading to the realization of highly accurate automated driving control.
  • Patent Document 1 describes the possibility of collision between moving objects based on the behavior of the moving object predicted based on the dynamic information. Determines the combination of certain actions, generates instruction information indicating the event that triggers the action indicated by the combination and the processing to be executed when the event occurs, and makes it into the in-vehicle device of the vehicle that may collide.
  • the technique of transmission is disclosed.
  • the dynamic map provided to a vehicle capable of autonomous driving is associated with current information, so that the vehicle is, for example, a sudden situation that may occur in the future. I can't make an operation plan to avoid change. As a result, there is a problem that the vehicle may be suddenly controlled when, for example, a sudden change in the situation occurs in the surrounding area.
  • the technique disclosed in Patent Document 1 as described above the behavior of the moving body is predicted based on the dynamic information, but the prediction made by the technique is the current prediction of the moving body. It means to prepare a movement pattern that the moving body can take from the position and the speed, and does not uniquely predict to which direction the moving body actually moves. Therefore, if the movement actually taken by the moving body is not the movement of the prepared pattern, the in-vehicle device that receives the instruction information may not be able to deal with it in time, and the vehicle may be suddenly controlled.
  • the present disclosure has been made to solve the above-mentioned problems, and is an automatic driving system that provides a generated dynamic map to a vehicle capable of automatic driving, and is an automatic driving system for sudden control of a vehicle capable of automatic driving. It is an object of the present invention to provide an automatic driving system that can avoid the above.
  • the automatic driving system is an automatic driving system that provides a generated dynamic map to a vehicle capable of automatic driving, and has a movement prediction unit that predicts the movement of a moving object based on sensor information and a movement. Based on the motion prediction information about the movement of the moving object predicted by the prediction unit, the range prediction unit that predicts the virtual obstacle range that the virtual obstacle is considered to exist, and the information about the virtual obstacle range predicted by the range prediction unit. Based on this, it is equipped with a map generator that generates a dynamic map that reflects the virtual obstacle range.
  • FIG. It is a figure which shows the configuration example of the automatic operation system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the image of an example of integrated virtual obstacle range information in Embodiment 1.
  • FIG. It is a figure which shows the image of an example of the dynamic map of the present time, and the dynamic map group including a plurality of future dynamic maps generated by the map generation part in Embodiment 1.
  • FIG. It is a figure which shows the image of an example of the route which the in-vehicle device devised in Embodiment 1.
  • FIG. It is a flowchart for demonstrating operation of the server which concerns on Embodiment 1.
  • FIG. 9A and 9B are diagrams showing an example of the hardware configuration of the server according to the first embodiment. It is a figure which shows the configuration example of the automatic operation system which made the server have the function of the motion prediction part in Embodiment 1.
  • FIG. In the first embodiment it is a sequence diagram for explaining the image of the operation of the automatic driving system in which the behavior observation apparatus outputs motion prediction information as a breaking news value to an in-vehicle apparatus.
  • FIG. 1 It is a sequence diagram for demonstrating the image of the operation of the automatic driving system when the behavior observation apparatus is applied to the bus operation system in Embodiment 1.
  • FIG. In the figure which shows the image of an example of the dynamic map of the present time and the dynamic map group including a plurality of future dynamic maps generated by the server when the behavior observation apparatus is applied to the bus operation system in Embodiment 1. be. It is a figure which shows the image of an example of the route which the in-vehicle apparatus devised based on the dynamic map group generated by the server when the behavior observation apparatus was applied to the bus operation system in Embodiment 1.
  • the automatic driving system provides a generated dynamic map for a vehicle capable of automatic driving (hereinafter referred to as "automated driving vehicle").
  • the dynamic map links various information related to road traffic such as information on surrounding vehicles or traffic information to a high-precision three-dimensional map that allows the vehicle to identify the position of its own vehicle related to the road or its surroundings at the lane level in real time. It is a digital map generated by.
  • a dynamic map is composed of static information, quasi-static information, quasi-dynamic information, and dynamic information.
  • the static information is high-precision three-dimensional map information.
  • Quasi-static information includes information on traffic regulation schedules, road construction schedules, wide-area weather forecast information, and the like.
  • the quasi-dynamic information includes accident information, traffic congestion information, traffic regulation information, road construction information, narrow area weather forecast information, and the like.
  • the dynamic information includes vehicle, pedestrian, or signal information collected from sensors provided in roadside devices, vehicle-mounted devices, and the like.
  • the dynamic map is generated by associating quasi-static information, quasi-dynamic information, and dynamic information with high-precision 3D map information which is static information.
  • the quasi-static information, the quasi-dynamic information, and the association rule for associating the dynamic information with the high-precision three-dimensional map information are set in advance.
  • Dynamic maps are used in autonomous driving.
  • the autonomous driving vehicle performs automatic driving control while collating the information on the dynamic map with the information acquired from the sensor mounted on the autonomous driving vehicle, for example.
  • Self-driving vehicles travel while collating various information linked in real time on the dynamic map with information acquired from sensors, such as blind spots that cannot be observed by a single vehicle or dynamic information over a wide range. It is possible to realize highly accurate automatic operation control.
  • dynamic maps only reflected the current situation. Therefore, self-driving vehicles cannot make a driving plan to avoid sudden changes in the situation that may occur in the future.
  • the self-driving vehicle may be suddenly controlled when a sudden change in the situation occurs in the surrounding area, such as an event that is likely to collide with another moving body. Sudden control of autonomous vehicles may lead to an increase in the burden on occupants.
  • the autonomous driving system can avoid sudden control of the autonomous driving vehicle by generating a dynamic map after the current time that reflects information based on future movements of the moving body. do.
  • the "moving body” includes a person.
  • the “movement of the moving body” includes the movement of a part of the moving body such as the door of the vehicle.
  • FIG. 1 is a diagram showing a configuration example of the automated driving system 100 according to the first embodiment.
  • the automatic driving system 100 includes a server 1, an in-vehicle device 3 mounted on the vehicle 30, a behavior observation device 4, and a roadside device 5.
  • the detailed configurations of the server 1, the vehicle-mounted device 3, the behavior observation device 4, and the roadside device 5 will be described later.
  • an outline of the vehicle-mounted device 3, the behavior observation device 4, the roadside device 5, and the server 1 Will be described in the order of the in-vehicle device 3, the behavior observation device 4, the roadside device 5, and the server 1.
  • the in-vehicle device 3 predicts the movement of the moving body after the next time based on the sensor information acquired from the sensor 21 provided in the vehicle 30.
  • the sensor 21 is, for example, LiDAR or millimeter wave radar.
  • the sensor 21 may be provided in the in-vehicle device 3.
  • the in-vehicle device 3 outputs information regarding the predicted movement of the moving object (hereinafter referred to as “movement prediction information”) to the server 1. Further, the in-vehicle device 3 outputs the sensor information acquired from the sensor 21 to the server 1 at a preset cycle.
  • a plurality of vehicles 30 may be connected to the server 1.
  • the vehicle 30 shown in FIG. 1 is assumed to be an autonomous driving vehicle
  • the vehicle 30 connected to the server 1 may include a vehicle 30 having no automatic driving function.
  • the automatic driving system 100 it is assumed that at least one automatic driving vehicle is connected to the server 1.
  • the behavior observation device 4 includes a sensor 22 and predicts the movement of the moving object after the next time based on the sensor information acquired from the sensor 22.
  • the behavior observation device 4 is mounted on a parking lot clearing device (not shown) facing a public road. It should be noted that this is only an example, and the behavior observation device 4 is mounted on various devices, detects the movement of the moving object at a certain point in time, and is triggered by the detected movement of the moving object after the next time at a certain point in time. Predict the movement of.
  • the sensor 22 is, for example, a camera, a touch sensor, or a motion sensor.
  • the sensor 22 may be provided in the clearing device.
  • the behavior observation device 4 outputs motion prediction information regarding the predicted motion of the moving object to the server 1. Although only one behavior observation device 4 is shown in FIG. 1, this is only an example. In the automated driving system 100, a plurality of behavior observation devices 4 may be connected to the server 1.
  • the roadside device 5 includes a sensor 23 for detecting the situation around the road, and outputs sensor information acquired from the sensor 23 to the server 1 at a preset cycle.
  • the sensor information acquired from the sensor 23 includes, for example, information about a moving body around the road.
  • FIG. 1 Although only one roadside device 5 is shown in FIG. 1, this is only an example. In the automated driving system 100, a plurality of roadside devices 5 may be connected to the server 1.
  • the server 1 assumes a computing device installed at each point such as a cloud or multi-edge computing.
  • the server 1 has sufficient arithmetic processing performance.
  • the server 1 acquires motion prediction information output from the in-vehicle device 3 or the behavior observation device 4, and based on the acquired motion prediction information, a plurality of servers 1 after the current time reflect the dynamic information based on the motion prediction information. Generate a dynamic map of. Further, the server 1 generates a dynamic map at the current time, which reflects the dynamic information based on the sensor information, based on the sensor information output from the in-vehicle device 3 and the roadside device 5. The server 1 outputs the generated dynamic map group to the vehicle 30.
  • the vehicle 30 at this time is an autonomous driving vehicle.
  • the autonomous driving vehicle that has acquired the dynamic map group makes an operation plan for autonomous driving using the dynamic map group.
  • the configurations of the in-vehicle device 3, the behavior observation device 4, the roadside device 5, and the server 1 will be described in detail.
  • the in-vehicle device 3 includes a motion detection unit 31, a motion prediction unit 32, an information output unit 33, and an automatic driving control device 34.
  • the automatic operation control device 34 includes a map acquisition unit 341, a planning unit 342, and an operation control unit 343.
  • the motion detection unit 31 detects the motion of the moving object based on the acquired sensor information. Specifically, for example, the motion detection unit 31 detects the motion of the occupant of the vehicle 30.
  • the movement of the occupant detected by the motion detection unit 31 is, for example, a movement of opening and closing the door of the vehicle 30, a movement of unlocking the door of the vehicle 30, a lighting operation, or a parking brake operation.
  • the motion detection unit 31 detects the motion of the moving object by the motion detection unit 31 by giving an example in which the motion detection unit 31 detects the motion of the occupant opening the door of the vehicle 30.
  • the doorknob is provided with a sensor 21.
  • the motion detection unit 31 detects that the occupant has touched the doorknob based on the sensor information.
  • the motion detection unit 31 outputs information to the effect that the motion of the moving object has been detected (hereinafter referred to as “motion detection information”) to the motion prediction unit 32.
  • motion detection information includes the time when the motion prediction unit 32 detects the motion of the moving object, and the information regarding the detected motion.
  • the motion detection unit 31 acquires the sensor information from the sensor 21, the motion detection unit 31 detects the motion of the moving body as described above, and outputs the sensor information to the information output unit 33.
  • the sensor information is the information detected by the sensor 21 at the present time.
  • the motion prediction unit 32 predicts the movement of the moving body after the next time. do.
  • the moving body in which the motion detecting unit 31 detects the movement and the moving body in which the motion predicting unit 32 predicts the movement after the next time do not have to be the same moving body.
  • the motion detection unit 31 detects that the occupant has touched the doorknob.
  • the motion prediction unit 32 predicts the time from when the occupant touches the doorknob until the door opens and the occupant gets off.
  • disembarkation time information information associated with the time required from when the occupant touches the doorknob to when the door opens and the occupant disembarks (hereinafter referred to as "disembarkation time information") is generated and mounted on the vehicle. It is assumed that the device 3 is stored in a referenceable storage unit (not shown). For example, the time required for the occupant to get off after touching the doorknob varies depending on the age of the occupant and the like.
  • the motion prediction unit 32 calculates, for example, the average time required for the occupant to open the door and get off the doorknob after the occupant touches the doorknob, based on the disembarkation time information. It is estimated that the time required for the occupant to disembark after the door opens after touching (hereinafter referred to as "door opening time”). It is assumed that the door will remain open from the time the door opens until the occupants get off.
  • the motion prediction unit 32 may predict, for example, the time when the occupant touches the doorknob and then the door opens and the occupant disembarks (hereinafter referred to as “door opening time”) based on the disembarkation time information. ..
  • the motion prediction unit 32 predicts the movement that the door of the vehicle 30 opens after the lapse of the door opening time predicted from the time when the door knob is detected to be touched by the motion detection unit 31, or at the predicted door opening time. do.
  • the "movement of the moving body” includes the movement of a part of the moving body.
  • the movement of the door, which is a part of the vehicle 30, is included in the movement of the vehicle 30.
  • the motion prediction unit 32 outputs the predicted motion prediction information regarding the movement of the moving object after the next time to the information output unit 33.
  • the motion prediction unit 32 moves the information that the door of the vehicle 30 opens after the door opening time predicted from the time when the occupant touches the doorknob or at the predicted door opening time. It is output to the information output unit 33 as prediction information.
  • the motion prediction information includes information regarding the time when the motion detection unit 31 detects the motion of the moving object, and in the above example, the time when the occupant detects that the occupant touches the door of the vehicle 30.
  • the information output unit 33 outputs the motion prediction information output from the motion prediction unit 32 to the server 1. At this time, the information output unit 33 outputs motion prediction information in association with information about the vehicle 30 or the in-vehicle device 3 (hereinafter referred to as “vehicle information”).
  • vehicle information may be output in association with the motion prediction information when the motion prediction unit 32 outputs the motion prediction information.
  • vehicle information includes information on the position of the vehicle, the vehicle type, and the like.
  • the motion prediction unit 32 may acquire information about the position of the vehicle, the vehicle type, and the like from, for example, the sensor 21 and the like.
  • the automatic driving control device 34 controls the automatic driving of the vehicle 30.
  • the map acquisition unit 341 acquires the dynamic map group output from the server 1.
  • the map acquisition unit 341 outputs the acquired map group to the planning unit 342.
  • the planning unit 342 makes an operation plan based on the dynamic map group acquired by the map acquisition unit 341. Specifically, the planning unit 342 formulates a route based on the dynamic map group acquired by the map acquisition unit 341. The planning unit 342 outputs information about the formulated route to the operation control unit 343.
  • the operation control unit 343 controls automatic operation based on the route formulated by the planning unit 342.
  • the behavior observation device 4 includes a motion detection unit 41, a motion prediction unit 42, and an information output unit 43.
  • the motion detection unit 41 acquires sensor information from the sensor 22, and detects the motion of the moving object based on the acquired sensor information.
  • the motion detection function of the moving body included in the motion detection unit 41 is the same as the motion detection function of the motion detection unit 31 included in the in-vehicle device 3.
  • the motion detection unit 41 detects the motion of the user in the parking lot.
  • the movement of the user in the parking lot detected by the motion detection unit 41 is, for example, a movement in which the user has settled in the parking lot.
  • a clearing button is displayed on the touch panel provided in the clearing device, and the clearing button is provided with a sensor 22.
  • the sensor 22 is, for example, a touch sensor.
  • the motion detection unit 41 acquires the operation information in which the touch sensor is operated as the sensor information. When the sensor information indicating that the clearing button has been touched is output from the sensor 22, the motion detection unit 41 detects that the user has touched the clearing button to complete the clearing based on the sensor information. do.
  • the motion detection unit 41 outputs motion detection information indicating that the motion of the moving object has been detected to the motion prediction unit 42. In the above example, the motion detection unit 41 outputs the motion detection information indicating that the user has touched the clearing button to complete the clearing to the motion prediction unit 42.
  • the motion prediction unit 42 predicts the movement of the moving object after the next time. do.
  • the moving body in which the motion detecting unit 41 detects the movement and the moving body in which the motion predicting unit 42 predicts the movement after the next time do not have to be the same moving body.
  • the motion prediction function of the moving body included in the motion prediction unit 42 is the same as the motion prediction function of the motion prediction unit 32 included in the in-vehicle device 3. Specifically, as in the above example, it is assumed that the motion detection unit 41 detects that the user has touched the clearing button to complete the clearing.
  • the motion prediction unit 42 predicts the travel time required for the vehicle 30 from the time when the user finishes the settlement until the vehicle 30 which the user has boarded goes out on the public road. For example, information regarding the history of the travel time required for the vehicle 30 on which the user has boarded to actually go out on the public road after the user finishes clearing in the parking lot (hereinafter referred to as "delivery history information") is generated in advance. , It is assumed that the behavior observation device 4 is stored in a referenceable storage unit (not shown). For example, the travel time required for the vehicle 30 to go out on a public road after the user finishes clearing differs depending on the nature of the driver and the like.
  • the motion prediction unit 42 calculates the average travel time required from the user finishing the clearing to the vehicle 30 going out on the public road based on the delivery history information, and the user clears the average time. It is estimated that the time required for the vehicle 30 to go out on the public road (hereinafter referred to as “delivery time”) after the end of the above. For example, the motion prediction unit 42 may predict the time when the vehicle 30 leaves the public road (hereinafter referred to as “delivery time”) based on the delivery history information.
  • the motion prediction unit 42 predicts the movement of the vehicle 30 that the vehicle 30 will go out on a public road after the lapse of the warehousing time predicted from the time when the motion detection unit 41 detects that the clearing is completed, or at the predicted warehousing time. do.
  • the motion prediction unit 42 outputs the predicted motion prediction information regarding the motion of the moving object after the next time to the information output unit 43.
  • the motion prediction unit 42 provides information that the vehicle 30 will go out on a public road after the delivery time predicted from the time when the user finishes the settlement or at the predicted delivery time. Is output to the information output unit 33.
  • the motion prediction information includes information regarding the time when the motion detection unit 41 detects the motion of the moving object, and in the above example, the time when the user finishes the settlement.
  • the motion detection unit 41 and the motion prediction unit 42 will be described with reference to other examples.
  • the motion detection unit 41 detects a pedestrian.
  • the motion detection unit 41 detects the motion of a person walking as the motion of the moving body.
  • the person is included in the moving body.
  • the sensor 22 is a camera.
  • the motion detection unit 41 may detect a pedestrian by performing known image processing on the captured image captured by the camera.
  • the motion detection unit 41 shall acquire captured images of a plurality of frames from the camera.
  • the motion detection unit 41 can detect a pedestrian in the captured image by performing known image processing on each frame to detect a person.
  • the motion detection unit 41 outputs motion detection information indicating that a pedestrian has been detected to the motion prediction unit 42.
  • the motion prediction unit 42 predicts in which direction and at what speed the detected pedestrian is walking. As described above, since the motion detection unit 41 acquires the captured images of a plurality of frames from the camera, the motion prediction unit 42 determines in which direction the pedestrian is based on the captured images of the plurality of frames acquired by the motion detection unit 41. You can predict how fast you are walking. The motion prediction unit 42 predicts the movement of the pedestrian, which is the speed at which the pedestrian detected by the motion detection unit 31 is walking. The motion prediction unit 42 outputs information on which direction and at what speed the detected pedestrian is walking as motion prediction information to the information output unit 43. The motion prediction information includes information regarding the time when the pedestrian is first detected by the motion detection unit 41.
  • the information output unit 43 outputs the motion prediction information output from the motion prediction unit 42 to the server 1. At this time, the information output unit 43 outputs motion prediction information in association with information related to the behavior observation device 4 (hereinafter referred to as “behavior observation device information”).
  • the behavior observation device information may be output in association with the motion prediction information when the motion prediction unit 42 outputs the motion prediction information.
  • the behavior observation device information includes the position of the behavior observation device 4, the type of the behavior observation device 4, the facility in which the behavior observation device 4 is installed, and information on a map of the facility or the like.
  • the motion prediction unit 42 acquires, for example, information about the position of the behavior observation device 4, the type of the behavior observation device 4, the facility in which the behavior observation device 4 is installed, and the map of the facility, etc., from a sensor 21 or the like. do it.
  • the server 1 includes an information acquisition unit 11, a range prediction unit 12, a map generation unit 13, and a map output unit 14.
  • the map generation unit 13 includes an information integration unit 131.
  • the information acquisition unit 11 acquires motion prediction information and sensor information output from the in-vehicle device 3.
  • the information acquisition unit 11 associates the acquired motion prediction information with the sensor information and outputs the information to the range prediction unit 12. Further, the information acquisition unit 11 outputs the acquired sensor information to the map generation unit 13.
  • the information acquisition unit 11 acquires motion prediction information output from the behavior observation device 4.
  • the information acquisition unit 11 outputs the acquired motion prediction information to the range prediction unit 12. Further, the information acquisition unit 11 acquires the sensor information output from the roadside device 5.
  • the information acquisition unit 11 outputs the acquired sensor information to the map generation unit 13.
  • the range prediction unit 12 determines a range (hereinafter referred to as “virtual obstacle range”) in which the information acquisition unit 11 considers that a virtual obstacle exists based on the motion prediction information acquired from the vehicle-mounted device 3 or the behavior observation device 4. Predict.
  • the virtual obstacle range is a range in which it is assumed that when the vehicle 30 travels, it is better to avoid it due to some event occurring. In the first embodiment, this some event is regarded as a virtual obstacle.
  • the range of the virtual obstacle range is determined in advance according to, for example, the virtual obstacle. The prediction of the virtual obstacle range by the range prediction unit 12 will be described with some specific examples.
  • the vehicle-mounted device 3 outputs motion prediction information indicating that the door of the vehicle 30 opens after the door opening time has elapsed from the time when the occupant touches the door knob.
  • the range prediction unit 12 predicts the time from the time when the occupant touches the door of the vehicle 30 to the time after the door opening time elapses, and the range within a radius of 7 m from the center of the vehicle 30 as the virtual obstacle range.
  • the range prediction unit 12 may specify the size of the door of the vehicle 30 from the vehicle information output in association with the motion prediction information from the vehicle-mounted device 3.
  • the range prediction unit 12 may change the size of the virtual obstacle range at the time when the occupant touches the door of the vehicle 30 and the virtual obstacle range at the time from the next time of the time to the lapse of the door opening time. ..
  • the range prediction unit 12 sets the virtual obstacle range at the time when the occupant touches the door of the vehicle 30 to the radius from the center of the door of the vehicle 30 in the front-rear direction with respect to the traveling direction of the vehicle.
  • the range may be 1.5 m.
  • the behavior observation device 4 outputs motion prediction information indicating that the vehicle 30 will go out on a public road after the delivery time has elapsed from the time when the settlement by the user is completed. In this case, it is predicted that the vehicle 30 will go out on the public road when the delivery time elapses after the user finishes the settlement. Then, it is assumed that it is better to avoid the vicinity of the entrance / exit from the parking lot to the public road while the vehicle 30 is expected to go out on the public road after the settlement by the user is completed.
  • the range prediction unit 12 predicts the time from the time when the user finishes clearing to the time after the delivery time, and the predetermined range near the entrance / exit of the parking lot as the virtual obstacle range.
  • the range prediction unit 12 specifies the location where the behavior observation device 4 is installed, that is, the location of the entrance / exit of the parking lot, from the behavior observation device information output from the behavior observation device 4 in association with the motion prediction information. do it.
  • the range prediction unit 12 may change the size of the virtual obstacle range at the time when the user finishes clearing and the virtual obstacle range at the time from the next time of the time to the lapse of the delivery time.
  • the range prediction unit 12 may, for example, set the virtual obstacle range at the time when the user finishes clearing as a predetermined range at the entrance / exit of the parking lot.
  • the behavior observation device 4 outputs motion prediction information indicating in which direction and at what speed the pedestrian is walking after the pedestrian is detected. In this case, it is assumed that it is better to avoid the area where pedestrians are present. In this case, it is assumed that the pedestrian continues to walk.
  • the range prediction unit 12 sets the range in which a pedestrian is walking as the virtual obstacle range.
  • the range prediction unit 12 outputs information regarding the virtual obstacle range (hereinafter referred to as “virtual obstacle range information”) to the map generation unit 13.
  • the range prediction unit 12 includes information on the time when the virtual obstacle range is predicted to appear, information capable of specifying the virtual obstacle range, and movement that caused the appearance of the virtual obstacle range. Corresponds to information about the body. Specifically, in the case of ⁇ Specific Example 1> described above, the range prediction unit 12 is the time from the time when the occupant touches the door of the vehicle 30 to the time after the door opening time elapses, and the range within a radius of 7 m from the center of the vehicle 30. , And the virtual obstacle range information associated with the vehicle information is output to the map generation unit 13.
  • the range prediction unit 12 corresponds to the time when the occupant touches the door of the vehicle 30, the range of the door of the vehicle 30 within a radius of 1.5 m from the center in the front-rear direction with respect to the traveling direction of the vehicle, and the vehicle information.
  • the attached virtual obstacle range information is output to the map generation unit 13.
  • the range prediction unit 12 determines the time from the time when the user finishes the clearing to the time after the warehousing time elapses, the predetermined range near the entrance / exit of the parking lot, and the behavior observation.
  • the virtual obstacle range information associated with the device information is output to the map generation unit 13.
  • the range prediction unit 12 displays the time when the user finishes clearing, the predetermined range at the entrance / exit of the parking lot, and the virtual obstacle range information associated with the behavior observation device information in the map generation unit 13. Output to. Further, in the case of the above-mentioned ⁇ Specific Example 3>, the range prediction unit 12 corresponds to the time when the pedestrian is detected, the range where the pedestrian is walking after the pedestrian is detected, and the behavior observation device information. The attached virtual obstacle range information is output to the map generation unit 13.
  • the map generation unit 13 generates a dynamic map that reflects the range of virtual obstacles predicted by the range prediction unit 12 based on the virtual obstacle range information output from the range prediction unit 12.
  • the map generation unit 13 generates a dynamic map of the current time, which reflects the current dynamic information, based on the sensor information output from the information acquisition unit 11. In addition to the current dynamic information, the map generation unit 13 reflects the current quasi-dynamic information and the current quasi-static information in the dynamic map at the current time.
  • the map generation unit 13 acquires quasi-dynamic information or quasi-static information from, for example, a Web server or the like via the information acquisition unit 11. In FIG. 1, the illustration of the Web server and the like is omitted.
  • the information integration unit 131 of the map generation unit 13 combines the current quasi-static information, the current quasi-dynamic information, and the current dynamic information acquired via the information acquisition unit 11.
  • the map generation unit 13 generates a dynamic map of the current time in which the combined dynamic information, quasi-static information, and quasi-dynamic information are reflected in the high-precision three-dimensional map. Since the technique for generating the dynamic map of the current time based on the sensor information or the like is a known technique, detailed description thereof will be omitted.
  • the map generation unit 13 generates a plurality of future dynamic maps reflecting the virtual obstacle range in chronological order for each predetermined time (map generation time g) after the current time. do.
  • the information integration unit 131 of the map generation unit 13 integrates the virtual obstacle range information output from the range prediction unit 12, and the integrated virtual obstacle range information (hereinafter referred to as "integrated virtual obstacle range information"). ) Is generated.
  • the information integration unit 131 integrates the virtual obstacle range information in time series in time units. That is, the information integration unit 131 aggregates the virtual obstacle range information at the same time into one integrated virtual obstacle range information. For example, it is assumed that the following virtual obstacle range information is output from the range prediction unit 12.
  • the virtual obstacle range "range within a radius of 7 m from the center of the vehicle 30", the time from the time when the occupant touches the door knob of the vehicle 30 to the time after the door opening time has elapsed "10:00:03 to 3 seconds", and the vehicle.
  • Virtual obstacle range information / virtual obstacle range to which information is associated "A range of the door of the vehicle 30 within a radius of 1.5 m from the center in the front-rear direction with respect to the traveling direction of the vehicle 30", the occupant is the door knob of the vehicle 30 Time “10:00:03" when touched, and virtual obstacle range information / virtual obstacle range "predetermined range near the entrance / exit of the parking lot” to which vehicle information is associated, the user finishes clearing The time “10:00:06 to 3 seconds” from the time when the delivery time has elapsed, and the virtual obstacle range information / virtual obstacle range "in advance at the entrance / exit of the parking lot” to which the behavior observation device information is associated. "Defined range”, time “10:00:06” when the user finished clearing, and virtual obstacle range information associated with behavior observation device information
  • the information integration unit 131 generates integrated virtual obstacle range information of the image as shown in FIG.
  • the map generation unit 13 generates a future dynamic map based on the integrated virtual obstacle range information generated by the information integration unit 131.
  • FIG. 3 is a diagram showing an image of an example of a dynamic map group including a dynamic map at the current time and a plurality of future dynamic maps generated by the map generation unit 13 in the first embodiment.
  • the dynamic map is shown as a two-dimensional image in FIG.
  • the map generation unit 13 has a dynamic map at the current time t and future dynamics corresponding to three times (time t + g, time t + 2g, and time t + 3g) for each map generation time g after the current time. It is assumed that a dynamic map group including a map is generated.
  • the sensor information output from the information acquisition unit 11, that is, the sensor information at the current time t includes a vehicle 30 (referred to as a target vehicle) traveling on a road near the entrance / exit of the parking lot. It is said that the information to the effect that was detected was included. Further, in FIG. 3, it is assumed that the integrated virtual obstacle range information is the content shown in FIG. 2 as an image.
  • the map generation unit 13 generates a dynamic map reflecting the information of the target vehicle on a high-precision three-dimensional map as a dynamic map at the current time t, here, 10:00: 00.
  • the map generation unit 13 can specify the position and size of the target vehicle from, for example, the area of the dynamic map, the scale of the dynamic map, and the sensor information.
  • the map generation unit 13 is a virtual obstacle range with a radius of 1.5 m from the center of the door of the target vehicle on a high-precision 3D map as a future dynamic map at time t + g, here at 10:00:03. Generate a dynamic map that reflects (see 201 in FIG. 3).
  • the map generation unit 13 can specify the position and size of the target vehicle and the virtual obstacle range from, for example, the area of the dynamic map, the scale of the dynamic map, and the vehicle information included in the integrated virtual obstacle range information. Further, the map generation unit 13 is a virtual obstacle range with a radius of 7 m from the center of the target vehicle on a high-precision three-dimensional map as a future dynamic map at time t + 2 g, here at 10:00:06 (FIG. 3). 202) and a dynamic map that reflects the preset range at the parking lot entrance / exit (see 203 in FIG. 3) is generated.
  • the map generation unit 13 determines the position and size of the target vehicle and the virtual obstacle range from, for example, the area of the dynamic map, the scale of the dynamic map, and the vehicle information and the behavior observation device information included in the integrated virtual obstacle range information. Can be identified. Further, the map generation unit 13 has a preset range (in FIG. 3) near the entrance / exit of the parking lot on a high-precision three-dimensional map as a future dynamic map at time t + 3g, here, 10:00:09. Generate a dynamic map that reflects (see 204). The map generation unit 13 can specify the position and size of the virtual obstacle range from, for example, the scale of the dynamic map and the behavior observation device information included in the integrated virtual obstacle range information.
  • the map generation unit 13 reflects the dynamic information reflected in the dynamic map at the current time t in the future dynamic map after the current time t. Therefore, in FIG. 3, the target vehicle is reflected in all of the dynamic map at the current time t and the future dynamic map at the three times (t + g, t + 2g, and t + 3g).
  • the map generation unit 13 outputs the generated dynamic map group to the map output unit 14.
  • the map output unit 14 outputs the dynamic map group output from the map generation unit 13 to the in-vehicle device 3.
  • the area under the jurisdiction of the server 1 is predetermined.
  • the map output unit 14 outputs a dynamic map group to the in-vehicle device 3 mounted on the self-driving vehicle existing in the area under the jurisdiction.
  • the in-vehicle device 3 that has acquired the dynamic map group formulates a route based on the acquired dynamic map group. Then, the in-vehicle device 3 performs automatic driving control based on the formulated route.
  • FIG. 4 is a diagram showing an image of an example of a route defined by the in-vehicle device 3 in the first embodiment.
  • FIG. 4 shows that the in-vehicle device 3 acquires a dynamic map at the current time t and a dynamic map group including future dynamic maps at three times (t + g, t + 2g, and t + 3g) as shown in FIG. If so, the image of an example of the formulated route is shown.
  • the planning unit 342 determines the route as described above.
  • a vehicle 30 hereinafter referred to as a “route formulation vehicle” equipped with an in-vehicle device 3 that formulates a route based on a dynamic map group is shown by 301.
  • the route formulated by the in-vehicle device 3 based on the dynamic map group is shown by a solid line (“Route plan considering the predicted version” in FIG. 4).
  • the route when the in-vehicle device 3 is tentatively formulated based only on the dynamic map at the current time t is shown by a dotted line (“Route plan not considering the predicted version” in FIG. 4). ).
  • the in-vehicle device 3 formulates a route based only on the dynamic map at the current time t without considering the prediction, when the time t + 2g arrives, the route formulating vehicle suddenly moves around the vehicle. You will encounter a change in the situation, that is, the door of the target vehicle will open. Then, in the automatic driving control, the in-vehicle device 3 may not be able to cope with this change in the situation in time, and may suddenly control the route-making vehicle.
  • the in-vehicle device 3 since the in-vehicle device 3 formulates a route based on the dynamic map group, the door of the target vehicle opens when the time t + 2g arrives at the current time t. Can be predicted. Then, in order to avoid the predicted situation in which the door of the target vehicle opens, the in-vehicle device 3 can formulate a route avoiding a virtual obstacle range having a radius of 1.5 m from the center of the door of the target vehicle. As a result, the in-vehicle device 3 can avoid sudden control of the route-making vehicle in the automatic driving control. As a result, the in-vehicle device 3 can reduce an increase in the burden on the occupant due to sudden control.
  • the server 1 can provide the in-vehicle device 3 with a dynamic map group to support the in-vehicle device 3 for establishing a route that can avoid sudden control. As a result, the server 1 can reduce an increase in the burden on the occupant due to sudden control with respect to the in-vehicle device 3.
  • the operation of the automatic operation system 100 according to the first embodiment will be described.
  • the operations of the server 1, the in-vehicle device 3, and the behavior observation device 4 constituting the automatic driving system 100 will be described with reference to each of the flowcharts.
  • FIG. 5 is a flowchart for explaining the operation of the server 1 according to the first embodiment.
  • the server 1 predicts a virtual obstacle range (step ST501). Specifically, in the server 1, the range prediction unit 12 predicts the virtual obstacle range based on the motion prediction information acquired by the information acquisition unit 11 from the vehicle-mounted device 3 or the behavior observation device 4. The range prediction unit 12 outputs the virtual obstacle range information to the map generation unit 13.
  • the map generation unit 13 generates a dynamic map reflecting the virtual obstacle range based on the virtual obstacle range information regarding the virtual obstacle range predicted by the range prediction unit 12 in step ST501 (step ST502). Specifically, the map generation unit 13 generates a plurality of future dynamic maps reflecting the virtual obstacle range in chronological order for each map generation time g after the current time. More specifically, the information integration unit 131 of the map generation unit 13 integrates the virtual obstacle range information output from the range prediction unit 12 to generate the integrated virtual obstacle range information. Then, the map generation unit 13 generates a future dynamic map based on the integrated virtual obstacle range information generated by the information integration unit 131. The map generation unit 13 outputs the generated dynamic map group to the map output unit 14.
  • the map output unit 14 outputs the dynamic map group output from the map generation unit 13 in step ST502 to the in-vehicle device 3 (step ST503).
  • the in-vehicle device 3 that has acquired the dynamic map group formulates a route based on the acquired dynamic map group. Then, the in-vehicle device 3 performs automatic driving control based on the formulated route.
  • the server 1 also generates a dynamic map of the current time in addition to the operation described in the flowchart of FIG. Specifically, in the server 1, the information acquisition unit 11 acquires sensor information from the in-vehicle device 3 and the roadside device 5, and outputs the acquired sensor information to the map generation unit 13. Then, the map generation unit 13 generates a dynamic map of the current time.
  • the dynamic map generation at the current time may be performed in parallel with step ST502 or may be performed before step ST502.
  • FIG. 6 is a flowchart for explaining the operation of the in-vehicle device 3 according to the first embodiment.
  • the automatic operation control device 34 includes a map acquisition unit 341, a planning unit 342, and an operation control unit 343.
  • the motion detection unit 31 detects the motion of the moving object based on the acquired sensor information (step ST601).
  • the motion detection unit 31 outputs motion detection information indicating that the motion of the moving object has been detected to the motion prediction unit 32. Further, when the motion detection unit 31 acquires the sensor information from the sensor 21, the motion detection unit 31 outputs the sensor information to the information output unit 33.
  • the motion detection unit 32 When the motion detection unit 32 outputs the motion detection information from the motion detection unit 31 in step ST601, that is, when the motion detection unit 31 detects the motion of the moving object based on the sensor information, the motion prediction unit 32 is after the next time of the moving object. (Step ST602).
  • the motion prediction unit 32 outputs the predicted motion prediction information regarding the motion of the moving object after the next time to the information output unit 33.
  • the information output unit 33 outputs the motion prediction information output from the motion prediction unit 32 in step ST602 to the server 1 (step ST603).
  • the map acquisition unit 341 acquires the dynamic map group output from the server 1 (step ST604).
  • the map acquisition unit 341 outputs the acquired map group to the planning unit 342.
  • the planning unit 342 makes an operation plan based on the dynamic map group acquired by the map acquisition unit 341 in step ST604. Specifically, the planning unit 342 formulates a route based on the dynamic map group acquired by the map acquisition unit 341 (step ST605). The planning unit 342 outputs information about the formulated route to the operation control unit 343.
  • the operation control unit 343 controls automatic operation based on the route formulated by the planning unit 342 in step ST605.
  • FIG. 7 is a flowchart for explaining the operation of the behavior observation device 4 according to the first embodiment.
  • the motion detection unit 41 acquires sensor information from the sensor 22 and detects the motion of the moving object based on the acquired sensor information (step ST701).
  • the motion detection unit 41 outputs motion detection information indicating that the motion of the moving object has been detected to the motion prediction unit 42.
  • the motion detection unit 42 When the motion detection unit 42 outputs the motion detection information from the motion detection unit 41 in step ST701, that is, when the motion detection unit 41 detects the motion of the moving object based on the sensor information, the motion prediction unit 42 is after the next time of the moving object. (Step ST702).
  • the motion prediction unit 42 outputs the predicted motion prediction information regarding the motion of the moving object after the next time to the information output unit 43.
  • the information output unit 43 outputs the motion prediction information output from the motion prediction unit 42 in step ST702 to the server 1.
  • FIG. 8 is a sequence diagram for explaining an image of the operation of the automatic driving system according to the first embodiment.
  • the vehicle-mounted device 3 vehicle-mounted device A (3a)
  • the vehicle-mounted device 3 vehicle-mounted device B (3b)
  • Steps ST801 to ST803 in FIG. 8 correspond to steps ST701 to ST703 in FIG. 7, respectively.
  • step ST804 of FIG. 8 the operation of outputting the sensor information acquired from the sensor 23 to the server 1 in the roadside device 5 is shown.
  • step ST805 of FIG. 8 shows an operation of outputting the sensor information acquired from the sensor 21 to the server 1 in the in-vehicle device 3.
  • Steps ST806 to ST808 in FIG. 8 correspond to steps ST601 to ST603 in FIG. 6, respectively.
  • step ST809 of FIG. 8 in the server 1, the map generation unit 13 generates a dynamic map of the current time based on the sensor information acquired from the in-vehicle device 3 and the roadside device 5. Indicates the operation to be performed.
  • Steps ST810 to ST811 in FIG. 8 correspond to steps ST502 to ST503 in FIG. 5, respectively.
  • Step ST812 in FIG. 8 corresponds to steps ST604 to ST606 in FIG.
  • the in-vehicle device 3 and the behavior observation device 4 predict the movement of the moving object based on the sensor information
  • the server 1 is the moving object predicted by the in-vehicle device 3 and the behavior observation device 4. Predict the range of virtual obstacles based on the motion prediction information related to the motion of.
  • the server 1 generates a dynamic map that reflects the deemed obstacle range based on the information regarding the predicted deemed obstacle range.
  • the automatic driving system 100 can avoid sudden control of the route-making vehicle in the automatic driving control in the in-vehicle device 3.
  • the in-vehicle device 3 can reduce an increase in the burden on the occupant due to sudden control.
  • FIG. 9A and 9B are diagrams showing an example of the hardware configuration of the server 1 according to the first embodiment.
  • the functions of the information acquisition unit 11, the range prediction unit 12, the map generation unit 13, and the map output unit 14 are realized by the processing circuit 901.
  • the server 1 includes a processing circuit 901 for controlling to generate a future dynamic map that reflects the virtual obstacle range.
  • the processing circuit 901 may be dedicated hardware as shown in FIG. 9A, or may be a CPU (Central Processing Unit) 904 that executes a program stored in the memory 905 as shown in FIG. 9B.
  • CPU Central Processing Unit
  • the processing circuit 901 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable). Gate Array) or a combination of these is applicable.
  • the processing circuit 901 When the processing circuit 901 is the CPU 904, the functions of the information acquisition unit 11, the range prediction unit 12, the map generation unit 13, and the map output unit 14 are realized by software, firmware, or a combination of software and firmware. ..
  • the software or firmware is written as a program and stored in memory 905.
  • the processing circuit 901 executes the functions of the information acquisition unit 11, the range prediction unit 12, the map generation unit 13, and the map output unit 14 by reading and executing the program stored in the memory 905. That is, the server 1 includes a memory 905 for storing a program in which steps ST501 to ST503 of FIG. 5 described above will be executed as a result when executed by the processing circuit 901.
  • the program stored in the memory 905 causes the computer to execute the procedure or method of the information acquisition unit 11, the range prediction unit 12, the map generation unit 13, and the map output unit 14.
  • the memory 905 is, for example, a RAM, a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EPROM (Electrically Erasable Projector), a volatile Memory, etc.
  • a semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versaille Disc), or the like is applicable.
  • the functions of the information acquisition unit 11, the range prediction unit 12, the map generation unit 13, and the map output unit 14 are partially realized by dedicated hardware and partly realized by software or firmware. You may.
  • the information acquisition unit 11 and the map output unit 14 have their functions realized by the processing circuit 901 as dedicated hardware, and the range prediction unit 12 and the map generation unit 13 have the processing circuit 901 stored in the memory 905. It is possible to realize the function by reading and executing the program.
  • the server 1 includes a device such as an in-vehicle device 3, a behavior observation device 4, or a roadside device 5, and an input interface device 902 and an output interface device 903 for performing wired communication or wireless communication.
  • FIG. 10 is a diagram showing a configuration example of an automatic driving system 100a in which the server 1a is provided with the function of the motion prediction unit 15 in the first embodiment. Since the specific functions of the motion prediction unit 15 are the same as the specific functions of the motion prediction unit 32 and the motion prediction unit 42 that have already been explained, duplicate explanations will be omitted. In this case, as shown in FIG.
  • the in-vehicle device 3a can be configured not to include the motion prediction unit 32.
  • the behavior observation device 4a can be configured not to include the motion prediction unit 42.
  • the operation of step ST602 in FIG. 6 in the vehicle-mounted device 3a and the operation of step ST702 in FIG. 7 in the behavior observation device 4a are performed in the server 1a instead of the vehicle-mounted device 3a and the behavior observation device 4a. It is performed before the operation of step ST501.
  • the motion prediction unit 42 outputs the predicted motion prediction information regarding the motion of the moving object after the next time to the server 1.
  • the motion prediction unit 42 may output the motion prediction information to the server 1 and output it to the in-vehicle device 3 as a breaking news value.
  • FIG. 11 is a sequence diagram for explaining an image of the operation of the automatic driving system in which the behavior observation device 4 outputs motion prediction information as a breaking news value to the in-vehicle device 3 in the first embodiment.
  • the sequence diagram of FIG. 11 is different from the sequence diagram of FIG. 8 in that step ST1101 is added.
  • step ST1101 the behavior observation device 4 directly outputs the motion prediction information as a breaking value to the vehicle-mounted device 3 (vehicle-mounted device B (3b)).
  • vehicle-mounted device B vehicle-mounted device B
  • the vehicle 30 existing in the vicinity of the behavior observation device 4 (before the movement prediction information, which is the result of predicting the movement of the moving body in the behavior observation device 4, is reflected in the dynamic map group by the server 1).
  • the behavior observation device 4 predicts that the vehicle 30 (hereinafter referred to as “delivery vehicle”) will go out on a public road after the delivery time predicted from the time when the user finishes the settlement.
  • the motion prediction unit 42 outputs the motion prediction information to the server 1 and directly outputs the motion prediction information to the in-vehicle device 3 as a breaking news value.
  • the peripheral vehicle directly acquires the motion prediction information from the behavior observation device 4
  • the motion prediction information acquired from the behavior observation device 4 is reflected in the dynamic map group acquired from the server 1 last time, and the peripheral vehicle is used in automatic driving or driving support. Re-search the route.
  • the configuration of the automatic driving system 100 has been described here assuming that the configuration is as shown in FIG. 1, the configuration of the automatic driving system 100a may be as shown in FIG. good.
  • the behavior observation device 4 can be applied to the bus operation system.
  • the behavior observation device 4 is installed at the bus stop or inside the bus car.
  • the motion detection unit 41 detects the presence or absence of passengers waiting for the bus at the bus stop, or the presence or absence of passengers waiting for getting off in the bus.
  • the behavior observation device 4 inquires of the bus operation DB about a bus arriving at a certain bus stop (bus stop A; see FIG. 12 described later), and acquires information about the certain bus.
  • the information regarding the certain bus shall include information regarding the presence or absence of passengers waiting for the bus at the bus stop where the certain bus arrives, or the presence or absence of passengers waiting for disembarkation in the bus.
  • the motion prediction unit 42 detects the presence or absence of passengers waiting for the bus or the presence or absence of passengers waiting for getting off in the bus
  • the motion detection unit 42 is heading for the bus stop and is traveling near the bus stop. However, it is predicted that it will stop at the bus stop after a predetermined time.
  • the motion prediction unit 42 transmits to the server 1 the motion prediction information that the bus heading for the bus stop and traveling closest to the bus stop stops at the bus stop after a predetermined time.
  • the range prediction unit 12 stops at the road shoulder after a predetermined time from the motion prediction information output from the behavior observation device 4 and the dynamic map group created last time. The range corresponding to the size of the bus in the assumed route through which the specific bus passes at each time up to is predicted as the virtual obstacle range.
  • the information integration unit 131 of the map generation unit 13 generates integrated virtual obstacle range information.
  • the virtual obstacle range information integrated by the information integration unit 131 is predicted based on the route that the specific bus is expected to take by the time the specific bus stops near the shoulder after a predetermined time. Includes virtual obstacle range.
  • the map generation unit 13 generates a future dynamic map based on the integrated virtual obstacle range information generated by the information integration unit 131.
  • the map output unit 14 outputs the dynamic map group to the in-vehicle device 3 mounted on the self-driving vehicle existing in the area under the jurisdiction.
  • the in-vehicle device 3 that has acquired the dynamic map group formulates a route based on the acquired dynamic map group.
  • the in-vehicle device 3 performs automatic driving control based on the formulated route.
  • the configuration of the automatic driving system 100 has been described here assuming that the configuration is as shown in FIG. 1, the configuration of the automatic driving system 100a may be as shown in FIG. good.
  • FIG. 12 is a sequence diagram for explaining an image of the operation of the automatic driving system 100 when the behavior observation device 4 is applied to the bus operation system in the first embodiment.
  • the vehicle-mounted device 3 vehicle-mounted device A (3a)
  • the vehicle-mounted device 3 vehicle-mounted device B (3b)
  • the sequence diagram of FIG. 12 differs from the sequence diagram of FIG. 8 in that the behavior observation device 4 is a bus operation system and the bus operation DB can be accessed.
  • FIG. 13 is an example of a dynamic map of the current time generated by the server 1 when the behavior observation device 4 is applied to the bus operation system in the first embodiment, and a dynamic map group including a plurality of future dynamic maps. It is a figure which shows the image of. For convenience of explanation, the dynamic map is shown as a two-dimensional image in FIG. FIG. 13 shows a dynamic in which the map generation unit 13 includes a dynamic map at the current time t and a future dynamic map corresponding to two times (time t + g, time t + 2g) for each map generation time g after the current time. It is assumed that a group of maps has been generated.
  • FIG. 13 shows a dynamic in which the map generation unit 13 includes a dynamic map at the current time t and a future dynamic map corresponding to two times (time t + g, time t + 2g) for each map generation time g after the current time. It is assumed that a group of maps has been generated.
  • FIG. 13 shows a dynamic in which the map generation unit
  • the sensor information output from the information acquisition unit 11, that is, the sensor information at the current time t includes information indicating that the bus traveling toward the bus stop (see 1300 in FIG. 13) has been detected. It is said that it was included.
  • the map generation unit 13 generates a dynamic map that reflects bus information on a high-precision three-dimensional map as a dynamic map at the current time t. Further, the map generation unit 13 is a dynamic map reflecting a virtual obstacle range (see 1301 of t + g in FIG. 13) showing a bus at the time t + g on a high-precision three-dimensional map as a future dynamic map at time t + g. To generate.
  • the map generation unit 13 is a dynamic map that reflects a virtual obstacle range (see 1301 of t + 2g in FIG. 13) showing a bus at time t + 2g on a high-precision three-dimensional map as a future dynamic map at time t + 2g. To generate.
  • FIG. 14 is a diagram showing an image of an example of a route defined by the in-vehicle device 3 based on the dynamic map group generated by the server 1 when the behavior observation device 4 is applied to the bus operation system in the first embodiment. ..
  • FIG. 14 shows a case where the in-vehicle device 3 acquires a dynamic map group including a dynamic map at the current time t and a future dynamic map at two times (t + g and t + 2g) as shown in FIG.
  • the image of an example of the formulated route is shown.
  • 1401 shows a route-formulating vehicle equipped with an in-vehicle device 3 that formulates a route based on a dynamic map group. Further, in FIG.
  • the route determined by the in-vehicle device 3 based on the dynamic map group is shown by a solid line (“Route plan considering the predicted version” in FIG. 14).
  • the route when the in-vehicle device 3 is tentatively formulated based only on the dynamic map at the current time t is shown by a dotted line (“Route plan not considering the predicted version” in FIG. 14). ).
  • the in-vehicle device 3 when the in-vehicle device 3 formulates a route based on the dynamic map group, it can be predicted that the bus running in front of the vehicle will stop at the bus stop to load or unload passengers at the current time t. .. Then, the in-vehicle device 3 can formulate a route avoiding the virtual obstacle range corresponding to the bus so as to avoid the predicted situation in which the bus running in front stops at the bus stop to load or unload passengers. As a result, the in-vehicle device 3 can avoid sudden control of the route-making vehicle in the automatic driving control. As a result, the in-vehicle device 3 can reduce an increase in the burden on the occupant due to sudden control.
  • the server 1 can provide the in-vehicle device 3 with a dynamic map group to support the in-vehicle device 3 for establishing a route that can avoid sudden control. As a result, the server 1 can reduce an increase in the burden on the occupant due to sudden control with respect to the in-vehicle device 3.
  • the in-vehicle devices 3 and 3a that have acquired the dynamic map group from the server 1 formulate a route based on the acquired dynamic map group, and perform automatic operation control based on the formulated route. I made it. Not limited to this, the in-vehicle devices 3 and 3a that have acquired the dynamic map group from the server 1 may perform control such as alerting the occupants based on the acquired dynamic map group.
  • the server 1 is supposed to generate a plurality of future dynamic maps, but this is only an example.
  • the server 1 may generate one future dynamic map.
  • the server 1 outputs a dynamic map group including a dynamic map at the current time and one future dynamic map to the in-vehicle devices 3 and 3a of the autonomous driving vehicle.
  • the behavior observation devices 4 and 4a are assumed to detect a pedestrian and predict the movement of the pedestrian.
  • the servers 1 and 1a may perform the detection of the pedestrian and the prediction of the movement of the pedestrian.
  • the information acquisition unit 11 acquires the captured image captured by the camera from the roadside device 5
  • the range prediction unit 12 detects a pedestrian, and the detected pedestrian is in which direction. You may try to predict whether you are walking at about the same speed.
  • the in-vehicle devices 3 and 3a are provided with the automatic driving control device 34, but this is only an example.
  • the vehicle-mounted devices 3 and 3a may not be provided with the automatic driving control device 34, and the automatic driving control device 34 may be provided at a place different from the vehicle-mounted devices 3 and 3a.
  • the vehicle 30 that is not an autonomous driving vehicle is not provided with the automatic driving control device 34.
  • the function of the motion detection unit 31 may be provided by an external device of the in-vehicle devices 3 and 3a. In this case, the in-vehicle devices 3 and 3a can be configured not to include the motion detection unit 31. Further, in the above-described first embodiment, the function of the motion detection unit 41 may be provided by an external device or the like of the behavior observation devices 4 and 4a. In this case, the behavior observation devices 4 and 4a may be configured not to include the motion detection unit 41.
  • the server 1 may include a part or all of the components of the motion detection unit 41, the motion prediction unit 42, and the information output unit included in the behavior observation devices 4 and 4a.
  • the automatic driving systems 100 and 100a are predicted by the motion prediction units 32 and 42 and the motion prediction units 32 and 42 that predict the movement of the moving object based on the sensor information.
  • the range prediction unit 12 that predicts the virtual obstacle range that the virtual obstacle is considered to exist, and the range prediction unit 12 predicts the virtual obstacle range. It is configured to include a map generation unit 13 that generates a dynamic map that reflects a virtual obstacle range. Therefore, in the automatic driving systems 100 and 100a that provide the generated dynamic map for the vehicle capable of automatic driving, it is possible to avoid sudden control of the vehicle capable of automatic driving.
  • the map generation unit 13 creates a plurality of dynamic maps reflecting the virtual obstacle range along the time series for each map generation time after the current time. I tried to generate it. Therefore, the automatic driving system 100, 100a can inform the vehicles 30, 30a of the automatic driving control using the dynamic map of the future predictable change in the surrounding situation in a certain period of time.
  • the automatic driving systems 100, 100a can enable the vehicles 30, 30a to more accurately grasp future predictable changes in surrounding conditions and search for a route.
  • the automatic driving systems 100 and 100a can avoid sudden control of the vehicle 30 in the automatic driving control.
  • the in-vehicle device 3 can reduce an increase in the burden on the occupant due to sudden control.
  • the automatic driving systems 100 and 100a plan to formulate a route based on the map acquisition unit 341 that acquires the dynamic map generated by the map generation unit 13 and the dynamic map acquired by the map acquisition unit 341. It is configured to include a unit 342 and an operation control unit 343 that performs automatic operation control according to a route planned by the planning unit 342. Therefore, the automatic driving systems 100 and 100a can avoid sudden control of the vehicle 30 in the automatic driving control. As a result, the in-vehicle device 3 can reduce an increase in the burden on the occupant due to sudden control.
  • the server 1 is based on the information acquisition unit 11 that acquires the motion prediction information regarding the movement of the moving object predicted based on the sensor information, and the motion prediction information acquired by the information acquisition unit 11.
  • a dynamic map that reflects the virtual obstacle range based on the information about the virtual obstacle range predicted by the range prediction unit 12 and the range prediction unit 12 that predicts the virtual obstacle range that the virtual obstacle is considered to exist. It is configured to include a map generation unit 13 to be generated.
  • the server 1 can avoid sudden control of the route-making vehicle in the automatic driving control.
  • the server 1 can reduce an increase in the burden on the occupants due to sudden control.
  • the server 1 can provide the in-vehicle device 3 with a dynamic map group to support the in-vehicle device 3 for establishing a route that can avoid sudden control. As a result, the server 1 can reduce an increase in the burden on the occupant due to sudden control with respect to the in-vehicle device 3.
  • the automatic driving system can avoid sudden control of a vehicle that can be automatically driven in an automatic driving system that provides a generated dynamic map to a vehicle that can be automatically driven.
  • 1,1a server 11 information acquisition unit, 12 range prediction unit, 13 map generation unit, 131 information integration unit, 14 map output unit, 15 motion prediction unit, 21,22,23 sensor, 3,3a in-vehicle device, 31 motion Detection unit, 32 motion prediction unit, 33 information output unit, 34 automatic operation control device, 341 map acquisition unit, 342 planning unit, 343 operation control unit, 4,4a behavior observation device, 41 motion detection unit, 42 motion prediction unit, 43 Information output unit, 5 Roadside device, 100, 100a Automatic operation system, 901 processing circuit, 902 input interface device, 903 output interface device, 904 CPU, 905 memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

センサ情報に基づき、移動体の動きを予測する動き予測部(32,42)と、動き予測部(32,42)が予測した移動体の動きに関する動き予測情報に基づいて、仮想の障害物が存在するとみなす仮想障害物範囲を予測する範囲予測部(12)と、範囲予測部(12)が予測した仮想障害物範囲に関する情報に基づいて、仮想障害物範囲が反映されたダイナミックマップを生成するマップ生成部(13)とを備えた。

Description

自動運転システム、サーバ、および、ダイナミックマップの生成方法
 本開示は、自動運転システム、ダイナミックマップを生成するサーバ、および、サーバによるダイナミックマップの生成方法に関する。
 自動運転の際に利用されるダイナミックマップが知られている。
 ダイナミックマップは、高精度3次元地図上に、工事予定または車線規制予定等の準静的情報と、工事区間または車線規制等の準動的情報と、車両または歩行者等の動的情報とを重畳して生成されるデジタル地図である。自動運転可能な車両は、ダイナミックマップ上の情報と車両に搭載されているセンサが検知した情報とを照合しながら自動運転制御を行う。これにより、単一車両では観測できない死角または広域な範囲の動的情報が把握可能となり、高精度な自動運転制御の実現につながる。
 一方、動的情報が反映されたマップに基づいて運転支援を行う技術として、例えば、特許文献1には、動的情報に基づいて予測した移動体の行動から、移動体同士の衝突の可能性のある行動の組み合わせを決定し、組み合わせが示す行動の契機となる事象と当該事象が発生した場合に実行する処理とを示す指示情報を生成して、衝突の可能性のある車両の車載装置に送信する技術が開示されている。
特開2020-101986号公報
 ダイナミックマップを用いた従来の自動運転システムにおいて、自動運転可能な車両に提供されるダイナミックマップは、現時点の情報を紐づけたものであるため、当該車両は、例えば、将来発生し得る急な状況変化を回避するような運転計画を立てられない。その結果、車両は、例えば、周辺にて急な状況変化が起こった場合、急制御になる可能性があるという課題があった。
 なお、上述したような特許文献1に開示されているような技術では、動的情報に基づいて移動体の行動を予測するとしているが、当該技術で行っている予測は、移動体の現在の位置および速度から当該移動体がとり得る動きのパターンを用意することを意味するものであって、実際に当該移動体がどちらに移動するかを一意に予測するものではない。そのため、実際に移動体がとった動きが用意したパターンの動きではなかった場合、指示情報を受けた車載装置は、対処が間に合わず、車両の急制御になる可能性がある。
 本開示は、上記のような課題を解決するためになされたもので、自動運転可能な車両に対して、生成したダイナミックマップを提供する自動運転システムであって、自動運転可能な車両の急制御を回避することができる自動運転システムを提供することを目的とする。
 本開示に係る自動運転システムは、自動運転可能な車両に対して、生成したダイナミックマップを提供する自動運転システムであって、センサ情報に基づき、移動体の動きを予測する動き予測部と、動き予測部が予測した移動体の動きに関する動き予測情報に基づいて、仮想の障害物が存在するとみなす仮想障害物範囲を予測する範囲予測部と、範囲予測部が予測した仮想障害物範囲に関する情報に基づいて、仮想障害物範囲が反映されたダイナミックマップを生成するマップ生成部を備えたものである。
 本開示によれば、自動運転可能な車両に対して、生成したダイナミックマップを提供する自動運転システムにおいて、自動運転可能な車両の急制御を回避することができる。
実施の形態1に係る自動運転システムの構成例を示す図である。 実施の形態1において、統合仮想障害物範囲情報の一例のイメージを示す図である。 実施の形態1において、マップ生成部が生成した、現時刻のダイナミックマップ、および、複数の将来のダイナミックマップを含むダイナミックマップ群の一例のイメージを示す図である。 実施の形態1において、車載装置が策定した経路の一例のイメージを示す図である。 実施の形態1に係るサーバの動作を説明するためのフローチャートである。 実施の形態1に係る車載装置の動作について説明するためのフローチャートである。 実施の形態1に係る行動観測装置の動作を説明するためのフローチャートである。 実施の形態1における自動運転システムの動作のイメージを説明するためのシーケンス図である。 図9A,図9Bは、実施の形態1に係るサーバのハードウェア構成の一例を示す図である。 実施の形態1において、サーバが、動き予測部の機能を備えるようにした自動運転システムの構成例を示す図である。 実施の形態1において、行動観測装置が車載装置に速報値としての動き予測情報を出力するようにした自動運転システムの動作のイメージを説明するためのシーケンス図である。 実施の形態1において、行動観測装置をバス運行システムに適用した場合の自動運転システムの動作のイメージを説明するためのシーケンス図である。 実施の形態1において、行動観測装置をバス運行システムに適用した場合にサーバが生成した、現時刻のダイナミックマップ、および、複数の将来のダイナミックマップを含むダイナミックマップ群の一例のイメージを示す図である。 実施の形態1において、行動観測装置をバス運行システムに適用した場合にサーバが生成したダイナミックマップ群に基づいて車載装置が策定した経路の一例のイメージを示す図である。
 以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
 実施の形態1に係る自動運転システムは、自動運転可能な車両(以下「自動運転車両」という。)に対して、生成したダイナミックマップを提供する。
 ダイナミックマップは、車両が、道路またはその周辺に係る自車両の位置を車線レベルで特定できる高精度3次元地図に、周辺車両の情報または交通情報等の道路交通に関する種々の情報をリアルタイムで紐づけて生成されるデジタル地図である。
 ダイナミックマップは、静的情報、準静的情報、準動的情報、および、動的情報で構成される。
 静的情報は、高精度3次元地図情報である。
 準静的情報には、交通規制の予定に関する情報、道路工事の予定に関する情報、または、広域気象予報情報等が含まれる。
 準動的情報には、事故情報、渋滞情報、交通規制情報、道路工事情報、または、狭域気象予報情報等が含まれる。
 動的情報には、路側装置または車載装置等に備えられたセンサから収集された車両、歩行者、または、信号の情報等が含まれる。
 ダイナミックマップは、静的情報である高精度3次元地図情報に、準静的情報、準動的情報、および、動的情報が紐づけられて生成される。なお、高精度3次元地図情報に対して、準静的情報、準動的情報、および、動的情報を紐づけるための紐づけルールは、予め設定されている。
 ダイナミックマップは、自動運転にて用いられる。具体的には、自動運転車両は、例えば、ダイナミックマップ上の情報と自動運転車両に搭載されているセンサから取得した情報とを照合しながら自動運転制御を行う。自動運転車両は、ダイナミックマップ上にリアルタイムで紐付けされた種々の情報と、センサから取得した情報を照合しながら走行することで、単一車両では観測できない死角または広域な範囲の動的情報等を把握でき、高精度な自動運転制御を実現可能としている。
 一方で、従来、ダイナミックマップでは、現時点での状況しか反映されていない。そのため、自動運転車両は、将来発生し得る急な状況変化を回避するような運転計画を立てられない。その結果、自動運転車両は、他の移動体と衝突しそうな事象が発生する等、周辺にて急な状況変化が起こった場合、急制御になる可能性があった。自動運転車両の急制御は、乗員への負担増大等に繋がる可能性がある。
 そこで、実施の形態1に係る自動運転システムは、将来的な移動体の動きに基づく情報を反映した、現時刻以降のダイナミックマップを生成することで、自動運転車両の急制御を回避できるようにする。
 なお、以下の実施の形態1において、「移動体」は、人も含むものとする。また、以下の実施の形態1において、「移動体の動き」というとき、当該「移動体の動き」は、車両のドア等、移動体の一部の動きも含む。
 図1は、実施の形態1に係る自動運転システム100の構成例を示す図である。
 自動運転システム100は、サーバ1、車両30に搭載されている車載装置3、行動観測装置4、および、路側装置5を備える。
 サーバ1、車載装置3、行動観測装置4、および、路側装置5について、詳細な構成については後述するものとし、まず、車載装置3、行動観測装置4、路側装置5、および、サーバ1の概略について、車載装置3、行動観測装置4、路側装置5、サーバ1の順で説明する。
 車載装置3は、車両30に備えられているセンサ21から取得したセンサ情報に基づき、移動体の次時刻以降の動きを予測する。センサ21は、例えば、LiDARまたはミリ波レーダである。なお、センサ21は車載装置3に備えられていてもよい。
 車載装置3は、予測した移動体の動きに関する情報(以下「動き予測情報」という。)を、サーバ1に出力する。
 また、車載装置3は、センサ21から取得したセンサ情報を、予め設定された周期でサーバ1に出力する。
 なお、図1では、車両30は1台のみ図示しているが、これは一例に過ぎない。自動運転システム100において、複数の車両30がサーバ1と接続され得る。
 また、図1に示す車両30は自動運転車両を想定しているが、サーバ1と接続される車両30の中には、自動運転機能を有していない車両30が含まれていてもよい。ただし、自動運転システム100において、サーバ1には、少なくとも1台の自動運転車両が接続されているものとする。
 行動観測装置4は、センサ22を備え、センサ22から取得したセンサ情報に基づき、移動体の次時刻以降の動きを予測する。実施の形態1では、一例として、行動観測装置4は、公道に面した駐車場の清算装置(図示省略)に搭載されていることを想定している。なお、これは一例に過ぎず、行動観測装置4は、種々の装置に搭載され、移動体のある時点での動きを検知し、検知した動きを契機に、ある時点の次時刻以降の移動体の動きを予測する。
 センサ22は、例えば、カメラ、タッチセンサ、または、人感センサである。なお、センサ22は、清算装置に備えられていてもよい。
 行動観測装置4は、予測した移動体の動きに関する動き予測情報を、サーバ1に出力する。
 なお、図1では、行動観測装置4は1台のみ図示しているが、これは一例に過ぎない。自動運転システム100において、複数の行動観測装置4がサーバ1と接続され得る。
 路側装置5は、道路周辺の状況を検知するセンサ23を備え、予め設定された周期でセンサ23から取得したセンサ情報をサーバ1へ出力する。センサ23から取得されるセンサ情報には、例えば、道路周辺の移動体に関する情報が含まれる。
 なお、図1では、路側装置5は1台のみ図示しているが、これは一例に過ぎない。自動運転システム100において、複数の路側装置5がサーバ1と接続され得る。
 サーバ1は、クラウド、または、マルチエッジコンピューティング等、各地点に設置される計算装置を想定している。サーバ1は、十分な演算処理性能を有する。
 サーバ1は、車載装置3または行動観測装置4から出力された動き予測情報を取得し、取得した動き予測情報に基づいて、動き予測情報に基づく動的情報が反映された、現時刻以降の複数のダイナミックマップを生成する。
 また、サーバ1は、車載装置3および路側装置5から出力されたセンサ情報に基づいて、当該センサ情報に基づく動的情報が反映された、現時刻のダイナミックマップを生成する。
 サーバ1は、生成したダイナミックマップ群を車両30に出力する。なお、このときの車両30は、自動運転車両である。ダイナミックマップ群を取得した自動運転車両は、当該ダイナミックマップ群を用いて、自動運転における運転計画を立てる。
 車載装置3、行動観測装置4、路側装置5、および、サーバ1の構成について、詳細に説明する。
 車載装置3は、動き検知部31、動き予測部32、情報出力部33、および、自動運転制御装置34を備える。
 自動運転制御装置34は、マップ取得部341、計画部342、および、運転制御部343を備える。
 動き検知部31は、取得したセンサ情報に基づき、移動体の動きを検知する。
 具体的には、例えば、動き検知部31は、車両30の乗員の動きを検知する。動き検知部31が検知する乗員の動きは、例えば、車両30のドアを開閉する動き、車両30のドアを解錠する動き、灯火操作、または、パーキングブレーキ操作である。
 ここでは、一例として、動き検知部31が、乗員が車両30のドアを開ける動きを検知する例を挙げて、動き検知部31による移動体の動きの検知について具体的に説明する。例えば、ドアノブには、センサ21が設けられている。動き検知部31は、センサ21からドアノブに手がかけられたことを検知した旨のセンサ情報が出力された場合、当該センサ情報に基づき、乗員がドアノブに手をかけたことを検知する。
 動き検知部31は、移動体の動きを検知した旨の情報(以下「動き検知情報」という。)を、動き予測部32に出力する。上述の例でいうと、動き検知部31は、乗員がドアノブに触れたことを検知した旨の動き検知情報を、動き予測部32に出力する。動き検知情報には、動き予測部32が移動体の動きを検知した時刻、および、検知した動きに関する情報が含まれる。
 また、動き検知部31は、センサ21からセンサ情報を取得すると、上述のとおり、移動体の動きの検知を行うほか、当該センサ情報を情報出力部33に出力する。当該センサ情報は、現時点で、センサ21が検知した情報ということになる。
 動き予測部32は、動き検知部31から動き検知情報が出力されると、すなわち、動き検知部31がセンサ情報に基づいて移動体の動きを検知すると、移動体の次時刻以降の動きを予測する。なお、動き検知部31が動きを検知した移動体と、動き予測部32が次時刻以降の動きを予測する移動体は同一の移動体でなくてよい。
 具体的には、上述の例のように、動き検知部31が、乗員がドアノブに触れたことを検知したとする。この場合、動き予測部32は、乗員がドアノブに触れてから、ドアが開いて乗員が降車するまでの時間を予測する。
 例えば、予め、車両30ごとに、乗員がドアノブに触れてからドアが開いて乗員が降車するまでに要した時間が対応付けられた情報(以下「降車時間情報」とう。)が生成され、車載装置3が参照可能な記憶部(図示省略)に蓄積されているとする。例えば、乗員の年齢等によって、乗員がドアノブに触れてから当該乗員が降車するまでに要する時間は異なる。
 動き予測部32は、例えば、降車時間情報に基づいて、乗員がドアノブに触れてからドアが開いて乗員が降車するまでに要した時間の平均時間を算出し、当該平均時間を、乗員がドアノブに触れてからドアが開いて乗員が降車するまでに要する時間(以下「ドア開口時間」という。)と予測する。なお、ドアが開いてから乗員が降車するまで、ドアは開いた状態が継続すると想定される。動き予測部32は、例えば、降車時間情報に基づいて、乗員がドアノブに触れてからドアが開いて乗員が降車した状態となる時刻(以下「ドア開口時刻」という。)を予測してもよい。
 動き予測部32は、動き検知部31によってドアノブが触れられたことが検知された時刻から予測したドア開口時間経過後、または、予測したドア開口時刻に、車両30のドアが開くという動きを予測する。なお、上述のとおり、実施の形態1において、「移動体の動き」というとき、当該「移動体の動き」は、移動体の一部の動きも含む。ここでは、車両30の一部であるドアの動きは、車両30の動きに含まれる。
 動き予測部32は、予測した、移動体の次時刻以降の動きに関する動き予測情報を、情報出力部33に出力する。上述の例でいうと、動き予測部32は、乗員がドアノブに触れた時刻から予測したドア開口時間経過後、または、予測したドア開口時刻に、車両30のドアが開く旨の情報を、動き予測情報として、情報出力部33に出力する。動き予測情報には、動き検知部31が移動体の動きを検知した時刻、上述の例でいうと、乗員が車両30のドアに触れたことを検知した時刻に関する情報が含まれる。
 情報出力部33は、動き予測部32から出力された動き予測情報を、サーバ1に出力する。このとき、情報出力部33は、車両30または車載装置3に関する情報(以下「車両情報」という。)と対応付けて、動き予測情報を出力する。車両情報は、動き予測部32が動き予測情報を出力する際に、当該動き予測情報と対応付けられて出力されるものとすればよい。車両情報には、車両の位置、および、車種に関する情報等が含まれる。動き予測部32は、車両の位置、および、車種に関する情報等を、例えば、センサ21等から取得すればよい。
 自動運転制御装置34は、車両30の自動運転を制御する。
 マップ取得部341は、サーバ1から出力されたダイナミックマップ群を取得する。
 マップ取得部341は、取得したマップ群を、計画部342に出力する。
 計画部342は、マップ取得部341が取得したダイナミックマップ群に基づき、運転計画を立てる。具体的には、計画部342は、マップ取得部341が取得したダイナミックマップ群に基づき経路を策定する。
 計画部342は、策定した経路に関する情報を運転制御部343に出力する。
 運転制御部343は、計画部342が策定した経路に基づいて自動運転の制御を行う。
 行動観測装置4は、動き検知部41、動き予測部42、および、情報出力部43を備える。
 動き検知部41は、センサ22からセンサ情報を取得し、取得したセンサ情報に基づき、移動体の動きを検知する。なお、動き検知部41が有する移動体の動き検知機能は、車載装置3が備える動き検知部31が有する動き検知機能と同様である。
 具体的には、例えば、動き検知部41は、駐車場のユーザの動きを検知する。動き検知部41が検知する駐車場のユーザの動きは、具体例を挙げると、例えば、ユーザが駐車場にて清算をしたという動きである。例えば、清算装置が備えるタッチパネルには清算ボタンが表示されるようになっており、当該清算ボタンにはセンサ22が設けられているとする。当該センサ22は、例えば、タッチセンサである。動き検知部41は、タッチセンサが操作された操作情報を、センサ情報として取得する。
 動き検知部41は、センサ22から清算ボタンがタッチされたことを検知した旨のセンサ情報が出力された場合、当該センサ情報に基づき、ユーザが清算ボタンをタッチして清算を終了したことを検知する。
 動き検知部41は、移動体の動きを検知した旨の動き検知情報を、動き予測部42に出力する。上述の例でいうと、動き検知部41は、ユーザが清算ボタンをタッチして清算を終了したことを検知した旨の動き検知情報を、動き予測部42に出力する。
 動き予測部42は、動き検知部41から動き検知情報が出力されると、すなわち、動き検知部41がセンサ情報に基づいて移動体の動きを検知すると、移動体の次時刻以降の動きを予測する。なお、動き検知部41が動きを検知した移動体と、動き予測部42が次時刻以降の動きを予測する移動体は同一の移動体でなくてよい。動き予測部42が有する移動体の動き予測機能は、車載装置3が備える動き予測部32が有する動き予測機能と同様である。
 具体的には、上述の例のように、動き検知部41は、ユーザが清算ボタンをタッチして清算を終了したことを検知したとする。この場合、動き予測部42は、ユーザが清算を終了してからユーザが乗り込んだ車両30が公道に出るまでに当該車両30が要する移動時間を予測する。
 例えば、予め、駐車場においてユーザが清算を終了してからユーザが乗り込んだ車両30が実際に公道に出るまでに要した移動時間の履歴に関する情報(以下「出庫履歴情報」という。)が生成され、行動観測装置4が参照可能な記憶部(図示省略)に蓄積されているとする。例えば、ドライバの性質等によって、ユーザが清算を終了してから車両30が公道に出るまでに要する移動時間は異なる。
 動き予測部42は、例えば、出庫履歴情報に基づいて、ユーザが清算を終了してから車両30が公道に出るまでに要した移動時間の平均時間を算出し、当該平均時間を、ユーザが清算を終了してから車両30が公道に出るまでに要する時間(以下「出庫時間」という。)と予測する。例えば、動き予測部42は、出庫履歴情報に基づき、車両30が公道に出る時刻(以下「出庫時刻」という。)を予測してもよい。
 動き予測部42は、動き検知部41によって清算が終了したことが検知された時刻から予測した出庫時間経過後、または、予測した出庫時刻に、車両30が公道に出るという車両30の動きを予測する。
 動き予測部42は、予測した、移動体の次時刻以降の動きに関する動き予測情報を、情報出力部43に出力する。上述の例でいうと、動き予測部42は、ユーザが清算を終了した時刻から予測した出庫時間経過後、または、予測した出庫時刻に、車両30が公道に出る旨の情報を、動き予測情報として、情報出力部33に出力する。動き予測情報には、動き検知部41が移動体の動きを検知した時刻、上述の例でいうと、ユーザが清算を終了した時刻に関する情報が含まれる。
 動き検知部41および動き予測部42について、その他の例を挙げて説明する。
 例えば、動き検知部41は、歩行者を検知する。ここでは、動き検知部41は、移動体の動きとして、人が歩いているという動きを検知するものとする。上述のとおり、実施の形態1において、人は移動体に含まれる。
 例えば、センサ22はカメラとする。動き検知部41は、カメラが撮像した撮像映像に対して、既知の画像処理を行って、歩行者を検知すればよい。なお、動き検知部41は、カメラから、複数フレームの撮像映像を取得するものとする。動き検知部41は、各フレームに対して既知の画像処理を行って人を検知することで、撮像映像における歩行者を検知できる。
 動き検知部41は、歩行者を検知した旨の動き検知情報を、動き予測部42に出力する。
 動き予測部42は、検知された歩行者が、どの方向にどれぐらいの速度で歩行しているかを予測する。上述のとおり、動き検知部41は、カメラから複数フレームの撮像映像を取得するので、動き予測部42は、動き検知部41が取得した複数フレームの撮像映像に基づけば、歩行者がどの方向にどれぐらいの速度で歩行しているかを予測できる。
 動き予測部42は、動き検知部31によって検知された歩行者が、どれぐらいの速度で歩行しているかという歩行者の動きを予測する。
 動き予測部42は、検知された歩行者がどの方向にどれぐらいの速度で歩行しているかの情報を、動き予測情報として、情報出力部43に出力する。動き予測情報には、動き検知部41によって歩行者が最初に検知された時刻に関する情報が含まれる。
 情報出力部43は、動き予測部42から出力された動き予測情報を、サーバ1に出力する。このとき、情報出力部43は、行動観測装置4に関する情報(以下「行動観測装置情報」という。)と対応付けて、動き予測情報を出力する。行動観測装置情報は、動き予測部42が動き予測情報を出力する際に、当該動き予測情報と対応付けられて出力されるものとすればよい。行動観測装置情報には、行動観測装置4の位置、行動観測装置4の種類、行動観測装置4が設置されている施設、および、当該施設等の地図に関する情報等が含まれる。動き予測部42は、行動観測装置4の位置、行動観測装置4の種類、行動観測装置4が設置されている施設、および、当該施設等の地図に関する情報等を、例えば、センサ21等から取得すればよい。
 サーバ1は、情報取得部11、範囲予測部12、マップ生成部13、および、マップ出力部14を備える。
 マップ生成部13は、情報統合部131を備える。
 情報取得部11は、車載装置3から出力された動き予測情報およびセンサ情報を取得する。情報取得部11は、取得した動き予測情報およびセンサ情報を対応付けて、範囲予測部12に出力する。また、情報取得部11は、取得したセンサ情報をマップ生成部13に出力する。
 また、情報取得部11は、行動観測装置4から出力された動き予測情報を取得する。情報取得部11は、取得した動き予測情報を、範囲予測部12に出力する。
 また、情報取得部11は、路側装置5から出力されたセンサ情報を取得する。情報取得部11は、取得したセンサ情報をマップ生成部13に出力する。
 範囲予測部12は、情報取得部11が車載装置3または行動観測装置4から取得した動き予測情報に基づいて、仮想の障害物が存在するとみなす範囲(以下「仮想障害物範囲」という。)を予測する。実施の形態1において、仮想障害物範囲は、車両30が走行するにあたり、何等かの事象が発生していることにより避けて通行したほうがよいと想定される範囲である。実施の形態1では、この何等かの事象を、仮想の障害物とする。なお、実施の形態1において、仮想障害物範囲をどれぐらいの範囲とするかは、例えば、仮想の障害物に応じて、予め決められている。
 範囲予測部12による仮想障害物範囲の予測について、いくつか具体例を挙げて説明する。
<具体例1>
 例えば、車載装置3から、乗員がドアノブに触れた時刻からドア開口時間経過後に、車両30のドアが開く旨の動き予測情報が出力されたとする。
 この場合、乗員が車両30のドアに触れてからドア開口時間が経過すると、車両30のドアが開くと予測されたことになる。そうすると、乗員が車両30のドアに触れてから、車両30のドアが開くと予測される間、当該車両30のドア付近は、避けて通行したほうがよいと想定される。すなわち、車両30のドアが開くと予測される間、当該車両30のドア付近の一定の範囲は、仮想の障害物が存在するとみなすことができる。実施の形態1では、この、仮想の障害物が存在するとみなす一定の範囲を、「仮想障害物範囲」とする。
 例えば、範囲予測部12は、乗員が車両30のドアに触れた時刻からドア開口時間経過後までの時間、車両30の中心から半径7mの範囲を、仮想障害物範囲と予測する。なお、範囲予測部12は、車載装置3から動き予測情報と対応付けて出力された車両情報から、車両30のドアの大きさを特定すればよい。
 範囲予測部12は、乗員が車両30のドアに触れた時刻における仮想障害物範囲と、当該時刻の次時刻からドア開口時間経過後までの時間における仮想障害物範囲の大きさを変えてもよい。上述の例でいうと、範囲予測部12は、例えば、乗員が車両30のドアに触れた時刻における仮想障害物範囲を、車両の進行方向に対して前後方向における車両30のドアの中心から半径1.5mの範囲としてもよい。
<具体例2>
 例えば、行動観測装置4から、ユーザによる清算が終了した時刻から出庫時間経過後に、車両30が公道に出る旨の動き予測情報が出力されたとする。
 この場合、ユーザが清算を終了してから出庫時間が経過すると、車両30が公道に出ると予測されたことになる。そうすると、ユーザによる清算が終了してから、車両30が公道に出ると予測される間、駐車場から公道への出入口付近は、避けて通行したほうがよいと想定される。
 例えば、範囲予測部12は、ユーザが清算を終了した時刻から出庫時間経過後までの時間、駐車場の出入口付近の予め決められた範囲を、仮想障害物範囲と予測する。なお、範囲予測部12は、行動観測装置4から動き予測情報と対応付けて出力された行動観測装置情報から、行動観測装置4が設置されている場所、すなわち、駐車場の出入口の場所を特定すればよい。
 範囲予測部12は、ユーザが清算を終了した時刻における仮想障害物範囲と、当該時刻の次時刻から出庫時間経過後までの時間における仮想障害物範囲の大きさを変えてもよい。上述の例でいうと、範囲予測部12は、例えば、ユーザが清算を終了した時刻における仮想障害物範囲を、駐車場の出入口における、予め決められた範囲としてもよい。
<具体例3>
 例えば、行動観測装置4から、歩行者が検知されてから当該歩行者がどの方向にどれぐらいの速度で歩行しているかの動き予測情報が出力されたとする。
 この場合、歩行者が存在している場所付近は、避けて通行したほうがよいと想定される。なお、この場合、歩行者は、歩行し続けているものと想定する。範囲予測部12は、例えば、歩行者が歩行している範囲を、上記仮想障害物範囲とする。
 範囲予測部12は、仮想障害物範囲に関する情報(以下「仮想障害物範囲情報」という。)を、マップ生成部13に出力する。範囲予測部12は、仮想障害物範囲情報において、仮想障害物範囲が出現すると予測した時刻の情報と、仮想障害物範囲を特定可能な情報と、仮想障害物範囲の出現の原因となった移動体に関する情報とを対応付ける。
 具体的には、上述の<具体例1>の場合、範囲予測部12は、乗員が車両30のドアに触れた時刻からドア開口時間経過後までの時間、車両30の中心から半径7mの範囲、および、車両情報が対応付けられた仮想障害物範囲情報を、マップ生成部13に出力する。また、範囲予測部12は、乗員が車両30のドアに触れた時刻、車両30のドアの、車両の進行方向に対して前後方向の中心から半径1.5mの範囲、および、車両情報が対応付けられた仮想障害物範囲情報を、マップ生成部13に出力する。
 また、上述の<具体例2>の場合、範囲予測部12は、ユーザが清算を終了した時刻から出庫時間経過後までの時間、駐車場の出入口付近の予め決められた範囲、および、行動観測装置情報が対応付けられた仮想障害物範囲情報を、マップ生成部13に出力する。また、範囲予測部12は、ユーザが清算を終了した時刻、駐車場の出入口における、予め決められた範囲、および、行動観測装置情報が対応付けられた仮想障害物範囲情報を、マップ生成部13に出力する。
 また、上述の<具体例3>の場合、範囲予測部12は、歩行者が検知された時間、歩行者が検知されてから歩行者が歩行している範囲、および、行動観測装置情報が対応付けられた仮想障害物範囲情報を、マップ生成部13に出力する。
 マップ生成部13は、範囲予測部12から出力された仮想障害物範囲情報に基づき、範囲予測部12が予測した仮想障害物の範囲が反映されたダイナミックマップを生成する。
 マップ生成部13がダイナミックマップを生成する方法について、詳細に説明する。
 まず、マップ生成部13は、情報取得部11から出力されたセンサ情報に基づいて、現在の動的情報が反映された、現時刻のダイナミックマップを生成する。なお、マップ生成部13は、現在の動的情報以外にも、現在の準動的情報、および、現在の準静的情報を、現時刻のダイナミックマップに反映する。マップ生成部13は、準動的情報または準静的情報を、例えば、Webサーバ等から、情報取得部11を介して取得する。図1において、Webサーバ等の図示は省略している。
 マップ生成部13の情報統合部131は、情報取得部11を介して取得した、現在の準静的情報、現在の準動的情報、および、現在の動的情報を、あわせる。そして、マップ生成部13は、あわせた動的情報、準静的情報、および、準動的情報を高精度3次元地図に反映した現時刻のダイナミックマップを生成する。センサ情報等に基づいて現時刻のダイナミックマップを生成する技術は既知の技術であるため、詳細な説明を省略する。
 次に、マップ生成部13は、仮想障害物範囲が反映された複数の将来のダイナミックマップを、現時刻以降の、予め決められた時間(マップ生成時間g)ごとに、時系列に沿って生成する。
 まず、マップ生成部13の情報統合部131は、範囲予測部12から出力された仮想障害物範囲情報を統合し、統合後の仮想障害物範囲情報(以下「統合仮想障害物範囲情報」という。)を生成する。
 具体的には、情報統合部131は、仮想障害物範囲情報を、時刻単位で、時系列に統合する。つまり、情報統合部131は、同じ時刻の仮想障害物範囲情報をまとめて、1つの統合仮想障害物範囲情報とする。
 例えば、範囲予測部12から、以下の仮想障害物範囲情報が出力されたとする。

・仮想障害物範囲「車両30の中心から半径7mの範囲」、乗員が車両30のドアノブに触れた時刻からドア開口時間経過後までの時間「10:00:03から3秒」、および、車両情報が対応付けられた仮想障害物範囲情報
・仮想障害物範囲「車両30のドアの、車両30の進行方向に対して前後方向の中心から半径1.5mの範囲」、乗員が車両30のドアノブに触れた時刻「10:00:03」、および、車両情報が対応付けられた仮想障害物範囲情報
・仮想障害物範囲「駐車場の出入口付近の予め決められた範囲」、ユーザが清算を終了した時刻から出庫時間経過後までの時間「10:00:06から3秒」、および、行動観測装置情報が対応付けられた仮想障害物範囲情報
・仮想障害物範囲「駐車場の出入口における、予め決められた範囲」、ユーザが清算を終了した時刻「10:00:06」、および、行動観測装置情報が対応付けられた仮想障害物範囲情報
 この場合、情報統合部131は、図2に示すようなイメージの統合仮想障害物範囲情報を生成する。
 マップ生成部13は、情報統合部131が生成した統合仮想障害物範囲情報に基づいて、将来のダイナミックマップを生成する。
 ここで、図3は、実施の形態1において、マップ生成部13が生成した、現時刻のダイナミックマップ、および、複数の将来のダイナミックマップを含むダイナミックマップ群の一例のイメージを示す図である。なお、説明の便宜上、図3において、ダイナミックマップは2次元のイメージとして示している。
 図3は、マップ生成部13は、現時刻以降のマップ生成時間gごとに、現時刻tのダイナミックマップと、3つの時刻(時刻t+g、時刻t+2g、および、時刻t+3g)に対応する将来のダイナミックマップとを含むダイナミックマップ群を生成したものとしている。なお、図3では、一例として、現時刻tは10:00:00、マップ生成時間g=3秒とした場合のダイナミックマップ群のイメージを示している。
 また、図3では、情報取得部11から出力されたセンサ情報、すなわち、現時刻tのセンサ情報には、駐車場の出入口近くの道路を走行する1台のある車両30(目的車両とする)を検知した旨の情報が含まれていたとしている。
 また、図3では、統合仮想障害物範囲情報は、図2にイメージを示した内容であるとしている。
 図3に示すように、マップ生成部13は、現時刻t、ここでは、10:00:00のダイナミックマップとして、高精度3次元地図上で目的車両の情報を反映したダイナミックマップを生成する。マップ生成部13は、例えば、ダイナミックマップのエリアとダイナミックマップの縮尺とセンサ情報から、目的車両の位置および大きさを特定できる。
 また、マップ生成部13は、時刻t+g、ここでは、10:00:03の将来のダイナミックマップとして、高精度3次元地図上で、目的車両のドアの中心から半径1.5mの仮想障害物範囲(図3の201参照)を反映したダイナミックマップを生成する。マップ生成部13は、例えば、ダイナミックマップのエリアとダイナミックマップの縮尺と統合仮想障害物範囲情報に含まれている車両情報とから、目的車両および仮想障害物範囲の位置および大きさを特定できる。
 また、マップ生成部13は、時刻t+2g、ここでは、10:00:06の将来のダイナミックマップとして、高精度3次元地図上で、目的車両の中心から半径7mの仮想障害物範囲(図3の202参照)と、駐車場出入口における予め設定された範囲(図3の203参照)を反映したダイナミックマップを生成する。マップ生成部13は、例えば、ダイナミックマップのエリアとダイナミックマップの縮尺と統合仮想障害物範囲情報に含まれている車両情報および行動観測装置情報とから、目的車両および仮想障害物範囲の位置および大きさを特定できる。
 また、マップ生成部13は、時刻t+3g、ここでは、10:00:09の将来のダイナミックマップとして、高精度3次元地図上で、駐車場の出入口付近の、予め設定された範囲(図3の204参照)を反映したダイナミックマップを生成する。マップ生成部13は、例えば、ダイナミックマップの縮尺と統合仮想障害物範囲情報に含まれている行動観測装置情報とから、仮想障害物範囲の位置および大きさを特定できる。
 なお、実施の形態1において、マップ生成部13は、現時刻tのダイナミックマップに反映した動的情報を、現時刻t以降の将来のダイナミックマップにおいても反映するようにする。従って、図3において、目的車両は、現時刻tのダイナミックマップ、および、3つの時刻(t+g、t+2g、および、t+3g)の将来のダイナミックマップのすべてにおいて反映されている。
 マップ生成部13は、生成したダイナミックマップ群を、マップ出力部14に出力する。
 マップ出力部14は、マップ生成部13から出力されたダイナミックマップ群を、車載装置3に出力する。
 なお、サーバ1が管轄するエリアは予め決められている。マップ出力部14は、管轄するエリア内に存在する自動運転車両が搭載している車載装置3に対して、ダイナミックマップ群を出力する。
 ダイナミックマップ群を取得した車載装置3は、取得したダイナミックマップ群に基づき、経路を策定する。そして、車載装置3は、策定した経路に基づき、自動運転制御を行う。
 ここで、図4は、実施の形態1において、車載装置3が策定した経路の一例のイメージを示す図である。
 図4は、車載装置3が、図3で示したような、現時刻tのダイナミックマップ、および、3つの時刻(t+g、t+2g、および、t+3g)の将来のダイナミックマップを含むダイナミックマップ群を取得した場合に、策定した経路の一例のイメージを示している。なお、車載装置3において、経路の策定は、上述のとおり、計画部342が行う。
 図4において、ダイナミックマップ群に基づいて経路の策定を行う車載装置3が搭載されている車両30(以下「経路策定車両」という。)を、301で示している。
 また、図4において、車載装置3がダイナミックマップ群に基づいて策定した経路を、実線で示している(図4の「予測版考慮の経路計画」)。図4では、比較のために、仮に、車載装置3が現時刻tのダイナミックマップのみに基づいて策定した場合の経路を、点線で示している(図4の「予測版未考慮の経路計画」)。
 例えば、時刻t+2gになった場合には、目的車両(図4の車両30)のドアの中心から半径1.5mの仮想障害物範囲が出現すると予測される。
 仮に、車載装置3が、当該予測を考慮せず、現時刻tのダイナミックマップのみに基づいて経路を策定したとすると、時刻t+2gが到来した時点で、経路策定車両は、車両周辺での急な状況変化、すなわち、目的車両のドアが開くという事態に遭遇する。そうすると、車載装置3は、自動運転制御において、この状況変化への対処が間に合わず、経路策定車両の急制御になる可能性がある。
 これに対し、実施の形態1では、車載装置3は、ダイナミックマップ群に基づいて経路を策定するので、現時刻tにおいて、時刻t+2gが到来した時点で目的車両のドアが開くという事態に遭遇するという予測ができる。そして、予測した、目的車両のドアが開くという事態を回避できるよう、車載装置3は、目的車両のドアの中心から半径1.5mの仮想障害物範囲を避けた経路を策定できる。これにより、車載装置3は、自動運転制御において、経路策定車両の急制御を回避することができる。その結果、車載装置3は、急制御による乗員への負担増大等を低減することができる。
 また、サーバ1は、車載装置3に対して、ダイナミックマップ群を提供することで、車載装置3において、急制御を回避可能な経路策定のためのサポートを行うことができる。その結果、サーバ1は、車載装置3に対して、急制御による乗員への負担増大等を低減させることができる。
 実施の形態1に係る自動運転システム100の動作について説明する。
 以下、自動運転システム100を構成するサーバ1、車載装置3、および、行動観測装置4の動作について、それぞれ、フローチャートを用いて説明する。
 まず、サーバ1の動作について説明する。
 図5は、実施の形態1に係るサーバ1の動作を説明するためのフローチャートである。
 サーバ1は、仮想障害物範囲を予測する(ステップST501)。
 具体的には、サーバ1において、範囲予測部12は、情報取得部11が車載装置3または行動観測装置4から取得した動き予測情報に基づいて、仮想障害物範囲を予測する。
 範囲予測部12は、仮想障害物範囲情報を、マップ生成部13に出力する。
 マップ生成部13は、ステップST501にて範囲予測部12が予測した仮想障害物範囲に関する仮想障害物範囲情報に基づいて、仮想障害物範囲が反映されたダイナミックマップを生成する(ステップST502)。
 具体的には、マップ生成部13は、仮想障害物範囲が反映された複数の将来のダイナミックマップを、現時刻以降の、マップ生成時間gごとに、時系列に沿って生成する。
 より詳細には、マップ生成部13の情報統合部131は、範囲予測部12から出力された仮想障害物範囲情報を統合し、統合仮想障害物範囲情報を生成する。そして、マップ生成部13は、情報統合部131が生成した統合仮想障害物範囲情報に基づいて、将来のダイナミックマップを生成する。
 マップ生成部13は、生成したダイナミックマップ群を、マップ出力部14に出力する。
 マップ出力部14は、ステップST502にてマップ生成部13から出力されたダイナミックマップ群を、車載装置3に出力する(ステップST503)。
 ダイナミックマップ群を取得した車載装置3は、取得したダイナミックマップ群に基づき、経路を策定する。そして、車載装置3は、策定した経路に基づき、自動運転制御を行う。
 なお、図5のフローチャートでは説明を省略したが、サーバ1は、図5のフローチャートで説明した動作に加え、現時刻のダイナミックマップの生成も行う。
 具体的には、サーバ1において、情報取得部11は、車載装置3および路側装置5からセンサ情報を取得し、取得したセンサ情報をマップ生成部13に出力する。そして、マップ生成部13は、現時刻のダイナミックマップを生成する。
 当該現時刻のダイナミックマップ生成は、ステップST502と並行して行われてもよいし、ステップST502よりも前に行われてもよい。
 次に、車載装置3の動作について説明する。
 図6は、実施の形態1に係る車載装置3の動作について説明するためのフローチャートである。
 自動運転制御装置34は、マップ取得部341、計画部342、および、運転制御部343を備える。
 動き検知部31は、取得したセンサ情報に基づき、移動体の動きを検知する(ステップST601)。
 動き検知部31は、移動体の動きを検知した旨の動き検知情報を、動き予測部32に出力する。また、動き検知部31は、センサ21からセンサ情報を取得すると、当該センサ情報を情報出力部33に出力する。
 動き予測部32は、ステップST601にて動き検知部31から動き検知情報が出力されると、すなわち、動き検知部31がセンサ情報に基づいて移動体の動きを検知すると、移動体の次時刻以降の動きを予測する(ステップST602)。
 動き予測部32は、予測した、移動体の次時刻以降の動きに関する動き予測情報を、情報出力部33に出力する。
 情報出力部33は、ステップST602にて動き予測部32から出力された動き予測情報を、サーバ1に出力する(ステップST603)。
 マップ取得部341は、サーバ1から出力されたダイナミックマップ群を取得する(ステップST604)。
 マップ取得部341は、取得したマップ群を、計画部342に出力する。
 計画部342は、ステップST604にてマップ取得部341が取得したダイナミックマップ群に基づき、運転計画を立てる。具体的には、計画部342は、マップ取得部341が取得したダイナミックマップ群に基づき経路を策定する(ステップST605)。
 計画部342は、策定した経路に関する情報を運転制御部343に出力する。
 運転制御部343は、ステップST605にて計画部342が策定した経路に基づいて自動運転の制御を行う。
 次に、行動観測装置4の動作について説明する。
 図7は、実施の形態1に係る行動観測装置4の動作を説明するためのフローチャートである。
 動き検知部41は、センサ22からセンサ情報を取得し、取得したセンサ情報に基づき、移動体の動きを検知する(ステップST701)。
 動き検知部41は、移動体の動きを検知した旨の動き検知情報を、動き予測部42に出力する。
 動き予測部42は、ステップST701にて動き検知部41から動き検知情報が出力されると、すなわち、動き検知部41がセンサ情報に基づいて移動体の動きを検知すると、移動体の次時刻以降の動きを予測する(ステップST702)。
 動き予測部42は、予測した、移動体の次時刻以降の動きに関する動き予測情報を、情報出力部43に出力する。
 情報出力部43は、ステップST702にて動き予測部42から出力された動き予測情報を、サーバ1に出力する。
 図8は、実施の形態1における自動運転システムの動作のイメージを説明するためのシーケンス図である。
 なお、図8では、サーバ1に対して動き予測情報を出力する車載装置3(車載装置A(3a))と、サーバ1からダイナミックマップ群を取得する車載装置3(車載装置B(3b))は、別々の車載装置3としている。
 図8のステップST801~ステップST803は、それぞれ、図7のステップST701~ステップST703に対応する。
 図8のステップST804は、フローチャートを用いた説明は省略したが、路側装置5において、センサ23から取得したセンサ情報をサーバ1へ出力する動作を示している。
 図8のステップST805は、フローチャートを用いた説明は省略したが、車載装置3において、センサ21から取得したセンサ情報をサーバ1へ出力する動作を示している。
 図8のステップST806~ステップST808は、それぞれ、図6のステップST601~ステップST603に対応する。
 図8のステップST809は、フローチャートを用いた説明は省略したが、サーバ1において、マップ生成部13が、車載装置3および路側装置5から取得したセンサ情報に基づいて、現時刻のダイナミックマップを生成する動作を示している。
 図8のステップST810~ステップST811は、それぞれ、図5のステップST502~ステップST503に対応している。
 図8のステップST812は、図6のステップST604~ステップST606に対応している。
 このように、自動運転システム100において、車載装置3および行動観測装置4は、センサ情報に基づき、移動体の動きを予測し、サーバ1は、車載装置3および行動観測装置4が予測した移動体の動きに関する動き予測情報に基づいて、仮想障害物範囲を予測する。そして、サーバ1は、予測したみなし障害物範囲に関する情報に基づいて、当該みなし障害物範囲が反映されたダイナミックマップを生成する。
 これにより、自動運転システム100は、車載装置3における自動運転制御において、経路策定車両の急制御を回避することができる。その結果、車載装置3は、急制御による乗員への負担増大等を低減することができる。
 図9A,図9Bは、実施の形態1に係るサーバ1のハードウェア構成の一例を示す図である。
 実施の形態1において、情報取得部11と、範囲予測部12と、マップ生成部13と、マップ出力部14の機能は、処理回路901により実現される。すなわち、サーバ1は、仮想障害物範囲が反映された、将来のダイナミックマップを生成する制御を行うための処理回路901を備える。
 処理回路901は、図9Aに示すように専用のハードウェアであっても、図9Bに示すようにメモリ905に格納されるプログラムを実行するCPU(Central Processing Unit)904であってもよい。
 処理回路901が専用のハードウェアである場合、処理回路901は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
 処理回路901がCPU904の場合、情報取得部11と、範囲予測部12と、マップ生成部13と、マップ出力部14の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ905に記憶される。処理回路901は、メモリ905に記憶されたプログラムを読み出して実行することにより、情報取得部11と、範囲予測部12と、マップ生成部13と、マップ出力部14の機能を実行する。すなわち、サーバ1は、処理回路901により実行されるときに、上述の図5のステップST501~ステップST503が結果的に実行されることになるプログラムを格納するためのメモリ905を備える。また、メモリ905に記憶されたプログラムは、情報取得部11と、範囲予測部12と、マップ生成部13と、マップ出力部14の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ905とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
 なお、情報取得部11と、範囲予測部12と、マップ生成部13と、マップ出力部14の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、情報取得部11とマップ出力部14については専用のハードウェアとしての処理回路901でその機能を実現し、範囲予測部12と、マップ生成部13については処理回路901がメモリ905に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 また、サーバ1は、車載装置3、行動観測装置4、または、路側装置5等の装置と、有線通信または無線通信を行う入力インタフェース装置902および出力インタフェース装置903を備える。
 以上の実施の形態1では、自動運転システム100において、車載装置3および行動観測装置4は、それぞれ、動き予測部32および動き予測部42を備えるものとした。しかし、これに限らず、自動運転システムにおいて、サーバが、動き予測部の機能を備えるものとしてもよい。
 図10は、実施の形態1において、サーバ1aが、動き予測部15の機能を備えるようにした自動運転システム100aの構成例を示す図である。動き予測部15の具体的な機能は、説明済みの、動き予測部32および動き予測部42の具体的な機能と同様であるため、重複した説明を省略する。
 なお、この場合、図10に示すように、車載装置3aは、動き予測部32を備えない構成とすることができる。また、行動観測装置4aは、動き予測部42を備えない構成とすることができる。
 また、この場合、車載装置3aにおける図6のステップST602の動作と、行動観測装置4aにおける図7のステップST702の動作は、車載装置3aおよび行動観測装置4aではなく、サーバ1aにおいて、図5のステップST501の動作の前に行われる。
 また、以上の実施の形態1では、行動観測装置4において、動き予測部42は、予測した、移動体の次時刻以降の動きに関する動き予測情報を、サーバ1に出力するものとした。これに限らず、動き予測部42は、動き予測情報を、サーバ1に出力するとともに、車載装置3に、速報値として出力してもよい。
 図11は、実施の形態1において、行動観測装置4が車載装置3に速報値としての動き予測情報を出力するようにした自動運転システムの動作のイメージを説明するためのシーケンス図である。
 図11のシーケンス図は、図8のシーケンス図とは、ステップST1101が追加になった点が異なる。
 ステップST1101において、行動観測装置4は、動き予測情報を、速報値として、直接、車載装置3(車載装置B(3b))に出力する。
 ここで、行動観測装置4において移動体の動きを予測した結果である動き予測情報が、サーバ1がダイナミックマップ群へ反映するよりも前に、当該行動観測装置4の周辺に存在する車両30(以下「周辺車両」という。)等に対して影響を与える場合を考える。例えば、行動観測装置4は、ユーザが清算を終了した時刻から予測した出庫時間経過後に、車両30(以下「出庫車両」という。)が公道に出ることを予測するとする。仮に、出庫車両が公道に出るまでの出庫時間が極めて短い場合、周辺車両は、ダイナミックマップ群を取得する前に、他車両が公道に出てくるという事態に遭遇し得る。そうすると、周辺車両において急制御が発生し得る。
 そこで、行動観測装置4において、動き予測部42は、動き予測情報を、サーバ1に出力するとともに、車載装置3に、速報値として直接出力する。周辺車両は、行動観測装置4から直接動き予測情報を取得した場合、前回サーバ1から取得したダイナミックマップ群に、行動観測装置4から取得した動き予測情報を反映して、自動運転または運転支援における経路を再探索する。
 これにより、周辺車両は、行動観測装置4において移動体の動きを予測した結果である動き予測情報が反映されたダイナミックマップ群をサーバ1から取得する前に、当該動き予測情報に基づく事態が発生したとしても、急制御を回避することができる。
 なお、ここでは、自動運転システム100の構成は、図1に示すような構成であることを想定して説明したが、自動運転システム100aの構成は、図10に示すような構成であってもよい。
 また、以上の実施の形態1において、行動観測装置4をバス運行システムに適用することも可能である。
 この場合、行動観測装置4は、バス停またはバス車内に設置される。行動観測装置4において、動き検知部41は、バス停においてバス待ちの乗客の有無、または、バス車内において降車待ちの乗客の有無を検知する。例えば、行動観測装置4は、バス運行DBに、あるバス停(バス停A。後述の図12参照)に到着するバスを問合せ、当該あるバスに関する情報を取得する。当該あるバスに関する情報には、当該あるバスが到着するバス停においてバス待ちの乗客の有無、または、バス車内において降車待ちの乗客の有無に関する情報が含まれているものとする。
 そして、動き予測部42は、動き検知部41がバス待ちの乗客の有無、または、バス車内において降車待ちの乗客の有無を検知すると、バス停に向かっている、バス停のもっとも近くを走行中のバスが、予め決められた時間後に、バス停に止まることを予測する。そして、動き予測部42は、バス停に向かっている、バス停の最も近くを走行中のバスが、予め決められた時間後に、バス停に止まる旨の動き予測情報を、サーバ1に送信する。サーバ1において、範囲予測部12は、例えば、行動観測装置4から出力された動き予測情報と、前回作成したダイナミックマップ群とから、特定のバスが予め決められた時間後に路肩に寄って停車するまでの各時刻において当該特定のバスが通る想定されるルートにおける、バスの大きさに相当する範囲を、仮想障害物範囲と予測する。
 サーバ1において、マップ生成部13の情報統合部131は、統合仮想障害物範囲情報を生成する。情報統合部131が統合する仮想障害物範囲情報には、上記特定のバスが予め決められた時間後に路肩に寄って停車するまでに当該特定のバスが通ると想定されるルートに基づいて予測された仮想障害物範囲が含まれる。マップ生成部13は、情報統合部131が生成した統合仮想障害物範囲情報に基づいて、将来のダイナミックマップを生成する。そして、マップ出力部14は、管轄するエリア内に存在する自動運転車両が搭載している車載装置3に対して、ダイナミックマップ群を出力する。
 ダイナミックマップ群を取得した車載装置3は、取得したダイナミックマップ群に基づき、経路を策定する。そして、車載装置3は、策定した経路に基づき、自動運転制御を行う。
 なお、ここでは、自動運転システム100の構成は、図1に示すような構成であることを想定して説明したが、自動運転システム100aの構成は、図10に示すような構成であってもよい。
 図12は、実施の形態1において、行動観測装置4をバス運行システムに適用した場合の自動運転システム100の動作のイメージを説明するためのシーケンス図である。
 なお、図8では、サーバ1に対して動き予測情報を出力する車載装置3(車載装置A(3a))と、サーバ1からダイナミックマップ群を取得する車載装置3(車載装置B(3b))は、別々の車載装置3としている。
 図12のシーケンス図は、図8のシーケンス図とは、行動観測装置4はバス運行システムとし、バス運行DBにアクセス可能とする点が異なる。
 図13は、実施の形態1において、行動観測装置4をバス運行システムに適用した場合にサーバ1が生成した、現時刻のダイナミックマップ、および、複数の将来のダイナミックマップを含むダイナミックマップ群の一例のイメージを示す図である。なお、説明の便宜上、図13において、ダイナミックマップは2次元のイメージとして示している。
 図13は、マップ生成部13が、現時刻以降のマップ生成時間gごとに、現時刻tのダイナミックマップと、2つの時刻(時刻t+g、時刻t+2g)に対応する将来のダイナミックマップとを含むダイナミックマップ群を生成したものとしている。
 なお、図13では、情報取得部11から出力されたセンサ情報、すなわち、現時刻tのセンサ情報には、バス停に向かって走行中のバス(図13の1300参照)を検知した旨の情報が含まれていたとしている。
 図13に示すように、マップ生成部13は、現時刻tのダイナミックマップとして、高精度3次元地図上でバスの情報を反映したダイナミックマップを生成する。
 また、マップ生成部13は、時刻t+gの将来のダイナミックマップとして、高精度3次元地図上で、時刻t+g時点のバスを示す仮想障害物範囲(図13のt+gの1301参照)を反映したダイナミックマップを生成する。
 また、マップ生成部13は、時刻t+2gの将来のダイナミックマップとして、高精度3次元地図上で、時刻t+2g時点のバスを示す仮想障害物範囲(図13のt+2gの1301参照)を反映したダイナミックマップを生成する。
 図14は、実施の形態1において、行動観測装置4をバス運行システムに適用した場合にサーバ1が生成したダイナミックマップ群に基づいて車載装置3が策定した経路の一例のイメージを示す図である。
 図14は、車載装置3が、図13で示したような、現時刻tのダイナミックマップ、および、2つの時刻(t+gおよびt+2g)の将来のダイナミックマップを含むダイナミックマップ群を取得した場合に、策定した経路の一例のイメージを示している。
 図14において、ダイナミックマップ群に基づいて経路の策定を行う車載装置3が搭載されている経路策定車両を、1401で示している。
 また、図14において、車載装置3がダイナミックマップ群に基づいて策定した経路を、実線で示している(図14の「予測版考慮の経路計画」)。図14では、比較のために、仮に、車載装置3が現時刻tのダイナミックマップのみに基づいて策定した場合の経路を、点線で示している(図14の「予測版未考慮の経路計画」)。
 例えば、時刻t+gからt+2gにかけて、バス停に停車しようとするバスに相当する仮想障害物範囲が出現すると予測される。
 仮に、車載装置3が、当該予測を考慮せず、現時刻tのダイナミックマップのみに基づいて経路を策定したとすると、時刻t+2gが到来した時点で、経路策定車両は、車両周辺での急な状況変化、すなわち、バスがバス停に止まって乗客を乗せるまたは降ろすことによるバスの停車および発車待ちという事態に遭遇する。そうすると、車載装置3は、自動運転制御において、この状況変化への対処が間に合わず、経路策定車両の急制御になる可能性がある。
 これに対し、車載装置3は、ダイナミックマップ群に基づいて経路を策定すると、現時刻tの時点で、前を走るバスがバス停に止まって乗客を乗せるまたは降ろすという事態に遭遇するという予測ができる。そして、予測した、前を走るバスがバス停に止まって乗客を乗せるまたは降ろすという事態を回避できるよう、車載装置3は、バスに相当する仮想障害物範囲を避けた経路を策定できる。これにより、車載装置3は、自動運転制御において、経路策定車両の急制御を回避することができる。その結果、車載装置3は、急制御による乗員への負担増大等を低減することができる。
 また、サーバ1は、車載装置3に対して、ダイナミックマップ群を提供することで、車載装置3において、急制御を回避可能な経路策定のためのサポートを行うことができる。その結果、サーバ1は、車載装置3に対して、急制御による乗員への負担増大等を低減させることができる。
 また、以上の実施の形態1において、サーバ1からダイナミックマップ群を取得した車載装置3,3aは、取得したダイナミックマップ群に基づき、経路を策定し、策定した経路に基づき、自動運転制御を行うものとした。これに限らず、サーバ1からダイナミックマップ群を取得した車載装置3,3aは、取得したダイナミックマップ群に基づき、乗員への注意喚起等の制御を行うようにしてもよい。
 また、以上の実施の形態1において、サーバ1は、複数の、将来のダイナミックマップを生成するものとしたが、これは一例に過ぎない。サーバ1は、将来のダイナミックマップを1つ生成するものとしてもよい。この場合、サーバ1は、現時刻のダイナミックマップと、1つの将来のダイナミックマップとを含むダイナミックマップ群を、自動運転車両の車載装置3,3aに出力する。
 また、以上の実施の形態1では、行動観測装置4,4aが、歩行者の検知、および、歩行者の動きの予測を行うものとした。これは一例に過ぎず、歩行者の検知、および、歩行者の動きの予測は、サーバ1,1aが行うようにしてもよい。例えば、サーバ1,1aにおいて、情報取得部11が、路側装置5からカメラが撮像した撮像映像を取得し、範囲予測部12が、歩行者を検知し、検知した歩行者が、どの方向にどれぐらいの速度で歩行しているかを予測するようにしてもよい。
 また、以上の実施の形態1では、車載装置3,3aは、自動運転制御装置34を備えるものとしたが、これは一例に過ぎない。例えば、車載装置3,3aは、自動運転制御装置34を備えず、車載装置3,3aとは別の場所に自動運転制御装置34が備えられているようにしてもよい。
 なお、以上の実施の形態1において、サーバ1と接続される車両30のうち、自動運転車両ではない車両30については、自動運転制御装置34を備えない。
 また、以上の実施の形態1において、動き検知部31の機能は、車載装置3,3aの外部の装置が備えるようにしてもよい。この場合、車載装置3,3aは、動き検知部31を備えない構成とできる。また、以上の実施の形態1において、動き検知部41の機能は、行動観測装置4,4aの外部の装置等が備えるようにしてもよい。この場合、行動観測装置4,4aは、動き検知部41を備えない構成としてもよい。
 また、以上の実施の形態1において、車載装置3,3aが備える動き検知部31と動き予測部32と、情報出力部33と、マップ取得部341と、計画部342と運転制御部343のうち、一部または全部をサーバ1が備えるようにしてもよい。また、行動観測装置4,4aが備える動き検知部41と動き予測部42と情報出力部の構成部のうち、一部または全部をサーバ1が備えるようにしてもよい。
 以上のように、実施の形態1によれば、自動運転システム100,100aは、センサ情報に基づき、移動体の動きを予測する動き予測部32,42と、動き予測部32,42が予測した移動体の動きに関する動き予測情報に基づいて、仮想の障害物が存在するとみなす仮想障害物範囲を予測する範囲予測部12と、範囲予測部12が予測した仮想障害物範囲に関する情報に基づいて、仮想障害物範囲が反映されたダイナミックマップを生成するマップ生成部13とを備えるように構成した。
 そのため、自動運転可能な車両に対して、生成したダイナミックマップを提供する自動運転システム100,100aにおいて、自動運転可能な車両の急制御を回避することができる。
 また、実施の形態1に係る自動運転システム100,100aにおいて、マップ生成部13は、仮想障害物範囲が反映された複数のダイナミックマップを、現時刻以降のマップ生成時間ごとに時系列に沿って生成するようにした。
 そのため、自動運転システム100,100aは、ダイナミックマップを用いて自動運転制御を行う車両30,30aに対して、ある程度の期間における、将来の、予測し得る周辺の状況変化を知らせることができる。自動運転システム100,100aは、車両30,30aに対して、将来の、予測し得る周辺の状況変化をより正確に把握し、経路の探索を行えるようにさせることができる。これにより、自動運転システム100,100aは、自動運転制御において、車両30の急制御を回避することができる。その結果、車載装置3は、急制御による乗員への負担増大等を低減することができる。
 また、実施の形態1において、自動運転システム100,100aは、マップ生成部13が生成したダイナミックマップを取得するマップ取得部341と、マップ取得部341が取得したダイナミックマップに基づき経路を策定する計画部342と、計画部342が計画した経路に従って自動運転制御を行う運転制御部343とを備えるように構成した。
 そのため、自動運転システム100,100aは、自動運転制御において、車両30の急制御を回避することができる。その結果、車載装置3は、急制御による乗員への負担増大等を低減することができる。
 また、実施の形態1において、サーバ1は、センサ情報に基づいて予測された、移動体の動きに関する動き予測情報を取得する情報取得部11と、情報取得部11が取得した動き予測情報に基づき、仮想の障害物が存在するとみなす仮想障害物範囲を予測する範囲予測部12と、範囲予測部12が予測した仮想障害物範囲に関する情報に基づいて、仮想障害物範囲が反映されたダイナミックマップを生成するマップ生成部13を備えるように構成した。これにより、サーバ1は、自動運転制御において、経路策定車両の急制御を回避させることができる。その結果、サーバ1は、急制御による乗員への負担増大等を低減することができる。また、サーバ1は、車載装置3に対して、ダイナミックマップ群を提供することで、車載装置3において、急制御を回避可能な経路策定のためのサポートを行うことができる。その結果、サーバ1は、車載装置3に対して、急制御による乗員への負担増大等を低減させることができる。
 なお、本開示は、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
 本開示に係る自動運転システムは、自動運転可能な車両に対して、生成したダイナミックマップを提供する自動運転システムにおいて、自動運転可能な車両の急制御を回避することができる。
 1,1a サーバ、11 情報取得部、12 範囲予測部、13 マップ生成部、131 情報統合部、14 マップ出力部、15 動き予測部、21,22,23 センサ、3,3a 車載装置、31 動き検知部、32 動き予測部、33 情報出力部、34 自動運転制御装置、341 マップ取得部、342 計画部、343 運転制御部、4,4a 行動観測装置、41 動き検知部、42 動き予測部、43 情報出力部、5 路側装置、100,100a 自動運転システム、901 処理回路、902 入力インタフェース装置、903 出力インタフェース装置、904 CPU、905 メモリ。

Claims (10)

  1.  自動運転可能な車両に対して、生成したダイナミックマップを提供する自動運転システムであって、
     センサ情報に基づき、移動体の動きを予測する動き予測部と、
     前記動き予測部が予測した前記移動体の動きに関する動き予測情報に基づいて、仮想の障害物が存在するとみなす仮想障害物範囲を予測する範囲予測部と、
     前記範囲予測部が予測した前記仮想障害物範囲に関する情報に基づいて、前記仮想障害物範囲が反映されたダイナミックマップを生成するマップ生成部
     とを備えた自動運転システム。
  2.  前記マップ生成部は、
     前記仮想障害物範囲が反映された複数の前記ダイナミックマップを、現時刻以降のマップ生成時間ごとに時系列に沿って生成する
     ことを特徴とする請求項1記載の自動運転システム。
  3.  前記マップ生成部が生成した前記ダイナミックマップを取得するマップ取得部と、
     前記マップ取得部が取得した前記ダイナミックマップに基づき経路を策定する計画部と、
     前記計画部が計画した前記経路に従って自動運転制御を行う運転制御部
     とを備えた請求項1記載の自動運転システム。
  4.  前記動き予測部は、前記センサ情報に基づき、前記車両の乗員がドアに手をかけたことを検知した場合、前記車両のドアが開くことを予測する
     ことを特徴とする請求項1記載の自動運転システム。
  5.  前記動き予測部は、駐車場に設置されている装置の操作情報に基づき、前記装置の操作が終了されたことを検知した場合、前記移動体が前記駐車場から出る動きを予測する
     ことを特徴とする請求項1記載の自動運転システム。
  6.  前記動き予測部は、撮像映像に基づき、歩行者を検知した場合、当該歩行者の動きを予測する
     ことを特徴とする請求項1記載の自動運転システム。
  7.  前記動き予測部を有する車載装置および行動観測装置と、
     前記範囲予測部および前記マップ生成部を有するサーバ
     とを備えた請求項1記載の自動運転システム。
  8.  自動運転可能な車両に対して、生成したダイナミックマップを提供するサーバであって、
     センサ情報に基づいて予測された、移動体の動きに関する動き予測情報を取得する情報取得部と、
     前記情報取得部が取得した前記動き予測情報に基づき、仮想の障害物が存在するとみなす仮想障害物範囲を予測する範囲予測部と、
     前記範囲予測部が予測した前記仮想障害物範囲に関する情報に基づいて、前記仮想障害物範囲が反映されたダイナミックマップを生成するマップ生成部
     とを備えたサーバ。
  9.  センサ情報に基づき、前記移動体の動きを予測する動き予測部を備え、
     前記範囲予測部は、前記動き予測部が予測した前記移動体の動きに関する前記動き予測情報に基づき、前記仮想障害物範囲を予測する
     ことを特徴とする請求項8記載のサーバ。
  10.  自動運転可能な車両に対して提供するサーバによるダイナミックマップの生成方法であって、
     情報取得部が、センサ情報に基づいて予測された、移動体の動きに関する動き予測情報を取得するステップと、
     範囲予測部が、前記情報取得部が取得した前記動き予測情報に基づき、仮想の障害物が存在するとみなす仮想障害物範囲を予測するステップと、
     マップ生成部が、前記範囲予測部が予測した前記仮想障害物範囲に関する情報に基づいて、前記仮想障害物範囲が反映されたダイナミックマップを生成するステップ
     とを備えたダイナミックマップの生成方法。
PCT/JP2020/045316 2020-12-04 2020-12-04 自動運転システム、サーバ、および、ダイナミックマップの生成方法 Ceased WO2022118476A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202080107611.XA CN116615773A (zh) 2020-12-04 2020-12-04 自动驾驶系统、服务器及动态地图生成方法
JP2022566748A JP7345684B2 (ja) 2020-12-04 2020-12-04 自動運転システム、サーバ、および、ダイナミックマップの生成方法
PCT/JP2020/045316 WO2022118476A1 (ja) 2020-12-04 2020-12-04 自動運転システム、サーバ、および、ダイナミックマップの生成方法
DE112020007815.9T DE112020007815T5 (de) 2020-12-04 2020-12-04 Automatikbetrieb-System, Server und Verfahren zur Erzeugung einer dynamischen Karte
US18/033,674 US20230399017A1 (en) 2020-12-04 2020-12-04 Automatic operating system, server, and method for generating dynamic map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/045316 WO2022118476A1 (ja) 2020-12-04 2020-12-04 自動運転システム、サーバ、および、ダイナミックマップの生成方法

Publications (1)

Publication Number Publication Date
WO2022118476A1 true WO2022118476A1 (ja) 2022-06-09

Family

ID=81854104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045316 Ceased WO2022118476A1 (ja) 2020-12-04 2020-12-04 自動運転システム、サーバ、および、ダイナミックマップの生成方法

Country Status (5)

Country Link
US (1) US20230399017A1 (ja)
JP (1) JP7345684B2 (ja)
CN (1) CN116615773A (ja)
DE (1) DE112020007815T5 (ja)
WO (1) WO2022118476A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025126577A1 (ja) * 2023-12-13 2025-06-19 Astemo株式会社 行動予測装置、車両、および、行動予測方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116817943A (zh) * 2023-08-30 2023-09-29 山东理工职业学院 一种基于智能网联汽车的高精度动态地图生成与应用方法
CN117629197A (zh) * 2023-10-27 2024-03-01 北京集度科技有限公司 一种车辆数据处理方法、装置、设备及介质
CN120756467B (zh) * 2025-09-11 2025-11-18 一汽—大众汽车有限公司 自动泊车辅助的预警保护方法和设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016027315A1 (ja) * 2014-08-19 2016-02-25 三菱電機株式会社 路面照射装置
WO2018220807A1 (ja) * 2017-06-02 2018-12-06 本田技研工業株式会社 予測装置、車両、予測方法およびプログラム
JP2019128644A (ja) * 2018-01-22 2019-08-01 トヨタ自動車株式会社 位置探索支援システム
WO2019150460A1 (ja) * 2018-01-31 2019-08-08 住友電気工業株式会社 車載装置、車車間通信方法、及びコンピュータプログラム
WO2020202741A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4604691B2 (ja) * 2004-12-07 2011-01-05 日産自動車株式会社 車両用警報装置、車両周囲状況の警報方法
KR101515496B1 (ko) * 2013-06-12 2015-05-04 국민대학교산학협력단 가상현실에서 변동되는 장애물 정보를 반영한 무인 자동차의 자율 주행 시뮬레이션 시스템
GB2515099B (en) * 2013-06-14 2015-11-11 Jaguar Land Rover Ltd Door protection system
CN107226088B (zh) * 2016-03-25 2022-03-08 松下电器(美国)知识产权公司 控制器、驾驶控制方法以及程序
CN109927719B (zh) * 2017-12-15 2022-03-25 百度在线网络技术(北京)有限公司 一种基于障碍物轨迹预测的辅助驾驶方法和系统
CN110647140B (zh) * 2018-06-26 2023-07-07 宇通客车股份有限公司 一种自动驾驶控制方法及控制器
JP2020101986A (ja) 2018-12-21 2020-07-02 住友電気工業株式会社 安全運転支援装置、端末装置、安全運転支援システム、安全運転支援方法、処理実行方法、およびコンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016027315A1 (ja) * 2014-08-19 2016-02-25 三菱電機株式会社 路面照射装置
WO2018220807A1 (ja) * 2017-06-02 2018-12-06 本田技研工業株式会社 予測装置、車両、予測方法およびプログラム
JP2019128644A (ja) * 2018-01-22 2019-08-01 トヨタ自動車株式会社 位置探索支援システム
WO2019150460A1 (ja) * 2018-01-31 2019-08-08 住友電気工業株式会社 車載装置、車車間通信方法、及びコンピュータプログラム
WO2020202741A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025126577A1 (ja) * 2023-12-13 2025-06-19 Astemo株式会社 行動予測装置、車両、および、行動予測方法

Also Published As

Publication number Publication date
JP7345684B2 (ja) 2023-09-15
US20230399017A1 (en) 2023-12-14
CN116615773A (zh) 2023-08-18
JPWO2022118476A1 (ja) 2022-06-09
DE112020007815T5 (de) 2023-11-02

Similar Documents

Publication Publication Date Title
JP6865244B2 (ja) 自動運転車両の軌道の生成方法
JP6757819B2 (ja) 最適化方法による自動運転車両のための計画駐車軌跡の生成
JP6975512B2 (ja) 自動運転車両の周辺車両の挙動に基づくリアルタイム感知調整と運転調整
JP6831420B2 (ja) 自動運転車の軌跡候補を評価するための方法
WO2022118476A1 (ja) 自動運転システム、サーバ、および、ダイナミックマップの生成方法
JP7030044B2 (ja) 自律走行車(adv)に対して車両とクラウド間のリアルタイム交通地図を構築するためのシステム
JP6811282B2 (ja) 自動運転車に用いられる自動データラベリング
KR102354615B1 (ko) 자율 주행 차량의 저속 정경을 위한 보행자 상호 작용 시스템
JP7471045B2 (ja) 情報処理装置及び情報処理方法
US11066067B2 (en) Planning parking trajectory for self-driving vehicles
JP6748244B2 (ja) 自動運転車に用いられる学習に基づく速度計画装置
KR102078488B1 (ko) 차량 주변의 컨텍스트에 기초하여 차량의 하나 이상의 궤적을 예측하는 방법 및 시스템
JP7116065B2 (ja) 自律走行車に用いられるトンネルに基づく計画システム
JP6861272B2 (ja) 衝突後の分析に基づく自動運転車の車両動作の最適化
JP2019182414A (ja) 自動運転車に対して障害物の予測軌跡を生成するための方法
JP2021501712A (ja) 自動運転車両のための歩行者確率予測システム
JP2020514145A (ja) シミュレーションに基づく自動運転車の感知要求の評価方法
CN105835878A (zh) 在乘员视野和传感器检测受阻环境中的自主车辆操作
JP2021511998A (ja) 自動運転車両のための螺旋曲線に基づく垂直駐車計画システム
US11851088B2 (en) Method for determining capability boundary and associated risk of a safety redundancy autonomous system in real-time
EP4124530B1 (en) Pedestrian intent yielding
CN111824124A (zh) 车辆控制装置、车辆管理装置、车辆控制方法、车辆管理方法、及存储介质
CN116610049A (zh) 远程辅助方法、远程辅助系统以及计算机可读取的记录介质
RU2750118C1 (ru) Способы и процессоры для управления работой беспилотного автомобиля
JP7217415B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20964327

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022566748

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202080107611.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 112020007815

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20964327

Country of ref document: EP

Kind code of ref document: A1