WO2018220807A1 - 予測装置、車両、予測方法およびプログラム - Google Patents
予測装置、車両、予測方法およびプログラム Download PDFInfo
- Publication number
- WO2018220807A1 WO2018220807A1 PCT/JP2017/020549 JP2017020549W WO2018220807A1 WO 2018220807 A1 WO2018220807 A1 WO 2018220807A1 JP 2017020549 W JP2017020549 W JP 2017020549W WO 2018220807 A1 WO2018220807 A1 WO 2018220807A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- prediction
- person
- information
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00274—Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
Definitions
- the present invention relates mainly to a prediction device for a vehicle.
- Patent Document 1 when the other vehicle is traveling on the periphery of the own vehicle or the like, the other vehicle determines the own vehicle by determining whether a stop exists on the planned travel route of the own vehicle. It is described to predict that there is a possibility of stopping near the vehicle.
- An object of the present invention is to improve the prediction of the behavior of another vehicle on the road.
- the present invention relates to a prediction device, and the prediction device acquires information of another vehicle existing in the vicinity of the own vehicle and information of an object existing in the vicinity of the other vehicle, and the acquisition means And prediction means for predicting the behavior of the other vehicle based on the acquired information of the other vehicle and the information of the object.
- FIG. 1 is a block diagram for explaining the configuration of a vehicle 1 according to the first embodiment.
- the vehicle 1 includes an operation unit 11, a travel control ECU (electronic control unit) 12, a drive mechanism 13, a braking mechanism 14, a steering mechanism 15, a detection unit 16, and a prediction ECU 17.
- the vehicle 1 is a four-wheeled vehicle in the present embodiment, the number of wheels is not limited to four.
- the operation unit 11 includes an acceleration control 111, a braking control 112, and a steering control 113.
- the acceleration control 111 is an accelerator pedal
- the braking control 112 is a brake pedal
- the steering control 113 is a steering wheel.
- other types such as lever type and button type may be used.
- the travel control ECU 12 includes a CPU 121, a memory 122, and a communication interface 123.
- the CPU 121 performs predetermined processing based on the electrical signal received from the operation unit 11 via the communication interface 123. Then, the CPU 121 stores the processing result in the memory 122 or outputs the processing result to each of the mechanisms 13 to 15 via the communication interface 123. With such a configuration, the traveling control ECU 12 controls the respective mechanisms 13 to 15.
- the travel control ECU 12 is not limited to this configuration, and as another embodiment, a semiconductor device such as an ASIC (application specific integrated circuit) may be used. That is, the function of the traveling control ECU 12 can be realized by either hardware or software. Furthermore, although the travel control ECU 12 is shown as a single element for ease of explanation here, these may be divided into a plurality of elements, and the travel control ECU 12 may be, for example, for acceleration, braking and steering. It may be divided into three ECUs.
- ASIC application specific integrated circuit
- the drive mechanism 13 includes, for example, an internal combustion engine and a transmission.
- the braking mechanism 14 is, for example, a disk brake provided on each wheel.
- the steering mechanism 15 includes, for example, power steering.
- the travel control ECU 12 controls the drive mechanism 13 based on the amount of operation of the acceleration operator 111 by the driver. Further, the travel control ECU 12 controls the braking mechanism 14 based on the amount of operation of the braking operation element 112 by the driver. Further, the travel control ECU 12 controls the steering mechanism 15 based on the operation amount of the steering operation element 113 by the driver.
- the detection unit 16 includes a camera 161, a radar 162, and a light detection and ranging (LiDAR) 163.
- the camera 161 is an imaging device using, for example, a CCD / CMOS image sensor.
- the radar 162 is, for example, a distance measuring device such as a millimeter wave radar.
- the lidar 163 is, for example, a distance measuring device such as a laser radar. As illustrated in FIG. 2, these are respectively disposed at positions where the peripheral information of the vehicle 1 can be detected, for example, the front side, the rear side, the upper side, and the side of the vehicle body.
- expressions such as front, back, top, and side (left / right) may be used, but these are used as expressions showing relative directions indicated on the basis of the vehicle body.
- front indicates the front in the front-rear direction of the vehicle body
- upper indicates the height direction of the vehicle body.
- the vehicle 1 can perform automatic driving based on the detection result (the peripheral information of the vehicle 1) by the detection unit 16.
- the automatic driving refers to performing part or all of the driving operation (acceleration, braking and steering) on the traveling control ECU 12 side, not on the driver side. That is, according to the concept of automatic driving, a mode in which all driving operations are performed by the travel control ECU 12 (so-called fully automatic driving), and a mode in which a part of driving operations is performed by the travel control ECU 12 (so-called driving assistance) , Is included.
- the driving support include a vehicle speed control (auto cruise control) function, an inter-vehicle distance control (adaptive cruise control) function, a lane departure prevention support (lane keep assist) function, and a collision avoidance support function.
- the prediction ECU 17 predicts the behavior of each object on the road, although the details will be described later.
- the prediction ECU 17 may be referred to as a prediction device, a behavior prediction device, or the like, or may be referred to as a processing device (processor), an information processing device, etc. (Furthermore, instead of the device, a device, a module, a unit, etc. May be called).
- the traveling control ECU 12 controls part or all of the operation elements 111 to 113 based on the prediction result by the prediction ECU 17.
- the prediction ECU 17 has the same configuration as the travel control ECU 12, and includes a CPU 171, a memory 172, and a communication interface 173.
- the CPU 171 acquires the peripheral information of the vehicle 1 from the detection unit 16 via the communication interface 173.
- the CPU 171 predicts the behavior of each object on the road based on the surrounding information, stores the prediction result in the memory 172, or outputs the prediction result to the travel control ECU 12 via the communication interface 173.
- FIG. 3 is a top view showing a state where a vehicle 1 and a plurality of objects 3 exist on the road 2, and the vehicle 1 (hereinafter, "the own vehicle 1" for distinction) travels on the road 21 by automatic driving. It is shown how you are doing.
- the own vehicle 1 detects the objects 3 on the roadway 21 and the sidewalk 22 by the detection unit 16 and performs automatic driving by setting a travel route so as to avoid these.
- the object 3 another vehicle 31, a person 32 (for example, a pedestrian), and an obstacle 33 may be mentioned.
- the arrow indicates the traveling direction of the object 3.
- the obstacle 33 may be an object that physically interferes with traveling or an object whose contact avoidance is recommended, and is limited to this example. Absent.
- the obstacle 33 may be, for example, a falling object such as waste, or may be an installation such as a traffic light or a guard fence, regardless of movable property / real estate.
- the prediction ECU 17 sets a warning area R for each object 3.
- the alert area R is an area for avoiding contact of the host vehicle 1, that is, an area in which the host vehicle 1 is recommended not to overlap.
- the alert area R for an object 3 is set to have a predetermined width outside the outline of the object 3 as an area where the object 3 may move within a predetermined period.
- the alert area R is set periodically (for example, every 10 [msec] (changed, updated, reset. Hereinafter, simply referred to as "setting").
- the alert area R is shown as a plane (two-dimensional) for ease of explanation here, the alert area R is actually set in accordance with the space detected by the on-vehicle detection unit 16. Therefore, the alert region R can be expressed in three-dimensional space coordinates or in four-dimensional space coordinates added with a time axis.
- the prediction ECU 17 sets, for example, the alert region R for the other vehicle 31 traveling in front of the host vehicle 1 outside the contour of the other vehicle 31.
- the width of the alert area R (the distance from the contour) is the information of the other vehicle 31 (for example, position information such as the relative position to the vehicle 1 and the distance from the vehicle 1), the traveling direction of the other vehicle 31, the vehicle speed, It is set based on the status information such as the presence or absence of lighting of the lighting device.
- the widths of the alert regions R may be set to be different from one another in the front, the side, and the rear.
- the prediction ECU 17 sets the alert region R to a predetermined width (for example, about 50 cm) on the side of the vehicle, and a relatively wide width in front of and behind the vehicle The width is set according to the vehicle speed of the vehicle 31).
- the prediction ECU 17 widens the width on the left side (or right side) of the alert region R.
- region R may be set by the same width ahead, a side, and back.
- the prediction ECU 17 may, for example, monitor the alert region R for the person 32 on the sidewalk 22 with information of the person 32 (for example, position information such as a relative position to the vehicle 1 and a distance from the vehicle 1, It is set outside the outline of the person 32 based on the state of movement of the person 32, movement speed, posture, line of sight, and the like).
- the widths of the alert regions R may be set to be different from each other in the front, the side, and the rear based on the information of the person 32.
- the width of the alert region R is set based on the moving speed of the person 32 and / or set based on the line of sight of the person 32.
- the alert area R may be set to have the same width in front, side and back.
- the prediction ECU 17 can further predict the age group of the person 32 and set the width of the alert region R based on the prediction result. This prediction may be performed using the appearance information (information on the appearance of the person, such as physical information, clothes information, etc.) of the person 32 based on the detection result from the detection unit 16.
- the prediction ECU 17 may use, for example, the alert region R for the obstacle 33 on the road 21 as information on the obstacle 33 (for example, position information such as the relative position to the vehicle 1 and the distance from the vehicle 1) Based on state information such as type, shape, size, etc., and set outside the outline of the obstacle 33. Because the obstacle 33 is considered not to move, the width of the alert area R may be set to a predetermined value. If the detection unit 16 further includes, for example, a wind speed sensor, and the wind speed can be detected, the width of the alert area R may be set based on the wind speed.
- the width of the alert area R for each object 3 may be further set based on the vehicle speed of the vehicle 1.
- the host vehicle 1 is traveling at a relatively high speed, for example, by setting the width of the alert region R1 for the other vehicle 31 wider, it is possible to take a sufficient distance between the other vehicle 31 and the other It is possible to avoid contact with the vehicle 31.
- the travel control ECU 12 prevents the contact with each object 3 of the host vehicle 1 by setting the travel route so as not to pass through the alert region R for each object 3 based on the prediction result from the prediction ECU 17. Make it possible.
- FIG. 4A is a top view showing, as an example, the situation in which the vehicle 1 and the other vehicle 31 are traveling along the roadway 21. As shown in FIG. The own vehicle 1 is traveling by automatic driving, and the other vehicle 31 is traveling ahead of the own vehicle 1.
- the prediction ECU 17 of the host vehicle 1 sets the alert region R for the other vehicle 31 based on the information of the other vehicle 31.
- the other vehicle 31 is traveling straight at a constant vehicle speed, and based on this, the prediction ECU 17 sets a warning region R for the other vehicle 31.
- the width on the rear side of the alert area R is set according to the vehicle speeds of the host vehicle 1 and the other vehicle 31, that is, the alert area R is expanded rearward as illustrated by the arrow E1.
- the inter-vehicle distance to the other vehicle 31 of the own vehicle 1 can be increased or maintained, and even when the other vehicle 31 decelerates or stops at an unexpected timing, the own vehicle 1 can be decelerated safely or It is possible to stop the vehicle 1 and prevent contact with the other vehicle 31 of the host vehicle 1.
- the width on the front side of the alert area R is similarly set, ie, the alert area R is expanded on the front side as illustrated by the arrow E2. It should be noted that for the subject vehicle 1 traveling behind the other vehicle 31, the front side of the other vehicle 31 is not substantially relevant, so the extension (arrow E2) of the warning area R on the front side may be omitted.
- the other vehicle 31 is a taxi as an example of a vehicle for a pick-up service.
- a person 32 is present on the sidewalk 22 in front of the other vehicle 31.
- a warning region R is also set for the person 32 by the prediction ECU 17.
- the prediction ECU 17 extends the caution area R rearward as indicated by the arrow E4, further based on the result of the prediction that the other vehicle 31 decelerates or stops.
- the prediction ECU 17 can predict these and extend the alert region R to the side.
- the travel control ECU 12 can determine how to drive the host vehicle 1 based on the alert region R set as described above. For example, does the travel control ECU 12 control the host vehicle 1 so as to overtake the other vehicle 31 (that is, set a travel route passing the side of the other vehicle 31 so as not to overlap the alert region R)? Alternatively, it is determined whether to stop the own vehicle 1 behind the other vehicle 31.
- FIG. 4C shows, as another example, a case where another vehicle (referred to as “oncoming vehicle 31 ′” for distinction) is present in the opposite lane (referred to as “oncoming lane 21 ′” for distinction). It is a top view. In FIG. 4C, a warning region R for the oncoming vehicle 31 'is also shown together with the oncoming vehicle 31'.
- FIG. 4C illustrates how the alert area R is expanded for the other vehicle 31 stopped in front of the person 32.
- the warning region R is indicated by an arrow E5 based on the result of the prediction by the prediction ECU 17 that the door on one side of the other vehicle 31 opens (ACT 3) to get the person 32 on. Extended to one side so that the driver of the other vehicle 31 gets off the other vehicle 31 in order to load the luggage of the person 32 in the trunk room. Therefore, based on the result of the further prediction by the prediction ECU 17 that the door on the other side opens (ACT 4), the alert region R is expanded to the other side as indicated by the arrow E6.
- the alert area R is further extended rearward as indicated by the arrow E7.
- the prediction of the opening of the door for the stopped other vehicle 31 is the door on one side (see E5), the door on the other side (see E6), and the trunk lid on the rear (see E7). However, in other embodiments, predictions for some of these may be made.
- the travel control ECU 12 determines whether or not the own vehicle 1 can pass the other vehicle 31 or whether to stop the own vehicle 1 behind the other vehicle 31 as described above. The determination is made based on the alert region R for each of the set vehicles 31 and 31 '. Then, the traveling control ECU 12 can determine how to drive the host vehicle 1 based on the result of this determination.
- the traveling control ECU 12 can resume traveling at a desired vehicle speed after the other vehicle 31 starts moving by standing by while stopping until the other vehicle 31 starts moving. This is applicable not only to the case where it is confirmed that the other vehicle 31 in motion is decelerating and stopping, but also to the case where the other vehicle 31 which has already stopped is confirmed.
- the person 32 raises his hand, but another behavior may be shown as a signal for a request for getting on the other vehicle 31 which is a taxi.
- the person 32 takes action to draw attention to the driver of the other vehicle 31 such as waving his hand or giving a psalm
- the other vehicle 31 decelerates and stops while moving toward the person 32. It is predicted.
- the person 32 indicates that the driver of the other vehicle 31 is expected to be a passenger candidate (passing candidate), such as turning the gaze toward the other vehicle 31 for a predetermined period, etc. is expected.
- the other vehicle 31 is a taxi, but as another embodiment, the other vehicle 31 may be a vehicle for another type of transfer service.
- a vehicle for pick-up service in addition to taxis, a vehicle related to a substitute driving service, a rickshaw, etc. may be mentioned for Japan, but the same applies to a vehicle used for the pick-up service in other countries.
- taxis may be referred to by different names, but these are included in the concept of vehicles for pick-up service (for example, Tuk-tuk in Thailand, auto-rickshaw in India, etc.).
- 5A to 5B are flowcharts showing a method for predicting the behavior of the other vehicle 31 according to the present embodiment and setting the alert region R accordingly.
- the contents of these flowcharts are mainly performed by the CPU 171 in the prediction ECU 17.
- the prediction ECU 17 recognizes the objects 3 around the host vehicle 1 based on the peripheral information of the host vehicle 1, sets the alert region R in each object 3, and The result is output to the travel control ECU 12.
- the prediction ECU 17 determines whether or not there is a person 32 who can be a passenger candidate. The behavior of the other vehicle 31 is predicted based on that, and the alert region R is set.
- step S510 it is determined whether or not the host vehicle 1 is in the automatic driving state. This step is performed, for example, by the prediction ECU 17 receiving a signal indicating whether the host vehicle 1 is in the automatic driving state from the travel control ECU 12. If it is in the automatic operation state, the process proceeds to S520, and if it is not the automatic operation state, the present flowchart ends.
- peripheral information of the vehicle 1 is acquired. This step is performed when the prediction ECU 17 receives the peripheral information of the vehicle 1 detected by the detection unit 16.
- each object 3 present around the vehicle 1 is extracted from the surrounding information obtained in S520.
- This step is performed by performing predetermined data processing (for example, data processing for performing contour extraction) on data indicating peripheral information.
- Each object 3 is classified for each attribute (type) based on the information (the position information and the state information described above, etc.) (for example, it is determined which of the other vehicle 31, the person 32, and the obstacle 33) ).
- This classification can be performed by pattern matching, for example, based on the appearance of each object 3.
- a warning area R may be set.
- the alert area R for the other vehicle 31 is set based on the later-described behavior prediction (S540), but the alert area R for the other object 3 may be set at S530.
- the prediction result including the behavior prediction in S540 is output to the traveling control ECU 12.
- the travel control ECU 12 determines the travel route of the host vehicle 1 based on the prediction result, and determines the content of the driving operation of the host vehicle 1.
- S560 it is determined whether the automatic driving state of the host vehicle 1 is ended. This step is performed, for example, by the prediction ECU 17 receiving a signal indicating the end of the automatic driving state from the travel control ECU 12. When the automatic driving state is not ended, the process returns to S520, and when the automatic driving state is ended, the present flowchart is ended.
- the series of steps S520 to S560 are repeatedly performed, for example, in a period of about several tens of msec or shorter (for example, about 10 msec). That is, acquisition of peripheral information of the own vehicle 1, behavior prediction of each object 3 around the own vehicle 1, and setting of the alert region R accompanying it, and output to the travel control ECU 12 as a result thereof are performed periodically. To be done.
- FIG. 5B is a flowchart for explaining the method of behavior prediction of S540.
- S540 includes S5410 to S5480.
- behavior prediction of the other vehicle 31 is performed based on whether or not the other vehicle 31 is a vehicle for a pick-up service, presence or absence of the person 32 who is a passenger candidate, behavior and the like. Then, based on the prediction result, the alert area R for the other vehicle 31 is set.
- attribute information indicating the attribute is added to the information of the other vehicle 31 based on the attribute of the other vehicle 31 related to the determination of S5410.
- the attribute information is information indicating whether or not the vehicle is for a pick-up service. This step is performed, for example, by pattern matching based on the appearance information and the like of the other vehicle 31 to be determined.
- the vehicle can be easily determined based on the appearance of the vehicle whether it is a vehicle for a pick-up service. As an example of the criteria for this determination, typically, it is indicated that the license plate of the vehicle is a sales car, that the lighting of the roof of the vehicle is provided, the color or characters given to the vehicle body, Etc. Further, when inter-vehicle communication is possible, attribute information can be received directly from another vehicle 31. Alternatively, the same can be realized by road-to-vehicle communication.
- S5430 it is determined whether the person 32 exists in the object 3 extracted in S530. If the person 32 is present, the process proceeds to S5440, and if not, the process proceeds to S5480 (S5440 to 5470 are skipped).
- S5440 it is determined whether the person 32 who concerns on determination of S5430 satisfy
- a passenger of a pick-up service such as a taxi directs a face on the road upstream of the flow of the car and looks like searching for a taxi that can be taken. Therefore, when it is confirmed that the person 32 turns his / her gaze toward the other vehicle 31 for a predetermined period (for example, 1 [sec] or more), the person 32 can be determined as a passenger candidate. In this case, information indicating that the passenger is a passenger can be added as attribute information to the information of the person 32. If the person 32 satisfies the condition for the passenger candidate, the process proceeds to S5450, and if not, the process proceeds to S5460 (S5450 is skipped).
- the other vehicle 31 may decelerate before the person 32, so it is predicted that the other vehicle 31 decelerates.
- S5460 it is determined whether the person 32 has shown a predetermined behavior. This step is performed based on the behavior of the person 32 to be determined, in particular, the movement over time.
- a passenger of a pick-up service such as a taxi sends a signal to the driver of the pick-up service vehicle by raising his hand etc. in front of several [m] to several tens of meters of pick-up service vehicles Send Therefore, if the person 32 indicates a predetermined behavior such as raising a hand, the process proceeds to S5470, and if not, the process proceeds to S5480 (S5470 is skipped).
- behavior information such as raising a hand can be added to the information of the person 32.
- the alert range R for the other vehicle 31 is set based on the prediction result of the deceleration of the other vehicle 31 in S5450 and / or the stop of the other vehicle 31 in S5470.
- the alert region R may be set with different widths based on which one of the deceleration and the stop of the other vehicle 31 is predicted. For example, the extension width on the rear side of the progress area R when only deceleration of the other vehicle 31 is predicted (that is, when only S5450 is performed) is otherwise (that is, only S5470 or both S5450 and S5470) May be smaller than when
- the alert area R for the other vehicle 31 may be extended to the side side as well as to the rear side.
- the behavior prediction of the other vehicle 31 is performed based on the information of the other vehicle 31 and the information of the object 3 (here, the person 32).
- the alert region R for the other vehicle 31 set in the behavior prediction is then output to the travel control ECU 17 at S550 as a part of the prediction result.
- each step of this flowchart may be changed in the range which does not deviate from the meaning of this invention, for example, those order may be changed and some steps may be skipped, or , And other steps may be added.
- S5440 to S5450 may be omitted.
- the behavior prediction of the other vehicle 31 is illustrated when the own vehicle 1 is performing automatic driving, but the behavior prediction is performed even when the own vehicle 1 is not in the automatic operation state. It may be For example, even when the driver is performing a driving operation by itself, the prediction ECU 17 can perform the behavior prediction of the other vehicle 31, and can notify the driver of the prediction result.
- the prediction ECU 17 exists in the vicinity of the other vehicle 31 and the information of the other vehicle 31 existing in the vicinity of the own vehicle 1 based on the periphery information of the own vehicle 1 by the detection unit 16.
- the information of the other vehicle 31 includes, for example, position information such as relative position and distance, and status information such as traveling direction and vehicle speed, and attribute information indicating whether or not it is a vehicle for a pick-up service.
- the object 3 is a person 32, and the information is, for example, position information such as relative position and distance, and state information such as movement direction, movement speed, posture, sight line, etc.
- the prediction ECU 17 predicts the behavior of the other vehicle 31 based on the information of the other vehicle 31 and the information of the other object 3. According to the present embodiment, since the prediction ECU 17 predicts the behavior of the other vehicle 31 in consideration of the influence of the object 3 on the other vehicle 31, the behavior prediction of the other vehicle 31 is limited to only the other vehicle 31. The accuracy can be improved as compared to the case of paying attention to prediction.
- the first embodiment described above exemplifies the case where the person 32 is confirmed as the object 3 and the person 32 exhibits some behavior (for example, when a hand is raised).
- the prediction ECU 17 predicts the deceleration or stop of the other vehicle 31 when the other vehicle 31 exhibits a predetermined behavior. Thereafter, as described above (see the first embodiment), the prediction ECU 17 sets the alert region R for the other vehicle 31 based on the result of the above prediction.
- the case where the behavior of the person 32 is not confirmed refers to the case where the behavior of the person 32 is not detected by the detection unit 16, regardless of whether the behavior is actually indicated by the person 32.
- the prediction ECU 17 predicts the deceleration or stop of the other vehicle 31.
- a person who enters a vehicle that has been temporarily stopped is carried out in a place where a partitioning member that divides the roadway and the sidewalk, for example, a guard fence (guard rail or the like), a curb, a planting, etc. is not provided. Therefore, when the detection unit 16 detects the person 32 in a place where the dividing members are not disposed (for example, a gap between the dividing members), the prediction ECU 17 sets the above prediction as one of the conditions. It is also possible to do.
- the prediction ECU 17 can predict that the other vehicle 31 decelerates before the person 32 or that the other vehicle 31 stops before the person 32.
- the behavior of 31 can be predicted with high accuracy.
- the behavior of the other vehicle 31 can be predicted. Therefore, the behavior of the other vehicle 31 can be predicted also when the other vehicle 31 is not a vehicle for a pick-up service (for example, when a parent is driving the other vehicle 31 to pick up a child who is returning home).
- the door on the side of the other vehicle 31 may open when the other vehicle 31 stops, so the alert region R for the other vehicle 31 is expanded to the side. Said.
- the extension of the alert region R may be omitted.
- the prediction ECU 17 predicts that the door will not open even if the other vehicle 31 stops. This can be realized by the prediction ECU 17 acquiring forward information of the other vehicle 31.
- the forward information of the other vehicle 31 includes, for example, information indicating the presence or absence of the object 3 in front of the other vehicle 31, information indicating a traveling environment based on it (whether or not the vehicle can travel).
- the forward information of the other vehicle 31 may be acquired as part of the peripheral information of the own vehicle 1 (can also be acquired as one of the detection results by the detection unit 16), or inter-vehicle communication or road-vehicle communication May be obtained by
- the prediction ECU 17 can predict the behavior of the other vehicle 31. For example, the other vehicle 31 is predicted to decelerate and stop in front of the obstacle 33, or to change lanes or temporarily enter the opposite lane to avoid the obstacle 33. Ru. Therefore, when the obstacle 33 is confirmed in front of the other vehicle 31, the prediction ECU 17 can also set the alert region R of the other vehicle 31 based on the result of the above-described prediction.
- the own vehicle 1 is traveling on the lane 21 by automatic driving, and two other vehicles in the oncoming lane 21 ′ (for the purpose of distinction, respectively, “oncoming vehicle 31A” and “oncoming vehicle 31B”).
- Oncoming vehicle 31A is traveling on the opposite lane 21 'in front of the host vehicle 1
- the oncoming vehicle 31B is traveling on the rear of the oncoming vehicle 31A. That is, the oncoming vehicle 31A is located closer to the host vehicle 1 than the oncoming vehicle 31B.
- the oncoming vehicle 31A is a taxi.
- the prediction ECU 17 expands the warning region R for the oncoming vehicle 31A to the front left side of the oncoming vehicle 31A as illustrated by the arrow E8 based on the result of the prediction. This is the same as in the first embodiment (see FIG. 4B) except that the behavior prediction target is an oncoming vehicle.
- the oncoming vehicle 31B traveling behind the oncoming vehicle 31A may temporarily enter the own lane 21 (ACT 7).
- the prediction ECU 17 extends the alert region R for the oncoming vehicle 31B to the front right side of the oncoming vehicle 31B as illustrated by the arrow E9. Thereby, it is possible to avoid the contact of the own vehicle 1 with the oncoming vehicle 31B.
- the prediction ECU 17 predicts the behavior (ACT6) of the oncoming vehicle 31A based on the behavior (ACT5) of the person 32, and further, the behavior of the following oncoming vehicle 31B based on the prediction. It is possible to predict (ACT7). In other words, the prediction ECU 17 predicts the behavior of the oncoming vehicle 31A / 31B in consideration of the direct / indirect influence of the behavior of the person 32. The same applies to the case where not only the two oncoming vehicles 31A and 31B but also three or more oncoming vehicles (other vehicles) are present.
- the prediction ECU 17 predicts the behavior of the plurality of other vehicles 31 (here, the oncoming vehicles 31A and 31B) with high accuracy, and based on the results of those predictions, each other vehicle 31 It is possible to set an appropriate alert area R.
- a program that implements one or more functions described in each embodiment is supplied to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read this program. Can be implemented.
- the present invention can also be realized by such an aspect.
- the first aspect relates to a prediction device (for example, 17), and the prediction device includes information of other vehicles (for example, 31) present in the vicinity of the own vehicle (for example 1) and an object existing in the vicinity of the other vehicles Acquisition means (for example, 171, S520) for acquiring information (for example, 3), and prediction means for predicting the behavior of the other vehicle based on the information of the other vehicle acquired by the acquisition means and the information of the object (Eg, 171, S540).
- the behavior of the other vehicle is predicted in consideration of the influence of the object on the other vehicle. Therefore, according to the first aspect, it is possible to improve the accuracy of the behavior prediction of another vehicle as compared to the case of focusing on only the other vehicle.
- the prediction means predicts the behavior of the other vehicle based on the behavior of a person (for example, 32) as the object.
- a person identified as an object shows some behavior
- a predetermined relationship may exist between the person and the other vehicle, so in response to the person's behavior, The stop of the other vehicle is predicted. Therefore, according to the second aspect, the behavior of another vehicle can be predicted with higher accuracy.
- the prediction means predicts that the other vehicle will stop when it is confirmed that a person (for example 32) is confirmed as the object and that the other vehicle has moved to the side of the person Do.
- a person for example 32
- the prediction means predicts that the other vehicle will stop when it is confirmed that a person (for example 32) is confirmed as the object and that the other vehicle has moved to the side of the person Do.
- a predetermined relationship may exist between the person and the other vehicle.
- the stopping of the other vehicle is predicted. Therefore, according to the third aspect, the behavior of another vehicle can be predicted with higher accuracy.
- the other vehicle when the person (for example, 32) is confirmed as the object and it is confirmed that the person raised the hand as the object (for example, S5460), the other vehicle is in front of the person. Predict to stop.
- the behavior of another vehicle can be predicted with higher accuracy.
- the prediction means Predict that will slow down.
- a person for example, 32
- the prediction means Predict that will slow down.
- a predetermined relationship may exist between the person and the other vehicle. Therefore, the deceleration of the other vehicle is predicted in response to the person turning his eyes on the other vehicle. Therefore, according to the fifth aspect, the behavior of another vehicle can be predicted with higher accuracy.
- the prediction means predicts that the door of the other vehicle opens in front of the person (for example E5 to E7).
- the sixth aspect for example, when passing another vehicle, it is determined that the inter-vehicle distance on the side of the own vehicle with the other vehicle is made relatively large, or the own vehicle is behind the other vehicle You can decide to stop at.
- the prediction means when the person (for example, 32) is confirmed as the object and the person is confirmed to get into the other vehicle which is stopped, the prediction means causes the other vehicle to start moving. Predict that. According to the seventh aspect, the behavior of the other vehicle being stopped can be predicted with higher accuracy.
- the acquisition unit further acquires forward information of the other vehicle
- the prediction unit detects the door of the other vehicle even if the other vehicle is stopped when the forward information satisfies a predetermined condition. Predict that will not open.
- the presence or absence of the opening / closing of the door of the stopped other vehicle is predicted based on the forward information of the other vehicle.
- the reason for stopping the vehicle relates to the information ahead (for example, when there is a pedestrian in front of it). Therefore, the behavior of the stopped other vehicle can be predicted with higher accuracy by further acquiring the forward information of the other vehicle and inferring the situation in front of the other vehicle.
- the predetermined condition includes the presence of an object on the traveling route of the other vehicle, and / or that the traffic light in front of the other vehicle indicates red. According to the ninth aspect, since the possibility that the other vehicle will start after the reason for stopping the other vehicle is eliminated is increased, it is possible to predict the behavior of the other vehicle which has stopped with even higher accuracy.
- the prediction means further predicts the behavior of the other vehicle based on whether or not the other vehicle is a vehicle for transfer service (for example, S5420).
- a vehicle for transfer service for example, S5420.
- the prediction exemplified above is performed. Vehicles for transportation services often change their behavior based on the behavior of people on the road.
- the tenth aspect is suitable for predicting the behavior of the vehicle for the transfer service with high accuracy.
- the eleventh aspect further includes setting means (S5480) for setting a warning area (for example, R) for the other vehicle based on a result of the prediction by the prediction means.
- the alert area for another vehicle is set based on the prediction result of each of the above aspects.
- a twelfth aspect relates to a vehicle (for example, 1), and the vehicle detects another vehicle (for example, 31) present in the vicinity of the host vehicle and an object (for example, 3) present in the vicinity of the other vehicle
- a detection unit for example, 16
- a prediction unit for example, 17 for predicting the behavior of the other vehicle based on the detection result of the other vehicle and the detection result of the object by the detection unit.
- the behavior of the other vehicle is predicted based on the information of the object in the vicinity of the other vehicle, so that the prediction can be performed with high accuracy.
- a thirteenth aspect relates to a prediction method, wherein the prediction method includes information of another vehicle (eg, 31) present in the vicinity of the host vehicle (eg, 1) and an object (eg, 3) present in the vicinity of the other vehicle And (e.g., S520), and (e.g., S540) predicting the behavior of the other vehicle based on the information of the other vehicle acquired in the acquiring step and the information of the object (e.g., S540). Including.
- the behavior of the other vehicle is predicted based on the information of the object in the vicinity of the other vehicle, so that the prediction can be performed with high accuracy.
- a fourteenth aspect is a program for causing a computer to execute the above steps.
- the prediction method according to the thirteenth aspect can be realized by a computer.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
予測装置は、自車両の周辺に存在する他車両の情報と、前記他車両の周辺に存在するオブジェクトの情報とを取得する取得手段と、前記取得手段により取得された前記他車両の情報および前記オブジェクトの情報に基づいて前記他車両の挙動を予測する予測手段と、を備える。
Description
本発明は、主に車両用の予測装置に関する。
特許文献1には、自車両の周辺をバス等の他車両が走行している場合に、自車両の走行予定ルート上に停留所が存在するか否かを判定することで、該他車両が自車両の近くで停止する可能性があることを予測することが記載されている。
運転を行うのに際して、安全運転を実現するため、他車両の挙動をより高い精度で予測することが求められる。
本発明は、道路上の他車両の挙動予測を高精度化することを目的とする。
本発明は、予測装置に係り、前記予測装置は、自車両の周辺に存在する他車両の情報と、前記他車両の周辺に存在するオブジェクトの情報とを取得する取得手段と、前記取得手段により取得された前記他車両の情報および前記オブジェクトの情報に基づいて前記他車両の挙動を予測する予測手段と、を備えることを特徴とする。
本発明によれば、道路上の他車両の挙動予測の高精度化が可能となる。
以下、添付図面を参照しながら本発明の実施形態について説明する。なお、各図は、実施形態の構造ないし構成を示す模式図であり、図示された各部材の寸法は必ずしも現実のものを反映するものではない。また、各図において、同一の部材または同一の構成要素には同一の参照番号を付しており、以下、重複する内容については説明を省略する。
(第1実施形態)
図1は、第1実施形態に係る車両1の構成を説明するためのブロック図である。車両1は、操作部11、走行制御用ECU(電子制御ユニット)12、駆動機構13、制動機構14、操舵機構15、検出部16、および、予測用ECU17を備える。なお、本実施形態では車両1は四輪車とするが、車輪の数は4に限られるものではない。
図1は、第1実施形態に係る車両1の構成を説明するためのブロック図である。車両1は、操作部11、走行制御用ECU(電子制御ユニット)12、駆動機構13、制動機構14、操舵機構15、検出部16、および、予測用ECU17を備える。なお、本実施形態では車両1は四輪車とするが、車輪の数は4に限られるものではない。
操作部11は、加速用操作子111、制動用操作子112、および、操舵用操作子113を含む。典型的には、加速用操作子111はアクセルペダルであり、制動用操作子112はブレーキペダルであり、また、操舵用操作子113はステアリングホイールである。しかし、これらの操作子111~113には、レバー式、ボタン式等、他の方式のものが用いられてもよい。
走行制御用ECU12は、CPU121、メモリ122、および、通信インタフェース123を含む。CPU121は、通信インタフェース123を介して操作部11から受け取った電気信号に基づいて所定の処理を行う。そして、CPU121は、その処理結果を、メモリ122に格納し、或いは、通信インタフェース123を介して各機構13~15に出力する。このような構成により、走行制御用ECU12は、各機構13~15を制御する。
走行制御用ECU12は、本構成に限られるものではなく、他の実施形態として、ASIC(特定用途向け集積回路)等の半導体装置が用いられてもよい。即ち、走行制御用ECU12の機能は、ハードウェアおよびソフトウェアの何れによっても実現可能である。また、ここでは説明の容易化のため走行制御用ECU12を単一の要素として示したが、これらは複数に分けられていてもよく、走行制御用ECU12は、例えば加速用、制動用および操舵用の3つのECUに分けられていてもよい。
駆動機構13は、例えば、内燃機関および変速機を含む。制動機構14は、例えば、各車輪に設けられたディスクブレーキである。操舵機構15は、例えば、パワーステアリングを含む。走行制御用ECU12は、運転者による加速用操作子111の操作量に基づいて駆動機構13を制御する。また、走行制御用ECU12は、運転者による制動用操作子112の操作量に基づいて制動機構14を制御する。また、走行制御用ECU12は、運転者による操舵用操作子113の操作量に基づいて操舵機構15を制御する。
検出部16は、カメラ161、レーダ162、及び、ライダ(Light Detection and Ranging(LiDAR))163を含む。カメラ161は、例えばCCD/CMOSイメージセンサを用いた撮像装置である。レーダ162は、例えばミリ波レーダ等の測距装置である。また、ライダ163は、例えばレーザレーダ等の測距装置である。これらは、図2に例示されるように、車両1の周辺情報を検出可能な位置、例えば、車体の前方側、後方側、上方側および側方側にそれぞれ配される。
ここで、本明細書において、前、後、上、側方(左/右)などの表現を用いる場合があるが、これらは、車体を基準に示される相対的な方向を示す表現として用いられる。例えば、「前」は車体の前後方向における前方を示し、「上」は車体の高さ方向を示す。
車両1は、検出部16による検出結果(車両1の周辺情報)に基づいて自動運転を行うことが可能である。本明細書において、自動運転は、運転操作(加速、制動および操舵)の一部または全部を、運転者側ではなく、走行制御用ECU12側で行うことをいう。即ち、自動運転の概念には、運転操作の全部を走行制御用ECU12側で行う態様(いわゆる完全自動運転)、および、運転操作の一部を走行制御用ECU12側で行う態様(いわゆる運転支援)、が含まれる。運転支援の例としては、車速制御(オートクルーズコントロール)機能、車間距離制御(アダプティブクルーズコントロール)機能、車線逸脱防止支援(レーンキープアシスト)機能、衝突回避支援機能等が挙げられる。
予測用ECU17は、詳細については後述とするが、道路上の各オブジェクトの挙動を予測する。予測用ECU17は、予測装置、挙動予測装置等と称されてもよいし、処理装置(プロセッサ)、情報処理装置等と称されてもよい(更に、装置の代わりに、デバイス、モジュール、ユニット等と称されてもよい。)。自動運転を行う際には、走行制御用ECU12は、予測用ECU17による予測結果に基づいて操作子111~113の一部または全部を制御する。
予測用ECU17は、走行制御用ECU12同様の構成を有し、CPU171、メモリ172、および、通信インタフェース173を含む。CPU171は、通信インタフェース173を介して、検出部16から車両1の周辺情報を取得する。CPU171は、この周辺情報に基づいて道路上の各オブジェクトの挙動を予測し、その予測結果を、メモリ172に格納し、或いは、通信インタフェース173を介して走行制御用ECU12に出力する。
図3は、道路2上に車両1および複数のオブジェクト3が存在している様子を示す上面図であり、車両1(以下、区別のため「自車両1」)が車道21を自動運転により走行している様子が示される。自車両1は、検出部16により車道21および歩道22上のオブジェクト3を検出し、これらを避けるように走行経路を設定することで自動運転を行う。ここではオブジェクト3の例として、他車両31、人32(例えば歩行者)、および、障害物33が挙げられる。なお、矢印が付されたオブジェクト3について、矢印は、そのオブジェクト3の進行方向を示している。
なお、ここでは障害物33としてロードコーンを図示したが、障害物33は、走行の物理的な妨げとなる物体、又は、接触の回避が推奨される物体であればよく、この例に限られない。障害物33は、例えば、ごみ等の落下物であってもよいし、信号機や防護柵等の設置物であってもよく、動産/不動産を問わない。
図3に示されるように、検出部16による検出結果(車両1の周辺情報)から複数のオブジェクト3が確認された場合、予測用ECU17は、各オブジェクト3について警戒領域Rを設定する。警戒領域Rは、自車両1の接触を回避するための領域、即ち自車両1が重ならないことが推奨される領域である。あるオブジェクト3についての警戒領域Rは、そのオブジェクト3が所定期間内に移動する可能性のある領域として、そのオブジェクト3の輪郭の外側に所定の幅を有するように設定される。警戒領域Rは、周期的に、例えば10[msec]ごとに設定(変更、更新、再設定。以下、単に「設定」と表現する。)される。
なお、ここでは説明の容易化のため、警戒領域Rを平面(2次元)で示すが、警戒領域Rは、実際には、車載の検出部16により検出された空間に従って設定される。そのため、警戒領域Rは、3次元空間座標において表現され、或いは、時間軸を加えた4次元空間座標において表現されうる。
予測用ECU17は、例えば、自車両1の前方を走行中の他車両31についての警戒領域Rを、他車両31の輪郭の外側に設定する。警戒領域Rの幅(輪郭からの距離)は、他車両31の情報(例えば、自車両1に対する相対位置や自車両1からの距離などの位置情報、及び、他車両31の進行方向、車速、灯火器の点灯の有無などの状態情報)に基づいて設定される。例えば、警戒領域Rの幅は、前方、側方および後方において、互いに異なるように設定されうる。例えば、他車両31が直進中の場合、予測用ECU17は、警戒領域Rを、車体の側方について所定の幅(例えば50cm程度)となり、車体の前方および後方については比較的広めの幅(他車両31の車速に応じた幅)、となるように設定する。他車両31が左旋回(又は右旋回)した場合には、予測用ECU17は、警戒領域Rの左側方(又は右側方)の幅を広げる。また、他車両31が停止した場合には、警戒領域Rは、前方、側方および後方について同一の幅で設定されてもよい。
また、予測用ECU17は、例えば、歩道22上の人32についての警戒領域Rを、人32の情報(例えば、自車両1に対する相対位置や自車両1からの距離などの位置情報、及び、人32の移動方向、移動速度、姿勢、視線などの状態情報)に基づいて、人32の輪郭の外側に設定する。例えば、警戒領域Rの幅は、人32の情報に基づいて、前方、側方および後方において、互いに異なるように設定されうる。例えば、警戒領域Rの幅は、人32の移動速度に基づいて設定され、及び/又は、人32の視線に基づいて設定される。人32が立ち止まっている場合には、警戒領域Rは、前方、側方および後方について同一の幅で設定されてもよい。
付随的に、予測用ECU17は、人32の年齢層を更に予測し、その予測結果に基づいて、警戒領域Rの幅を設定することも可能である。この予測は、検出部16からの検出結果に基づく人32の外観情報(体格情報、服装情報等、その人の外見の情報)を用いて行われればよい。
更に、予測用ECU17は、例えば、車道21上の障害物33についての警戒領域Rを、障害物33の情報(例えば、自車両1に対する相対位置や自車両1からの距離などの位置情報、及び、種類、形状、寸法などの状態情報)に基づいて、障害物33の輪郭の外側に設定する。障害物33は移動しないと考えられるため、警戒領域Rの幅は所定値に設定されてもよい。検出部16が、例えば風速センサを更に含み、風速を検出可能な場合には、警戒領域Rの幅は、風速に基づいて設定されてもよい。
各オブジェクト3についての警戒領域Rの幅は、更に自車両1の車速に基づいて設定されてもよい。自車両1が比較的高速に走行中の場合、例えば、他車両31についての警戒領域R1の幅を広めに設定することで、他車両31との車間距離を十分に取ることが可能となり、他車両31との接触を回避することが可能となる。
走行制御用ECU12は、予測用ECU17からの予測結果に基づいて、各オブジェクト3についての警戒領域Rを通らないように走行経路を設定することで、自車両1の各オブジェクト3との接触を防ぐことを可能にする。
図4Aは、一例として、自車両1及び他車両31が車道21に沿って走行中の様子を示す上面図である。自車両1は、自動運転により走行中であり、また、他車両31は、自車両1の前方を走行中である。
前述のとおり(図3参照)、自車両1の予測用ECU17は、他車両31の情報に基づいて他車両31についての警戒領域Rを設定する。図4Aの例では、他車両31は一定の車速で直進中であり、これに基づいて、予測用ECU17は、他車両31についての警戒領域Rを設定する。
例えば、警戒領域Rの後方側の幅は、自車両1及び他車両31の車速に応じて設定され、即ち、警戒領域Rは、矢印E1で図示されるように後方側に拡張される。これにより、自車両1の他車両31との車間距離を大きくし又は維持することが可能となり、他車両31が不測のタイミングで減速し又は停止した場合でも、自車両1を安全に減速させ又は停止させ、自車両1の他車両31との接触を防ぐことが可能となる。
付随的に、警戒領域Rの前方側の幅が同様に設定され、即ち、警戒領域Rは、矢印E2で図示されるように前方側に拡張される。なお、他車両31の後方を走行する自車両1にとって、他車両31の前方側は実質的に関係がないため、前方側の警戒領域Rの拡張(矢印E2)は省略されてもよい。
ここで、本実施形態では、他車両31は、送迎サービス用の車両の一例として、タクシーとする。また、図4Aに示されるように、他車両31の前方の歩道22には人32が存在している。なお、ここでは不図示とするが、人32についても予測用ECU17により警戒領域Rが設定される。
ここで、図4Bに例示されるように、人32が手を挙げた(ACT1)場合、人32は、タクシーである他車両31への乗車を希望していると考えられる。よって、直進中の他車両31は、人32が手を挙げたこと(ACT1)に応答して、人32側に向かって車幅方向に移動(ACT2)すると予測される。そこで、予測用ECU17は、人32が手を挙げたこと(ACT1)が検出部16により検出された場合、他車両31が人32側に向かって移動するという予測の結果に基づいて、警戒領域Rを、矢印E3で示されるように前方左側に拡張する。
また、他車両31は、人32側に向かって移動しながら減速し、その後、人32の前で停止すると予測される。よって、予測用ECU17は、他車両31が減速し又は停止するという予測の結果に更に基づいて、警戒領域Rを、矢印E4で示されるように後方側に拡張する。
更に、他車両31が人32の前で停止した後、人32を乗車させるため、他車両31の一側方側のドアが開くと予測される(日本国の場合、各車両は一般に左側車線を走行するため、左側のドアが開くと予測されるが、国に依っては左右逆となる。)。付随的に、他車両31の運転者が、人32が所有する荷物をトランクルームに載せるため、他車両31の他側方側(日本国の場合、右側)のドアが開けて一時的に降車する可能性もある。よって、予測用ECU17は、他の実施形態として、これらのことを予測し、警戒領域Rを側方側にも拡張することができる。
走行制御用ECU12は、以上のようにして設定された警戒領域Rに基づいて、自車両1の運転操作をどのようにするか決定可能である。例えば、走行制御用ECU12は、他車両31を追い越すように自車両1を制御するか(即ち、警戒領域Rと重ならないように他車両31の側方側を通る走行経路を設定するか)、又は、他車両31の後方で自車両1を停止させるか、を決定する。
図4Cは、他の例として、対向車線(区別のため「対向車線21’」とする。)に他車両(区別のため「対向車31’」とする。)が存在した場合の様子を示す上面図である。図4Cには、対向車31’と共に、対向車31’についての警戒領域Rが合わせて示される。
また、図4Cには、人32の前に停止した他車両31について、警戒領域Rが拡張された様子が図示される。図4Cの例では、人32を乗車させるために他車両31の一側方側のドアが開く(ACT3)、という予測用ECU17による予測の結果に基づいて、警戒領域Rが、矢印E5で示されるように一側方側に拡張される。また、他車両31の運転者が、人32の荷物をトランクルームに載せるために他車両31から降車する可能性がある。そのため、他側方側のドアが開く(ACT4)、という予測用ECU17による更なる予測の結果に基づいて、警戒領域Rが、矢印E6で示されるように他側方側に拡張される。更に、これに伴い、警戒領域Rが、矢印E7で示されるように更に後方側に拡張される。ここでは、停止した他車両31についてのドアの開放の予測を、一側方側のドア(E5参照)、他側方側のドア(E6参照)、及び、後方側のトランクリッド(E7参照)について行うが、他の実施形態として、これらの一部についての予測が行われてもよい。
このような場合、走行制御用ECU12は、自車両1が他車両31の追い越しが可能か否か、或いは、自車両1を他車両31の後方で停止させるか否かを、以上のようにして設定された各車両31及び31’についての警戒領域Rに基づいて判定する。そして、走行制御用ECU12は、この判定の結果に基づいて、自車両1の運転操作をどのようにするか決定可能である。
また、検出部16による検出結果により、停止している他車両31に人32が乗り込むことが確認された場合には、他車両31は、その後、発進すると予測される。よって、走行制御用ECU12は、他車両31が発進するまでの間、停止しながら待機することで、他車両31の発進後に所望の車速での走行を再開することが可能である。なお、このことは、走行中の他車両31が減速して停止したことが確認された場合だけでなく、既に停止していた他車両31が確認された場合においても適用可能である。
以上の図4A~4Cの例では、人32が手を挙げる態様を示したが、タクシーである他車両31への乗車希望の合図として、他の挙動が示されてもよい。例えば、手を振ること、会釈をすること等、人32が、他車両31の運転者に対して注意をひく挙動を示した場合、他車両31は人32に向かって移動しながら減速し停止すると予測される。また、他車両31側に所定期間にわたって視線を向けること等、人32が、他車両31の運転者に対して乗客候補(乗車希望者)と期待させる挙動を示した場合にも同様のことが予測される。
なお、図4A~4Cの例では、他車両31はタクシーであるものとしたが、他の実施形態として、他車両31は他の種類の送迎サービス用の車両であってもよい。送迎サービス用の車両の例としては、日本国については、タクシーの他、運転代行サービスに係る車両、人力車などが挙げられるが、他国において送迎サービスに用いられる車両についても同様である。なお、他国では、タクシーとは異なる名称で称される場合があるが、これらは送迎サービス用の車両の概念に含まれるものとする(例えば、タイのトゥクトゥク、インドのオートリクシャー等)。
図5A~5Bは、本実施形態に係る他車両31の挙動予測、及び、それに伴う警戒領域Rの設定を行うための方法を示すフローチャートである。これらのフローチャートの内容は、主に予測用ECU17においてCPU171により行われる。
予測用ECU17は、自車両1が自動運転を開始した場合、自車両1の周辺情報に基づいて自車両1の周辺の各オブジェクト3を認識し、各オブジェクト3に警戒領域Rを設定し、その結果を走行制御用ECU12に出力する。そのような中で、予測用ECU17は、例えば、オブジェクト3の1つとして確認された他車両31が送迎サービス用の車両(タクシー等)である場合、乗客候補となる人32の有無や挙動に基づいて他車両31の挙動を予測し、その警戒領域Rを設定する。
図5Aを参照すると、ステップS510(以下、単に「S510」と示す。他のステップも同様とする。)では、自車両1が自動運転状態か否かを判定する。このステップは、例えば、予測用ECU17が、自車両1が自動運転状態か否かを示す信号を走行制御用ECU12から受け取ることで行われる。自動運転状態の場合にはS520に進み、自動運転状態でない場合には本フローチャートを終了する。
S520では、自車両1の周辺情報を取得する。このステップは、検出部16により検出された自車両1の周辺情報を予測用ECU17が受け取ることで行われる。
S530では、S520で得られた周辺情報から、自車両1の周辺に存在する各オブジェクト3を抽出する。このステップは、周辺情報を示すデータに対して所定のデータ処理(例えば、輪郭抽出を行うデータ処理)をすることで行われる。
各オブジェクト3は、その情報(前述の位置情報や状態情報など)に基づいて、属性(種類)ごとに分類される(例えば、他車両31、人32および障害物33の何れに該当するのか判定される。)。この分類は、例えば、各オブジェクト3の外観に基づいて、パターンマッチングにより行われうる。また、各オブジェクト3について、警戒領域Rが設定されうる。本実施形態では、他車両31についての警戒領域Rは後述の挙動予測(S540)に基づいて設定されるが、その他のオブジェクト3についての警戒領域RはS530で設定されうる。
S540では、詳細については後述とするが(図5B参照)、他車両31の情報と、他のオブジェクト3の情報とに基づいて、他車両31の挙動予測を行う。
S550では、S540での挙動予測を含む予測結果を、走行制御用ECU12に対して出力する。走行制御用ECU12は、上記予測結果に基づいて、自車両1の走行経路を決定し、自車両1の運転操作の内容を決定する。
S560では、自車両1の自動運転状態を終了するか否かを判定する。このステップは、例えば、予測用ECU17が、自動運転状態の終了を示す信号を走行制御用ECU12から受け取ることで行われる。自動運転状態が終了されない場合にはS520に戻り、自動運転状態が終了される場合には本フローチャートを終了する。
S520~S560の一連のステップは、例えば数十[msec]程度、又は、それより短い期間(例えば10[msec]程度)で繰り返し行われる。即ち、自車両1の周辺情報の取得、自車両1の周辺の各オブジェクト3の挙動予測およびそれに伴う警戒領域Rの設定、並びに、それらの結果の走行制御用ECU12への出力は、周期的に行われる。
図5Bは、S540の挙動予測の方法を説明するためのフローチャートである。S540は、S5410~S5480を含み、例えば、他車両31が送迎サービス用の車両か否か、乗客候補となる人32の有無や挙動等に基づいて、他車両31の挙動予測が行われる。そして、その予測結果に基づいて、他車両31についての警戒領域Rが設定される。
S5410では、S530で抽出されたオブジェクト3の中に、他車両31が存在するか否かを判定する。他車両31が存在する場合にはS5420に進み、そうでない場合には本フローチャートを終了する。
S5420では、S5410の判定に係る他車両31の属性に基づいて、その属性を示す属性情報を他車両31の情報に付与する。本実施形態では、属性情報は、送迎サービス用の車両であるか否かを示す情報である。このステップは、判定対象の他車両31の外観情報等に基づいて、例えばパターンマッチングにより行われる。
送迎サービス用の車両であるか否かは、一般に、その車両の外観に基づいて容易に判定可能である。この判定の基準の例としては、典型的には、車両のナンバープレートが営業用車であることを示すこと、車両のルーフに行灯が設けられていること、車体に付された色や文字、等が挙げられる。また、車車間通信が可能な場合には、他車両31から直接的に属性情報を受け取ることも可能であるし、或いは、路車間通信によっても同様のことが実現可能である。
S5430では、S530で抽出されたオブジェクト3の中に、人32が存在するか否かを判定する。人32が存在する場合にはS5440に進み、そうでない場合にはS5480に進む(S5440~5470をスキップする。)。
S5440では、S5430の判定に係る人32が乗客候補の条件を満たすか否かを判定する。このステップは、判定対象の人32の挙動に基づいて行われる。一般に、タクシー等の送迎サービスの利用客は、道路において、車の流れの上流側に顔を向け、乗車可能なタクシーを探すように視線を送る。よって、人32が他車両31側に所定期間(例えば1[sec]以上)にわたって視線を向けていることが確認された場合には、人32を乗客候補と判定可能である。この場合、人32の情報に、乗客候補であることを示す情報が属性情報として付与されうる。人32が乗客候補の条件を満たす場合にはS5450に進み、そうでない場合にはS5460に進む(S5450をスキップする。)。
S5450では、S5440において人32が乗客候補の条件を満たすと判定されたため、人32の前までに他車両31が減速する可能性があることから、他車両31が減速することを予測する。
S5460では、人32が所定の挙動を示したか否かを判定する。このステップは、判定対象の人32の挙動、特に経時的な動作に基づいて行われる。一般に、タクシー等の送迎サービスの利用客は、送迎サービス用の車両の数[m]~数十[m]前方において、手を挙げること等により、送迎サービス用の車両の運転者に対して合図を送る。よって、手を挙げること等の所定の挙動を人32が示した場合にはS5470に進み、そうでない場合にはS5480に進む(S5470をスキップする。)。また、人32が所定の挙動を示した場合には、人32の情報に、手を挙げたこと等の挙動情報が付与されうる。
S5470では、S5460で所定の挙動を示した人32の前で他車両31が停止する可能性が高まるため、人32の前で他車両31が停止することを予測する。
S5480では、S5450での他車両31の減速、及び/又は、S5470での他車両31の停止、という予測結果に基づいて、他車両31についての警戒領域Rを設定する。警戒領域Rは、他車両31の減速および停止の何れが予測されたかに基づいて、異なる幅で設定されてもよい。例えば、他車両31の減速のみが予測された場合(即ちS5450のみ行われた場合)の経過領域Rの後方側の拡張幅は、それ以外の場合(即ちS5470のみ、又は、S5450及びS5470の双方が行われた場合)に比べて小さくてもよい。
また、前述のとおり、他車両31の停止後には他車両31の側方側のドアが開くことが予測されるため、他車両31の停止を予測した場合(即ちS5470が行われた場合)、他車両31についての警戒領域Rは、後方側に拡張される他、側方側にも拡張されうる。
以上のようにして、他車両31の挙動予測が他車両31の情報およびオブジェクト3(ここでは人32)の情報に基づいて行われる。この挙動予測において設定された他車両31についての警戒領域Rは、その後、予測結果の一部として、S550により走行制御用ECU17に出力される。
なお、本フローチャートの各ステップは、本発明の趣旨を逸脱しない範囲で変更されてもよく、例えば、それらの順序が変更されてもよいし、一部のステップが省略されてもよいし、或いは、他のステップが追加されてもよい。例えば、人32の他車両31に対する合図のみに基づいて他車両31の挙動を予測する場合には、S5440~S5450は省略されてもよい。
また、本実施形態では、自車両1が自動運転を行っている場合に他車両31の挙動予測を行う態様を例示したが、自車両1が自動運転状態ではない場合においても上記挙動予測は行われてもよい。例えば、運転者が自ら運転操作を行っている場合にも、予測用ECU17は、他車両31の挙動予測を行うことが可能であり、その予測結果を運転者に通知することができる。
以上、本実施形態によれば、予測用ECU17は、検出部16による自車両1の周辺情報に基づいて、自車両1の周辺に存在する他車両31の情報と、他車両31の周辺に存在する他のオブジェクト3の情報とを取得する。他車両31の情報は、例えば、相対位置や距離などの位置情報、及び、進行方向や車速などの状態情報の他、送迎サービス用の車両か否かを示す属性情報を含む。本実施形態では、オブジェクト3は人32であり、その情報は、例えば、相対位置や距離などの位置情報、及び、移動方向、移動速度、姿勢、視線などの状態情報の他、乗客候補か否かを示す属性情報、所定の挙動の有無を示す挙動情報を含む。そして、予測用ECU17は、他車両31の情報と、他のオブジェクト3の情報とに基づいて、他車両31の挙動を予測する。本実施形態によれば、予測用ECU17は、オブジェクト3が他車両31に及ぼす影響を考慮して、他車両31の挙動を予測するため、他車両31の挙動予測を、単に他車両31のみに着目して予測する場合に比べて、高精度化することができる。
(第2実施形態)
前述の第1実施形態では、オブジェクト3として人32が確認され、その人32が何らかの挙動を示した場合(例えば、手を挙げた場合)の態様を例示した。第2実施形態では、予測用ECU17は、人32の挙動が確認されなかった場合であっても、他車両31が所定の挙動を示したときには、他車両31の減速ないし停止を予測する。その後、予測用ECU17は、前述のとおり(第1実施形態参照)、上記予測の結果に基づいて他車両31についての警戒領域Rを設定する。
前述の第1実施形態では、オブジェクト3として人32が確認され、その人32が何らかの挙動を示した場合(例えば、手を挙げた場合)の態様を例示した。第2実施形態では、予測用ECU17は、人32の挙動が確認されなかった場合であっても、他車両31が所定の挙動を示したときには、他車両31の減速ないし停止を予測する。その後、予測用ECU17は、前述のとおり(第1実施形態参照)、上記予測の結果に基づいて他車両31についての警戒領域Rを設定する。
なお、人32の挙動が確認されなかった場合とは、検出部16により人32の挙動が検出されなかった場合をいい、該挙動が人32により実際に示されたか否かを問わない。
例えば、車道21を走行中の他車両31が人32側へ車幅方向に(歩道22側に)移動したことが確認された場合には、他車両31は人32を乗車させるために停止する可能性があるため、予測用ECU17は他車両31の減速ないし停止を予測する。
一般に、一時停止した車両への人の乗り込みは、車道と歩道とを区画する区画部材、例えば、防護柵(ガードレール等)、縁石、植え込み等、が配されていない場所で行われる。よって、検出部16が、区画部材が配されていない場所(例えば区画部材間の間隙)において人32を検出した場合には、予測用ECU17は、このことを条件の1つとして、上記予測を行うことも可能である。
以上、本実施形態によっても、予測用ECU17は、人32の前までに他車両31が減速すること、又は、人32の前で他車両31が停止することを予測することができ、他車両31の挙動を高精度に予測することができる。また、本実施形態によれば、人32の挙動が確認されなかった場合においても他車両31の挙動を予測可能となる。よって、他車両31が送迎サービス用の車両でない場合(例えば、帰宅中の子供を迎えに行くために親が他車両31運転している場合)においても他車両31の挙動を予測可能となる。
(第3実施形態)
前述の第1実施形態では、他車両31が停止した場合には他車両31の側方側のドアが開く可能性があるため、他車両31についての警戒領域Rを側方側に拡張することを述べた。しかしながら、第3実施形態として、所定の条件を満たす場合には、この警戒領域Rの拡張は省略されてもよい。
前述の第1実施形態では、他車両31が停止した場合には他車両31の側方側のドアが開く可能性があるため、他車両31についての警戒領域Rを側方側に拡張することを述べた。しかしながら、第3実施形態として、所定の条件を満たす場合には、この警戒領域Rの拡張は省略されてもよい。
例えば、他車両31の走行進路上に他のオブジェクト(歩行者、障害物など)が確認された場合(経時的な場合、例えば、他車両31の走行進路への他のオブジェクトの進入が確認された場合を含む。)には、他車両31が停止したとしても、人32の乗降を伴わない可能性がある。また、他車両31の前方の信号機が赤色を示していることが確認された場合や他車両31の前方に横断歩道が存在した場合も、人32の乗降を伴わない可能性がある。よって、これらの場合、予測用ECU17は、他車両31が停止してもドアが開かないと予測する。このことは、予測用ECU17が、他車両31の前方情報を取得することで実現可能である。
他車両31の前方情報は、例えば、他車両31の前方のオブジェクト3の有無を示す情報、それに基づく走行環境を示す情報(走行可能な状況か否か)等を含む。他車両31の前方情報は、自車両1の周辺情報の一部として取得されてもよいし(検出部16による検出結果の1つとしても取得可能であるし)、車車間通信や路車間通信によって取得されてもよい。
また、上記前方情報に基づいて他車両31の前方に障害物33が確認された場合においても、予測用ECU17は、他車両31の挙動を予測可能である。例えば、他車両31は、減速して障害物33前で停止することが予測され、又は、車線変更を行って若しくは一時的に対向車線に進入して、障害物33を回避することも予測される。よって、予測用ECU17は、他車両31の前方に障害物33が確認された場合には、上記予測の結果に基づいて他車両31の警戒領域Rを設定することも可能である。
(第4実施形態)
前述の第1実施形態では他車両31が自車両1と同じ方向に走行中の場合について述べたが、以下では、第4実施形態として、他車両31が自車両1の対向車である場合について述べる。
前述の第1実施形態では他車両31が自車両1と同じ方向に走行中の場合について述べたが、以下では、第4実施形態として、他車両31が自車両1の対向車である場合について述べる。
図6は、車線21を自車両1が自動運転により走行中であり且つ対向車線21’において2台の他車両(区別のため、それぞれ「対向車31A」及び「対向車31B」とする。)が走行中の様子を示す上面図である。対向車31Aは、自車両1の前方において対向車線21’を走行中であり、対向車31Bは、対向車31Aの後方を走行中である。即ち、対向車31Bより対向車31Aの方が自車両1の近くに位置している。本実施形態では、対向車31Aはタクシーであるものとする。また、対向車31Aの前方には人32が存在している。
例えば、人32が手を挙げた(ACT5)場合、それに応答して、対向車31Aは、人32の側に移動しながら減速し、人32の前で停止すること(ACT6)が予測される。よって、予測用ECU17は、この予測の結果に基づいて、対向車31Aについての警戒領域Rを、矢印E8で図示されるように、対向車31Aの前方左側に拡張する。このことは、挙動予測対象が対向車であることを除いて、第1実施形態同様(図4B参照)である。
一方、対向車31Aの後方を走行中の対向車31Bは、これに応じて、対向車31Aの追い越しを行うため、一時的に自車線21側に進入(ACT7)する可能性がある。予測用ECU17は、このことを予測することで、対向車31Bについての警戒領域Rを、矢印E9で図示されるように、対向車31Bの前方右側に拡張する。これにより、自車両1の対向車31Bとの接触を回避することが可能となる。
本実施形態によれば、予測用ECU17は、人32の挙動(ACT5)に基づいて対向車31Aの挙動(ACT6)を予測し、更に、その予測に基づいて、後続の対向車31Bについても挙動(ACT7)を予測することが可能である。換言すると、予測用ECU17は、対向車31A/31Bについて人32の挙動に伴う直接的/間接的な影響を考慮して挙動予測を行う。このことは、上記対向車31A及び31Bの2台だけでなく、3台以上の対向車(他車両)が存在した場合においても同様である。
よって、本実施形態によれば、予測用ECU17は、複数の他車両31(ここでは対向車31A及び31B)の挙動予測を高精度に行い、それらの予測の結果に基づいて、各他車両31について適切な警戒領域Rを設定することが可能となる。
(その他)
以上、いくつかの好適な態様を例示したが、本発明はこれらの例に限られるものではなく、本発明の趣旨を逸脱しない範囲で、その一部が変更されてもよい。例えば、各実施形態の内容に、目的、用途等に応じて他の要素を組み合わせることも可能であるし、或る実施形態の内容に他の実施形態の内容の一部を組み合わせることも可能である。また、本明細書に記載された個々の用語は、本発明を説明する目的で用いられたものに過ぎず、本発明は、その用語の厳密な意味に限定されるものでないことは言うまでもなく、その均等物をも含みうる。
以上、いくつかの好適な態様を例示したが、本発明はこれらの例に限られるものではなく、本発明の趣旨を逸脱しない範囲で、その一部が変更されてもよい。例えば、各実施形態の内容に、目的、用途等に応じて他の要素を組み合わせることも可能であるし、或る実施形態の内容に他の実施形態の内容の一部を組み合わせることも可能である。また、本明細書に記載された個々の用語は、本発明を説明する目的で用いられたものに過ぎず、本発明は、その用語の厳密な意味に限定されるものでないことは言うまでもなく、その均等物をも含みうる。
また、各実施形態で説明された1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給され、該システム又は装置のコンピュータにおける1以上のプロセッサは、このプログラムを読み出して実行することができる。このような態様によっても本発明は実現可能である。
(実施形態のまとめ)
第1の態様は、予測装置(例えば17)に係り、前記予測装置は、自車両(例えば1)の周辺に存在する他車両(例えば31)の情報と、前記他車両の周辺に存在するオブジェクト(例えば3)の情報とを取得する取得手段(例えば171、S520)と、前記取得手段により取得された前記他車両の情報および前記オブジェクトの情報に基づいて前記他車両の挙動を予測する予測手段(例えば171、S540)と、を備える。
第1の態様によれば、例えば道路上において、オブジェクトが他車両に及ぼす影響を考慮して、該他車両の挙動を予測する。よって、第1の態様によれば、他車両の挙動予測を、単に他車両のみに着目して予測する場合に比べて、高精度化することができる。
第1の態様は、予測装置(例えば17)に係り、前記予測装置は、自車両(例えば1)の周辺に存在する他車両(例えば31)の情報と、前記他車両の周辺に存在するオブジェクト(例えば3)の情報とを取得する取得手段(例えば171、S520)と、前記取得手段により取得された前記他車両の情報および前記オブジェクトの情報に基づいて前記他車両の挙動を予測する予測手段(例えば171、S540)と、を備える。
第1の態様によれば、例えば道路上において、オブジェクトが他車両に及ぼす影響を考慮して、該他車両の挙動を予測する。よって、第1の態様によれば、他車両の挙動予測を、単に他車両のみに着目して予測する場合に比べて、高精度化することができる。
第2の態様では、前記予測手段は、前記オブジェクトとしての人(例えば32)の挙動に基づいて前記他車両の挙動を予測する。
第2の態様によれば、オブジェクトとして確認された人が何らかの挙動を示した場合、人と他車両との間に所定の関係が存在する可能性があるため、人の挙動に応答して、該他車両の停止を予測する。よって、第2の態様によれば、他車両の挙動を更に高精度に予測することができる。
第2の態様によれば、オブジェクトとして確認された人が何らかの挙動を示した場合、人と他車両との間に所定の関係が存在する可能性があるため、人の挙動に応答して、該他車両の停止を予測する。よって、第2の態様によれば、他車両の挙動を更に高精度に予測することができる。
第3の態様では、前記予測手段は、前記オブジェクトとして人(例えば32)が確認され且つ前記他車両が前記人の側へ移動したことが確認された場合、前記他車両が停止することを予測する。
第3の態様によれば、オブジェクトとして確認された人の側に他車両が移動した場合、人と他車両との間に所定の関係が存在する可能性があるため、該他車両の人の側への移動に応答して、該他車両の停止を予測する。よって、第3の態様によれば、他車両の挙動を更に高精度に予測することができる。
第3の態様によれば、オブジェクトとして確認された人の側に他車両が移動した場合、人と他車両との間に所定の関係が存在する可能性があるため、該他車両の人の側への移動に応答して、該他車両の停止を予測する。よって、第3の態様によれば、他車両の挙動を更に高精度に予測することができる。
第4の態様では、前記予測手段は、前記オブジェクトとして人(例えば32)が確認され且つ前記人が手を挙げたことが確認された場合(例えばS5460)、前記他車両が前記人の前で停止すると予測する。
第4の態様によれば、人が手を挙げた場合、人と他車両との間に所定の関係が存在する可能性があるため、その人の前で他車両が停止すると予測する。よって、第4の態様によれば、他車両の挙動を更に高精度に予測することができる。
第4の態様によれば、人が手を挙げた場合、人と他車両との間に所定の関係が存在する可能性があるため、その人の前で他車両が停止すると予測する。よって、第4の態様によれば、他車両の挙動を更に高精度に予測することができる。
第5の態様では、前記予測手段は、前記オブジェクトとして人(例えば32)が確認され且つ前記人が前記他車両側に視線を向けていることが確認された場合(例えばS5440)、前記他車両が減速することを予測する。
第5の態様によれば、人が他車両に視線を向けた場合、人と他車両との間に所定の関係が存在する可能性がある。そのため、人が他車両に視線を向けたことに応答して、該他車両の減速を予測する。よって、第5の態様によれば、他車両の挙動を更に高精度に予測することができる。
第5の態様によれば、人が他車両に視線を向けた場合、人と他車両との間に所定の関係が存在する可能性がある。そのため、人が他車両に視線を向けたことに応答して、該他車両の減速を予測する。よって、第5の態様によれば、他車両の挙動を更に高精度に予測することができる。
第6の態様では、前記予測手段は、前記オブジェクトとして人(例えば32)が確認された場合、前記他車両のドアが前記人の前で開く(例えばE5~E7)ことを予測する。
第6の態様によれば、例えば、他車両を追い越す場合には自車両の該他車両との側方の車間距離を比較的大きくとることを決定し、又は、自車両を該他車両の後方で停止させることを決定することができる。
第6の態様によれば、例えば、他車両を追い越す場合には自車両の該他車両との側方の車間距離を比較的大きくとることを決定し、又は、自車両を該他車両の後方で停止させることを決定することができる。
第7の態様では、前記予測手段は、前記オブジェクトとして人(例えば32)が確認され、且つ、停止している前記他車両に前記人が乗り込むことが確認された場合、前記他車両が発進することを予測する。
第7の態様によれば、停止中の他車両の挙動を更に高精度に予測することができる。
第7の態様によれば、停止中の他車両の挙動を更に高精度に予測することができる。
第8の態様では、前記取得手段は、前記他車両の前方情報を更に取得し、前記予測手段は、前記前方情報が所定条件を満たす場合、前記他車両が停止しても前記他車両のドアが開かないことを予測する。
第8の態様によれば、停止した他車両のドアの開閉の有無を、他車両の前方情報に基づいて予測する。車両が停止する理由は、その前方情報に関わる場合(例えば、その前方に歩行者が居る場合等)が多い。そのため、他車両の前方情報を更に取得して他車両の前方の様子を推察することで、停止した他車両の挙動を更に高精度に予測することができる。
第8の態様によれば、停止した他車両のドアの開閉の有無を、他車両の前方情報に基づいて予測する。車両が停止する理由は、その前方情報に関わる場合(例えば、その前方に歩行者が居る場合等)が多い。そのため、他車両の前方情報を更に取得して他車両の前方の様子を推察することで、停止した他車両の挙動を更に高精度に予測することができる。
第9の態様では、前記所定条件は、前記他車両の走行進路上にオブジェクトが存在すること、及び/又は、前記他車両の前方の信号機が赤色を示していること、を含む。
第9の態様によれば、他車両が停止した理由が解消された後に該他車両が発進する可能性が高まるため、停車した他車両の挙動を更に高精度に予測することができる。
第9の態様によれば、他車両が停止した理由が解消された後に該他車両が発進する可能性が高まるため、停車した他車両の挙動を更に高精度に予測することができる。
第10の態様では、前記予測手段は、更に前記他車両が送迎サービス用の車両か否かに基づいて(例えばS5420)、前記他車両の挙動を予測する。
第10の態様によれば、他車両が送迎サービス用の車両(例えばタクシー等)の場合に、以上に例示された予測を行う。送迎サービス用の車両は、その挙動を、道路上の人の挙動に基づいて変更する場合が多い。よって、第10の態様は、送迎サービス用の車両の挙動を高精度に予測するのに好適である。
第10の態様によれば、他車両が送迎サービス用の車両(例えばタクシー等)の場合に、以上に例示された予測を行う。送迎サービス用の車両は、その挙動を、道路上の人の挙動に基づいて変更する場合が多い。よって、第10の態様は、送迎サービス用の車両の挙動を高精度に予測するのに好適である。
第11の態様では、前記予測手段による前記予測の結果に基づいて、前記他車両についての警戒領域(例えばR)を設定する設定手段(S5480)をさらに備える。
第11の態様によれば、以上の各態様の予測の結果に基づいて、他車両についての警戒領域を設定する。これにより、該他車両との距離を大きくし又は確保しながら運転することが可能となり、安全運転を実現可能となる。
第11の態様によれば、以上の各態様の予測の結果に基づいて、他車両についての警戒領域を設定する。これにより、該他車両との距離を大きくし又は確保しながら運転することが可能となり、安全運転を実現可能となる。
第12の態様は、車両(例えば1)に係り、前記車両は、自車両の周辺に存在する他車両(例えば31)と、前記他車両の周辺に存在するオブジェクト(例えば3)とを検出する検出手段(例えば16)と、前記検出手段による前記他車両の検出結果および前記オブジェクトの検出結果に基づいて前記他車両の挙動を予測する予測手段(例えば17)と、を備える。
第12の態様によれば、上記第1の態様同様、他車両の挙動を、該他車両の周辺のオブジェクトの情報に基づいて予測するため、その予測を高精度に行うことができる。
第12の態様によれば、上記第1の態様同様、他車両の挙動を、該他車両の周辺のオブジェクトの情報に基づいて予測するため、その予測を高精度に行うことができる。
第13の態様は、予測方法に係り、前記予測方法は、自車両(例えば1)の周辺に存在する他車両(例えば31)の情報と、前記他車両の周辺に存在するオブジェクト(例えば3)の情報とを取得する工程(例えばS520)と、前記取得する工程で取得された前記他車両の情報および前記オブジェクトの情報に基づいて前記他車両の挙動を予測する工程(例えばS540)と、を含む。
第13の態様によれば、上記第1の態様同様、他車両の挙動を、該他車両の周辺のオブジェクトの情報に基づいて予測するため、その予測を高精度に行うことができる。
第13の態様によれば、上記第1の態様同様、他車両の挙動を、該他車両の周辺のオブジェクトの情報に基づいて予測するため、その予測を高精度に行うことができる。
第14の態様は、コンピュータに上記各工程を実行させるためのプログラムである。
第14の態様によれば、上記第13の態様に係る予測方法をコンピュータにより実現可能となる。
第14の態様によれば、上記第13の態様に係る予測方法をコンピュータにより実現可能となる。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。
1:自車両、3:オブジェクト、31:他車両、32:人、17:予測用ECU(車載用予測装置)。
Claims (14)
- 自車両の周辺に存在する他車両の情報と、前記他車両の周辺に存在するオブジェクトの情報とを取得する取得手段と、
前記取得手段により取得された前記他車両の情報および前記オブジェクトの情報に基づいて前記他車両の挙動を予測する予測手段と、を備える
ことを特徴とする予測装置。 - 前記予測手段は、前記オブジェクトとしての人の挙動に基づいて前記他車両の挙動を予測する
ことを特徴とする請求項1に記載の予測装置。 - 前記予測手段は、前記オブジェクトとして人が確認され且つ前記他車両が前記人の側へ移動したことが確認された場合、前記他車両が停止することを予測する
ことを特徴とする請求項1に記載の予測装置。 - 前記予測手段は、前記オブジェクトとして人が確認され且つ前記人が手を挙げたことが確認された場合、前記他車両が前記人の前で停止すると予測する
ことを特徴とする請求項1に記載の予測装置。 - 前記予測手段は、前記オブジェクトとして人が確認され且つ前記人が前記他車両側に視線を向けていることが確認された場合、前記他車両が減速することを予測する
ことを特徴とする請求項1に記載の予測装置。 - 前記予測手段は、前記オブジェクトとして人が確認された場合、前記他車両のドアが前記人の前で開くことを予測する
ことを特徴とする請求項1に記載の予測装置。 - 前記予測手段は、前記オブジェクトとして人が確認され、且つ、停止している前記他車両に前記人が乗り込むことが確認された場合、前記他車両が発進することを予測する
ことを特徴とする請求項1に記載の予測装置。 - 前記取得手段は、前記他車両の前方情報を更に取得し、
前記予測手段は、前記前方情報が所定条件を満たす場合、前記他車両が停止しても前記他車両のドアが開かないことを予測する
ことを特徴とする請求項1から請求項7のいずれか1項に記載の予測装置。 - 前記所定条件は、前記他車両の走行進路上にオブジェクトが存在すること、及び/又は、前記他車両の前方の信号機が赤色を示していること、を含む
ことを特徴とする請求項8に記載の予測装置。 - 前記予測手段は、更に前記他車両が送迎サービス用の車両か否かに基づいて、前記他車両の挙動を予測する
ことを特徴とする請求項1から請求項9のいずれか1項に記載の予測装置。 - 前記予測手段による前記予測の結果に基づいて、前記他車両についての警戒領域を設定する設定手段をさらに備える
ことを特徴とする請求項1から請求項10のいずれか1項に記載の予測装置。 - 自車両の周辺に存在する他車両と、前記他車両の周辺に存在するオブジェクトとを検出する検出手段と、
前記検出手段による前記他車両の検出結果および前記オブジェクトの検出結果に基づいて前記他車両の挙動を予測する予測手段と、を備える
ことを特徴とする車両。 - 自車両の周辺に存在する他車両の情報と、前記他車両の周辺に存在するオブジェクトの情報とを取得する工程と、
前記取得する工程で取得された前記他車両の情報および前記オブジェクトの情報に基づいて前記他車両の挙動を予測する工程と、を含む
ことを特徴とする予測方法。 - コンピュータに請求項13に記載の予測方法の各工程を実行させるためのプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201780090951.4A CN110678913B (zh) | 2017-06-02 | 2017-06-02 | 预测装置、车辆、预测方法以及存储介质 |
| JP2019521887A JP6796201B2 (ja) | 2017-06-02 | 2017-06-02 | 予測装置、車両、予測方法およびプログラム |
| PCT/JP2017/020549 WO2018220807A1 (ja) | 2017-06-02 | 2017-06-02 | 予測装置、車両、予測方法およびプログラム |
| US16/685,049 US20200079371A1 (en) | 2017-06-02 | 2019-11-15 | Prediction apparatus, vehicle, prediction method, and computer-readable storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2017/020549 WO2018220807A1 (ja) | 2017-06-02 | 2017-06-02 | 予測装置、車両、予測方法およびプログラム |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US16/685,049 Continuation US20200079371A1 (en) | 2017-06-02 | 2019-11-15 | Prediction apparatus, vehicle, prediction method, and computer-readable storage medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018220807A1 true WO2018220807A1 (ja) | 2018-12-06 |
Family
ID=64455738
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/020549 Ceased WO2018220807A1 (ja) | 2017-06-02 | 2017-06-02 | 予測装置、車両、予測方法およびプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20200079371A1 (ja) |
| JP (1) | JP6796201B2 (ja) |
| CN (1) | CN110678913B (ja) |
| WO (1) | WO2018220807A1 (ja) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020201801A1 (ja) * | 2019-03-29 | 2020-10-08 | 日産自動車株式会社 | 車両制御方法及び車両制御装置 |
| JP2020166510A (ja) * | 2019-03-29 | 2020-10-08 | 日産自動車株式会社 | 挙動予測方法及び挙動予測装置並びに車両制御装置 |
| JP2021009440A (ja) * | 2019-06-28 | 2021-01-28 | 株式会社Soken | 車両制御装置 |
| KR20210095757A (ko) * | 2020-01-23 | 2021-08-03 | 엘지전자 주식회사 | 복수의 센서들을 이용하여 자율 주행을 수행하는 차량 및 그의 동작 방법 |
| CN113661107A (zh) * | 2019-03-28 | 2021-11-16 | 日产自动车株式会社 | 行为预测方法、行为预测装置以及车辆控制装置 |
| WO2021255488A1 (ja) * | 2020-06-17 | 2021-12-23 | 日産自動車株式会社 | 走行支援方法、及び、走行支援装置 |
| RU2773067C1 (ru) * | 2019-03-29 | 2022-05-30 | Ниссан Мотор Ко., Лтд. | Способ управления транспортным средством и устройство управления транспортным средством |
| WO2022118476A1 (ja) * | 2020-12-04 | 2022-06-09 | 三菱電機株式会社 | 自動運転システム、サーバ、および、ダイナミックマップの生成方法 |
| JPWO2022244605A1 (ja) * | 2021-05-21 | 2022-11-24 | ||
| WO2023276919A1 (ja) * | 2021-06-30 | 2023-01-05 | 株式会社アイシン | 自動制動制御装置及び自動制動処理プログラム |
Families Citing this family (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102016215587A1 (de) * | 2016-08-19 | 2018-02-22 | Audi Ag | Verfahren zum Betreiben eines zumindest teilautonom betriebenen Kraftfahrzeugs und Kraftfahrzeug |
| JP6705495B1 (ja) * | 2018-12-26 | 2020-06-03 | 株式会社Jvcケンウッド | 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム |
| DE102019203334A1 (de) * | 2019-03-12 | 2020-09-17 | Robert Bosch Gmbh | Verfahren zum Durchführen einer Reaktion auf Personen an Fahrzeugen |
| US11072326B2 (en) | 2019-08-22 | 2021-07-27 | Argo AI, LLC | Systems and methods for trajectory based safekeeping of vehicles |
| JP7275001B2 (ja) * | 2019-10-18 | 2023-05-17 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
| US12100224B1 (en) * | 2020-05-21 | 2024-09-24 | Zoox, Inc. | Key point detection |
| US12236705B1 (en) | 2020-05-21 | 2025-02-25 | Zoox, Inc. | Pedestrian attribute and gesture detection |
| US11618444B2 (en) * | 2020-10-01 | 2023-04-04 | Argo AI, LLC | Methods and systems for autonomous vehicle inference of routes for actors exhibiting unrecognized behavior |
| US12103560B2 (en) | 2020-10-01 | 2024-10-01 | Argo AI, LLC | Methods and systems for predicting actions of an object by an autonomous vehicle to determine feasible paths through a conflicted area |
| US11731661B2 (en) | 2020-10-01 | 2023-08-22 | Argo AI, LLC | Systems and methods for imminent collision avoidance |
| JP2022142510A (ja) * | 2021-03-16 | 2022-09-30 | パナソニックIpマネジメント株式会社 | 車両用周辺警戒装置および車両用周辺警戒方法 |
| US12497074B2 (en) | 2021-09-09 | 2025-12-16 | Waymo Llc | Open vehicle doors prediction using a neural network model |
| WO2023196288A1 (en) * | 2022-04-04 | 2023-10-12 | Mobileye Vision Technologies Ltd. | Detecting an open door using a sparse representation |
| US20230007914A1 (en) * | 2022-09-20 | 2023-01-12 | Intel Corporation | Safety device and method for avoidance of dooring injuries |
| CN119190001A (zh) * | 2024-11-05 | 2024-12-27 | 一汽解放汽车有限公司 | 车辆避障轨迹规划方法、装置、计算机设备和存储介质 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH036800A (ja) * | 1989-06-05 | 1991-01-14 | Mitsubishi Electric Corp | タクシースタンドシステム |
| JP2004309210A (ja) * | 2003-04-03 | 2004-11-04 | Yoshiomi Yamada | 走行状況表示装置および行先案内方法 |
| JP2010039717A (ja) * | 2008-08-04 | 2010-02-18 | Fujitsu Ten Ltd | 車両制御装置、車両制御方法および車両制御処理プログラム |
| JP2013101577A (ja) * | 2011-11-10 | 2013-05-23 | Motion:Kk | 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、プログラム |
| JP2015122108A (ja) * | 2012-05-30 | 2015-07-02 | 治 増田 | タクシーの最適配置システム |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7966127B2 (en) * | 2004-12-28 | 2011-06-21 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Vehicle motion control device |
| JP5300357B2 (ja) * | 2008-07-22 | 2013-09-25 | 日立オートモティブシステムズ株式会社 | 衝突防止支援装置 |
| WO2013108406A1 (ja) * | 2012-01-20 | 2013-07-25 | トヨタ自動車 株式会社 | 車両挙動予測装置及び車両挙動予測方法、並びに運転支援装置 |
| JP2014181020A (ja) * | 2013-03-21 | 2014-09-29 | Denso Corp | 走行制御装置 |
| DE102013207223A1 (de) * | 2013-04-22 | 2014-10-23 | Ford Global Technologies, Llc | Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern |
| JP2015228092A (ja) * | 2014-05-30 | 2015-12-17 | 株式会社デンソー | 運転支援装置および運転支援プログラム |
| DE102014226188A1 (de) * | 2014-12-17 | 2016-06-23 | Bayerische Motoren Werke Aktiengesellschaft | Kommunikation zwischen einem Fahrzeug und einem Verkehrsteilnehmer im Umfeld des Fahrzeugs |
| JP6323385B2 (ja) * | 2015-04-20 | 2018-05-16 | トヨタ自動車株式会社 | 車両走行制御装置 |
| DE102015210780A1 (de) * | 2015-06-12 | 2016-12-15 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Steuereinheit zur Kommunikation zwischen einem autonomen Fahrzeug und einem Insassen |
| CN106114432A (zh) * | 2016-06-28 | 2016-11-16 | 戴姆勒股份公司 | 针对特定目标的车辆辅助驾驶系统 |
-
2017
- 2017-06-02 WO PCT/JP2017/020549 patent/WO2018220807A1/ja not_active Ceased
- 2017-06-02 CN CN201780090951.4A patent/CN110678913B/zh active Active
- 2017-06-02 JP JP2019521887A patent/JP6796201B2/ja not_active Expired - Fee Related
-
2019
- 2019-11-15 US US16/685,049 patent/US20200079371A1/en not_active Abandoned
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH036800A (ja) * | 1989-06-05 | 1991-01-14 | Mitsubishi Electric Corp | タクシースタンドシステム |
| JP2004309210A (ja) * | 2003-04-03 | 2004-11-04 | Yoshiomi Yamada | 走行状況表示装置および行先案内方法 |
| JP2010039717A (ja) * | 2008-08-04 | 2010-02-18 | Fujitsu Ten Ltd | 車両制御装置、車両制御方法および車両制御処理プログラム |
| JP2013101577A (ja) * | 2011-11-10 | 2013-05-23 | Motion:Kk | 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、プログラム |
| JP2015122108A (ja) * | 2012-05-30 | 2015-07-02 | 治 増田 | タクシーの最適配置システム |
Cited By (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113661107A (zh) * | 2019-03-28 | 2021-11-16 | 日产自动车株式会社 | 行为预测方法、行为预测装置以及车辆控制装置 |
| CN113661107B (zh) * | 2019-03-28 | 2022-05-31 | 日产自动车株式会社 | 行为预测方法、行为预测装置以及车辆控制装置 |
| US11541892B2 (en) | 2019-03-29 | 2023-01-03 | Nissan Motor Co., Ltd. | Vehicle control method and vehicle control device |
| JPWO2020201801A1 (ja) * | 2019-03-29 | 2020-10-08 | ||
| JP7277215B2 (ja) | 2019-03-29 | 2023-05-18 | 日産自動車株式会社 | 挙動予測方法及び挙動予測装置並びに車両制御装置 |
| JP2020166510A (ja) * | 2019-03-29 | 2020-10-08 | 日産自動車株式会社 | 挙動予測方法及び挙動予測装置並びに車両制御装置 |
| WO2020201801A1 (ja) * | 2019-03-29 | 2020-10-08 | 日産自動車株式会社 | 車両制御方法及び車両制御装置 |
| JP7143939B2 (ja) | 2019-03-29 | 2022-09-29 | 日産自動車株式会社 | 車両制御方法及び車両制御装置 |
| RU2773067C1 (ru) * | 2019-03-29 | 2022-05-30 | Ниссан Мотор Ко., Лтд. | Способ управления транспортным средством и устройство управления транспортным средством |
| JP7303521B2 (ja) | 2019-06-28 | 2023-07-05 | 株式会社Soken | 車両制御装置 |
| JP2021009440A (ja) * | 2019-06-28 | 2021-01-28 | 株式会社Soken | 車両制御装置 |
| KR102898062B1 (ko) * | 2020-01-23 | 2025-12-10 | 엘지전자 주식회사 | 복수의 센서들을 이용하여 자율 주행을 수행하는 차량 및 그의 동작 방법 |
| KR20210095757A (ko) * | 2020-01-23 | 2021-08-03 | 엘지전자 주식회사 | 복수의 센서들을 이용하여 자율 주행을 수행하는 차량 및 그의 동작 방법 |
| JPWO2021255488A1 (ja) * | 2020-06-17 | 2021-12-23 | ||
| WO2021255488A1 (ja) * | 2020-06-17 | 2021-12-23 | 日産自動車株式会社 | 走行支援方法、及び、走行支援装置 |
| JP7386345B2 (ja) | 2020-06-17 | 2023-11-24 | 日産自動車株式会社 | 走行支援方法、及び、走行支援装置 |
| JP7345684B2 (ja) | 2020-12-04 | 2023-09-15 | 三菱電機株式会社 | 自動運転システム、サーバ、および、ダイナミックマップの生成方法 |
| JPWO2022118476A1 (ja) * | 2020-12-04 | 2022-06-09 | ||
| WO2022118476A1 (ja) * | 2020-12-04 | 2022-06-09 | 三菱電機株式会社 | 自動運転システム、サーバ、および、ダイナミックマップの生成方法 |
| JPWO2022244605A1 (ja) * | 2021-05-21 | 2022-11-24 | ||
| JP7586307B2 (ja) | 2021-05-21 | 2024-11-19 | 株式会社デンソー | 処理方法、処理システム、処理プログラム |
| WO2022244605A1 (ja) * | 2021-05-21 | 2022-11-24 | 株式会社デンソー | 処理方法、処理システム、処理プログラム |
| WO2023276919A1 (ja) * | 2021-06-30 | 2023-01-05 | 株式会社アイシン | 自動制動制御装置及び自動制動処理プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| CN110678913B (zh) | 2022-05-31 |
| JP6796201B2 (ja) | 2020-12-02 |
| CN110678913A (zh) | 2020-01-10 |
| JPWO2018220807A1 (ja) | 2020-04-09 |
| US20200079371A1 (en) | 2020-03-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6796201B2 (ja) | 予測装置、車両、予測方法およびプログラム | |
| US10643474B2 (en) | Vehicle control device, vehicle control method, and recording medium | |
| JP6916953B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
| JP6649512B2 (ja) | 車両制御システム、車両制御方法、および車両制御プログラム | |
| JP7435787B2 (ja) | 経路確認装置および経路確認方法 | |
| JP6676196B2 (ja) | 車両制御システム、車両制御方法、および車両制御プログラム | |
| CN108974010B (zh) | 处理装置、车辆、处理方法以及存储介质 | |
| CN111824135A (zh) | 驾驶辅助系统 | |
| JP2019089516A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
| JP6613265B2 (ja) | 予測装置、車両、予測方法およびプログラム | |
| US20200198634A1 (en) | Vehicle control apparatus, vehicle, and vehicle control method | |
| CN108778880A (zh) | 车辆控制装置、车辆控制方法及车辆控制程序 | |
| CN111108031A (zh) | 行驶控制装置、车辆以及行驶控制方法 | |
| JP7053707B2 (ja) | 車両及びその制御装置 | |
| JP2019160032A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
| CN113386788B (zh) | 控制装置以及车辆 | |
| JP6413636B2 (ja) | 走行制御装置 | |
| JP7038610B2 (ja) | 運転支援方法及び運転支援装置 | |
| CN113320530A (zh) | 行驶控制装置、车辆、行驶控制方法以及存储介质 | |
| JP7306507B2 (ja) | 合流システム、コンピュータ可読媒体、及び方法 | |
| JP6860425B2 (ja) | 処理装置、車両、処理方法およびプログラム | |
| JP2022036418A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
| JP7461847B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
| JP7503941B2 (ja) | 制御装置、制御方法、およびプログラム | |
| JP6989418B2 (ja) | 車載システム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17912339 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2019521887 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17912339 Country of ref document: EP Kind code of ref document: A1 |