WO2025088692A1 - 移動体 - Google Patents
移動体 Download PDFInfo
- Publication number
- WO2025088692A1 WO2025088692A1 PCT/JP2023/038331 JP2023038331W WO2025088692A1 WO 2025088692 A1 WO2025088692 A1 WO 2025088692A1 JP 2023038331 W JP2023038331 W JP 2023038331W WO 2025088692 A1 WO2025088692 A1 WO 2025088692A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- driving
- energy
- vehicle
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- This disclosure relates to a moving object.
- driving systems can switch from automated to manual driving. If the driving system switches from automated to manual driving, there is a high possibility that the driver will not be able to drive the car correctly if the system switches without understanding the driver's state.
- the purpose of this disclosure is for the driving system to gradually switch from automated to manual driving while grasping the driver's situation and assisting with driving operations so that the driver can continue to drive manually when the driving system switches from automated to manual driving.
- a moving body has a driver and is driving automatically.
- the moving body has an acquisition unit that acquires gaze information indicating the line of sight of the driver, a video image including a plurality of distance information obtained by photographing the moving direction of the moving body, a request to switch to manual driving/semi-automated driving, and a risk potential energy expressed as energy of the road conditions and obstacles on which the moving body is traveling, a detection unit that detects a gaze point coordinate that is a coordinate corresponding to the gaze point of the driver based on one of the plurality of videos and the gaze information, a calculation unit that calculates a speed aftereffect energy indicating the energy of a speed aftereffect using the plurality of videos and the gaze point coordinate, and calculates a speed aftereffect duration during which the speed aftereffect remains on the driver using the time that the speed aftereffect energy continues, and a determination unit that determines the timing to switch the driving system from automatic driving to manual driving or semi-automated driving using the speed aftereffect duration.
- the driving system is able to grasp the driver's state and switch while assisting the driver in grasping the situation and performing driving operations to allow the driver to drive manually.
- FIG. 1 is a diagram illustrating an example of a vehicle according to a first embodiment.
- FIG. 2 is a diagram showing hardware possessed by a vehicle in accordance with the first embodiment.
- 1 is a block diagram showing the functions of a vehicle according to a first embodiment.
- FIG. 11 is a diagram showing an example of calculation of risk potential energy according to the first embodiment.
- 1 is a flowchart (part 1) illustrating an example of processing executed by a vehicle in the first embodiment.
- 4 is a flowchart (part 2) illustrating an example of processing executed by the vehicle in the first embodiment.
- 11 is a flowchart (part 3) illustrating an example of processing executed by the vehicle in the first embodiment.
- FIG. 1 is a diagram showing an example of a car according to the first embodiment.
- FIG. 1 shows a car 100.
- the car 100 is an example of a moving body.
- a driver is on board the car 100.
- the car 100 is performing automatic driving.
- the car 100 can be operated in a semi-automatic driving manner or a manual driving manner. In other words, the driver can operate the car 100 in a semi-automatic driving manner or a manual driving manner.
- the car 100 includes a processor 101, a volatile storage device 102, a non-volatile storage device 103, an actuator 104, an outside-vehicle information acquisition device 105, a vehicle information acquisition device 106, a position information acquisition device 107, and a gaze detection sensor 108.
- the processor 101 controls the entire vehicle 100.
- the processor 101 is a CPU (Central Processing Unit), an FPGA (Field Programmable Gate Array), a SoC (System On Chip), a GPGPU (General-Purpose Computing on Graphics Processing Units), an ASIC (Application Specific Integrated Circuit), etc.
- the processor 101 may be composed of multiple processors.
- the vehicle 100 also has a processing circuit.
- the volatile memory device 102 is the main memory device of the car 100.
- the volatile memory device 102 is a RAM (Random Access Memory).
- the non-volatile memory device 103 is an auxiliary memory device of the car 100.
- the non-volatile memory device 103 is a HDD (Hard Disk Drive) or an SSD (Solid State Drive).
- the actuator 104 is a driving device, a braking device, a steering device, or the like.
- the outside-vehicle information acquisition device 105 acquires information on the outside of the vehicle 100.
- the outside-vehicle information acquisition device 105 is a millimeter-wave radar, a LiDAR, an ultrasonic sonar, a camera, or the like.
- the vehicle information acquisition device 106 acquires information such as the steering angle, speed, attitude, and torque of the vehicle 100 .
- the position information acquisition device 107 acquires position information of the vehicle 100.
- the position information acquisition device 107 is a Global Navigation Satellite System (GNSS) receiver.
- the gaze detection sensor 108 detects the driver's gaze.
- GNSS Global Navigation Satellite System
- FIG. 3 is a block diagram showing the functions of the vehicle according to embodiment 1.
- the vehicle 100 has a storage unit 111, an information processing unit 112, a route generating unit 113, a calculation unit 114, an acquisition unit 115, a control unit 116, an analysis unit 117, a detection unit 118, a determination unit 119, a decision unit 120, and a provision unit 121.
- the storage unit 111 may be realized as a storage area secured in the volatile storage device 102 or the non-volatile storage device 103 .
- a part or all of the information processing unit 112, the path generating unit 113, the calculation unit 114, the acquisition unit 115, the control unit 116, the analysis unit 117, the detection unit 118, the judgment unit 119, the determination unit 120, and the provision unit 121 may be realized by a processing circuit.
- a part or all of the information processing unit 112, the path generating unit 113, the calculation unit 114, the acquisition unit 115, the control unit 116, the analysis unit 117, the detection unit 118, the judgment unit 119, the determination unit 120, and the provision unit 121 may be realized as a module of a program executed by the processor 101.
- the memory unit 111 stores various information.
- the information processing unit 112 detects objects (e.g., other vehicles, pedestrians), road surfaces, etc. present around the vehicle 100 based on information obtained from the vehicle exterior information acquisition device 105.
- the information processing unit 112 also detects background such as mountains, oceans, rivers, vegetation, and buildings based on information obtained from the vehicle exterior information acquisition device 105.
- the information processing unit 112 removes noise contained in the information obtained from the outside-vehicle information acquisition device 105. Based on the information obtained by the removal, the information processing unit 112 generates a relative coordinate system vehicle surroundings map with the car 100 as the origin.
- the relative coordinate system vehicle surroundings map is three-dimensional information.
- the information processing unit 112 converts the relative coordinate system vehicle surroundings map into an absolute coordinate system vehicle surroundings map using the position information of the car 100, the odometry of the car 100, the six-axis gyro sensor, the position information acquisition device 107, and the like.
- the absolute coordinate system vehicle surroundings map is a map in the absolute coordinate system on Earth.
- the information processing unit 112 generates an absolute coordinate system vehicle surroundings map for time t n-1 and an absolute coordinate system vehicle surroundings map for the current time t n .
- the information processing unit 112 can distinguish between stationary objects and moving objects by comparing the two absolute coordinate system vehicle surroundings maps.
- the information processing unit 112 classifies moving objects based on size, speed, etc.
- the information processing unit 112 also further subdivides moving objects into categories such as vehicles, people, etc.
- the information processing unit 112 predicts the position of the moving object at time tn +1 . For example, if the moving object is a vehicle, the information processing unit 112 predicts the position of the moving object moving in a straight line from the position at the current time tn . Also, for example, if the moving object is a person, the information processing unit 112 predicts the range within which the moving object can move from the position at the current time tn (i.e., the entire range) as the future position.
- the route generation unit 113 generates a short-term route using the information obtained by processing in the information processing unit 112 and the current position of the car 100. Specifically, the route generation unit 113 generates a short-term route taking into consideration the road width, road shape, energy efficiency, avoidance of collisions with obstacles, and the like. Note that a long-term route is a route that is generated by the driver inputting the destination into the navigation system before departure.
- the route generation unit 113 may generate a short-term route using a risk potential method. Specifically, the route generation unit 113 can generate a short-term route by creating a risk potential map based on risk potential energy and searching for a route that passes through flat parts in the risk potential map. Note that, for example, the risk potential method is described in Non-Patent Document 1. Note that the route generation unit 113 cannot generate a route if it cannot search for a route that passes through flat parts.
- the calculation unit 114 uses information obtained by processing of the information processing unit 112 (e.g., an absolute coordinate system vehicle surroundings map, stationary objects, moving objects, etc.) to calculate the collision probability due to the shape of the road on which the vehicle 100 is traveling as risk potential energy expressed in terms of energy.
- the risk potential energy may be expressed as potential energy expressed in terms of energy for the condition of the road on which the mobile body is traveling and obstacles. The calculation process will be described using a specific example.
- FIG. 4 is a diagram showing an example of calculation of risk potential energy in the first embodiment.
- FIG. 4 shows a car 200 parked on the left side of a one-way road relative to the car 100.
- FIG. 4 shows a car 100 present on the right side of the road.
- the right direction in FIG. 4 is the x-axis direction.
- the upward direction in FIG. 4 is the y-axis direction.
- the road boundary repulsive potential function U w (x, y) is expressed using equation (1).
- y wc is the y coordinate of the center of gravity of the car 100.
- w w is a weighting coefficient.
- ⁇ w indicates variance.
- the obstacle repulsion potential function Uo (x,y) is expressed by using the formula (2).
- the x coordinate of the rear of the car 200 is xor .
- the x coordinate of the front of the car 200 is xof .
- y0 is the y coordinate of the center of gravity of the car 200.
- w0 is a weighting coefficient. ⁇ 0 indicates variance.
- the calculation unit 114 calculates the risk potential energy Ua (x,y) using the road boundary repulsive potential function Uw (x,y) and the obstacle repulsive potential function Uo (x,y). Specifically, the calculation unit 114 calculates the risk potential energy Ua (x,y) using equation (3).
- the calculation unit 114 calculates the risk potential energy of all the (x, y) coordinates from the calculated risk potential energy U a (x, y). In this manner, the risk potential energy is calculated.
- the calculation unit 114 generates a risk potential map based on the risk potential energy.
- the acquisition unit 115 acquires the risk potential map.
- the control unit 116 determines the control content indicating the control amount of the actuator 104 and the control timing of the actuator 104 for the car 100 to move autonomously along the route generated by the route generation unit 113. For example, the control unit 116 determines the steering angle of the steering wheel at time t. Also, for example, the control unit 116 determines the moving speed at time t. In this way, the car 100 performs various processes while it is driving autonomously.
- control unit 116 determines that control is impossible if the control content will result in a permanent stop or a collision, or if the vehicle's attitude becomes uncontrollable, etc. If control is impossible, the control unit 116 sends a request to switch from autonomous driving to semi-autonomous driving or manual driving to the acquisition unit 115.
- the acquisition unit 115 acquires a request to switch to manual driving or semi-automated driving. For example, when the route generation unit 113 cannot generate an automated driving route (i.e., a short-term route) based on the risk potential map, the determination unit 119 transmits a switch request to the acquisition unit 115. The acquisition unit 115 then acquires the switch request. The acquisition unit 115 may also acquire the switch request from a device not shown.
- an automated driving route i.e., a short-term route
- the acquisition unit 115 acquires gaze information indicating the driver's gaze.
- the acquisition unit 115 acquires the gaze information from the gaze detection sensor 108.
- the gaze information may also be acquired as follows:
- the acquisition unit 115 acquires an image including the driver's face from a visible light camera, an infrared camera, or the like.
- the analysis unit 117 uses the image to extract the driver's facial direction, eye position, pupil position, and the like.
- the analysis unit 117 estimates the gaze using the extracted information.
- the acquisition unit 115 acquires the estimated gaze information.
- the gaze information also includes information acquired as follows.
- the analysis unit 117 uses the analyzed gaze information and an outside-vehicle image captured by a camera in the vehicle's travel direction to analyze and extract the gaze point on the outside-vehicle image at which the driver's gaze is directed and a field of view image centered on the gaze point.
- the calculation unit 114 uses the acquired gaze information to calculate the speed aftereffect energy, which indicates the energy of the speed aftereffect.
- the method for calculating the speed aftereffect energy is specifically described below.
- the image intensity of the retinal image represented by the coordinates (p, q) on the retina reflected by the eye at time t is I(p, q, t).
- p, q, and t are variables and mean still images. It can be expressed that multiple still images are obtained by changing t. Multiple still images are also called moving images.
- the image intensity is the stimulation intensity on the retina and may be represented by a luminance image.
- the origin of the retinal image represented by (p, q) on the retina is the gaze point coordinate of the gaze information.
- the retinal image and the image of the physical real world are almost similar to each other.
- the calculation unit 114 calculates the even function f odd (p, q) and the odd function f even (p, q) of the spatial impulse response using equations (4) and (5).
- ⁇ indicates the standard deviation.
- ⁇ indicates the wavelength.
- ⁇ indicates the phase angle.
- the calculation unit 114 calculates the time impulse responses h slow (t) and f fast (t) using equations (6) and (7).
- k indicates the response time.
- n slow indicates the inferred slow time filter.
- n fast indicates the inferred fast time filter.
- ⁇ indicates a biphasic beta parameter following a beta distribution.
- the calculation unit 114 calculates the two-phase responses Res e (p, q, t), Res fe (p, q, t), Res so (p, q, t), and Res fo (p, q, t) using equations (8) to (11).
- the calculation unit 114 calculates the directivity using equations (12) to (15). Note that L indicates the left direction, and R indicates the right direction. Furthermore, an odd spatial response indicates a negative direction, and an even spatial response indicates a positive direction.
- the calculation section 114 calculates the directional spatio-temporal responses Res L_1 , Res L_2 , Res R_1 , and Res R_2 using equations (16) to (19).
- the calculation unit 114 uses the directional spatiotemporal responses to calculate the left directional energy E L and the right directional energy E R. Specifically, the calculation unit 114 uses equations (20) and (21) to calculate and normalize the directional energy E L and the directional energy E R. Note that T e is the sum of the four directional spatiotemporal responses for normalization.
- the calculation unit 114 calculates ME (motion energy) using the directional energy E L and the directional energy E R. Specifically, the calculation unit 114 calculates ME using equation (22).
- equation (22) is an equation for calculating the velocity aftereffect energy in a certain direction. In this manner, the calculation unit 114 calculates the speed residual energy using a plurality of equations.
- the calculation unit 114 calculates the speed residual duration until the value of the speed residual energy becomes zero using equation (22), and stores the speed residual energy and the speed residual duration in the memory unit 111.
- the decision unit 120 receives a switching request via the memory unit 111.
- the decision unit 120 acquires the speed residual effect energy ME and the speed residual effect duration from the memory unit 111.
- the decision unit 120 determines whether the speed residual effect duration is zero or not.
- the decision unit 120 determines to switch to semi-automatic driving.
- the decision unit 120 determines to switch to manual driving, and notifies the path generation unit 113 and the control unit 116 that the switching to manual driving has been determined.
- the decision unit 120 again determines whether the speed residual effect duration is other than zero or not. Then, the determination and control are repeated until the speed residual effect duration becomes zero.
- the judgment unit 119 uses the speed residual effect duration and risk potential energy to judge whether to switch the driving system from automated driving to manual driving or semi-automated driving.
- Semi-automated driving is a control mode that is based on manual driving but includes some automated driving functions such as automatic acceleration/deceleration control to reduce collisions, automatic steering control to avoid collisions, and automatic vehicle attitude control that causes the vehicle body to slide left and right. The judgment process will be explained in detail.
- the decision unit 120 receives the speed residual effect energy value and speed residual effect duration from the calculation unit 114. If the speed residual effect energy value is not zero, the decision unit 120 determines that there is a residual effect, and if the speed residual effect duration is not zero, the decision unit 120 switches to semi-automated driving and starts a control mode in which the driver performs partial automatic driving and driving assistance instead of manual driving. When the semi-automated driving control at time t is completed, the processing time is subtracted from the speed residual effect duration, and a loop process for performing semi-automated driving control again is performed, and this is repeated until the speed residual effect duration becomes zero or less. When the speed residual effect duration becomes zero or less, it is determined that the influence of the driver's speed residual effect has disappeared, and a decision is made to switch to manual driving.
- control unit 116 When it is determined that the driving system is to switch to semi-automatic driving or manual driving, the control unit 116 performs control to perform semi-automatic driving or manual driving.
- the providing unit 121 After it is determined that the driving system will switch to semi-automated driving or manual driving, the providing unit 121 provides the driver with information indicating that the driving system will switch to semi-automated driving or manual driving.
- the information may be provided as an image or video.
- the providing unit 121 provides an image or video to a display of the car 100.
- the information may also be provided as audio information.
- the providing unit 121 provides audio information to a speaker of the car 100.
- the driver can recognize that the driving system will switch to semi-automated driving or manual driving.
- the information may also include information on obstacles that exist around the car 100 while driving.
- the providing unit 121 provides a surrounding map on the display of the car 100 that allows the driver to view the position and type of the obstacle (e.g., automobile, person, bicycle, wall, etc.) represented by graphics, the current speed of the car 100, and the predicted arrival time at the current direction, with the vehicle as the origin.
- the information may also be provided as audio information.
- the providing unit 121 provides audio information to a speaker of the car 100, with the car 100 as the origin, including the direction and distance of an obstacle, its type (e.g., automobile, person, bicycle, wall, etc.), the current speed of the car 100, and the predicted arrival time in that direction.
- the control unit 116 controls so that the speed or acceleration does not exceed a predetermined value even if the driver steps on the accelerator. For example, when the vehicle's attitude bulges outward due to centrifugal force generated by the steering angle, driving speed, and acceleration, resulting in an uncontrollable situation of the vehicle's behavior, such as spinning or tipping, the control unit 116 controls the speed or acceleration to be below a predetermined value.
- speed aftereffect occurs, the driver feels that the surrounding scenery is moving slowly. Therefore, if the driver steps on the accelerator too much, the car 100 moves at an abnormal speed. In order to prevent such a situation, the control unit 116 performs control. Note that when the speed aftereffect duration becomes zero, the control unit 116 sends a request to switch from semi-automatic driving to manual driving to the decision unit 120.
- control unit 116 performs control to perform semi-automated driving.
- the provision unit 121 After the decision unit 120 decides that the driving system will switch to semi-automated driving, the provision unit 121 provides the driver with information indicating that the driving system will switch to semi-automated driving.
- control unit 116 controls the vehicle so that the speed does not exceed a predetermined speed even if the driver steps on the accelerator.
- Step S11 The information processing unit 112 acquires, from the outside information acquisition device 105, position information of objects such as the road surface, obstacles, and buildings around the vehicle, as well as other background information.
- Step S12 The calculation unit 114 calculates the risk potential energy of each object from the position information of the object around the host vehicle from the information processing unit 112.
- Step S13 The calculation unit 114 generates a risk potential map from the risk potential energy of each object.
- Step S14 The route generation unit 113 obtains the risk potential map generated by the calculation unit 114, and generates a route toward the destination along the flattest part of the map.
- Step S15 The determination unit 119 determines whether or not the route generated by the route generation unit 113 has been determined. If the route has been determined, the process proceeds to step S16. If the route has not been determined, the process proceeds to step S31.
- Step S16 The acquisition unit 115 acquires vehicle information such as the vehicle speed, acceleration in six axial directions, and attitude of the host vehicle from the vehicle information acquisition device 106.
- Step S17 The calculation unit 114 uses the route information from the determination unit 119 and the vehicle information from the acquisition unit 115 to calculate the control amount and control timing of each actuator such as drive, braking, steering, etc.
- Step S18 The control unit 116 acquires the control amount and the control timing of each actuator from the calculation unit 114, and determines whether these values are valid (whether they have been calculated). If they are valid, the process proceeds to step S19, and if they are invalid, the process proceeds to step S31.
- Step S19 The control unit 116 acquires the control amount and control timing of each actuator from the calculation unit 114, and judges whether the difference between the control amount and timing at the time t-1 determined immediately before the current time t is equal to or less than a predetermined threshold value. If it is equal to or less than the threshold value, the process proceeds to step S110, and if it is equal to or more than the threshold value, the process proceeds to step S31. (Step S110) The control unit 116 sets the control amount for each actuator when the time t reaches the control timing.
- FIG. 6 is a flowchart (part 2) illustrating an example of processing executed by the vehicle in the first embodiment.
- the acquisition unit 115 acquires images of the vehicle traveling direction from one or more cameras related to the vehicle traveling direction detected by the detection unit 118 from the outside-vehicle information acquisition device 105.
- the acquisition unit 115 acquires the line-of-sight information of the driver detected by the detection unit 118 from the line-of-sight detection sensor 108.
- the calculation unit 114 receives the vehicle travel direction image and the line of sight information from the acquisition unit 115, and calculates a gaze point and a field of view image on the vehicle travel direction image.
- Step S24 The calculation unit 114 receives the gaze point and the visual field image from the analysis unit 117, and analyzes and calculates the speed aftereffect energy and the speed aftereffect duration.
- Step S25 The acquisition unit 115 acquires the speed aftereffect energy and the speed aftereffect duration, and stores them in the memory unit 111.
- FIG. 7 is a flowchart (part 3) illustrating an example of processing executed by the vehicle in the first embodiment.
- the determination unit 120 extracts the speed residual energy, which is the result calculated by the calculation unit 114, from the storage unit 111.
- the determination unit 120 determines whether the speed residual energy is zero or not. If it is not zero, the process proceeds to step S33, and if it is zero, the process proceeds to step S36.
- the decision unit 120 decides to transition to the semi-automated driving mode, and sends an instruction to transition to the control unit 116, the route generation unit 113, and the information processing unit 112.
- the determination unit 120 subtracts the speed residual effect duration from the current time.
- Step S35 The determination unit 120 determines whether the velocity residual effect duration, which is the analysis result of the calculation unit 114, has become zero. If it has become zero, the process proceeds to step S36, and if it has not become zero, the process proceeds to step S34.
- Step S36 The decision unit 120 decides to transition to the manual driving mode, and sends an instruction to the control unit 116, the route generation unit 113, and the information processing unit 112 to transition.
- the driving system can switch from automated to manual driving. If the driving system switches from automated to manual driving, there is a high possibility that the driver will not be able to drive the car correctly if the system switches without understanding the driver's state.
- the car 100 determines whether the switching level to be used when switching is semi-automated driving or manual driving, taking into account the speed aftereffect. In other words, the car 100 determines the switching level when switching, taking into account the driver's state. Therefore, the car 100 can grasp the driver's state and provide driving assistance that matches the state.
- Embodiment 2 Next, a description will be given of embodiment 2. In embodiment 2, differences from embodiment 1 will be mainly described. Furthermore, in embodiment 2, description of matters common to embodiment 1 will be omitted.
- the acquisition unit 115 acquires the trained model from the memory unit 111.
- the calculation unit 114 calculates the speed residual energy by using the multiple images, the gaze point coordinates, and the trained model.
- the calculation unit 114 inputs a field of view image centered on the gaze point obtained based on the multiple images in the vehicle travel direction and the gaze point coordinates, the speed of the vehicle 100, the six-axis acceleration of the vehicle 100, and the duration during which the images were taken to obtain the multiple images to the trained model
- the trained model outputs the speed residual energy.
- the vehicle 100 may use a learned model to calculate the speed residual energy.
- the calculation unit 114 may also calculate the speed residual energy using some of the equations shown in the first embodiment and the trained model. For example, the calculation unit 114 executes equations (4) to (11) and then calculates the speed residual energy using the calculation results and the trained model.
- each of the above-described embodiments can be combined with each other as appropriate. Furthermore, each embodiment has been described with reference to a case where the vehicle 100 executes the operations.
- Each of the embodiments may be implemented in a moving body other than a vehicle.
- the moving body other than a vehicle is a railroad vehicle.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
車(100)は、自動運転を行っている。車(100)は、視線情報、運転者の前方を撮影することで得られた複数の画像、セミ自動運転または手動運転への切替要求、及びリスクポテンシャルエネルギーを取得する取得部(115)と、複数の画像のうちの1つの画像と視線情報とに基づいて、注視点座標を検出する検出部(118)と、複数の視野画像と注視点座標とを用いて、速度残効エネルギーを算出し、速度残効エネルギーが存在する場合、速度残効エネルギーから、速度残効継続時間を算出する算出部(114)と、速度残効継続時間を用いて、自動運転からセミ自動運転または手動運転に運転システムを切り替えるか否かを判定する決定部(120)と、を有する。
Description
本開示は、移動体に関する。
車の自動運転が知られている。自動運転に関する技術が提案されている(特許文献1を参照)。
彌城 祐亮 他、「ポテンシャル法によるロボット製品の障害物回避技術の開発」、三菱重工技報 Vol.51 No.1、2014年
ところで、運転システムが自動運転から手動運転に切り替わることができることが知られている。運転システムが自動運転から手動運転に切り替わる場合、運転者の状態を把握せずに切り替わっても運転者が車を正しく運転できない可能性が高い。
本開示の目的は、運転システムが自動運転から手動運転に切り替わる時、運転者が手動運転をできるように、運転システムが運転者の状況把握し運転操作を支援しながら、徐々に手動運転に切り替わることである。
本開示の一態様に係る移動体が提供される。移動体は、運転者が乗っており、かつ自動運転を行っている。移動体は、前記運転者の視線を示す視線情報、前記移動体の進行方向を撮影することで得られた複数の距離情報を含む動画像、手動運転・セミ自動運転への切替要求、及び前記移動体が走行している道路の状況と障害物をエネルギーで表現されたリスクポテンシャルエネルギーを取得する取得部と、前記複数の動画像のうちの1つの動画像と前記視線情報とに基づいて、前記運転者の注視点に対応する座標である注視点座標を検出する検出部と、前記複数の動画像と前記注視点座標とを用いて、速度残効のエネルギーを示す速度残効エネルギーを算出し、前記速度残効エネルギーが継続した時間を用いて、前記運転者に速度残効の影響が残る速度残効継続時間を算出する算出部と、前記速度残効継続時間を用いて、自動運転から手動運転もしくはセミ自動運転に運転システムを切り替えるタイミングを判定する判定部と、を有する。
本開示によれば、運転システムが運転者の状態を把握し、運転者が手動運転をするための状況把握と運転操作を支援しながら切り替わることができる。
以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本開示の範囲内で種々の変更が可能である。
実施の形態1.
図1は、実施の形態1の車の例を示す図である。図1は、車100を示している。車100は、移動体の一例である。車100には、運転者が乗っている。車100は、自動運転を行っている。車100は、セミ自動運転、手動運転で動くことができる。すなわち、運転者は、セミ自動運転又は手動運転で車100を動かすことができる。
図1は、実施の形態1の車の例を示す図である。図1は、車100を示している。車100は、移動体の一例である。車100には、運転者が乗っている。車100は、自動運転を行っている。車100は、セミ自動運転、手動運転で動くことができる。すなわち、運転者は、セミ自動運転又は手動運転で車100を動かすことができる。
次に、車100が有するハードウェアを説明する。
図2は、実施の形態1の車が有するハードウェアを示す図である。車100は、プロセッサ101、揮発性記憶装置102、不揮発性記憶装置103、アクチュエータ104、車外情報取得装置105、車両情報取得装置106、位置情報取得装置107、及び視線検出センサ108を有する。
図2は、実施の形態1の車が有するハードウェアを示す図である。車100は、プロセッサ101、揮発性記憶装置102、不揮発性記憶装置103、アクチュエータ104、車外情報取得装置105、車両情報取得装置106、位置情報取得装置107、及び視線検出センサ108を有する。
プロセッサ101は、車100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)、SoC(System On Chip)、GPGPU(General-Purpose computing on Graphics Processing Units)、ASIC(Application Specific Integrated Circuit)などである。プロセッサ101は複数のプロセッサで構成してもよい。また、車100は、処理回路を有する。
揮発性記憶装置102は、車100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、車100の補助記憶装置である。例えば、不揮発性記憶装置103は、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)である。
アクチュエータ104は、駆動装置、制動装置、操舵装置などである。
車外情報取得装置105は、車100の外側の情報を取得する。例えば、車外情報取得装置105は、ミリ波レーダ、LiDAR、超音波ソナー、カメラなどである。
車両情報取得装置106は、車100の操舵角、速度、姿勢、トルクなどの情報を取得する。
位置情報取得装置107は、車100の位置情報を取得する。例えば、位置情報取得装置107は、GNSS(Global Navigation Satellite System)レシーバである。
視線検出センサ108は、運転者の視線を検出する。
車外情報取得装置105は、車100の外側の情報を取得する。例えば、車外情報取得装置105は、ミリ波レーダ、LiDAR、超音波ソナー、カメラなどである。
車両情報取得装置106は、車100の操舵角、速度、姿勢、トルクなどの情報を取得する。
位置情報取得装置107は、車100の位置情報を取得する。例えば、位置情報取得装置107は、GNSS(Global Navigation Satellite System)レシーバである。
視線検出センサ108は、運転者の視線を検出する。
次に、車100が有する機能を説明する。
図3は、実施の形態1の車の機能を示すブロック図である。車100は、記憶部111、情報処理部112、経路生成部113、算出部114、取得部115、制御部116、解析部117、検出部118、判定部119、決定部120、及び提供部121を有する。
図3は、実施の形態1の車の機能を示すブロック図である。車100は、記憶部111、情報処理部112、経路生成部113、算出部114、取得部115、制御部116、解析部117、検出部118、判定部119、決定部120、及び提供部121を有する。
記憶部111は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
情報処理部112、経路生成部113、算出部114、取得部115、制御部116、解析部117、検出部118、判定部119、決定部120、及び提供部121の一部又は全部は、処理回路によって実現してもよい。また、情報処理部112、経路生成部113、算出部114、取得部115、制御部116、解析部117、検出部118、判定部119、決定部120、及び提供部121の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。
情報処理部112、経路生成部113、算出部114、取得部115、制御部116、解析部117、検出部118、判定部119、決定部120、及び提供部121の一部又は全部は、処理回路によって実現してもよい。また、情報処理部112、経路生成部113、算出部114、取得部115、制御部116、解析部117、検出部118、判定部119、決定部120、及び提供部121の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。
記憶部111は、様々な情報を記憶する。
情報処理部112は、車外情報取得装置105から得られた情報に基づいて、車100の周辺に存在する物(例えば、他の車、歩行者)、路面などを検出する。また、情報処理部112は、車外情報取得装置105から得られた情報に基づいて、山、海、河川、草木、建造物などの背景も検出する。
情報処理部112は、車外情報取得装置105から得られた情報に含まれるノイズを除去する。情報処理部112は、除去により得られた情報に基づいて、車100が原点である相対座標系車両周辺地図を生成する。また、相対座標系車両周辺地図は、3次元情報である。情報処理部112は、車100の位置情報、車100のオドメトリ、6軸ジャイロセンサ、位置情報取得装置107などを用いて、相対座標系車両周辺地図を絶対座標系車両周辺地図に変換する。絶対座標系車両周辺地図は、地球上の絶対座標系の地図である。
情報処理部112は、時刻tn-1の絶対座標系車両周辺地図と、現在時刻tnの絶対座標系車両周辺地図とを生成する。情報処理部112は、2つの絶対座標系車両周辺地図を比較することで、静止物体と移動物体とを識別することができる。情報処理部112は、大きさ、速度などに基づいて、移動物体を分類する。また、情報処理部112は、車両、人などのように、移動物体をさらに細分化する。
情報処理部112は、移動物体の時刻tn+1の位置を予測する。例えば、移動物体が車両である場合、情報処理部112は、現在時刻tnの位置から直進した位置を予測する。また、例えば、移動物体が人である場合、情報処理部112は、現在時刻tnの位置から移動可能な範囲(すなわち、全範囲)を、将来の位置として予測する。
経路生成部113は、情報処理部112の処理により得られた情報と車100の現在位置とを用いて、短期の経路を生成する。具体的には、経路生成部113は、道路の幅、道路の形状、エネルギー効率、障害物への衝突回避などを考慮して、短期の経路を生成する。なお、長期の経路は、運転者が出発前にナビゲーションシステムに行先を入力することにより生成される経路である。経路生成部113は、リスクポテンシャル法を用いて、短期の経路を生成してもよい。具体的には、経路生成部113は、リスクポテンシャルエネルギーに基づいて、リスクポテンシャルマップを作成し、リスクポテンシャルマップにおける平坦な部分を通る経路を探索することにより、短期の経路を生成できる。なお、例えば、リスクポテンシャル法は、非特許文献1に記載されている。また、経路生成部113は、平坦な部分を通る経路を探索できない場合、経路を生成できない。
ここで、リスクポテンシャルエネルギーを説明する。
算出部114は、情報処理部112の処理により得られた情報(例えば、絶対座標系車両周辺地図、静止物体、移動物体など)を用いて、車100が走行している道路の形状などで衝突する衝突確率をエネルギーで表現されたリスクポテンシャルエネルギーとして算出する。リスクポテンシャルエネルギーは、移動体が走行している道路の状況と障害物をエネルギーで表現されたポテンシャルエネルギーと表現してもよい。具体例を用いて、算出処理を説明する。
算出部114は、情報処理部112の処理により得られた情報(例えば、絶対座標系車両周辺地図、静止物体、移動物体など)を用いて、車100が走行している道路の形状などで衝突する衝突確率をエネルギーで表現されたリスクポテンシャルエネルギーとして算出する。リスクポテンシャルエネルギーは、移動体が走行している道路の状況と障害物をエネルギーで表現されたポテンシャルエネルギーと表現してもよい。具体例を用いて、算出処理を説明する。
図4は、実施の形態1のリスクポテンシャルエネルギーの算出に関する例を示す図である。図4は、車100に対し、一方通行路で道路左路側に駐車する車200を示している。図4は、道路右側の通行路に存在する車100を示している。図4の右方向は、x軸方向である。図4の上方向は、y軸方向である。このような状況の場合、道路境界斥力ポテンシャル関数Uw(x,y)が、式(1)を用いて、表される。なお、ywcは、車100の重心のy座標である。wwは、重み係数である。σwは、分散を示す。
障害物斥力ポテンシャル関数Uo(x,y)が、式(2)を用いて、表される。なお、車200のリアのx座標は、xorである。車200のフロントのx座標は、xofである。yoは、車200の重心のy座標である。woは、重み係数である。σoは、分散を示す。
算出部114は、道路境界斥力ポテンシャル関数Uw(x,y)と障害物斥力ポテンシャル関数Uo(x,y)とを用いて、リスクポテンシャルエネルギーUa(x,y)を算出する。具体的には、算出部114は、式(3)を用いて、リスクポテンシャルエネルギーUa(x,y)を算出する。
算出部114は、算出されたリスクポテンシャルエネルギーUa(x,y)から全ての(x、y)座標のリスクポテンシャルエネルギーを算出する。このように、リスクポテンシャルエネルギーが、算出される。
算出部114は、リスクポテンシャルエネルギーに基づいて、リスクポテンシャルマップを生成する。取得部115は、リスクポテンシャルマップを取得する。
算出部114は、リスクポテンシャルエネルギーに基づいて、リスクポテンシャルマップを生成する。取得部115は、リスクポテンシャルマップを取得する。
制御部116は、車100が経路生成部113により生成された経路を自動運転で移動するためのアクチュエータ104の制御量とアクチュエータ104の制御タイミングとを示す制御内容を決定する。例えば、制御部116は、時刻tにおけるハンドルの操舵角を決定する。また、例えば、制御部116は、時刻tにおける移動速度を決定する。このように、車100は、自動運転を行っているときに、様々な処理を行う。
また、制御部116は、制御内容により永久に停止又は衝突する場合、または車両の姿勢が制御できなくなるなどの場合、制御不可とする。制御不可となる場合、自動運転からセミ自動運転または手動運転への切替要求を取得部115へ送る。
次に、自動運転からセミ自動運転又は手動運転への切替に関する内容を説明する。
取得部115は、手動運転又はセミ自動運転への切替要求を取得する。例えば、判定部119は、リスクポテンシャルマップに基づいて、経路生成部113が自動運転の経路(すなわち、短期の経路)を生成できない場合、切替要求を取得部115に送信する。そして、取得部115は、切替要求を取得する。また、取得部115は、図示されていない装置から切替要求を取得してもよい。
取得部115は、手動運転又はセミ自動運転への切替要求を取得する。例えば、判定部119は、リスクポテンシャルマップに基づいて、経路生成部113が自動運転の経路(すなわち、短期の経路)を生成できない場合、切替要求を取得部115に送信する。そして、取得部115は、切替要求を取得する。また、取得部115は、図示されていない装置から切替要求を取得してもよい。
取得部115は、運転者の視線を示す視線情報を取得する。例えば、取得部115は、視線情報を視線検出センサ108から取得する。また、視線情報は、次のように取得されてもよい。取得部115は、可視光カメラ、赤外線カメラなどから、運転者の顔を含む画像を取得する。解析部117は、当該画像を用いて、運転者の顔向き、目の位置、瞳の位置などを抽出する。解析部117は、抽出された情報を用いて、視線を推定する。取得部115は、推定された視線情報を取得する。
さらに、視線情報は、次のように取得された情報も含む。解析部117は、解析された視線情報と車両進行方向のカメラの車外画像を用いて、運転者の視線が向けられている車外画像上の注視点と注視点を中心とする視野画像を解析し抽出する。
算出部114は、取得された当該視線情報を用いて、速度残効のエネルギーを示す速度残効エネルギーを算出する。以下、具体的に、速度残効エネルギーの算出方法を説明する。
まず、時間tにおける目に映る網膜上の座標(p,q)で表される網膜画像の画像強度I(p,q,t)とする。p、q、tは変数で、静止画像を意味する。tが変化することによって、複数の静止画像が得られることが、表現できる。そして、複数の静止画像は、動画像とも言う。画像強度は網膜上の刺激強度であり、輝度画像で示してもよい。また網膜上の(p,q)で表される網膜画像の原点は視線情報の注視点座標である。網膜画像と物理的実世界の画像は、ほぼ相似関係にある。次に、算出部114は、式(4),(5)を用いて、空間インパルス応答の偶関数fodd(p,q)、奇関数feven(p,q)を算出する。なお、σは、標準偏差を示す。λは、波長を示す。φは、位相角を示す。
次に、算出部114は、式(6),(7)を用いて、時間インパルス応答hslow(t),ffast(t)を算出する。なお、kは、応答時間を示す。nslowは、推論された低速時間フィルタを示す。nfastは、推論された高速時間フィルタを示す。βは、ベータ分布に従う二相性のベータパラメータを示す。
算出部114は、式(8)~(11)を用いて、二相応答Resse(p,q,t),Resfe(p,q,t),Resso(p,q,t),Resfo(p,q,t)を算出する。
算出部114は、式(12)~(15)を用いて、指向性を算出する。なお、Lは、左方向を示す。Rは、右方向を示す。また、奇数空間応答は、負方向を示す。偶数空間応答は、正方向を示す。
算出部114は、式(16)~(19)を用いて、指向性時空間応答ResL_1,ResL_2,ResR_1,ResR_2を算出する。
算出部114は、指向性時空間応答を用いて、左の指向性エネルギーELと右の指向性エネルギーERとを算出する。具体的には、算出部114は、式(20),(21)を用いて、指向性エネルギーELと指向性エネルギーERとを算出し、正規化する。なお、Teは、正規化のための4つの指向性時空間応答の合計値である。
算出部114は、指向性エネルギーELと指向性エネルギーERとを用いて、ME(モーションエナジー)を算出する。具体的には、算出部114は、式(22)を用いて、MEを算出する。
MEがゼロ以外の場合、速度残効が発生していること意味する。なお、式(22)は、ある方向における速度残効エネルギーを求める式である。
このように、算出部114は、複数の式を用いて、速度残効エネルギーを算出する。
このように、算出部114は、複数の式を用いて、速度残効エネルギーを算出する。
また、算出部114は、速度残効エネルギーが存在する場合、速度残効エネルギーの値がゼロになるまでの速度残効継続時間を式(22)から算出し、速度残効エネルギーと速度残効継続時間を記憶部111に格納する。
決定部120は、前記判定部119で判定した自動運転からセミ自動運転または手動運転への切替判定で切替と判定された場合、記憶部111を経由して、切替要求を受け取る。決定部120は、記憶部111から速度残効エネルギーMEと速度残効継続時間を取得する。決定部120は、速度残効エネルギーMEがゼロ以外の場合、速度残効継続時間がゼロか否かを判定する。決定部120は、速度残効継続時間がゼロ以外の場合、セミ自動運転への切替を決定する。決定部120は、速度残効継続時間がゼロの場合、手動運転への切替を決定し、手動運転への切替が決定したことを経路生成部113,制御部116へ通知する。なお、セミ自動運転の場合、時刻tにおけるアクチュエータ104の制御が完了次第、決定部120は、再び速度残効継続時間がゼロ以外か否かを判定する。そして、速度残効継続時間がゼロになるまで判定と制御が、繰り返される。
判定部119は、速度残効継続時間とリスクポテンシャルエネルギーを用いて、自動運転から手動運転もしくはセミ自動運転に運転システムを切り替えるか否かを判定する。セミ自動運転とは、手動運転を基本とするが、衝突軽減する自動加減速制御や衝突回避する自動操舵制御、車体が左右に滑り出す自動車両姿勢自動制御など一部自動運転機能を含む制御モードである。詳細に判定処理を説明する。
決定部120は、算出部114から速度残効エネルギーの値、速度残効継続時間を受け取る。決定部120は速度残効エネルギーの値がゼロでない場合、残効影響有りと判定する、また決定部120は速度残効継続時間がゼロでない場合、セミ自動運転として切り替え、運転者が手動運転を一部自動運転、運転支援する制御モードを開始する。時刻tにおけるセミ自動運転制御が完了したら、その処理時間を速度残効継続時間から減算し、再度セミ自動運転制御を行うループ処理を行い、速度残効継続時間がゼロ以下になるまで繰り返す。速度残効継続時間がゼロ以下になったら、運転者の速度残効の影響は消滅したと判定し、手動運転へ切り替えを決定する。
制御部116は、運転システムがセミ自動運転または手動運転に切り替わることが決定した場合、セミ自動運転または手動運転を行うための制御を行う。
提供部121は、運転システムがセミ自動運転または手動運転に切り替わることが決定された後、運転システムがセミ自動運転または手動運転に切り替わることを示す情報を運転者に提供する。当該情報は、画像又は動画で提供されてもよい。例えば、提供部121は、車100が有するディスプレイに、画像又は動画を提供する。また、当該情報は、音声情報で提供されてもよい。例えば、提供部121は、車100が有するスピーカに、音声情報を提供する。運転者は、情報の提供を受けることにより、セミ自動運転又は手動運転に切り替わることを認識できる。また、当該情報には、車100の周辺に存在する走行上の障害物の情報などが追加されてもよい。例えば、提供部121は、車100が有するディスプレイに、グラフィックスによって表された当該障害物の位置、種類(例えば、自動車、人、自転車、壁など)、現在の車100の速度、方向での予測到達時間を自車両を原点として俯瞰できる周辺マップを提供する。当該情報は、音声情報で提供されても良い。例えば、提供部121は、車100が有するスピーカに、車100を原点として、障害物の存在する方向と距離、種類(例えば、自動車、人、自転車、壁など)、現在の車100の速度、方向での予測到達時間を音声情報で提供する。
また、制御部116は、運転システムがセミ自動運転または手動運転に切り替えられた場合、運転者がアクセルを踏んでも、予め定められた速度又は加速度を超えないように、制御を行う。例えば、車両の姿勢が、操舵角と走行速度、加速度によって発生する遠心力によって、外側に膨らみ、スピン、転倒など車両の挙動が制御できない状況になる場合にあらかじめ定めた速度や加速度以下に制御する。ここで、速度残効が発生している場合、運転者は、周りの景色の移動速度が遅く感じる。そのため、運転者がアクセルを踏みすぎることで、車100は、異常な速度で移動する。このような事態を防ぐために、制御部116は、制御を行う。なお、制御部116は、速度残効継続時間がゼロになった場合、セミ自動運転から手動運転へ切り替え要求を決定部120へ送る。
制御部116は、決定部120で運転システムがセミ自動運転に切り替わることが決定した場合、セミ自動運転を行うための制御を行う。
提供部121は、決定部120で運転システムがセミ自動運転に切り替わることが決定された後、運転システムがセミ自動運転に切り替わることを示す情報を運転者に提供する。
また、制御部116は、運転システムがセミ自動運転に切り替えられた場合、運転者がアクセルを踏んでも、予め定められた速度を超えないように、制御を行う。
次に、車100が実行する処理を、フローチャートを用いて、説明する。
図5は、実施の形態1の車が実行する処理の例を示すフローチャート(その1)である。車100は、自動運転を行っているものとする。
(ステップS11)情報処理部112は、車外情報取得装置105から自車両周辺の路面、障害物、建築物など物体の位置情報、それ以外の背景情報を取得する。
(ステップS12)算出部114は、情報処理部112から自車両周辺の物体の位置情報から物体毎のリスクポテンシャルエネルギーを算出する。
(ステップS13)算出部114は、物体毎のリスクポテンシャルエネルギーからリスクポテンシャルマップを生成する。
(ステップS14)経路生成部113は、算出部114で生成したリスクポテンシャルマップを取得し、目的地に向かってマップ上の最も平坦な部分を経路として生成する。
(ステップS15)判定部119は、経路生成部113が生成した経路決定ができているかを判定する。経路が決定できた場合はステップS16へ、経路が決定できなかった場合はステップS31へ進む。
(ステップS16)取得部115は、車両情報取得装置106から自車両の車速、6軸方向の加速度、姿勢など車両情報を取得する。
(ステップS17)算出部114は、判定部119の経路情報と取得部115の車両情報を用い、駆動、制動、操舵などの各アクチュエータ制御量、制御タイミングを算出する。
(ステップS18)制御部116は、算出部114から各アクチュエータ制御量と制御タイミングを取得し、これら値が有効か(計算できたか)を判定する。有効だった場合はステップS19へ、無効だった場合はステップS31へ進む。
(ステップS19)制御部116は、算出部114から各アクチュエータ制御量と制御タイミングを取得し、現在tより1つ前に決定した時刻t-1の当該制御量、タイミングとの差が、あらかじめ決められた閾値以下であるか否かを判定する。当該閾値以下だった場合はステップS110へ、当該閾値以上だった場合はステップS31へ進む。
(ステップS110)制御部116は、各アクチュエータに対し、当該制御タイミングに時刻tが到達したとき、当該制御量を設定する。
図5は、実施の形態1の車が実行する処理の例を示すフローチャート(その1)である。車100は、自動運転を行っているものとする。
(ステップS11)情報処理部112は、車外情報取得装置105から自車両周辺の路面、障害物、建築物など物体の位置情報、それ以外の背景情報を取得する。
(ステップS12)算出部114は、情報処理部112から自車両周辺の物体の位置情報から物体毎のリスクポテンシャルエネルギーを算出する。
(ステップS13)算出部114は、物体毎のリスクポテンシャルエネルギーからリスクポテンシャルマップを生成する。
(ステップS14)経路生成部113は、算出部114で生成したリスクポテンシャルマップを取得し、目的地に向かってマップ上の最も平坦な部分を経路として生成する。
(ステップS15)判定部119は、経路生成部113が生成した経路決定ができているかを判定する。経路が決定できた場合はステップS16へ、経路が決定できなかった場合はステップS31へ進む。
(ステップS16)取得部115は、車両情報取得装置106から自車両の車速、6軸方向の加速度、姿勢など車両情報を取得する。
(ステップS17)算出部114は、判定部119の経路情報と取得部115の車両情報を用い、駆動、制動、操舵などの各アクチュエータ制御量、制御タイミングを算出する。
(ステップS18)制御部116は、算出部114から各アクチュエータ制御量と制御タイミングを取得し、これら値が有効か(計算できたか)を判定する。有効だった場合はステップS19へ、無効だった場合はステップS31へ進む。
(ステップS19)制御部116は、算出部114から各アクチュエータ制御量と制御タイミングを取得し、現在tより1つ前に決定した時刻t-1の当該制御量、タイミングとの差が、あらかじめ決められた閾値以下であるか否かを判定する。当該閾値以下だった場合はステップS110へ、当該閾値以上だった場合はステップS31へ進む。
(ステップS110)制御部116は、各アクチュエータに対し、当該制御タイミングに時刻tが到達したとき、当該制御量を設定する。
図6は、実施の形態1の車が実行する処理の例を示すフローチャート(その2)である。
(ステップS21)取得部115は、検出部118が車外情報取得装置105から検出した車両進行方向に係る1つまたは複数のカメラからの車両進行方向画像を取得する。
(ステップS22)取得部115は、検出部118が視線検出センサ108から検出した運転者の視線情報を取得する。
(ステップS23)算出部114は、取得部115から当該車両進行方向画像と当該視線情報を受け取り、車両進行方向画像上の注視点と視野画像を算出する。
(ステップS24)算出部114は、解析部117から当該注視点と当該視野画像を受け取り、速度残効エネルギーと速度残効継続時間を解析して算出する。
(ステップS25)取得部115は、当該速度残効エネルギーと当該速度残効継続時間を取得し、記憶部111で記憶する。
(ステップS21)取得部115は、検出部118が車外情報取得装置105から検出した車両進行方向に係る1つまたは複数のカメラからの車両進行方向画像を取得する。
(ステップS22)取得部115は、検出部118が視線検出センサ108から検出した運転者の視線情報を取得する。
(ステップS23)算出部114は、取得部115から当該車両進行方向画像と当該視線情報を受け取り、車両進行方向画像上の注視点と視野画像を算出する。
(ステップS24)算出部114は、解析部117から当該注視点と当該視野画像を受け取り、速度残効エネルギーと速度残効継続時間を解析して算出する。
(ステップS25)取得部115は、当該速度残効エネルギーと当該速度残効継続時間を取得し、記憶部111で記憶する。
図7は、実施の形態1の車が実行する処理の例を示すフローチャート(その3)である。
(ステップS31)決定部120は、算出部114で算出した結果である速度残効エネルギーを記憶部111から抽出する。
(ステップS32)決定部120は速度残効エネルギーがゼロでないか、ゼロかを判定する。ゼロでない場合はステップS33へ、ゼロの場合はステップS36へ進む。
(ステップS33)決定部120はセミ自動運転モードへ移行を決定し、制御部116、経路生成部113、情報処理部112へ移行する指示を送る。
(ステップS34)決定部120は現在時刻から速度残効継続時間を減算する。
(ステップS35)決定部120は算出部114の解析結果である速度残効継続時間がゼロになったかを判定する。ゼロになった場合はステップS36へ、ゼロではなかった場合はステップS34へ進む。
(ステップS36)決定部120は手動運転モードへ移行を決定し、制御部116、経路生成部113、情報処理部112へ移行する指示を送る。
(ステップS31)決定部120は、算出部114で算出した結果である速度残効エネルギーを記憶部111から抽出する。
(ステップS32)決定部120は速度残効エネルギーがゼロでないか、ゼロかを判定する。ゼロでない場合はステップS33へ、ゼロの場合はステップS36へ進む。
(ステップS33)決定部120はセミ自動運転モードへ移行を決定し、制御部116、経路生成部113、情報処理部112へ移行する指示を送る。
(ステップS34)決定部120は現在時刻から速度残効継続時間を減算する。
(ステップS35)決定部120は算出部114の解析結果である速度残効継続時間がゼロになったかを判定する。ゼロになった場合はステップS36へ、ゼロではなかった場合はステップS34へ進む。
(ステップS36)決定部120は手動運転モードへ移行を決定し、制御部116、経路生成部113、情報処理部112へ移行する指示を送る。
ここで、運転システムが自動運転から手動運転に切り替わることができることが知られている。運転システムが自動運転から手動運転に切り替わる場合、運転者の状態を把握せずに切り替わっても運転者が車を正しく運転できない可能性が高い。
実施の形態1によれば、車100は、速度残効を考慮して、切り替えを行う際の切替レベルとして、セミ自動運転と手動運転のいずれかを判定する。言い換えれば、車100は、運転者の状態を考慮して、切り替え際の切替レベルを判定する。そのため、車100は、運転者の状態を把握し、状態に合わせた運転支援を行うことができる。
実施の形態2.
次に、実施の形態2を説明する。実施の形態2では、実施の形態1と相違する事項を主に説明する。そして、実施の形態2では、実施の形態1と共通する事項の説明を省略する。
次に、実施の形態2を説明する。実施の形態2では、実施の形態1と相違する事項を主に説明する。そして、実施の形態2では、実施の形態1と共通する事項の説明を省略する。
実施の形態1では、速度残効エネルギーが式を用いて算出される場合を説明した。実施の形態2では、速度残効エネルギーが異なる方法で算出される場合を説明する。
取得部115は、記憶部111から学習済モデルを取得する。
算出部114は、複数の画像と注視点座標と学習済モデルとを用いて、速度残効エネルギーを算出する。詳細には、算出部114が車両進行方向の複数の画像と注視点座標に基づいて得られた、注視点を中心とする視野画像、車100の速度、車100の6軸加速度、及び当該複数の画像を得るために撮影が行われた時間である継続時間を学習済モデルに入力した場合、学習済モデルは、速度残効エネルギーを出力する。
このように、車100は、学習済モデルを用いて、速度残効エネルギーを算出してもよい。
算出部114は、複数の画像と注視点座標と学習済モデルとを用いて、速度残効エネルギーを算出する。詳細には、算出部114が車両進行方向の複数の画像と注視点座標に基づいて得られた、注視点を中心とする視野画像、車100の速度、車100の6軸加速度、及び当該複数の画像を得るために撮影が行われた時間である継続時間を学習済モデルに入力した場合、学習済モデルは、速度残効エネルギーを出力する。
このように、車100は、学習済モデルを用いて、速度残効エネルギーを算出してもよい。
また、算出部114は、実施の形態1で示した複数の式の一部と学習済モデルとを用いて、速度残効エネルギーを算出してもよい。例えば、算出部114は、式(4)~式(11)を実行した後、算出結果と学習済モデルとを用いて、速度残効エネルギーを算出する。
以上に説明した各実施の形態における特徴は、互いに適宜組み合わせることができる。また、各実施の形態では、車100が実行する場合を説明した。各実施の形態は、車以外の移動体で実現されてもよい。例えば、車以外の移動体は、鉄道車両である。
100 車、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 104 アクチュエータ、 105 車外情報取得装置、 106 車両情報取得装置、 107 位置情報取得装置、 108 視線検出センサ、 111 記憶部、 112 情報処理部、 113 経路生成部、 114 算出部、 115 取得部、 116 制御部、 117 解析部、 118 検出部、 119 判定部、 120 決定部、 121 提供部、 200 車。
Claims (6)
- 運転者が乗っており、かつ自動運転を行っている移動体であって、
前記運転者の視線を示す視線情報、前記運転者の前方を撮影することで得られた複数の画像、運転モードの切替要求、及び前記移動体が走行している道路の状況と障害物をエネルギーで表現されたリスクポテンシャルエネルギーとして取得する取得部と、
前記複数の画像のうちの1つの画像と前記視線情報とに基づいて、前記運転者の注視点に対応する座標である注視点座標を検出する検出部と、
前記複数の画像と前記注視点座標とを用いて、速度残効のエネルギーを示す速度残効エネルギーと速度残効継続時間を算出する算出部と、
前記速度残効エネルギーが存在する場合、前記リスクポテンシャルエネルギーと前記速度残効エネルギーと用いて、前記運転者に、即時、手動運転を実行させるか、前記速度残効継続時間の間、セミ自動運転で手動運転を実行させた後、手動運転を実行させるかを判定する決定部と、
を有する移動体。 - 前記手動運転、セミ自動運転、自動運転に対応した制御部と、をさらに有する、
請求項1に記載の移動体。 - 運転システムがセミ自動運転もしくは手動運転に切り替えられた場合、前記運転者が駆動操作、操舵操作、制動操作をするとき、車体のタイヤが滑って制御できなくならないレベルに操作量を抑える制御部をさらに有する、
請求項1又は2に記載の移動体。 - 運転システムが自動運転時に経路決定部、車両制御部を有し、経路、車両制御量、又は車両制御タイミングを決定できない場合に、運転モード切替を要求する、
請求項1から3のいずれか1項に記載の移動体。 - 記憶部をさらに有し、
前記取得部は、前記記憶部から学習済モデルを取得し、
前記算出部は、前記複数の画像と前記注視点座標と前記学習済モデルとを用いて、前記速度残効エネルギーを算出する、
請求項1から4のいずれか1項に記載の移動体。 - 前記算出部は、複数の式の一部と学習済モデルとを用いて、前記速度残効エネルギーを算出する、
請求項4又は5に記載の移動体。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/038331 WO2025088692A1 (ja) | 2023-10-24 | 2023-10-24 | 移動体 |
| JP2025517963A JP7770616B2 (ja) | 2023-10-24 | 2023-10-24 | 移動体 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/038331 WO2025088692A1 (ja) | 2023-10-24 | 2023-10-24 | 移動体 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025088692A1 true WO2025088692A1 (ja) | 2025-05-01 |
Family
ID=95515231
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/038331 Pending WO2025088692A1 (ja) | 2023-10-24 | 2023-10-24 | 移動体 |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7770616B2 (ja) |
| WO (1) | WO2025088692A1 (ja) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016112987A (ja) * | 2014-12-12 | 2016-06-23 | 株式会社デンソー | 車両用表示制御装置及び車両用表示制御方法 |
| JP2018036722A (ja) * | 2016-08-29 | 2018-03-08 | 日産自動車株式会社 | 車両の運動制御方法及び車両の運動制御装置 |
| WO2019097944A1 (ja) * | 2017-11-17 | 2019-05-23 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置および情報処理方法 |
-
2023
- 2023-10-24 WO PCT/JP2023/038331 patent/WO2025088692A1/ja active Pending
- 2023-10-24 JP JP2025517963A patent/JP7770616B2/ja active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016112987A (ja) * | 2014-12-12 | 2016-06-23 | 株式会社デンソー | 車両用表示制御装置及び車両用表示制御方法 |
| JP2018036722A (ja) * | 2016-08-29 | 2018-03-08 | 日産自動車株式会社 | 車両の運動制御方法及び車両の運動制御装置 |
| WO2019097944A1 (ja) * | 2017-11-17 | 2019-05-23 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置および情報処理方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2025088692A1 (ja) | 2025-05-01 |
| JP7770616B2 (ja) | 2025-11-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7757353B2 (ja) | 情報処理装置、情報処理方法、及び、情報処理システム | |
| US20240112036A1 (en) | Leveraging multidimensional sensor data for computationally efficient object detection for autonomous machine applications | |
| US11827214B2 (en) | Machine-learning based system for path and/or motion planning and method of training the same | |
| JP6833936B2 (ja) | 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 | |
| US11465633B2 (en) | Method and system for generating predicted occupancy grid maps | |
| CN114612877B (zh) | 用于估计未来路径的系统和方法 | |
| US11531354B2 (en) | Image processing apparatus and image processing method | |
| JP7663839B2 (ja) | 信号処理装置、信号処理方法、プログラム、及び、移動装置 | |
| CN113767389A (zh) | 从用于自主机器应用的经变换的真实世界传感器数据模拟逼真的测试数据 | |
| WO2021050413A1 (en) | Trajectory planner | |
| KR20190000843A (ko) | 자율 주행 가능 차량용 충돌-회피 시스템 | |
| JP2017076371A (ja) | 自動式移動体のための経路決定方法 | |
| JP7626632B2 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
| CN111942379A (zh) | 车辆控制装置及车辆控制方法 | |
| Guidolini et al. | Handling pedestrians in crosswalks using deep neural networks in the IARA autonomous car | |
| CN111688692A (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
| JP7487178B2 (ja) | 情報処理方法、プログラム、及び、情報処理装置 | |
| CN114789733A (zh) | 移动体控制装置、移动体控制方法以及存储介质 | |
| CN112686421B (zh) | 将来行动推定装置、将来行动推定方法及存储介质 | |
| JP7466407B2 (ja) | 将来行動推定装置、車両制御装置、将来行動推定方法、およびプログラム | |
| JP7409309B2 (ja) | 情報処理装置と情報処理方法とプログラム | |
| US20220222936A1 (en) | Outside environment recognition device | |
| JP7278740B2 (ja) | 移動体制御装置 | |
| Behringer et al. | Results on visual road recognition for road vehicle guidance | |
| JP7770616B2 (ja) | 移動体 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| ENP | Entry into the national phase |
Ref document number: 2025517963 Country of ref document: JP Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2025517963 Country of ref document: JP |
|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23956749 Country of ref document: EP Kind code of ref document: A1 |