[go: up one dir, main page]

WO2021201304A1 - Method and device for assisting autonomous driving - Google Patents

Method and device for assisting autonomous driving Download PDF

Info

Publication number
WO2021201304A1
WO2021201304A1 PCT/KR2020/004291 KR2020004291W WO2021201304A1 WO 2021201304 A1 WO2021201304 A1 WO 2021201304A1 KR 2020004291 W KR2020004291 W KR 2020004291W WO 2021201304 A1 WO2021201304 A1 WO 2021201304A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
signal quality
information
server
autonomous vehicle
Prior art date
Application number
PCT/KR2020/004291
Other languages
French (fr)
Korean (ko)
Inventor
임선희
장은송
김동욱
박민규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2020/004291 priority Critical patent/WO2021201304A1/en
Publication of WO2021201304A1 publication Critical patent/WO2021201304A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present specification relates to autonomous driving, and more particularly, to a method and apparatus for assisting autonomous driving.
  • a vehicle is a device that moves a passenger from one place to another.
  • a typical example is a car.
  • V2X (vehicle-to-everything) communication technology which means vehicle-to-things communication, refers to a technology in which a vehicle communicates with other vehicles, pedestrians, road infrastructure, and servers to provide a series of services.
  • DSRC Dedicated Short Range Communications
  • LTE Long Term Evolution
  • NR New Radio
  • autonomous vehicles support only V2V (vehicle-to-vehicle) communication that provides communication with the main vehicle.
  • V2V vehicle-to-vehicle
  • the autonomous vehicle can communicate with the server, more diverse information can be provided.
  • the present specification provides a method and apparatus for assisting autonomous driving.
  • a method performed by a server to assist autonomous driving includes receiving information about a driving route from an autonomous driving vehicle, collecting information about the surroundings of the autonomous driving vehicle on the driving path, and risk of collision between the autonomous vehicle and an object based on the surrounding information of collision), and if the risk of collision exceeds a predetermined criterion, generating an assisting message, and transmitting the assisting message to the autonomous vehicle.
  • a server assisting autonomous driving includes a processor and a memory coupled to the processor to store instructions that, when executed by the processor, cause the server to perform a function.
  • the function receives information about a driving route from the autonomous driving vehicle, collects information about the surroundings of the autonomous driving vehicle on the driving path, and risks of collision between the autonomous vehicle and an object based on the surrounding information. of collision), and if the risk of collision exceeds a predetermined criterion, generating an assisting message, and transmitting the assisting message to the autonomous vehicle.
  • the autonomous vehicle can recognize the surrounding situation in real time by using both sensor information and information from the server, so driving safety can be improved.
  • FIG. 1 shows a system to which an embodiment is applied.
  • FIG. 2 is a block diagram illustrating a vehicle implementing the present embodiment.
  • FIG. 5 illustrates a map generation method according to an embodiment of the present specification.
  • FIG. 6 shows another example of generating a signal quality map.
  • FIG. 9 illustrates an operation of assisting autonomous driving according to an embodiment of the present specification.
  • FIG. 10 is a flowchart illustrating a method of assisting autonomous driving according to an embodiment of the present specification.
  • the left side of the vehicle means the left side in the forward driving direction of the vehicle
  • the right side of the vehicle means the right side in the forward driving direction of the vehicle
  • FIG. 1 shows a system to which an embodiment is applied.
  • the system 100 includes a vehicle 200 , a base station 110 , and a server 120 .
  • the vehicle 200 may communicate with the base station 110 and/or the surrounding vehicle 130 using a wireless communication protocol.
  • wireless communication protocols for example, Dedicated Short Range Communications (DSRC) based on IEEE (Institute of Electrical and Electronics Engineers) 802.11, WiFi, C-V2X and/or 3rd Generation Partnership Project (3GPP) based of a cellular communication protocol (eg, Wideband Code Division Multiple Access (WCDMA), Long Term Evolution (LTE), New Radio (NR), etc.).
  • DSRC Dedicated Short Range Communications
  • IEEE Institute of Electrical and Electronics Engineers
  • WiFi Wireless Fidelity
  • C-V2X Third Generation Partnership Project
  • 3GPP 3rd Generation Partnership Project
  • WCDMA Wideband Code Division Multiple Access
  • LTE Long Term Evolution
  • NR New Radio
  • the base station 110 may communicate with the vehicle 200 or other base stations using various wireless communication protocols such as DSRC, C-V2X, and cellular communication protocols.
  • various wireless communication protocols such as DSRC, C-V2X, and cellular communication protocols.
  • the server 120 is connected to one or more base stations 110 and includes computing hardware that provides a driving data service to the vehicle 200 .
  • the computing hardware may include a processor and memory.
  • the memory stores map data and driving environment information described in the following embodiments, and the processor may provide the data to the vehicle 200 .
  • the processor may update the map data based on data received from one or more vehicles 200 .
  • the server may be a Mobile/Mutli-access Edge Computing (MEC) based server or a centralized based server.
  • MEC Mobile/Mutli-access Edge Computing
  • the vehicle 200 is defined as a means of transport traveling on a road or track.
  • the vehicle 200 is a concept including a car, a train, and a motorcycle.
  • the vehicle 200 may be a concept including an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source.
  • the vehicle 200 may be a vehicle owned by an individual.
  • the vehicle 200 may be a shared vehicle.
  • the vehicle 200 may be an autonomous driving vehicle.
  • the vehicle 200 may be set to operate autonomously.
  • Autonomous driving refers to driving without the assistance of a human driver, for example.
  • the vehicle 200 may be set to detect the surrounding vehicle 130 and determine the path of the detected vehicle.
  • the vehicle 200 may communicate with the surrounding vehicle 130 to exchange information.
  • the vehicle 200 may perform a switching operation from the autonomous driving mode to the manual driving mode or a switching operation from the manual driving mode to the autonomous driving mode. For example, the vehicle 200 may change the mode of the vehicle 10 from the autonomous driving mode to the manual driving mode or from the manual driving mode to the autonomous driving mode based on a signal received from the user interface device.
  • ADAS Advanced Driver Assistance System
  • ADAS includes Adaptive Cruise Control (ACC), Autonomous Emergency Braking (AEB), Forward Collision Warning (FCW), Lane Keeping Assist (LKA), ), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control (HBA) , Auto Parking System (APS), Pedestrian Collision Warning System (PD Collision Warning System), Traffic Sign Recognition (TSR), Trafffic Sign Assist (TSA), Night Vision System At least one of a Night Vision (NV), a Driver Status Monitoring (DSM), and a Traffic Jam Assist (TJA) may be implemented.
  • ACC Adaptive Cruise Control
  • AEB Autonomous Emergency Braking
  • FCW Forward Collision Warning
  • LKA Lane Keeping Assist
  • LKA Lane Change Assist
  • LKA Lane Change Assist
  • TSA Blind Spot Detection
  • HBA Adaptive High Beam Control
  • FIG. 2 is a block diagram illustrating a vehicle implementing the present embodiment.
  • the vehicle 200 includes a control device 210 , a user interface device 220 , an acceleration device 230 , a braking device 240 , a steering device 250 , and a sensing device. (sensing device, 260) and may include an engine (engine, 270).
  • the devices presented are merely examples, and not all devices are essential.
  • the vehicle 200 may further include additional devices, or specific devices may be omitted. Some of the devices have their own processors and can perform processing related to specific functions of the device.
  • the user interface device 220 is a device for communicating between the vehicle 200 and a user.
  • the user interface device 220 may receive a user input and provide information generated in the vehicle 200 to the user.
  • the vehicle 200 may implement a user interface (UI) or a user experience (UX) through the user interface device 220 .
  • the user interface device 220 may include an input device, an output device, and a user monitoring device.
  • the acceleration device 230 may be a mechanism configured to accelerate the vehicle 200 .
  • the brake device 240 may be a mechanism set to decelerate the vehicle 200 .
  • the steering device 250 may be a mechanism set to control the direction of the vehicle 200 .
  • the vehicle 200 may accelerate through the acceleration device 230 , decelerate through the brake device 240 , and change a driving direction through the steering device 250 .
  • At least one of the acceleration device 230 , the brake device 240 , and the steering device 250 may be controlled by the control device 210 and/or an additional controller to control the speed and direction of the vehicle 200 . .
  • the sensing device 260 may include one or more sensors configured to sense information about the location/speed of the vehicle 200 and/or the environment of the vehicle 200 .
  • the sensing device 260 may include a location data generating device for measuring a geographic location of the vehicle 200 and/or an object detecting device for recognizing an object around the vehicle 200 .
  • the object detecting apparatus may generate information about an object outside the vehicle 200 .
  • the information about the object may include at least one of information on the existence of the object, location information of the object, distance information between the vehicle 200 and the object, and relative speed information between the vehicle 200 and the object. .
  • the object detecting apparatus may detect an object outside the vehicle 200 .
  • the object detecting apparatus may include at least one sensor capable of detecting an object outside the vehicle 200 .
  • the object detecting apparatus may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detection apparatus may provide data on an object generated based on a sensing signal generated by the sensor to at least one control device included in the vehicle 200 .
  • the camera may generate information about an object outside the vehicle 200 by using the image.
  • the camera may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor to process a received signal, and generate data about the object based on the processed signal.
  • the camera may be at least one of a mono camera, a stereo camera, and an AVM (Around View Monitoring) camera.
  • the camera may obtain position information of the object, distance information from the object, or relative speed information with the object by using various image processing algorithms.
  • the camera may acquire distance information and relative velocity information from an object based on a change in the size of the object over time from the acquired image.
  • the camera may acquire distance information and relative speed information with respect to an object through a pinhole model, road surface profiling, or the like.
  • the camera may acquire distance information and relative velocity information from an object based on disparity information in a stereo image obtained from the stereo camera.
  • the camera may be mounted at a position where a field of view (FOV) can be secured in the vehicle in order to photograph the outside of the vehicle.
  • the camera may be disposed adjacent to the front windshield in the interior of the vehicle to acquire an image of the front of the vehicle.
  • the camera may be placed around the front bumper or radiator grill.
  • the camera may be disposed adjacent to the rear glass in the interior of the vehicle to acquire an image of the rear of the vehicle.
  • the camera may be placed around the rear bumper, trunk or tailgate.
  • the camera may be disposed adjacent to at least one of the side windows in the interior of the vehicle in order to acquire an image of the side of the vehicle.
  • the camera may be disposed around a side mirror, a fender or a door.
  • the radar may generate information about an object outside the vehicle 200 using radio waves.
  • the radar may include an electromagnetic wave transmitter, an electromagnetic wave receiver, and at least one processor that is electrically connected to the electromagnetic wave transmitter and the electromagnetic wave receiver, processes a received signal, and generates data for an object based on the processed signal.
  • the radar may be implemented in a pulse radar method or a continuous wave radar method in terms of a radio wave emission principle.
  • the radar may be implemented as a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods.
  • FMCW frequency modulated continuous wave
  • FSK frequency shift keyong
  • the radar detects an object based on an electromagnetic wave, a time of flight (TOF) method or a phase-shift method, and detects the position of the detected object, the distance to the detected object, and the relative speed.
  • the radar may be placed at a suitable location outside of the vehicle to detect objects located in front, rear or side of the vehicle.
  • the lidar may generate information about an object outside the vehicle 200 using laser light.
  • the lidar may include at least one processor that is electrically connected to the light transmitter, the light receiver, and the light transmitter and the light receiver, processes the received signal, and generates data about the object based on the processed signal. .
  • the lidar may be implemented in a time of flight (TOF) method or a phase-shift method.
  • TOF time of flight
  • Lidar can be implemented as driven or non-driven. When implemented as a driving type, the lidar is rotated by a motor and may detect an object around the vehicle 200 . When implemented as a non-driven type, the lidar may detect an object located within a predetermined range with respect to the vehicle by light steering.
  • Vehicle 200 may include a plurality of non-driven lidar.
  • LiDAR detects an object based on a time of flight (TOF) method or a phase-shift method with a laser light medium, and calculates the position of the detected object, the distance to the detected object, and the relative speed. can be detected.
  • the lidar may be placed at a suitable location outside of the vehicle to detect an object located in front, rear or side of the vehicle.
  • the location data generating apparatus may generate location data of the vehicle 200 .
  • the apparatus for generating location data may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS).
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the location data generating apparatus may generate location data of the vehicle 200 based on a signal generated by at least one of GPS and DGPS.
  • the apparatus for generating location data may correct location data based on at least one of an Inertial Measurement Unit (IMU) of the sensing device 260 and a camera of the object detecting apparatus.
  • IMU Inertial Measurement Unit
  • the location data generating device may be referred to as a Global Navigation Satellite System (GNSS).
  • GNSS Global Navigation Satellite System
  • the sensing device 260 may include a state sensor configured to sense the state of the vehicle 200 .
  • the status sensor includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward/reverse sensor.
  • IMU inertial measurement unit
  • a battery sensor a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor
  • an inertial measurement unit (IMU) sensor may include at least one of an acceleration sensor, a gyro sensor, and a magnetic sensor.
  • the sensing device 260 may generate state data of the vehicle based on a signal generated by at least one sensor.
  • the vehicle state data may be information generated based on data sensed by various sensors provided inside the vehicle.
  • the sensing device 260 may include vehicle attitude data, vehicle motion data, vehicle yaw data, vehicle roll data, vehicle pitch data, vehicle collision data, vehicle direction data, vehicle angle data, and vehicle speed. data, vehicle acceleration data, vehicle inclination data, vehicle forward/reverse data, vehicle weight data, battery data, fuel data, tire pressure data, vehicle interior temperature data, vehicle interior humidity data, steering wheel rotation angle data, vehicle exterior illumination Data, pressure data applied to the accelerator pedal, pressure data applied to the brake pedal, and the like may be generated.
  • the engine 270 provides propulsion to the vehicle 200 .
  • the engine 270 may include an internal combustion engine, an electric motor, or a combination thereof.
  • the control device 210 communicates with the user interface device 220 , the acceleration device 230 , the brake device 240 , the steering device 250 , and the sensing device 260 to exchange various information or to control these devices.
  • the control device 210 may include a processor 211 and a memory 212 .
  • the control device 210 may include one or more sub-devices according to functions, and each sub-device includes at least one of a processor and a memory, and is configured to perform processing related to the function of the corresponding sub-device.
  • the control device 210 may include a telematics control unit (TCU) responsible for communication inside and outside the vehicle 200 .
  • TCU telematics control unit
  • the control device 210 may include an autonomous driving device in charge of autonomous driving.
  • the control device 210 may include an infotainment system or AVN (Audio Video Navigation) system that displays driving information to passengers or provides various entertainment.
  • the control device 210 may include a TCU or an infotainment system.
  • the control device 210 may include a combination of a TCU and an infotainment system or a combination of other functions.
  • the control device 210 for autonomous driving may generate a path for autonomous driving based on the obtained data.
  • the control device 210 may generate a driving plan for driving along the generated path.
  • the control device 210 may generate a signal for controlling the movement of the vehicle according to the driving plan.
  • the autonomous driving device 210 may provide the generated signal to the accelerator 230 , the brake device 240 , the steering device 250 , and the engine 270 .
  • the processor 211 is an ASIC (application-specific integrated circuit), CPU (central processing unit), AP (application processor), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), microcontrollers, chipsets, logic circuits, data processing devices, and/or combinations thereof.
  • ASIC application-specific integrated circuit
  • CPU central processing unit
  • AP application processor
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • microcontrollers chipsets, logic circuits, data processing devices, and/or combinations thereof.
  • Memory 212 may store information accessible by processor 211 .
  • the information may include instructions executable by the processor 211 and/or data processed by the processor.
  • Memory 212 may include any form of computer-readable medium operative to store information.
  • the memory 212 may include a read only memory (ROM), a random access memory (RAM), a digital video disc (DVD), an optical disc, a flash memory, a solid state drive (SSD), a hard drive ( hard drive) and combinations thereof.
  • control device 210 is shown to include a processor and a memory as one physical block, the control device 210 may include a plurality of processors and a plurality of memories, and may be physically or logically operably connected.
  • the control device 210 may be connected to the display device 280 for displaying information.
  • the display device 280 includes a liquid crystal display (LCD) touch screen or an organic light emitting diode (OLED) touch screen, and includes various sensors (video camera, microphone, etc.) for detecting the state or gesture of the passenger. may include
  • the control device 210 may be connected to a wireless modem 290 configured to communicate with other devices through a wireless medium.
  • the control device 210 may exchange a wireless signal with a mobile device or server ( 120 in FIG. 1 ) or a surrounding vehicle inside/outside the vehicle 200 through the wireless modem 290 .
  • a wireless communication protocol supported by the wireless modem 290 and the wireless modem 290 may support various wireless communication protocols such as cellular communication, WiFi, Bluetooth, Zigbee, and an infrared link.
  • the memory 212 of the control device 210 may have map information and/or driving plan data.
  • the driving plan data may include information about a vehicle trajectory for the vehicle 200 to track the location of the vehicle from the current location to the destination.
  • the driving plan data may be used to guide the driver on a route or for autonomous driving.
  • the map information may include various maps for defining the driving environment. Map information includes the shape and elevation of a roadway, lane lines, intersections, crosswalks, speed limits, traffic signals, buildings or other objects. I may include information.
  • the map information may further include real-time traffic information, obstacles on the road, road condition information, and the like.
  • the map information and the driving plan data may be updated based on information given by the server 120 or may be updated based on information detected by the sensing device 260 of the vehicle 200 .
  • the control device 210 may generate Electronic Horizon Data.
  • the electronic horizon data may be understood as driving plan data within a range from a point where the vehicle 200 is located to a horizon.
  • the horizon may be understood as a point in front of a preset distance from a point where the vehicle 200 is located based on a preset driving route.
  • the horizon may mean a point to which the vehicle 200 can reach after a predetermined time from a point where the vehicle 200 is located along a preset driving route.
  • the electronic horizon data may include horizon map data and horizon pass data.
  • the horizon map data may include at least one of topology data, road data, HD map data, and dynamic data.
  • the horizon map data may include a plurality of layers.
  • the horizon map data may include a first layer matching topology data, a second layer matching road data, a third layer matching HD map data, and a fourth layer matching dynamic data.
  • the horizon map data may further include static object data.
  • Topology data can be described as a map created by connecting road centers.
  • the topology data is suitable for roughly indicating the location of the vehicle, and may be in the form of data mainly used in navigation for drivers.
  • the topology data may be understood as data on road information excluding information on lanes.
  • the topology data may be generated based on data received from an external server.
  • the topology data may be based on data stored in at least one memory provided in the vehicle 200 .
  • the road data may include at least one of slope data of the road, curvature data of the road, and speed limit data of the road.
  • the road data may further include data on an overtaking prohibited section.
  • the road data may be based on data received from an external server.
  • the road data may be based on data generated by the object detecting apparatus.
  • the HD map data includes detailed lane-by-lane topology information of the road, connection information of each lane, and characteristic information for vehicle localization (eg, traffic signs, Lane Marking/attributes, Road furniture, etc.).
  • vehicle localization eg, traffic signs, Lane Marking/attributes, Road furniture, etc.
  • the HD map data may be based on data received from an external server through the communication device 220 .
  • the dynamic data may include various dynamic information that may be generated on the road.
  • the dynamic data may include construction information, variable speed lane information, road surface condition information, traffic information, moving object information, and the like.
  • the dynamic data may be based on data received from an external server.
  • the dynamic data may be based on data generated by the object detecting apparatus.
  • the horizon pass data may be described as a trajectory that the vehicle 200 can take within a range from a point where the vehicle 200 is located to the horizon.
  • the horizon pass data may include data representing a relative probability of selecting any one road at a decision point (eg, a fork, a junction, an intersection, etc.).
  • the relative probability may be calculated based on the time it takes to arrive at the final destination. For example, at the decision point, if the time taken to arrive at the final destination is shorter when selecting the first road than when selecting the second road, the probability of selecting the first road is higher than the probability of selecting the second road. can be calculated higher.
  • the horizon pass data may include a main path and a sub path.
  • the main path may be understood as a track connecting roads with a high relative probability of being selected.
  • the sub-path may diverge at at least one decision point on the main path.
  • the sub-path may be understood as a trajectory connecting at least one road having a low relative probability of being selected from at least one decision point on the main path.
  • a map showing the driving route 310 may be displayed to the driver, and the driver may directly drive the vehicle.
  • the vehicle 200 may communicate with the server 120 through the first base station 110a at point A, and communicate with the server 210 through the second base station 110b at point B.
  • the number or arrangement of base stations or servers is merely an example.
  • One or more base stations may be disposed on the driving path 310 .
  • one or more servers may be deployed for each base station.
  • Signal quality with the base station on the driving path 310 may be changed for various reasons. For example, the distance between the vehicle and the base station, the number of vehicles on the road, the arrangement of buildings, etc. may cause various path loss and signal quality may change. When the signal quality drops to a certain level, the communication quality between the vehicle 200 and the server 120 may not be guaranteed or the communication connection may be cut off.
  • the signal strength may include at least one of Received Signal Strength Indicator (RSSI), Reference Signal Received Power (RSRP), Reference Signal Received Quality (RSRQ), and Signal to Interference Noise Ratio (SINR).
  • RSSI Received Signal Strength Indicator
  • RSRP Reference Signal Received Power
  • RSSQ Reference Signal Received Quality
  • SINR Signal to Interference Noise Ratio
  • first reference value TH1 and a second reference value TH2 are thresholds on the signal quality map, and the signal strength is represented by three levels of good, marginal, and poor. If the measured signal strength is greater than TH1, it is 'G (good)'. If the measured signal strength is between TH1 and TH2, it is 'M (middle)'. If the measured signal strength is less than TH2, it is 'P (bad)'. The number of levels is only an example.
  • the signal quality map may include information about a section on the driving route 310 and signal quality in each section.
  • the signal quality map may include information about the reference signal quality at a reference position (or reference interval).
  • the signal quality map may include information about one or more reference signal qualities.
  • the signal quality map may be generated integrally with the geographic map for driving information, or may be generated separately from the geographic map.
  • the reference position includes a position where the reference signal quality is measured.
  • the reference section includes a section in which the reference signal quality is measured.
  • the reference time includes a time at which the reference signal quality is measured.
  • the reference sensor includes information about the sensor from which the reference signal quality was measured.
  • the signal quality map may include information about at least one of a reference position, a reference interval, a reference time, and a reference sensor.
  • the signal quality may include one or more indicators indicating the quality of communication between the vehicle and the server.
  • the signal quality may include at least one of signal strength, latency, bandwidth, and GPS accuracy.
  • the delay time may represent a delay time in communication between the vehicle and the server (or the vehicle and the base station).
  • the bandwidth may indicate the maximum bandwidth (and/or minimum bandwidth) used in communication between the vehicle and the server (or the vehicle and the base station).
  • the operation of the vehicle may be implemented by a control device of the vehicle and/or a wireless modem.
  • the operation of the server may be implemented by a processor of the server.
  • step S510 the server sends the signal quality map to the vehicle through a wireless medium.
  • the server may send a signal quality map to the vehicle.
  • Vehicles can also communicate with servers based on signal quality maps, even in areas they have never driven before.
  • step S520 the vehicle communicates with the server through the wireless medium along the driving route of the vehicle based on the signal quality map. Then, the vehicle measures the signal quality along the driving path.
  • a position at which the signal quality is measured on the driving route is referred to as a measurement position
  • a time at which the signal quality is measured is referred to as a measurement time
  • a sensor at which the signal quality is measured is referred to as a measurement sensor.
  • the vehicle may measure the signal quality when the driving route has been driven before.
  • the vehicle may measure the signal quality when driving at least N times (N>1) along the driving path.
  • step S530 the vehicle updates the signal quality map based on the measured signal quality.
  • the vehicle may update the signal quality map based on the measured reliability of the signal quality.
  • the vehicle may update the signal quality map if the measured signal quality is different from the reference signal quality in the signal quality map.
  • the difference between the reference signal quality and the measured signal quality may mean that the difference between the reference signal quality and the measured signal quality is greater than a reference value.
  • the vehicle may update the signal quality map when a specific condition is satisfied.
  • the specific condition may include reliability of the measured signal quality.
  • the reliability of the measured signal quality may be determined based on a measurement position, a measurement time, and a measurement sensor. If the vehicle (i) the measurement position and the reference position are within a specific distance, (ii) the measurement time is later than the reference time, and (iii) the accuracy of the measurement sensor is higher than the accuracy of the reference sensor , the signal quality map may be updated. When at least one of the conditions (i) to (iii) is satisfied, the vehicle may update the signal quality map.
  • the accuracy of the sensor may be estimated based on a manufacturing year of the vehicle, a model number of the vehicle, a sensor type, and a sensor resolution.
  • the signal quality map may include information about a reference interval associated with a reference signal quality.
  • the vehicle may update the signal quality map when the measurement location belongs to the reference section.
  • the signal quality map can be updated to avoid too frequent updates.
  • the vehicle may transmit the updated signal quality map to the server via a wireless medium.
  • the server can communicate with other vehicles based on the updated signal quality map.
  • the server and vehicle can maintain more stable communication by obtaining section information with poor signal quality based on the signal quality map.
  • By updating the signal quality map based on highly reliable information it is possible to increase the accuracy of the signal quality.
  • By storing and updating the signal quality map directly by the vehicle operation is possible even if the connection with the server is lost.
  • the vehicle may predict, based on the signal quality map, how much quality or stability it can maintain communication with the server on the driving route.
  • the vehicle can exchange high-quality/large-capacity messages with the server.
  • the vehicle can exchange a reduced amount of messages with the server, or only essential messages.
  • FIG. 6 shows another example of generating a signal quality map.
  • a travel path 610 moving from point A to point B There are a plurality of reference locations designated by the server.
  • the vehicle receives from the server a signal quality map relating to a corresponding reference signal quality.
  • the vehicle may establish one or more auxiliary reference positions between the two reference positions.
  • the vehicle measures the signal quality at each auxiliary reference location and stores it as the auxiliary reference signal quality. Thereafter, when the vehicle travels on the driving path 610 again, signal quality is measured not only in the reference position but also in the auxiliary reference position. If the measured signal quality differs from the auxiliary signal quality, the signal quality map can be updated. It can be updated based on reliability.
  • the vehicle may identify more detailed signal quality on the driving path 610 through the added auxiliary reference position.
  • the vehicle will notify the server of the auxiliary reference location and the associated auxiliary reference signal. Information about quality can be notified.
  • the server may additionally set the notified auxiliary reference position as a new reference position or replace the existing reference position with the notified auxiliary reference position.
  • the autonomous vehicle 710 is traveling toward an intersection where there is no traffic light. Vehicle 720 is also traveling toward the intersection. Although the autonomous vehicle 710 monitors its surroundings through a camera and/or a sensor such as lidar, it may be difficult to detect the presence of the vehicle 720 in advance due to the building 725 .
  • the autonomous vehicle 810 is driving toward an intersection where there is no traffic light, and attempts to proceed to the right at the intersection. However, at the intersection, a pedestrian 830 is crossing the road. It may be difficult for the autonomous vehicle 810 to recognize the presence of the pedestrian 830 in advance due to the building 825 . However, the vehicle 820 traveling in the opposite direction may be aware of the presence of the pedestrian 830 in advance.
  • vehicle 820 can inform the autonomous vehicle 810 of the presence of the pedestrian 830 in advance, safer driving will be possible.
  • the general vehicle 820 may support communication with a server, but may not support V2V communication. Accordingly, the autonomous vehicle 810 determines a driving method based only on its own sensor data collected in real time. It may be difficult to ensure driving safety because the autonomous vehicle 810 cannot recognize a risk that occurs in a sensor shaded area (behind a building, over an obstacle, etc.) in the autonomous vehicle 810 .
  • FIG. 9 illustrates an operation of assisting autonomous driving according to an embodiment of the present specification.
  • the autonomous vehicle 910 may communicate with the server 930 to receive information about a driving environment on a driving route.
  • the server 930 transmits the information to autonomous driving. It may be provided to the vehicle 910 to assist autonomous driving in real time.
  • the server 930 may include a processor 931 and a memory 932 .
  • the memory 932 stores driving information and driving environment information.
  • the processor 931 may implement the operation of the server 930 .
  • the server 930 collects various information from the surrounding vehicles 920a and 920b.
  • the server 930 may analyze information such as a sudden vehicle stop, the direction/speed of the vehicle protruding from the shaded area, and an expected collision point.
  • FIG. 10 is a flowchart illustrating a method of assisting autonomous driving according to an embodiment of the present specification.
  • the operation of the autonomous vehicle 910 may be performed by a control device.
  • the autonomous vehicle 910 and the server 930 may exchange and update the signal quality map according to the embodiment of FIG. 5 or FIG. 6 .
  • the autonomous vehicle 910 transmits a subscription request for requesting notification information about the surrounding situation to the server 930 .
  • the subscription request may include at least one of an identifier of the autonomous vehicle 910 , a driving speed, a driving route, a current location, and a range of an area in which a surrounding situation is to be detected.
  • step S1020 the server 930 sends a response allowing the subscription to the autonomous vehicle 910 .
  • step S1030 the server 930 collects surrounding information from surrounding vehicles and surrounding devices (eg, pedestrian mobile devices).
  • surrounding vehicles and surrounding devices eg, pedestrian mobile devices.
  • the autonomous vehicle 910 may provide driving information to the server 930 while driving.
  • the driving information may include at least one of a driving speed, a driving route, a current location, and a range of a region in which a surrounding situation is to be sensed.
  • step S1050 the server 930 sends an assisting message to the autonomous vehicle 910 (S1050).
  • Ancillary messages may be generated and transmitted periodically.
  • the auxiliary message may be generated and transmitted based on a specific condition.
  • the specific condition may be related to safety or control of the autonomous vehicle 910 .
  • the server 930 determines a risk of collision between the autonomous vehicle 910 and an object based on surrounding information of the autonomous vehicle 910 .
  • the object may be a nearby vehicle, a pedestrian, an obstacle, or the like.
  • the server 930 may generate an assisting message when the risk of collision exceeds a predetermined criterion. For example, if it is expected to overlap with the driving path of the autonomous vehicle 910 in consideration of the speed and traveling direction of the surrounding vehicle, the server 930 may generate an auxiliary message. If a collision with a preceding obstacle is expected in consideration of the speed and the traveling direction of the autonomous vehicle 910 , the server 930 may generate an auxiliary message.
  • the auxiliary message may be generated as one selected from among a plurality of types.
  • the auxiliary message may be generated as a first type message or a second type message.
  • the number of types is only an example.
  • the plurality of types may have different sizes (eg, different number of bits).
  • server 930 may select the type of auxiliary message according to the type of conflict. If the risk of collision is not imminent, the first type message may be selected, and if the risk of collision is imminent, the second type message may be selected.
  • the server 930 may select the type of auxiliary message based on the signal quality of the signal quality map. If the signal quality is good, the first type message may be selected, and if the signal quality is poor, the second type message may be selected.
  • the first type message may have more detailed information or a larger amount of information.
  • the first type message may include identification information through which the autonomous vehicle 910 can identify the object.
  • the identification information may include a location/velocity/advance direction of an object expected to collide, an expected collision point, and the like.
  • the second type message may include information about the degree of the collision.
  • the second type message may include information warning of collision, such as 'collision warning' and 'collision risk'.
  • the second type message may include control information related to the control of the autonomous vehicle 910 .
  • the control information may include actions recommended for the autonomous vehicle 910 to avoid a collision, such as 'decelerate', 'accelerate', 'stop', 'rotate', and 'switch to manual mode'.
  • the first type message and the second type message may be generated in different formats.
  • the first type message may be generated as Prove Vehicle Data (PVD).
  • the second type message may be generated as a Basic Safety Message (BSM).
  • PVD Prove Vehicle Data
  • BSM Basic Safety Message
  • the autonomous vehicle 910 may drive in the safe driving mode, switch to the manual mode, or make an emergency stop according to the contents of the auxiliary message.
  • the autonomous vehicle can recognize the surrounding situation in real time by using both sensor information and information from the server, so driving safety can be improved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

A method and a device for assisting autonomous driving are provided. The device collects information about the surroundings of an autonomous driving vehicle on a driving path, and determines the risk of collision between the autonomous driving vehicle and an object on the basis of the information about the surroundings. The device transmits an assisting message to the autonomous driving vehicle on the basis of the risk of collision.

Description

자율주행을 보조하는 방법 및 장치Methods and devices for assisting autonomous driving
본 명세서는 자율 주행에 관한 것으로, 더욱 상세하게는 자율주행을 보조하는(assist) 방법 및 장치에 관한 것이다.The present specification relates to autonomous driving, and more particularly, to a method and apparatus for assisting autonomous driving.
차량(vehicle)은 탑승자(passenger)를 한 장소에서 다른 장소로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 차량-사물 통신을 의미하는 V2X(vehicle-to-everything) 통신 기술은 차량이 다른 차량, 보행자, 도로 인프라, 서버 등과 통신하여 일련의 서비스를 제공하는 기술을 말한다. A vehicle is a device that moves a passenger from one place to another. A typical example is a car. V2X (vehicle-to-everything) communication technology, which means vehicle-to-things communication, refers to a technology in which a vehicle communicates with other vehicles, pedestrians, road infrastructure, and servers to provide a series of services.
V2X를 위해 IEEE(Institute of Electrical and Electronics Engineers), 3GPP(3rd Generation Partnership Project) 등과 같은 표준화 기구에서 다양한 통신 규격을 제공하고 있다. DSRC(Dedicated Short Range Communications)는 IEEE 802.11를 기반으로 한 통신 표준 프로토콜이다. 3GPP의 LTE(Long Term Evolution) 및 NR(New Radio)도 V2X를 위한 통신 프로토콜을 제공하고 있다.For V2X, various communication standards are provided by standardization organizations such as the Institute of Electrical and Electronics Engineers (IEEE) and the 3rd Generation Partnership Project (3GPP). Dedicated Short Range Communications (DSRC) is a communication standard protocol based on IEEE 802.11. Long Term Evolution (LTE) and New Radio (NR) of 3GPP also provide communication protocols for V2X.
V2X와 더불어 부분적으로 또는 완전히(fully) 자율적인(autonomous) 차량이 등장하고 있다. 이 자율주행차량(Autonomous Vehicle)은 주변 차량, 보행자, 서버 등과 보다 많은 데이터를 저지연(low latency)와 높은 신뢰성을 가지고 교환할 필요가 있다. Along with V2X, partially or fully autonomous vehicles are emerging. This autonomous vehicle needs to exchange more data with surrounding vehicles, pedestrians, and servers with low latency and high reliability.
일반적으로 자율주행차량은 주면 차량과의 통신을 제공하는 V2V(vehicle-to-vehicle) 통신만을 지원하고 있다. 하지만, 자율주행차량이 서버와 통신할 수 있다면 보다 다양한 정보가 제공될 수 있다.In general, autonomous vehicles support only V2V (vehicle-to-vehicle) communication that provides communication with the main vehicle. However, if the autonomous vehicle can communicate with the server, more diverse information can be provided.
본 명세서는 자율주행을 보조하는(assist) 방법 및 장치를 제공한다. The present specification provides a method and apparatus for assisting autonomous driving.
일 양태에서, 서버에 의해 수행되어, 자율주행을 보조하는 방법이 제공된다. 상기 방법은 자율주행차량으로부터 주행 경로에 관한 정보를 수신하고, 상기 주행 경로 상에서 상기 자율주행차량의 주변 정보를 수집하고, 상기 주변 정보를 기반으로 상기 자율주행차량과 물체와의 충돌의 위험(risk of collision)을 판단하고, 상기 충돌의 위험이 미리 지정된 기준(predetermined criterion)을 넘으면, 보조(assisting) 메시지를 생성하고, 상기 자율주행차량으로 상기 보조 메시지를 전송하는 것을 포함한다.In one aspect, a method performed by a server to assist autonomous driving is provided. The method includes receiving information about a driving route from an autonomous driving vehicle, collecting information about the surroundings of the autonomous driving vehicle on the driving path, and risk of collision between the autonomous vehicle and an object based on the surrounding information of collision), and if the risk of collision exceeds a predetermined criterion, generating an assisting message, and transmitting the assisting message to the autonomous vehicle.
다른 양태에서, 자율주행을 보조하는 서버는 프로세서 및 상기 프로세서에 연결되어, 상기 프로세서에 의해 실행될 때 상기 서버가 기능을 수행하도록 하는 명령어를 저장하는 메모리를 포함한다. 상기 기능은 자율주행차량으로부터 주행 경로에 관한 정보를 수신하고, 상기 주행 경로 상에서 상기 자율주행차량의 주변 정보를 수집하고, 상기 주변 정보를 기반으로 상기 자율주행차량과 물체와의 충돌의 위험(risk of collision)을 판단하고, 상기 충돌의 위험이 미리 지정된 기준(predetermined criterion)을 넘으면, 보조(assisting) 메시지를 생성하고, 상기 자율주행차량으로 상기 보조 메시지를 전송하는 것을 포함한다.In another aspect, a server assisting autonomous driving includes a processor and a memory coupled to the processor to store instructions that, when executed by the processor, cause the server to perform a function. The function receives information about a driving route from the autonomous driving vehicle, collects information about the surroundings of the autonomous driving vehicle on the driving path, and risks of collision between the autonomous vehicle and an object based on the surrounding information. of collision), and if the risk of collision exceeds a predetermined criterion, generating an assisting message, and transmitting the assisting message to the autonomous vehicle.
자율주행차량은 센서 정보와 서버로부터의 정보를 모두 사용하여 실시간으로 주변 상황을 인지할 수 있어, 주행 안전성이 향상될 수 있다.The autonomous vehicle can recognize the surrounding situation in real time by using both sensor information and information from the server, so driving safety can be improved.
도 1은 실시예가 적용되는 시스템을 나타낸다.1 shows a system to which an embodiment is applied.
도 2는 본 실시예를 구현하는 차량을 나타낸 블록도이다.2 is a block diagram illustrating a vehicle implementing the present embodiment.
도 3은 차량이 운행중인 예를 보여준다.3 shows an example in which the vehicle is running.
도 4는 주행 경로 상에서 신호 품질이 변화되는 일 예를 보여준다.4 shows an example in which signal quality is changed on a driving route.
도 5는 본 명세서의 일 실시예에 따른 맵 생성 방법을 나타낸다.5 illustrates a map generation method according to an embodiment of the present specification.
도 6은 신호 품질 맵을 생성하는 다른 예를 나타낸다.6 shows another example of generating a signal quality map.
도 7은 자율주행차량이 주행하는 일 예를 보여준다.7 shows an example in which the autonomous driving vehicle is driven.
도 8은 자율주행차량이 주행하는 다른 예를 보여준다.8 shows another example in which the autonomous vehicle is driven.
도 9는 본 명세서의 일 실시예에 따른 자율주행을 보조하는 동작을 나타낸다.9 illustrates an operation of assisting autonomous driving according to an embodiment of the present specification.
도 10은 본 명세서의 일 실시예에 따른 자율주행을 보조하는 방법을 나타낸 흐름도이다.10 is a flowchart illustrating a method of assisting autonomous driving according to an embodiment of the present specification.
이하, 첨부된 도면을 참조하여 본 명세서(disclosure)에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부(unit)"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다. Hereinafter, embodiments disclosed in the present specification (disclosure) will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical ideas disclosed in the present specification are not limited by the accompanying drawings.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
이하의 설명에서 차량의 좌측은 차량의 전진 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 전진 주행 방향의 우측을 의미한다.In the following description, the left side of the vehicle means the left side in the forward driving direction of the vehicle, and the right side of the vehicle means the right side in the forward driving direction of the vehicle.
도 1은 실시예가 적용되는 시스템을 나타낸다.1 shows a system to which an embodiment is applied.
시스템(100)은 차량(200), 기지국(110) 및 서버(120)를 포함한다. 차량(200)은 무선 통신 프로토콜을 사용하여 기지국(110) 및/또는 주변 차량(130)과 통신할 수 있다. 무선 통신 프로토콜에는 제한이 없으며, 예를 들어, IEEE(Institute of Electrical and Electronics Engineers) 802.11를 기반으로 한 DSRC(Dedicated Short Range Communications), WiFi, C-V2X 및/또는 3GPP(3rd Generation Partnership Project) 기반의 셀룰라 통신 프로토콜(예, WCDMA(Wideband Code Division Multiple Access), LTE(Long Term Evolution), NR(New Radio) 등)를 포함할 수 있다.The system 100 includes a vehicle 200 , a base station 110 , and a server 120 . The vehicle 200 may communicate with the base station 110 and/or the surrounding vehicle 130 using a wireless communication protocol. There are no restrictions on wireless communication protocols, for example, Dedicated Short Range Communications (DSRC) based on IEEE (Institute of Electrical and Electronics Engineers) 802.11, WiFi, C-V2X and/or 3rd Generation Partnership Project (3GPP) based of a cellular communication protocol (eg, Wideband Code Division Multiple Access (WCDMA), Long Term Evolution (LTE), New Radio (NR), etc.).
기지국(110)은 DSRC, C-V2X, 셀룰라 통신 프로토콜 등 다양한 무선 통신 프로토콜을 사용하여 차량(200) 또는 다른 기지국과 통신할 수 있다. The base station 110 may communicate with the vehicle 200 or other base stations using various wireless communication protocols such as DSRC, C-V2X, and cellular communication protocols.
서버(120)는 하나 또는 그 이상의 기지국(110)과 연결되어, 차량(200)에게 주행 데이터 서비스를 제공하는 컴퓨팅 하드웨어를 포함한다. 예를 들어, 상기 컴퓨팅 하드웨어는 프로세서와 메모리를 포함할 수 있다. 메모리는 이하의 실시예에서 기술되는 맵 데이터와 주행 환경 정보를 저장하고, 프로세서는 이 데이터를 차량(200)에게 제공할 수 있다. 프로세서는 하나 또는 그 이상의 차량(200)으로부터 수신된 데이터에 기초하여 맵 데이터를 업데이트할 수 있다. 서버는 MEC(Mobile/Mutli-access Edge Computing) 기반의 서버이거나 중앙 집중 기반의 서버일 수 있다.The server 120 is connected to one or more base stations 110 and includes computing hardware that provides a driving data service to the vehicle 200 . For example, the computing hardware may include a processor and memory. The memory stores map data and driving environment information described in the following embodiments, and the processor may provide the data to the vehicle 200 . The processor may update the map data based on data received from one or more vehicles 200 . The server may be a Mobile/Mutli-access Edge Computing (MEC) based server or a centralized based server.
본 발명의 실시예에 따른 차량(200)은, 도로나 선로 위를 주행하는 수송 수단으로 정의된다. 차량(200)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(200)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. 차량(200)은 개인이 소유한 차량일 수 있다. 차량(200)은, 공유형 차량일 수 있다. 차량(200)은 자율 주행 차량일 수 있다.The vehicle 200 according to the embodiment of the present invention is defined as a means of transport traveling on a road or track. The vehicle 200 is a concept including a car, a train, and a motorcycle. The vehicle 200 may be a concept including an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source. The vehicle 200 may be a vehicle owned by an individual. The vehicle 200 may be a shared vehicle. The vehicle 200 may be an autonomous driving vehicle.
차량(200)은 자율적으로 동작할 수 있도록 설정될 수 있다. 자율 주행은 예를 들어, 휴먼 운전자의 도움없이 주행하는 것을 말한다. 자율 주행 모드에서 차량(200)은 주변 차량(130)을 검출하고 검출된 차량의 경로를 판단하도록 설정될 수 있다. 차량(200)은 주변 차량(130)과 통신하여 정보를 교환할 수 있다. The vehicle 200 may be set to operate autonomously. Autonomous driving refers to driving without the assistance of a human driver, for example. In the autonomous driving mode, the vehicle 200 may be set to detect the surrounding vehicle 130 and determine the path of the detected vehicle. The vehicle 200 may communicate with the surrounding vehicle 130 to exchange information.
차량(200)는, 자율 주행 모드에서 수동 주행 모드로의 전환 동작 또는 수동 주행 모드에서 자율 주행 모드로의 전환 동작을 수행할 수 있다. 예를 들면, 차량(200)은 사용자 인터페이스 장치로부터 수신되는 신호에 기초하여, 차량(10)의 모드를 자율 주행 모드에서 수동 주행 모드로 전환하거나 수동 주행 모드에서 자율 주행 모드로 전환할 수 있다.The vehicle 200 may perform a switching operation from the autonomous driving mode to the manual driving mode or a switching operation from the manual driving mode to the autonomous driving mode. For example, the vehicle 200 may change the mode of the vehicle 10 from the autonomous driving mode to the manual driving mode or from the manual driving mode to the autonomous driving mode based on a signal received from the user interface device.
수동 운행 또는 자율 주행에 있어서 적어도 하나의 ADAS(Advanced Driver Assistance System) 기능이 지원될 수 있다. ADAS는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차선 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다.At least one Advanced Driver Assistance System (ADAS) function may be supported in manual driving or autonomous driving. ADAS includes Adaptive Cruise Control (ACC), Autonomous Emergency Braking (AEB), Forward Collision Warning (FCW), Lane Keeping Assist (LKA), ), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control (HBA) , Auto Parking System (APS), Pedestrian Collision Warning System (PD Collision Warning System), Traffic Sign Recognition (TSR), Trafffic Sign Assist (TSA), Night Vision System At least one of a Night Vision (NV), a Driver Status Monitoring (DSM), and a Traffic Jam Assist (TJA) may be implemented.
도 2는 본 실시예를 구현하는 차량을 나타낸 블록도이다.2 is a block diagram illustrating a vehicle implementing the present embodiment.
차량(200)은 제어 장치(control device, 210), 사용자 인터페이스 장치(220), 가속 장치(acceleration device, 230), 브레이크 장치(braking device, 240), 조향 장치(steering device, 250), 센싱 장치(sensing device, 260), 엔진(engine, 270)을 포함할 수 있다. 제시된 장치는 예시에 불과하며, 모든 장치가 필수적인 것은 아니다. 차량(200)은 추가적인 장치를 더 포함하거나, 특정 장치는 생략될 수 있다. 장치들 중 어떤 것은 자신의 프로세서를 가지고, 그 장치의 특정 기능에 관련된 처리를 수행할 수 있다.The vehicle 200 includes a control device 210 , a user interface device 220 , an acceleration device 230 , a braking device 240 , a steering device 250 , and a sensing device. (sensing device, 260) and may include an engine (engine, 270). The devices presented are merely examples, and not all devices are essential. The vehicle 200 may further include additional devices, or specific devices may be omitted. Some of the devices have their own processors and can perform processing related to specific functions of the device.
사용자 인터페이스 장치(220)는, 차량(200)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(220)는, 사용자 입력을 수신하고, 사용자에게 차량(200)에서 생성된 정보를 제공할 수 있다. 차량(200)은, 사용자 인터페이스 장치(220)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다. 사용자 인터페이스 장치(220)는 입력 장치, 출력 장치 및 사용자 모니터링 장치를 포함할 수 있다.The user interface device 220 is a device for communicating between the vehicle 200 and a user. The user interface device 220 may receive a user input and provide information generated in the vehicle 200 to the user. The vehicle 200 may implement a user interface (UI) or a user experience (UX) through the user interface device 220 . The user interface device 220 may include an input device, an output device, and a user monitoring device.
가속 장치(230)는 차량(200)을 가속하도록 설정되는 메카니즘일 수 있다. 브레이크 장치(240)는 차량(200)을 감속하도록 설정되는 메카니즘일 수 있다. 조향 장치(250)는 차량(200)의 방향을 조정하도록 설정되는 메카니즘일 수 있다. 차량(200)은 가속 장치(230)를 통해 가속하고, 브레이크 장치(240)를 통해 감속하고, 조향 장치(250)를 통해 주행 방향을 변경할 수 있다. 차량(200)의 속도와 방향을 제어하기 위해 가속 장치(230), 브레이크 장치(240) 및 조향 장치(250) 중 적어도 어느 하나는 제어 장치(210) 및/또는 추가적인 제어기에 의해 제어될 수 있다. The acceleration device 230 may be a mechanism configured to accelerate the vehicle 200 . The brake device 240 may be a mechanism set to decelerate the vehicle 200 . The steering device 250 may be a mechanism set to control the direction of the vehicle 200 . The vehicle 200 may accelerate through the acceleration device 230 , decelerate through the brake device 240 , and change a driving direction through the steering device 250 . At least one of the acceleration device 230 , the brake device 240 , and the steering device 250 may be controlled by the control device 210 and/or an additional controller to control the speed and direction of the vehicle 200 . .
센싱 장치(260)는 차량(200)의 위치/속도 및/또는 차량(200)의 환경에 관한 정보를 센스하도록 설정된 하나 또는 그 이상의 센서를 포함할 수 있다. 센싱 장치(260)는 차량(200)의 지리적 위치를 측정하는 위치 데이터 생성 장치 및/또는 차량(200) 주변의 오브젝트(object)를 인식하는 오브젝트 검출 장치를 포함할 수 있다.The sensing device 260 may include one or more sensors configured to sense information about the location/speed of the vehicle 200 and/or the environment of the vehicle 200 . The sensing device 260 may include a location data generating device for measuring a geographic location of the vehicle 200 and/or an object detecting device for recognizing an object around the vehicle 200 .
오브젝트 검출 장치는, 차량(200) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 오브젝트에 대한 정보는, 오브젝트의 존재 유무에 대한 정보, 오브젝트의 위치 정보, 차량(200)과 오브젝트와의 거리 정보 및 차량(200)과 오브젝트와의 상대 속도 정보 중 적어도 어느 하나를 포함할 수 있다. 오브젝트 검출 장치는, 차량(200) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치는, 차량(200) 외부의 오브젝트를 검출할 수 있는 적어도 하나의 센서를 포함할 수 있다. 오브젝트 검출 장치는 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량(200)에 포함된 적어도 하나의 제어 장치에 제공할 수 있다.The object detecting apparatus may generate information about an object outside the vehicle 200 . The information about the object may include at least one of information on the existence of the object, location information of the object, distance information between the vehicle 200 and the object, and relative speed information between the vehicle 200 and the object. . The object detecting apparatus may detect an object outside the vehicle 200 . The object detecting apparatus may include at least one sensor capable of detecting an object outside the vehicle 200 . The object detecting apparatus may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor. The object detection apparatus may provide data on an object generated based on a sensing signal generated by the sensor to at least one control device included in the vehicle 200 .
카메라는 영상을 이용하여 차량(200) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 카메라는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.The camera may generate information about an object outside the vehicle 200 by using the image. The camera may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor to process a received signal, and generate data about the object based on the processed signal.
카메라는, 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라는, 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보 또는 오브젝트와의 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 획득된 영상에서, 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. The camera may be at least one of a mono camera, a stereo camera, and an AVM (Around View Monitoring) camera. The camera may obtain position information of the object, distance information from the object, or relative speed information with the object by using various image processing algorithms. For example, the camera may acquire distance information and relative velocity information from an object based on a change in the size of the object over time from the acquired image. For example, the camera may acquire distance information and relative speed information with respect to an object through a pinhole model, road surface profiling, or the like. For example, the camera may acquire distance information and relative velocity information from an object based on disparity information in a stereo image obtained from the stereo camera.
카메라는, 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 카메라는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 카메라는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 카메라는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.The camera may be mounted at a position where a field of view (FOV) can be secured in the vehicle in order to photograph the outside of the vehicle. The camera may be disposed adjacent to the front windshield in the interior of the vehicle to acquire an image of the front of the vehicle. The camera may be placed around the front bumper or radiator grill. The camera may be disposed adjacent to the rear glass in the interior of the vehicle to acquire an image of the rear of the vehicle. The camera may be placed around the rear bumper, trunk or tailgate. The camera may be disposed adjacent to at least one of the side windows in the interior of the vehicle in order to acquire an image of the side of the vehicle. Alternatively, the camera may be disposed around a side mirror, a fender or a door.
레이다는 전파를 이용하여 차량(200) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 레이다는, 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 레이다는 전파 발사 원리상 펄스 레이다(Pulse Radar) 방식 또는 연속파 레이다(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이다는 연속파 레이다 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이다는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 레이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다. The radar may generate information about an object outside the vehicle 200 using radio waves. The radar may include an electromagnetic wave transmitter, an electromagnetic wave receiver, and at least one processor that is electrically connected to the electromagnetic wave transmitter and the electromagnetic wave receiver, processes a received signal, and generates data for an object based on the processed signal. The radar may be implemented in a pulse radar method or a continuous wave radar method in terms of a radio wave emission principle. The radar may be implemented as a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods. The radar detects an object based on an electromagnetic wave, a time of flight (TOF) method or a phase-shift method, and detects the position of the detected object, the distance to the detected object, and the relative speed. can The radar may be placed at a suitable location outside of the vehicle to detect objects located in front, rear or side of the vehicle.
라이다는, 레이저 광을 이용하여, 차량(200) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 라이다는, 광 송신부, 광 수신부 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 라이다는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다는, 구동식 또는 비구동식으로 구현될 수 있다. 구동식으로 구현되는 경우, 라이다는, 모터에 의해 회전되며, 차량(200) 주변의 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다는, 광 스티어링에 의해, 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 차량(200)은 복수의 비구동식 라이다를 포함할 수 있다. 라이다는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 라이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.The lidar may generate information about an object outside the vehicle 200 using laser light. The lidar may include at least one processor that is electrically connected to the light transmitter, the light receiver, and the light transmitter and the light receiver, processes the received signal, and generates data about the object based on the processed signal. . The lidar may be implemented in a time of flight (TOF) method or a phase-shift method. Lidar can be implemented as driven or non-driven. When implemented as a driving type, the lidar is rotated by a motor and may detect an object around the vehicle 200 . When implemented as a non-driven type, the lidar may detect an object located within a predetermined range with respect to the vehicle by light steering. Vehicle 200 may include a plurality of non-driven lidar. LiDAR detects an object based on a time of flight (TOF) method or a phase-shift method with a laser light medium, and calculates the position of the detected object, the distance to the detected object, and the relative speed. can be detected. The lidar may be placed at a suitable location outside of the vehicle to detect an object located in front, rear or side of the vehicle.
위치 데이터 생성 장치는, 차량(200)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치는 GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(200)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치는, 센싱 장치(260)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다. 위치 데이터 생성 장치는, GNSS(Global Navigation Satellite System)로 명명될 수 있다.The location data generating apparatus may generate location data of the vehicle 200 . The apparatus for generating location data may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS). The location data generating apparatus may generate location data of the vehicle 200 based on a signal generated by at least one of GPS and DGPS. According to an embodiment, the apparatus for generating location data may correct location data based on at least one of an Inertial Measurement Unit (IMU) of the sensing device 260 and a camera of the object detecting apparatus. The location data generating device may be referred to as a Global Navigation Satellite System (GNSS).
센싱 장치(260)는 차량(200)의 상태를 센스하도록 설정된 상태 센서를 포함할 수 있다. 상태 센서는 IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial measurement unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다. The sensing device 260 may include a state sensor configured to sense the state of the vehicle 200 . The status sensor includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a position module, and a vehicle forward/reverse sensor. , a battery sensor, a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor, and may include at least one of a pedal position sensor. Meanwhile, an inertial measurement unit (IMU) sensor may include at least one of an acceleration sensor, a gyro sensor, and a magnetic sensor.
센싱 장치(260)는 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 차량 상태 데이터는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다. 센싱 장치(260)는, 차량 자세 데이터, 차량 모션 데이터, 차량 요(yaw) 데이터, 차량 롤(roll) 데이터, 차량 피치(pitch) 데이터, 차량 충돌 데이터, 차량 방향 데이터, 차량 각도 데이터, 차량 속도 데이터, 차량 가속도 데이터, 차량 기울기 데이터, 차량 전진/후진 데이터, 차량의 중량 데이터, 배터리 데이터, 연료 데이터, 타이어 공기압 데이터, 차량 내부 온도 데이터, 차량 내부 습도 데이터, 스티어링 휠 회전 각도 데이터, 차량 외부 조도 데이터, 가속 페달에 가해지는 압력 데이터, 브레이크 페달에 가해지는 압력 데이터 등을 생성할 수 있다.The sensing device 260 may generate state data of the vehicle based on a signal generated by at least one sensor. The vehicle state data may be information generated based on data sensed by various sensors provided inside the vehicle. The sensing device 260 may include vehicle attitude data, vehicle motion data, vehicle yaw data, vehicle roll data, vehicle pitch data, vehicle collision data, vehicle direction data, vehicle angle data, and vehicle speed. data, vehicle acceleration data, vehicle inclination data, vehicle forward/reverse data, vehicle weight data, battery data, fuel data, tire pressure data, vehicle interior temperature data, vehicle interior humidity data, steering wheel rotation angle data, vehicle exterior illumination Data, pressure data applied to the accelerator pedal, pressure data applied to the brake pedal, and the like may be generated.
엔진(270)은 차량(200)에게 추진력(propulsion)을 제공한다. 엔진(270)은 내연기관(internal combustion engine), 전기 모터 또는 이들의 조합을 포함할 수 있다.The engine 270 provides propulsion to the vehicle 200 . The engine 270 may include an internal combustion engine, an electric motor, or a combination thereof.
제어 장치(210)는 사용자 인터페이스 장치(220), 가속 장치(230), 브레이크 장치(240), 조향 장치(250) 및 센싱 장치(260)과 통신하여 다양한 정보를 교환하거나, 이 장치들을 제어할 수 있다. The control device 210 communicates with the user interface device 220 , the acceleration device 230 , the brake device 240 , the steering device 250 , and the sensing device 260 to exchange various information or to control these devices. can
제어 장치(210)는 프로세서(211)와 메모리(212)를 포함할 수 있다. 제어 장치(210)는 기능에 따라 하나 또는 그 이상의 서브-장치를 포함할 수 있으며, 각 서브-장치는 프로세서와 메모리 중 적어도 하나를 포함하고, 해당 서브-장치의 기능에 관련된 처리를 수행하도록 할 수 있다. 예를 들어, 제어 장치(210)는 차량(200) 내부 및 외부의 통신을 담당하는 TCU(telematics control unit)을 포함할 수 있다. The control device 210 may include a processor 211 and a memory 212 . The control device 210 may include one or more sub-devices according to functions, and each sub-device includes at least one of a processor and a memory, and is configured to perform processing related to the function of the corresponding sub-device. can For example, the control device 210 may include a telematics control unit (TCU) responsible for communication inside and outside the vehicle 200 .
제어 장치(210)는 자율 주행을 담당하는 자율 주행 장치를 포함할 수 있다. 제어 장치(210)의 승객에게 주행 정보를 표시하거나 다양한 엔터테인먼트를 제공하는 인포테인먼트 시스템 또는 AVN(Audio Video Navigation) 시스템을 포함할 수 있다. 이하의 실시예에 따라, 제어 장치(210)는 TCU 또는 인포테인먼트 시스템을 포함할 수 있다. 또는, 제어 장치(210)는 TCU 및 인포테인먼트 시스템의 조합 또는 다른 기능의 조합을 포함할 수도 있다.The control device 210 may include an autonomous driving device in charge of autonomous driving. The control device 210 may include an infotainment system or AVN (Audio Video Navigation) system that displays driving information to passengers or provides various entertainment. According to the following embodiments, the control device 210 may include a TCU or an infotainment system. Alternatively, the control device 210 may include a combination of a TCU and an infotainment system or a combination of other functions.
자율 주행을 위한 제어 장치(210)는, 획득된 데이터에 기초하여, 자율 주행을 위한 패스를 생성할 수 있다. 제어 장치(210)는, 생성된 경로를 따라 주행하기 위한 드라이빙 플랜을 생성 할 수 있다. 제어 장치(210)는, 드라이빙 플랜에 따른 차량의 움직임을 제어하기 위한 신호를 생성할 수 있다. 자율 주행 장치(210)는, 생성된 신호를 가속장치(230), 브레이크 장치(240), 조향 장치(250) 및 엔진(270)에 제공할 수 있다.The control device 210 for autonomous driving may generate a path for autonomous driving based on the obtained data. The control device 210 may generate a driving plan for driving along the generated path. The control device 210 may generate a signal for controlling the movement of the vehicle according to the driving plan. The autonomous driving device 210 may provide the generated signal to the accelerator 230 , the brake device 240 , the steering device 250 , and the engine 270 .
프로세서(211)는 ASIC(application-specific integrated circuit), CPU(central processing unit), AP(application processor), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 마이크로 제어기, 칩셋, 논리 회로, 데이터 처리 장치 및/또는 이들의 조합을 포함할 수 있다. 이하의 실시예에 대한 소프트웨어 구현에 있어서, 여기서 기술된 기능을 수행하는 소프트웨어 코드는 메모리(212)에 저장되고, 프로세서(211)에 의해 처리될 수 있다.The processor 211 is an ASIC (application-specific integrated circuit), CPU (central processing unit), AP (application processor), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), microcontrollers, chipsets, logic circuits, data processing devices, and/or combinations thereof. In the software implementation for the following embodiments, the software code for performing the functions described herein may be stored in the memory 212 and processed by the processor 211 .
메모리(212)는 프로세서(211)에 의해 액세스가능한 정보를 저장할 수 있다. 상기 정보는 프로세서(211)에 의해 실행가능한 명령어(instructions) 및/또는 프로세서에 의해 처리되는 데이터를 포함할 수 있다. 메모리(212)는 정보를 저장하도록 동작하는 어떤 형태의 컴퓨터 읽기 가능한 매체(computer-readable medium)를 포함할 수 있다. 예를 들어, 메모리(212)는 ROM(read only memory), RAM(random access memory), DVD(digital video disc), 옵티칼 디스크(optical disc), 플래쉬 메모리, SSD(Solid State Drive), 하드 드라이브(hard drive) 및 이들의 조합을 포함할 수 있다.Memory 212 may store information accessible by processor 211 . The information may include instructions executable by the processor 211 and/or data processed by the processor. Memory 212 may include any form of computer-readable medium operative to store information. For example, the memory 212 may include a read only memory (ROM), a random access memory (RAM), a digital video disc (DVD), an optical disc, a flash memory, a solid state drive (SSD), a hard drive ( hard drive) and combinations thereof.
제어 장치(210)가 하나의 물리적 블록으로 프로세서와 메모리를 포함하는 것으로 나타내지만, 제어 장치(210)는 다수 프로세서와 다수 메모리를 포함할 수 있고, 물리적 또는 논리적으로 동작가능하게 연결될 수 있다. Although the control device 210 is shown to include a processor and a memory as one physical block, the control device 210 may include a plurality of processors and a plurality of memories, and may be physically or logically operably connected.
제어 장치(210)는 정보를 표시하기 위한 디스플레이 장치(280)와 연결될 수 있다. 디스플레이 장치(280)는 LCD(liquid crystal display) 터치 스크린 또는 OLED(Organic Light Emitting Diode) 터치 스크린을 포함하고, 승차자의 상태나 제스처를 검출하기 위한 다양한 센서(비디오 카메라, 마이크(microphone) 등)를 포함할 수 있다. The control device 210 may be connected to the display device 280 for displaying information. The display device 280 includes a liquid crystal display (LCD) touch screen or an organic light emitting diode (OLED) touch screen, and includes various sensors (video camera, microphone, etc.) for detecting the state or gesture of the passenger. may include
제어 장치(210)는 무선 매체(wireless medium)을 통해 다른 기기와의 통신하도록 설정되는 무선 모뎀(290)과 연결될 수 있다. 제어 장치(210)는 무선 모뎀(290)을 통해 차량(200) 내부/외부 모바일 기기 또는 서버(도 1의 120) 또는 주변 차량과 무선 신호를 교환할 수 있다. 무선 모뎀(290)에 의해 지원되는 무선 통신 프로토콜에는 제한이 없으며, 무선 모뎀(290)은 셀룰라 통신, WiFi, Bluetooth, Zigbee, 적외선 링크 등 다양한 무선 통신 프로토콜을 지원할 수 있다. The control device 210 may be connected to a wireless modem 290 configured to communicate with other devices through a wireless medium. The control device 210 may exchange a wireless signal with a mobile device or server ( 120 in FIG. 1 ) or a surrounding vehicle inside/outside the vehicle 200 through the wireless modem 290 . There is no limitation on the wireless communication protocol supported by the wireless modem 290 , and the wireless modem 290 may support various wireless communication protocols such as cellular communication, WiFi, Bluetooth, Zigbee, and an infrared link.
제어 장치(210)의 메모리(212)는 맵 정보 및/또는 드라이빙 플랜 데이터(driving plan data)를 가질 수 있다. 드라이빙 플랜 데이터는 차량(200)이 현재 위치부터 목적지까지의 차량의 위치를 트랙킹하기 위한 차량 경로(trajectory)에 관한 정보를 포함할 수 있다. 드라이빙 플랜 데이터는 운전자에게 경로를 안내하거나, 자율 주행을 위해 사용될 수 있다. 맵 정보는 주행 환경을 정의하기 위한 다양한 맵을 포함할 수 있다. 맵 정보는 도로(roadway)의 모양과 고도(elevation), 차선(lane line), 교차로(intersection), 횡단보도(crosswalk), 속도 제한(speed limit), 교통신호(traffic signal), 빌딩 또는 다른 물체나 정보를 포함할 수 있다. 맵 정보는 실시간 트래픽 정보, 도로 상 장애물(obstruction), 도로 상태 정보 등을 더 포함할 수 있다. 맵 정보와 드라이빙 플랜 데이터는 서버(120)에 의해 주어진 정보를 기반으로 업데이트되거나, 차량(200)의 센싱 장치(260)에 의해 검출된 정보를 기반으로 업데이트될 수 있다. The memory 212 of the control device 210 may have map information and/or driving plan data. The driving plan data may include information about a vehicle trajectory for the vehicle 200 to track the location of the vehicle from the current location to the destination. The driving plan data may be used to guide the driver on a route or for autonomous driving. The map information may include various maps for defining the driving environment. Map information includes the shape and elevation of a roadway, lane lines, intersections, crosswalks, speed limits, traffic signals, buildings or other objects. I may include information. The map information may further include real-time traffic information, obstacles on the road, road condition information, and the like. The map information and the driving plan data may be updated based on information given by the server 120 or may be updated based on information detected by the sensing device 260 of the vehicle 200 .
제어 장치(210)는 일렉트로닉 호라이즌 데이터(Electronic Horizon Data)를 생성할 수 있다. 일렉트로닉 호라이즌 데이터는, 차량(200)이 위치한 지점에서부터 호라이즌(horizon)까지 범위 내에서의 드라이빙 플랜 데이터로 이해될 수 있다. 호라이즌은, 기 설정된 주행 경로를 기준으로, 차량(200)이 위치한 지점에서 기설정된 거리 앞의 지점으로 이해될 수 있다. 호라이즌은, 기 설정된 주행 경로를 따라 차량(200)이 위치한 지점에서부터 차량(200)이 소정 시간 이후에 도달할 수 있는 지점을 의미할 수 있다.The control device 210 may generate Electronic Horizon Data. The electronic horizon data may be understood as driving plan data within a range from a point where the vehicle 200 is located to a horizon. The horizon may be understood as a point in front of a preset distance from a point where the vehicle 200 is located based on a preset driving route. The horizon may mean a point to which the vehicle 200 can reach after a predetermined time from a point where the vehicle 200 is located along a preset driving route.
일렉트로닉 호라이즌 데이터는, 호라이즌 맵 데이터 및 호라이즌 패스 데이터를 포함할 수 있다.The electronic horizon data may include horizon map data and horizon pass data.
호라이즌 맵 데이터는, 토폴로지 데이터(topology data), 도로 데이터, HD 맵 데이터 및 다이나믹 데이터(dynamic data) 중 적어도 어느 하나를 포함할 수 있다. 실시예에 따라, 호라이즌 맵 데이터는, 복수의 레이어를 포함할 수 있다. 예를 들면, 호라이즌 맵 데이터는, 토폴로지 데이터에 매칭되는 1 레이어, 도로 데이터에 매칭되는 제2 레이어, HD 맵 데이터에 매칭되는 제3 레이어 및 다이나믹 데이터에 매칭되는 제4 레이어를 포함할 수 있다. 호라이즌 맵 데이터는, 스태이틱 오브젝트(static object) 데이터를 더 포함할 수 있다.The horizon map data may include at least one of topology data, road data, HD map data, and dynamic data. According to an embodiment, the horizon map data may include a plurality of layers. For example, the horizon map data may include a first layer matching topology data, a second layer matching road data, a third layer matching HD map data, and a fourth layer matching dynamic data. The horizon map data may further include static object data.
토폴로지 데이터는, 도로 중심을 연결해 만든 지도로 설명될 수 있다. 토폴로지 데이터는, 차량의 위치를 대략적으로 표시하기에 알맞으며, 주로 운전자를 위한 내비게이션에서 사용하는 데이터의 형태일 수 있다. 토폴로지 데이터는, 차로에 대한 정보가 제외된 도로 정보에 대한 데이터로 이해될 수 있다. 토폴로지 데이터는 외부 서버로부터 수신된 데이터에 기초하여 생성될 수 있다. 토폴로지 데이터는, 차량(200)에 구비된 적어도 하나의 메모리에 저장된 데이터에 기초할 수 있다.Topology data can be described as a map created by connecting road centers. The topology data is suitable for roughly indicating the location of the vehicle, and may be in the form of data mainly used in navigation for drivers. The topology data may be understood as data on road information excluding information on lanes. The topology data may be generated based on data received from an external server. The topology data may be based on data stored in at least one memory provided in the vehicle 200 .
도로 데이터는, 도로의 경사 데이터, 도로의 곡률 데이터, 도로의 제한 속도 데이터 중 적어도 어느 하나를 포함할 수 있다. 도로 데이터는, 추월 금지 구간 데이터를 더 포함할 수 있다. 도로 데이터는 외부 서버로부터 수신된 데이터에 기초할 수 있다. 도로 데이터는, 오브젝트 검출 장치에서 생성된 데이터에 기초할 수 있다.The road data may include at least one of slope data of the road, curvature data of the road, and speed limit data of the road. The road data may further include data on an overtaking prohibited section. The road data may be based on data received from an external server. The road data may be based on data generated by the object detecting apparatus.
HD 맵 데이터는, 도로의 상세한 차선 단위의 토폴로지 정보, 각 차선의 연결 정보, 차량의 로컬라이제이션(localization)을 위한 특징 정보(예를 들면, 교통 표지판, Lane Marking/속성, Road furniture 등)를 포함할 수 있다. HD 맵 데이터는, 통신 장치(220)를 통해, 외부 서버에서 수신된 데이터에 기초할 수 있다.HD map data includes detailed lane-by-lane topology information of the road, connection information of each lane, and characteristic information for vehicle localization (eg, traffic signs, Lane Marking/attributes, Road furniture, etc.). can The HD map data may be based on data received from an external server through the communication device 220 .
다이나믹 데이터는, 도로상에서 발생될 수 있는 다양한 동적 정보를 포함할 수 있다. 예를 들면, 다이나믹 데이터는, 공사 정보, 가변 속도 차로 정보, 노면 상태 정보, 트래픽 정보, 무빙 오브젝트 정보 등을 포함할 수 있다. 다이나믹 데이터는 외부 서버로부터 수신된 데이터에 기초할 수 있다. 다이나믹 데이터는, 오브젝트 검출 장치에서 생성된 데이터에 기초할 수 있다.The dynamic data may include various dynamic information that may be generated on the road. For example, the dynamic data may include construction information, variable speed lane information, road surface condition information, traffic information, moving object information, and the like. The dynamic data may be based on data received from an external server. The dynamic data may be based on data generated by the object detecting apparatus.
호라이즌 패스 데이터는, 차량(200)이 위치한 지점에서부터 호라이즌까지의 범위 내에서 차량(200)이 취할 수 있는 궤도로 설명될 수 있다. 호라이즌 패스 데이터는, 디시전 포인트(decision point)(예를 들면, 갈림길, 분기점, 교차로 등)에서 어느 하나의 도로를 선택할 상대 확률을 나타내는 데이터를 포함할 수 있다. 상대 확률은, 최종 목적지까지 도착하는데 걸리는 시간에 기초하여 계산될 수 있다. 예를 들면, 디시전 포인트에서, 제1 도로를 선택하는 경우 제2 도로를 선택하는 경우보다 최종 목적지에 도착하는데 걸리는 시간이 더 작은 경우, 제1 도로를 선택할 확률은 제2 도로를 선택할 확률보다 더 높게 계산될 수 있다.The horizon pass data may be described as a trajectory that the vehicle 200 can take within a range from a point where the vehicle 200 is located to the horizon. The horizon pass data may include data representing a relative probability of selecting any one road at a decision point (eg, a fork, a junction, an intersection, etc.). The relative probability may be calculated based on the time it takes to arrive at the final destination. For example, at the decision point, if the time taken to arrive at the final destination is shorter when selecting the first road than when selecting the second road, the probability of selecting the first road is higher than the probability of selecting the second road. can be calculated higher.
호라이즌 패스 데이터는, 메인 패스와 서브 패스를 포함할 수 있다. 메인 패스는, 선택될 상대적 확률이 높은 도로들을 연결한 궤도로 이해될 수 있다. 서브 패스는, 메인 패스 상의 적어도 하나의 디시전 포인트에서 분기될 수 있다. 서브 패스는, 메인 패스 상의 적어도 하나의 디시전 포인트에서 선택될 상대적 확률이 낮은 적어도 어느 하나의 도로를 연결한 궤도로 이해될 수 있다.The horizon pass data may include a main path and a sub path. The main path may be understood as a track connecting roads with a high relative probability of being selected. The sub-path may diverge at at least one decision point on the main path. The sub-path may be understood as a trajectory connecting at least one road having a low relative probability of being selected from at least one decision point on the main path.
차량이 자율적으로 또는 비자율적으로 운행될 때, 무선 통신 네트워크를 통해 서버 또는 사용자 기기와 높은 신뢰성으로 통신하는 것이 필요하다. 하지만, 차량은 다양한 환경에서 주행되므로 통신 신뢰성이 보장되기 어려울 수 있다. When a vehicle operates autonomously or non-autonomously, it is necessary to communicate with a server or a user device with high reliability via a wireless communication network. However, since the vehicle is driven in various environments, it may be difficult to guarantee communication reliability.
도 3은 차량이 운행중인 예를 보여준다.3 shows an example in which the vehicle is running.
차량(200)이 A 지점에서 B 지점까지의 주행경로(driving path)(310)를 따라 운행된다고 하자. 이는 차량(200)이 자율적으로 운행될 수 있다. 또는, 운전자에게 상기 주행경로(310)가 나타난 맵을 표시하고, 운전자가 직접 운행할 수도 있다. Assume that the vehicle 200 is driven along a driving path 310 from point A to point B. This allows the vehicle 200 to operate autonomously. Alternatively, a map showing the driving route 310 may be displayed to the driver, and the driver may directly drive the vehicle.
차량(200)은 A 지점에서는 제1 기지국(110a)을 통해 서버(120)와 통신하고, B 지점에서는 제2 기지국(110b)를 통해 서버(210)와 통신할 수 있다. 기지국 또는 서버의 갯수나 배치는 예시에 불과하다. 주행경로(310) 상에는 하나 또는 그 이상의 기지국이 배치될 수 있다. 또한, 각 기지국마다 하나 또는 그 이상의 서버가 배치될 수 있다. The vehicle 200 may communicate with the server 120 through the first base station 110a at point A, and communicate with the server 210 through the second base station 110b at point B. The number or arrangement of base stations or servers is merely an example. One or more base stations may be disposed on the driving path 310 . In addition, one or more servers may be deployed for each base station.
주행경로(310) 상에서 기지국과의 신호 품질은 다양한 이유로 변화될 수 있다. 예를 들어, 차량과 기지국간 거리, 도로내 차량 수, 건물 배치 등은 다양한 경로 손실(path loss)을 야기할 수 있고, 신호 품질이 변화될 수 있다. 신호 품질이 일정 수준으로 떨어지면, 차량(200)과 서버(120) 간의 통신 품질이 보장되지 않거나, 통신 연결이 끊어질 수도 있다. Signal quality with the base station on the driving path 310 may be changed for various reasons. For example, the distance between the vehicle and the base station, the number of vehicles on the road, the arrangement of buildings, etc. may cause various path loss and signal quality may change. When the signal quality drops to a certain level, the communication quality between the vehicle 200 and the server 120 may not be guaranteed or the communication connection may be cut off.
도 4는 주행 경로 상에서 신호 품질이 변화되는 일 예를 보여준다.4 shows an example in which signal quality is changed on a driving route.
신호 품질의 예로 신호 세기(signal strength)가 있다. 신호 세기는 RSSI(Received Signal Strength Indicator), RSRP(Reference Signal Received Power), RSRQ(Reference Signal Received Quality) 및 SINR(Signal to Interference Noise Ratio) 중 적어도 어느 하나를 포함할 수 있다. An example of signal quality is signal strength. The signal strength may include at least one of Received Signal Strength Indicator (RSSI), Reference Signal Received Power (RSRP), Reference Signal Received Quality (RSRQ), and Signal to Interference Noise Ratio (SINR).
신호 품질 맵 상에서 기준값(threshold)으로 제1 기준값(TH1)과 제2 기준값(TH2)이 있고, 신호 세기를 좋음(Good), 중간(Marginal), 나쁨(Poor)의 3 레벨로 나타낸다고 하자. 측정된 신호 세기가 TH1 보다 크면, 'G(좋음)'이다. 측정된 신호 세기가 TH1과 TH2 사이이면, 'M(중간)'이다. 측정된 신호 세기가 TH2 보다 작으면, 'P(나쁨)'이다. 레벨의 수는 예시에 불과하다.It is assumed that there are a first reference value TH1 and a second reference value TH2 as thresholds on the signal quality map, and the signal strength is represented by three levels of good, marginal, and poor. If the measured signal strength is greater than TH1, it is 'G (good)'. If the measured signal strength is between TH1 and TH2, it is 'M (middle)'. If the measured signal strength is less than TH2, it is 'P (bad)'. The number of levels is only an example.
도 4의 예를 참고하면, 차량이 A 지점에서 B 지점까지의 주행경로(310)를 따라 주행할 때, 신호 품질이 G -> M -> P -> M -> G 의 순으로 변화되는 예를 보여준다. 신호 품질 맵은 주행경로(310) 상의 구간 및 각 구간에서의 신호 품질에 관한 정보를 포함할 수 있다. Referring to the example of FIG. 4 , an example in which the signal quality is changed in the order of G -> M -> P -> M -> G when the vehicle travels along the driving path 310 from point A to point B shows The signal quality map may include information about a section on the driving route 310 and signal quality in each section.
신호 세기가 나쁜 구간에서는 서버와 차량 간 통신 품질이 나빠져 정보 교환이 어려울 수 있다. 차량들에서의 통신이 빈번하지 않을 때는 주변 건물 등 주로 고정된 특징에 의해 통신 품질이 결정됨으로써, 통신 품질의 변화가 크지 않다. 하지만, 차량들에서의 통신이 빈번해짐에 따라 차량들간의 간섭 등 변화되는 특징에 의해 통신 품질도 변함으로써 실시간으로 서버와 차량 간 통신 품질을 측정할 필요가 있다. 따라서, 신호 품질에 관한 정보를 실시간으로 업데이트할 필요가 있다. In a section with poor signal strength, communication quality between the server and the vehicle deteriorates, making it difficult to exchange information. When communication in vehicles is not frequent, the communication quality is determined mainly by fixed features such as surrounding buildings, so that the change in communication quality is not large. However, as communication in vehicles becomes frequent, communication quality also changes due to changing characteristics such as interference between vehicles, so it is necessary to measure the communication quality between the server and the vehicle in real time. Therefore, there is a need to update information about signal quality in real time.
신호 품질 맵은 기준 위치(reference position)(또는 기준 구간)에서의 기준 신호 품질에 관한 정보를 포함할 수 있다. 신호 품질 맵은 하나 또는 그 이상의 기준 신호 품질에 관한 정보를 포함할 수 있다. 신호 품질 맵은 주행 정보에 관한 지리적 맵과 일체로 생성될 수도 있고, 지리적 맵과 별도로 생성될 수도 있다. 기준 위치는 기준 신호 품질이 측정된 위치를 포함한다. 기준 구간은 기준 신호 품질이 측정된 구간을 포함한다. 기준 시간은 기준 신호 품질이 측정된 시간을 포함한다. 기준 센서는 기준 신호 품질이 측정된 센서에 관한 정보를 포함한다. 신호 품질 맵은 기준 위치, 기준 구간, 기준 시간 및 기준 센서 중 적어도 어느 하나에 관한 정보를 포함할 수 있다.The signal quality map may include information about the reference signal quality at a reference position (or reference interval). The signal quality map may include information about one or more reference signal qualities. The signal quality map may be generated integrally with the geographic map for driving information, or may be generated separately from the geographic map. The reference position includes a position where the reference signal quality is measured. The reference section includes a section in which the reference signal quality is measured. The reference time includes a time at which the reference signal quality is measured. The reference sensor includes information about the sensor from which the reference signal quality was measured. The signal quality map may include information about at least one of a reference position, a reference interval, a reference time, and a reference sensor.
신호 품질은 차량과 서버간 통신 품질을 나타내는 하나 또는 그 이상의 지표를 포함할 수 있다. 신호 품질은 신호 세기, 지연시간, 대역폭 및 GPS 정확도 중 적어도 어느 하나를 포함할 수 있다. 지연시간은 차량과 서버(또는 차량과 기지국) 간 통신에서의 지연 시간을 나타낼 수 있다. 대역폭은 차량과 서버(또는 차량과 기지국) 간 통신에서 사용되는 최대 대역폭(및/또는 최소 대역폭)을 나타낼 수 있다. The signal quality may include one or more indicators indicating the quality of communication between the vehicle and the server. The signal quality may include at least one of signal strength, latency, bandwidth, and GPS accuracy. The delay time may represent a delay time in communication between the vehicle and the server (or the vehicle and the base station). The bandwidth may indicate the maximum bandwidth (and/or minimum bandwidth) used in communication between the vehicle and the server (or the vehicle and the base station).
도 5는 본 명세서의 일 실시예에 따른 맵 생성 방법을 나타낸다. 차량의 동작은 차량의 제어장치 및/또는 무선모뎀에 의해 구현될 수 있다. 서버의 동작은 서버의 프로세서에 의해 구현될 수 있다.5 illustrates a map generation method according to an embodiment of the present specification. The operation of the vehicle may be implemented by a control device of the vehicle and/or a wireless modem. The operation of the server may be implemented by a processor of the server.
단계 S510에서, 서버는 신호 품질 맵을 무선 매체(wireless medium)를 통해 차량에게 보낸다. 서버는 자신이 관리하는 영역에 차량이 진입하면, 신호 품질 맵을 차량에게 보낼 수 있다. 차량은 이전에 운행해보지 못한 지역에서도 신호 품질 맵을 기반으로 서버와 통신할 수 있다. In step S510, the server sends the signal quality map to the vehicle through a wireless medium. When a vehicle enters an area managed by the server, the server may send a signal quality map to the vehicle. Vehicles can also communicate with servers based on signal quality maps, even in areas they have never driven before.
단계 S520에서, 차량은 상기 신호 품질 맵을 기반으로 차량의 주행 경로를 따라 상기 서버와 상기 무선 매체를 통해 통신한다. 그리고, 차량은 상기 주행 경로를 따라 신호 품질을 측정한다. 상기 주행 경로 상에서 상기 신호 품질이 측정된 위치를 측정 위치라 하고, 상기 신호 품질이 측정된 시간을 측정 시간이라 하고, 상기 신호 품질이 측정된 센서를 측정 센서라 한다. In step S520, the vehicle communicates with the server through the wireless medium along the driving route of the vehicle based on the signal quality map. Then, the vehicle measures the signal quality along the driving path. A position at which the signal quality is measured on the driving route is referred to as a measurement position, a time at which the signal quality is measured is referred to as a measurement time, and a sensor at which the signal quality is measured is referred to as a measurement sensor.
차량은 상기 주행 경로가 이전에 주행한 적이 있을 때, 신호 품질을 측정할 수 있다. 차량은 상기 주행 경로를 따라 적어도 N 회 (N>1) 주행할 때 상기 신호 품질을 측정할 수 있다. 차량은 상기 주행 경로를 따라 M (M>=1) 번째 주행마다 상기 신호 품질을 측정할 수 있다.The vehicle may measure the signal quality when the driving route has been driven before. The vehicle may measure the signal quality when driving at least N times (N>1) along the driving path. The vehicle may measure the signal quality for every M (M>=1)th drive along the travel path.
단계 S530에서, 차량은 상기 측정된 신호 품질를 기반으로 상기 신호 품질 맵을 업데이트한다. 차량은 상기 측정된 신호 품질의 신뢰도를 기반으로 상기 신호 품질 맵을 업데이트할 수 있다. 차량은 신호 품질 맵 내의 기준 신호 품질과 상기 측정된 신호 품질이 다르면 상기 신호 품질 맵을 업데이트할 수 있다. 기준 신호 품질과 상기 측정된 신호 품질이 다르다는 것은 기준 신호 품질 및 상기 측정된 신호 품질과의 차이가 기준값 보다 큰 것을 의미할 수 있다. In step S530, the vehicle updates the signal quality map based on the measured signal quality. The vehicle may update the signal quality map based on the measured reliability of the signal quality. The vehicle may update the signal quality map if the measured signal quality is different from the reference signal quality in the signal quality map. The difference between the reference signal quality and the measured signal quality may mean that the difference between the reference signal quality and the measured signal quality is greater than a reference value.
차량은 신호 품질 맵 내의 기준 신호 품질과 상기 측정된 신호 품질이 다르더라도 특정 조건을 만족하면 상기 신호 품질 맵을 업데이트할 수 있다. 상기 특정 조건은 상기 측정된 신호 품질의 신뢰도를 포함할 수 있다. 상기 측정된 신호 품질의 신뢰도는 측정 위치, 측정 시간 및 측정 센서를 기반으로 결정될 수 있다. 차량은 (i) 상기 측정 위치와 상기 기준 위치가 특정 거리 이내이고, (ii) 상기 기준 시간 보다 상기 측정 시간이 특정 시간 이후이고, (iii) 상기 측정 센서의 정확도가 상기 기준 센서의 정확도보다 높으면, 상기 신호 품질 맵을 업데이트할 수 있다. 상기 조건 (i) 내지 (iii) 중 적어도 어느 하나가 만족되면, 상기 차량은 상기 신호 품질 맵을 업데이트할 수 있다. Even if the reference signal quality in the signal quality map is different from the measured signal quality, the vehicle may update the signal quality map when a specific condition is satisfied. The specific condition may include reliability of the measured signal quality. The reliability of the measured signal quality may be determined based on a measurement position, a measurement time, and a measurement sensor. If the vehicle (i) the measurement position and the reference position are within a specific distance, (ii) the measurement time is later than the reference time, and (iii) the accuracy of the measurement sensor is higher than the accuracy of the reference sensor , the signal quality map may be updated. When at least one of the conditions (i) to (iii) is satisfied, the vehicle may update the signal quality map.
상기 센서의 정확도는 차량의 제조 연도, 차량의 모델 번호, 센서 타입, 센서 해상도 등을 기반으로 추정될 수 있다. The accuracy of the sensor may be estimated based on a manufacturing year of the vehicle, a model number of the vehicle, a sensor type, and a sensor resolution.
상기 신호 품질 맵은 기준 신호 품질과 연관된 기준 구간에 관한 정보를 포함할 수 있다. 상기 차량은 측정 위치가 상기 기준 구간에 속하면, 상기 신호 품질 맵을 업데이트할 수 있다.The signal quality map may include information about a reference interval associated with a reference signal quality. The vehicle may update the signal quality map when the measurement location belongs to the reference section.
신뢰도가 높을 경우 신호 품질 맵을 업데이트하여 너무 빈번한 업데이트를 방지할 수 있다. If the reliability is high, the signal quality map can be updated to avoid too frequent updates.
단계 S540에서, 차량은 업데이트된 신호 품질 맵을 서버로 무선 매체를 통해 전송할 수 있다. 서버는 업데이트된 신호 품질 맵을 기반으로 다른 차량과 통신할 수 있다. In step S540, the vehicle may transmit the updated signal quality map to the server via a wireless medium. The server can communicate with other vehicles based on the updated signal quality map.
신호 품질 맵을 기반으로 신호 품질이 나쁜 구간 정보를 얻음으로써 서버와 차량이 보다 안정적인 통신을 유지할 수 있다. 신뢰도가 높은 정보를 기반으로 신호 품질 맵을 업데이트하여, 신호 품질의 정확도를 높일 수 있다. 차량이 직접 신호 품질 맵을 저장하고 업데이트함으로써, 서버와 연결이 끊기더라도 동작이 가능하다. The server and vehicle can maintain more stable communication by obtaining section information with poor signal quality based on the signal quality map. By updating the signal quality map based on highly reliable information, it is possible to increase the accuracy of the signal quality. By storing and updating the signal quality map directly by the vehicle, operation is possible even if the connection with the server is lost.
자율 주행 또는 비자율 주행에 있어서, 차량은 신호 품질 맵을 기반으로 주행 경로 상에서 서버와 어느 정도의 품질이나 안정성을 유지하면서 통신을 유지할 수 있는지 예측할 수 있다. 신호 품질이 좋은 지역에 진입하면, 차량은 서버와 고품질/대용량의 메시지를 교환할 수 있다. 신호 품질이 나쁜 지역에 진입하면, 차량은 서버와 감소된 양의 메시지를 교환하거나, 필수적인 메시지 만을 교환할 수 있다.In autonomous driving or non-autonomous driving, the vehicle may predict, based on the signal quality map, how much quality or stability it can maintain communication with the server on the driving route. When entering an area with good signal quality, the vehicle can exchange high-quality/large-capacity messages with the server. When entering an area with poor signal quality, the vehicle can exchange a reduced amount of messages with the server, or only essential messages.
도 6은 신호 품질 맵을 생성하는 다른 예를 나타낸다.6 shows another example of generating a signal quality map.
집에서 직장으로 이동하거나 직장에서 집으로 이동하는 경우와 같이 차량이 빈번하게 운행하는 주행 경로의 경우 보다 자세한 신호 품질 맵을 작성할 수 있다. For driving routes where vehicles travel frequently, such as traveling from home to work or from work to home, a more detailed signal quality map can be created.
A 지점에서 B 지점으로 이동하는 주행 경로(610)를 고려하자. 서버에 의해 지정된 복수의 기준 위치가 있다. 차량은 대응하는 기준 신호 품질에 관한 신호 품질 맵을 서버로부터 수신한다.Consider a travel path 610 moving from point A to point B. There are a plurality of reference locations designated by the server. The vehicle receives from the server a signal quality map relating to a corresponding reference signal quality.
차량은 2개의 기준 위치 사이에 하나 또는 그 이상의 보조 기준 위치를 설정할 수 있다. 차량은 각 보조 기준 위치에서 신호 품질을 측정하고, 이를 보조 기준 신호 품질로써 저장한다. 이후 차량이 다시 주행 경로(610) 상으로 주행하면 기준 위치 뿐만 아니라 보조 기준 위치에서도 신호 품질을 측정한다. 측정된 신호 품질이 보조 신호 품질과 달리지면 신호 품질 맵을 업데이트 할 수 있다. 신뢰도를 기반으로 업데이트될 수 있다.The vehicle may establish one or more auxiliary reference positions between the two reference positions. The vehicle measures the signal quality at each auxiliary reference location and stores it as the auxiliary reference signal quality. Thereafter, when the vehicle travels on the driving path 610 again, signal quality is measured not only in the reference position but also in the auxiliary reference position. If the measured signal quality differs from the auxiliary signal quality, the signal quality map can be updated. It can be updated based on reliability.
보조 기준 위치를 설정하는 방법이나 갯수에 대해서는 제한이 없다. 차량은 추가되는 보조 기준 위치를 통해 주행 경로(610) 상에서 보다 자세한 신호 품질을 파악할 수 있다.There is no restriction on the method or number of auxiliary reference positions. The vehicle may identify more detailed signal quality on the driving path 610 through the added auxiliary reference position.
차량은 보조 기준 위치에서의 신호 품질이 인접하는 기준 위치에서의 신호 품질과 2 레벨 보다 크게 차이가 나거나, 보조 기준 위치에서의 신호 품질이 빈번하게 업데이트되면 서버에게 해당 보조 기준 위치 및 연관된 보조 기준 신호 품질에 관한 정보를 통지할 수 있다. 서버는 통지된 보조 기준 위치를 새로운 기준 위치로 추가로 설정하거나, 기존 기준 위치를 통지된 보조 기준 위치로 교체할 수 있다.If the signal quality at the auxiliary reference location differs by more than two levels from the signal quality at the adjacent reference location, or if the signal quality at the auxiliary reference location is updated frequently, the vehicle will notify the server of the auxiliary reference location and the associated auxiliary reference signal. Information about quality can be notified. The server may additionally set the notified auxiliary reference position as a new reference position or replace the existing reference position with the notified auxiliary reference position.
도 7은 자율주행차량이 주행하는 일 예를 보여준다.7 shows an example in which the autonomous driving vehicle is driven.
자율주행차량(710)은 신호등이 없는 교차로쪽으로 주행하고 있다. 차량(720)도 교차로쪽으로 주행하고 있다. 자율주행차량(710)은 카메라 및/또는 라이다 등의센서를 통해 주변을 모니터링하고 있지만, 빌딩(725)으로 인해 차량(720)의 존재를 미리 파악하기 어려울 수 있다.The autonomous vehicle 710 is traveling toward an intersection where there is no traffic light. Vehicle 720 is also traveling toward the intersection. Although the autonomous vehicle 710 monitors its surroundings through a camera and/or a sensor such as lidar, it may be difficult to detect the presence of the vehicle 720 in advance due to the building 725 .
도 8은 자율주행차량이 주행하는 다른 예를 보여준다.8 shows another example in which the autonomous vehicle is driven.
자율주행차량(810)은 신호등이 없는 교차로쪽으로 주행하고 있으며, 교차로에서 우측으로 진행하려 한다. 하지만, 교차로에는 보행자(pedestrian)(830)가 도로를 건너고 있다. 자율주행차량(810)은 빌딩(825)으로 인해 보행자(830)의 존재를 미리 파악하기 어려울 수 있다. 하지만, 반대 방향에서 주행하는 차량(820)는 보행자(830)의 존재를 미리 알 수 있다. The autonomous vehicle 810 is driving toward an intersection where there is no traffic light, and attempts to proceed to the right at the intersection. However, at the intersection, a pedestrian 830 is crossing the road. It may be difficult for the autonomous vehicle 810 to recognize the presence of the pedestrian 830 in advance due to the building 825 . However, the vehicle 820 traveling in the opposite direction may be aware of the presence of the pedestrian 830 in advance.
차량(820)이 자율주행차량(810)에게 보행자(830)의 존재를 미리 알려줄 수 있다면 보다 안전한 주행이 가능할 것이다.If the vehicle 820 can inform the autonomous vehicle 810 of the presence of the pedestrian 830 in advance, safer driving will be possible.
일반적인 차량(820)은 서버와의 통신은 지원하지만, V2V 통신은 지원하지 않을수 있다. 따라서, 자율주행차량(810)은 실시간으로 수집되는 자신의 센서 데이터만을 기반으로 주행 방법을 판단한다. 자율주행차량(810) 내 센서의 음영지역(건물 뒤편, 장애물 너머 등)에서 발생하는 리스크에 대해 자율주행차량(810)은 인지할 수 없기 때문에 주행 안전을 보장하기 어려울 수 있다.The general vehicle 820 may support communication with a server, but may not support V2V communication. Accordingly, the autonomous vehicle 810 determines a driving method based only on its own sensor data collected in real time. It may be difficult to ensure driving safety because the autonomous vehicle 810 cannot recognize a risk that occurs in a sensor shaded area (behind a building, over an obstacle, etc.) in the autonomous vehicle 810 .
도 9는 본 명세서의 일 실시예에 따른 자율주행을 보조하는(assist) 동작을 나타낸다.9 illustrates an operation of assisting autonomous driving according to an embodiment of the present specification.
자율주행차량(910)은 서버(930)와 통신하여 주행 경로 상의 주행 환경에 관한 정보를 제공받을 수 있다. 서버(930)는 자율주행차량(910)의 센서가 감지하지 못하는 음영지역(건물/장애물/타차량 등)에서 자율주행차량(910)의 안전을 위협하는 리스크가 발생할 경우, 해당 정보를 자율주행차량(910)에게 제공하여 자율 주행을 실시간으로 보조할 수 있다. The autonomous vehicle 910 may communicate with the server 930 to receive information about a driving environment on a driving route. When a risk threatening the safety of the autonomous driving vehicle 910 occurs in a shaded area (building/obstacle/other vehicle, etc.) that the sensor of the autonomous driving vehicle 910 cannot detect, the server 930 transmits the information to autonomous driving. It may be provided to the vehicle 910 to assist autonomous driving in real time.
서버(930)는 프로세서(931)와 메모리(932)를 포함할 수 있다. 메모리(932)는 주행 정보와 주행 환경 정보를 저장한다. 프로세서(931)는 서버(930)의 동작을 구현할 수 있다. 서버(930)는 주변차량(920a, 920b)으로부터 다양한 정보를 수집한다. 서버(930)는 차량 급정거, 음영지역에서 튀어나오는 차량의 방향/속도, 충돌 예상 지점 등 정보를 분석할 수 있다.The server 930 may include a processor 931 and a memory 932 . The memory 932 stores driving information and driving environment information. The processor 931 may implement the operation of the server 930 . The server 930 collects various information from the surrounding vehicles 920a and 920b. The server 930 may analyze information such as a sudden vehicle stop, the direction/speed of the vehicle protruding from the shaded area, and an expected collision point.
도 10은 본 명세서의 일 실시예에 따른 자율주행을 보조하는 방법을 나타낸 흐름도이다.10 is a flowchart illustrating a method of assisting autonomous driving according to an embodiment of the present specification.
자율주행차량(910)의 동작은 제어장치에 의해 수행될 수 있다. 자율주행차량(910)과 서버(930)는 도 5 또는 도 6의 실시예에 따른 신호품질맵을 교환하고 업데이트할 수 있다.The operation of the autonomous vehicle 910 may be performed by a control device. The autonomous vehicle 910 and the server 930 may exchange and update the signal quality map according to the embodiment of FIG. 5 or FIG. 6 .
단계 S1010에서, 자율주행차량(910)은 서버(930)로 주변 상황에 대한 알림 정보를 요청하는 가입 요청(subscription request)을 보낸다. 가입 요청은 자율주행차량(910)의 식별자, 주행 속도, 주행 경로, 현재 위치 및 주변 상황이 감지될 지역의 범위 중 적어도 어느 하나를 포함할 수 있다.In step S1010 , the autonomous vehicle 910 transmits a subscription request for requesting notification information about the surrounding situation to the server 930 . The subscription request may include at least one of an identifier of the autonomous vehicle 910 , a driving speed, a driving route, a current location, and a range of an area in which a surrounding situation is to be detected.
단계 S1020에서, 서버(930)는 자율주행차량(910)으로 가입을 허락하는 응답을 보낸다.In step S1020 , the server 930 sends a response allowing the subscription to the autonomous vehicle 910 .
단계 S1030에서, 서버(930)는 주변 차량, 주변 기기(예, 보행자의 모바일 기기) 등으로부터 주변 정보를 수집한다.In step S1030 , the server 930 collects surrounding information from surrounding vehicles and surrounding devices (eg, pedestrian mobile devices).
단계 S1040에서, 자율주행차량(910)은 주행 중에도 주행 정보를 서버(930)에게 제공할 수 있다. 주행 정보는 주행 속도, 주행 경로, 현재 위치 및 주변 상황이 감지될 지역의 범위 중 적어도 어느 하나를 포함할 수 있다.In step S1040 , the autonomous vehicle 910 may provide driving information to the server 930 while driving. The driving information may include at least one of a driving speed, a driving route, a current location, and a range of a region in which a surrounding situation is to be sensed.
단계 S1050에서, 서버(930)는 자율주행차량(910)에게 보조(assisting) 메시지를 보낸다(S1050). 보조 메시지는 주기적으로 생성되고 전송될 수 있다. 또는, 보조 메시지는 특정 조건을 기반으로 생성되고 전송될 수 있다. 상기 특정 조건은 자율주행차량(910)의 안전 또는 제어에 관련될 수 있다.In step S1050, the server 930 sends an assisting message to the autonomous vehicle 910 (S1050). Ancillary messages may be generated and transmitted periodically. Alternatively, the auxiliary message may be generated and transmitted based on a specific condition. The specific condition may be related to safety or control of the autonomous vehicle 910 .
서버(930)는 자율주행차량(910)의 주변 정보를 기반으로 상기 자율주행차량(910)과 물체와의 충돌의 위험(risk of collision)을 판단한다. 상기 물체는 주변 차량, 보행자, 장애물 등 일 수 있다. 서버(930)는 상기 충돌의 위험이 미리 지정된 기준(predetermined criterion)을 넘으면, 보조(assisting) 메시지를 생성할 수 있다. 예를 들어, 주변 차량의 속도와 진행 방향을 고려할 때 자율주행차량(910)의 주행 경로와 중복될 것으로 예상되면, 서버(930)는 보조 메시지를 생성할 수 있다. 자율주행차량(910)의 속도와 진행 방향을 고려할 때 앞선 장애물과의 충돌이 예상되면, 서버(930)는 보조 메시지를 생성할 수 있다.The server 930 determines a risk of collision between the autonomous vehicle 910 and an object based on surrounding information of the autonomous vehicle 910 . The object may be a nearby vehicle, a pedestrian, an obstacle, or the like. The server 930 may generate an assisting message when the risk of collision exceeds a predetermined criterion. For example, if it is expected to overlap with the driving path of the autonomous vehicle 910 in consideration of the speed and traveling direction of the surrounding vehicle, the server 930 may generate an auxiliary message. If a collision with a preceding obstacle is expected in consideration of the speed and the traveling direction of the autonomous vehicle 910 , the server 930 may generate an auxiliary message.
보조 메시지는 복수의 타입 중 선택된 하나의 타입으로써 생성될 수 있다. 예를 들어, 보조 메시지는 제1 타입 메시지 또는 제2 타입 메시지로써 생성될 수 있다. 타입의 수는 예시에 불과하다. 복수의 타입은 서로 다른 크기(예, 서로 다른 비트 수)를 가질 수 있다. The auxiliary message may be generated as one selected from among a plurality of types. For example, the auxiliary message may be generated as a first type message or a second type message. The number of types is only an example. The plurality of types may have different sizes (eg, different number of bits).
일 실시예에서, 서버(930)는 충돌의 타입에 따라 보조 메시지의 타입을 선택할 수 있다. 충돌의 위험이 임박하지 않지 않으면, 제1 타입 메시지가 선택되고, 충돌의 위험이 임박하면, 제2 타입 메시지가 선택될 수 있다.In one embodiment, server 930 may select the type of auxiliary message according to the type of conflict. If the risk of collision is not imminent, the first type message may be selected, and if the risk of collision is imminent, the second type message may be selected.
다른 실시예에서, 서버(930)는 신호 품질 맵의 신호 품질에 기반하여 보조 메시지의 타입을 선택할 수 있다. 신호 품질이 좋으면, 제1 타입 메시지가 선택되고, 신호 품질이 나쁘면 제2 타입 메시지가 선택될 수 있디.In another embodiment, the server 930 may select the type of auxiliary message based on the signal quality of the signal quality map. If the signal quality is good, the first type message may be selected, and if the signal quality is poor, the second type message may be selected.
제1 타입 메시지는 보다 자세한 정보 또는 보다 많은 양의 정보를 가질 수 있다. 상기 제1 타입 메시지는 상기 자율주행차량(910)이 상기 물체를 식별할 수 있는 식별 정보를 포함할 수 있다. 상기 식별 정보는 충돌이 예상되는 물체의 위치/속도/진행 방향, 충돌 예상 지점 등을 포함할 수 있다. The first type message may have more detailed information or a larger amount of information. The first type message may include identification information through which the autonomous vehicle 910 can identify the object. The identification information may include a location/velocity/advance direction of an object expected to collide, an expected collision point, and the like.
제2 타입 메시지는 상기 충돌의 정도에 관한 정보를 포함할 수 있다. 예를 들어, 제2 타입 메시지는 '충돌 경고', '충돌 위험'과 같이 충돌의 경고하는 정보를 포함할 수 있다. The second type message may include information about the degree of the collision. For example, the second type message may include information warning of collision, such as 'collision warning' and 'collision risk'.
제2 타입 메시지는 자율주행차량(910)의 제어에 관한 제어 정보를 포함할 수 있다. 상기 제어 정보는 '감속', '가속', '중지', '회전', '매뉴얼 모드로의 전환'과 같이 충돌을 벗어나기 위해 자율주행차량(910)에게 권장되는 동작을 포함할 수 있다.The second type message may include control information related to the control of the autonomous vehicle 910 . The control information may include actions recommended for the autonomous vehicle 910 to avoid a collision, such as 'decelerate', 'accelerate', 'stop', 'rotate', and 'switch to manual mode'.
제1 타입 메시지와 제2 타입 메시지는 서로 다른 포맷으로 생성될 수 있다. 예를 들어, 제1 타입 메시지는 PVD(Prove Vehicle Data)로써 생성될 수 있다. 제2 타입 메시지는 BSM(Basic Safety Message)로써 생성될 수 있다.The first type message and the second type message may be generated in different formats. For example, the first type message may be generated as Prove Vehicle Data (PVD). The second type message may be generated as a Basic Safety Message (BSM).
보조 메시지를 수신한 자율주행차량(910)은 보조 메시지의 내용에 따라 안전 주행 모드로 주행하거나 매뉴얼 모드로 전환하거나 긴급 정지할 수 있다. Upon receiving the auxiliary message, the autonomous vehicle 910 may drive in the safe driving mode, switch to the manual mode, or make an emergency stop according to the contents of the auxiliary message.
자율주행차량은 센서 정보와 서버로부터의 정보를 모두 사용하여 실시간으로 주변 상황을 인지할 수 있어, 주행 안전성이 향상될 수 있다.The autonomous vehicle can recognize the surrounding situation in real time by using both sensor information and information from the server, so driving safety can be improved.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the exemplary system described above, the methods are described on the basis of a flowchart as a series of steps or blocks, however, the present invention is not limited to the order of steps, and some steps may occur in a different order or concurrent with other steps as described above. can In addition, those skilled in the art will understand that the steps shown in the flowchart are not exhaustive and that other steps may be included or that one or more steps in the flowchart may be deleted without affecting the scope of the present invention.

Claims (12)

  1. 서버에 의해 수행되어, 자율주행을 보조하는 방법에 있어서,In a method performed by a server to assist autonomous driving,
    자율주행차량으로부터 주행 경로에 관한 정보를 수신하고;receive information about a driving route from the autonomous vehicle;
    상기 주행 경로 상에서 상기 자율주행차량의 주변 정보를 수집하고;collecting surrounding information of the autonomous vehicle on the driving route;
    상기 주변 정보를 기반으로 상기 자율주행차량과 물체와의 충돌의 위험(risk of collision)을 판단하고;determining a risk of collision between the autonomous vehicle and an object based on the surrounding information;
    상기 충돌의 위험이 미리 지정된 기준(predetermined criterion)을 넘으면, 보조(assisting) 메시지를 생성하고;if the risk of collision exceeds a predetermined criterion, generate an assisting message;
    상기 자율주행차량으로 상기 보조 메시지를 전송하는 것을 포함하는 방법.and sending the assistance message to the autonomous vehicle.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 보조 메시지는 제1 타입 메시지 또는 제2 타입 메시지로써 생성되고, 상기 제1 타입 메시지와 상기 제2 타입 메시지는 서로 다른 크기를 갖는 것을 특징으로 하는 방법.The auxiliary message is generated as a first type message or a second type message, and the first type message and the second type message have different sizes.
  3. 제 2 항에 있어서,3. The method of claim 2,
    상기 제1 타입 메시지는 상기 자율주행차량이 상기 물체를 식별할 수 있는 정보를 포함하는 것을 특징으로 하는 방법.The method of claim 1, wherein the first type message includes information by which the autonomous vehicle can identify the object.
  4. 제 3 항에 있어서,4. The method of claim 3,
    상기 제2 타입 메시지는 상기 충돌의 정도에 관한 정보를 포함하는 것을 특징으로 하는 방법.The second type message includes information about the extent of the collision.
  5. 제 3 항에 있어서,4. The method of claim 3,
    상기 제2 타입 메시지는 상기 자율주행차량의 제어에 관한 정보를 포함하는 것을 특징으로 하는 방법.The second type message comprises information about the control of the autonomous vehicle.
  6. 제 2 항에 있어서,3. The method of claim 2,
    상기 방법은the method
    상기 자율주행차량과 신호 품질 맵을 교환하고;exchanging a signal quality map with the autonomous vehicle;
    상기 신호 품질 맵을 기반으로 상기 자율주행차량과 상기 서버 사이 신호 품질을 결정하는 것을 더 포함하고,Further comprising determining a signal quality between the autonomous vehicle and the server based on the signal quality map,
    상기 신호 품질에 따라 상기 제1 타입 메시지 및 상기 제2 타입 메시지 중 하나가 선택되는 것을 특징으로 하는 방법.The method of claim 1, wherein one of the first type message and the second type message is selected according to the signal quality.
  7. 자율주행을 보조하는 서버에 있어서,In the server supporting autonomous driving,
    프로세서; 및 processor; and
    상기 프로세서에 연결되어, 상기 프로세서에 의해 실행될 때 상기 서버가 기능을 수행하도록 하는 명령어를 저장하는 메모리를 포함하되, 상기 기능은a memory coupled to the processor to store instructions that, when executed by the processor, cause the server to perform a function, the function comprising:
    자율주행차량으로부터 주행 경로에 관한 정보를 수신하고;receive information about a driving route from the autonomous vehicle;
    상기 주행 경로 상에서 상기 자율주행차량의 주변 정보를 수집하고;collecting surrounding information of the autonomous vehicle on the driving route;
    상기 주변 정보를 기반으로 상기 자율주행차량과 물체와의 충돌의 위험(risk of collision)을 판단하고;determining a risk of collision between the autonomous vehicle and an object based on the surrounding information;
    상기 충돌의 위험이 미리 지정된 기준(predetermined criterion)을 넘으면, 보조(assisting) 메시지를 생성하고;if the risk of collision exceeds a predetermined criterion, generate an assisting message;
    상기 자율주행차량으로 상기 보조 메시지를 전송하는 것을 포함하는 서버.and transmitting the auxiliary message to the autonomous vehicle.
  8. 제 7 항에 있어서,8. The method of claim 7,
    상기 보조 메시지는 제1 타입 메시지 또는 제2 타입 메시지로써 생성되고, 상기 제1 타입 메시지와 상기 제2 타입 메시지는 서로 다른 크기를 갖는 것을 특징으로 하는 서버.The auxiliary message is generated as a first type message or a second type message, and the first type message and the second type message have different sizes.
  9. 제 8 항에 있어서,9. The method of claim 8,
    상기 제1 타입 메시지는 상기 자율주행차량이 상기 물체를 식별할 수 있는 정보를 포함하는 것을 특징으로 하는 서버.The server, characterized in that the first type message includes information by which the autonomous vehicle can identify the object.
  10. 제 9 항에 있어서,10. The method of claim 9,
    상기 제2 타입 메시지는 상기 충돌의 정도에 관한 정보를 포함하는 것을 특징으로 하는 서버.The second type message includes information about the degree of the collision.
  11. 제 9 항에 있어서,10. The method of claim 9,
    상기 제2 타입 메시지는 상기 자율주행차량의 제어에 관한 정보를 포함하는 것을 특징으로 하는 서버.The second type message server, characterized in that it includes information about the control of the autonomous vehicle.
  12. 제 8 항에 있어서,9. The method of claim 8,
    상기 기능은The function is
    상기 자율주행차량과 신호 품질 맵을 교환하고;exchanging a signal quality map with the autonomous vehicle;
    상기 신호 품질 맵을 기반으로 상기 자율주행차량과 상기 서버 사이 신호 품질을 결정하는 것을 더 포함하고,Further comprising determining a signal quality between the autonomous vehicle and the server based on the signal quality map,
    상기 신호 품질에 따라 상기 제1 타입 메시지 및 상기 제2 타입 메시지 중 하나가 선택되는 것을 특징으로 하는 서버.The server, characterized in that one of the first type message and the second type message is selected according to the signal quality.
PCT/KR2020/004291 2020-03-30 2020-03-30 Method and device for assisting autonomous driving WO2021201304A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/004291 WO2021201304A1 (en) 2020-03-30 2020-03-30 Method and device for assisting autonomous driving

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/004291 WO2021201304A1 (en) 2020-03-30 2020-03-30 Method and device for assisting autonomous driving

Publications (1)

Publication Number Publication Date
WO2021201304A1 true WO2021201304A1 (en) 2021-10-07

Family

ID=77927366

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/004291 WO2021201304A1 (en) 2020-03-30 2020-03-30 Method and device for assisting autonomous driving

Country Status (1)

Country Link
WO (1) WO2021201304A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113968224A (en) * 2021-12-06 2022-01-25 武汉路特斯汽车有限公司 Control method and control system for automatically adjusting driving mode and vehicle
CN115973131A (en) * 2023-03-20 2023-04-18 上海伯镭智能科技有限公司 Mine unmanned vehicle rollover prevention method and related device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078320A (en) * 2002-08-09 2004-03-11 Mitsui Sumitomo Insurance Co Ltd Risk information server, risk information system, and route guidance device
US20120094606A1 (en) * 2009-08-19 2012-04-19 Nec Corporation Communication device, communication system, and communication method
US20130147955A1 (en) * 2011-12-12 2013-06-13 Denso Corporation Warning system, vehicular apparatus, and server
KR20180066663A (en) * 2016-12-09 2018-06-19 현대자동차주식회사 Server and method for warning dangerous situation
KR20190106846A (en) * 2019-08-26 2019-09-18 엘지전자 주식회사 Method and apparatus for controlling by emergency step in autonomous driving system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078320A (en) * 2002-08-09 2004-03-11 Mitsui Sumitomo Insurance Co Ltd Risk information server, risk information system, and route guidance device
US20120094606A1 (en) * 2009-08-19 2012-04-19 Nec Corporation Communication device, communication system, and communication method
US20130147955A1 (en) * 2011-12-12 2013-06-13 Denso Corporation Warning system, vehicular apparatus, and server
KR20180066663A (en) * 2016-12-09 2018-06-19 현대자동차주식회사 Server and method for warning dangerous situation
KR20190106846A (en) * 2019-08-26 2019-09-18 엘지전자 주식회사 Method and apparatus for controlling by emergency step in autonomous driving system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113968224A (en) * 2021-12-06 2022-01-25 武汉路特斯汽车有限公司 Control method and control system for automatically adjusting driving mode and vehicle
CN113968224B (en) * 2021-12-06 2024-04-26 宁波路特斯机器人有限公司 Control method and control system for automatically adjusting driving mode and vehicle
CN115973131A (en) * 2023-03-20 2023-04-18 上海伯镭智能科技有限公司 Mine unmanned vehicle rollover prevention method and related device

Similar Documents

Publication Publication Date Title
US10176715B2 (en) Navigation system with dynamic mapping mechanism and method of operation thereof
US11238738B2 (en) Information providing system, server, mobile terminal, and computer program
US20200276973A1 (en) Operation of a vehicle in the event of an emergency
EP3629059A1 (en) Sharing classified objects perceived by autonomous vehicles
US11835948B2 (en) Systems and methods for improving vehicle operations using movable sensors
US11529955B2 (en) Traffic light estimation
US11945472B2 (en) Trajectory planning of vehicles using route information
KR102548079B1 (en) Operation of an autonomous vehicle based on availability of navigational information
JPWO2016035199A1 (en) Automated traveling management system, server, and automated traveling management method
WO2020071564A1 (en) Mobile its station and message transmission and reception method of said mobile its station
CN119156655A (en) System and method for intersection collision avoidance
US20240160219A1 (en) Automated platooning system and method thereof
WO2021201304A1 (en) Method and device for assisting autonomous driving
CN118212804A (en) Intersection vehicle right turn assistance system and operation method based on UWB communication and V2X communication
JP7172603B2 (en) SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM
WO2021201308A1 (en) Method for generating map reflecting signal quality and device for vehicle using same
KR102811451B1 (en) Electronic device for vehicle and method for operating the same
WO2021215559A1 (en) Vehicle monitoring method and apparatus
WO2021201305A1 (en) Method and device for changing communication protocol for vehicle
JP2024003806A (en) Information processing device, information processing method, and program
KR20210090301A (en) Control of vehicles performing platooning
WO2024081225A1 (en) Communicating precedence using vehicle to everything (v2x) messages
US20230398866A1 (en) Systems and methods for heads-up display
KR20230173041A (en) Maintaining calibration of an ibis camera
US11979805B2 (en) Control method, communication terminal, and communication system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20929622

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20929622

Country of ref document: EP

Kind code of ref document: A1