WO2019107353A1 - Data structure of map data - Google Patents
Data structure of map data Download PDFInfo
- Publication number
- WO2019107353A1 WO2019107353A1 PCT/JP2018/043571 JP2018043571W WO2019107353A1 WO 2019107353 A1 WO2019107353 A1 WO 2019107353A1 JP 2018043571 W JP2018043571 W JP 2018043571W WO 2019107353 A1 WO2019107353 A1 WO 2019107353A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- deterioration
- data
- feature
- data structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3826—Terrain data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
Definitions
- the present application relates to a data structure of map data including deterioration information on the deterioration state of a feature.
- the object position measured by a sensor such as LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) and the object position described in map data for automatic operation are matched with high accuracy. It is necessary to estimate the car position.
- Patent Document 1 discloses a technique for extracting data measuring a road surface from among points cloud data including many data other than the road surface, such as buildings and road trees, etc. There is. The technology can be used as a pretreatment for extracting white lines drawn on roads.
- the road area could be determined from the point cloud data obtained by measuring the ground surface by using the technique of Patent Document 1, it was not possible to determine the deterioration state of the feature.
- the importance of processing using feature information in self-location estimation, lane keeping, recognition of travelable area, etc. is very high, and the degradation state of features also affects the processing. large. Therefore, it is important to grasp the actual degradation state of the feature and reflect the degraded feature on the map data.
- the present invention provides an example of a problem of providing a data structure of map data that can determine whether a feature at a certain position is deteriorated.
- the invention according to claim 1 is a data structure of map data including position information indicating a position of a feature and degradation information on a degradation state of the feature, the information processing apparatus including the position It is a data structure of the said map data used for the process which determines based on the said deterioration information whether the said terrestrial feature specified by information has deteriorated.
- FIG. 1 It is a block diagram showing composition of a degradation feature specific system concerning an embodiment. It is a block diagram showing a schematic structure of a map data management system concerning an example.
- (A) is a figure which shows a mode that Lidar measures the reflective intensity of the light in a white line (without deterioration) which concerns on an Example
- (B) is a figure which shows an example of the graph at the time of carrying out the statistical processing of the said reflective intensity.
- (A) is a figure which shows a mode that Lidar measures the reflective intensity of the light in a white line (with degradation) which concerns on an Example
- (B) is a figure which shows an example of the graph at the time of carrying out the statistical processing of the said reflective intensity. It is.
- (A) is a figure which shows an example of the reflective intensity measured about the white line of a broken line along the advancing direction of the vehicle which concerns on a 3rd modification
- (B) is used for degradation determination based on distribution of the said reflective intensity It is an example figure showing an effective area and an invalid area which divide reflective intensity. It is a figure which shows an example of the data structure of the map data which concerns on a 5th modification. It is a figure which shows an example of the data structure of the transmission data which concerns on a 6th modification.
- FIG. 1 is a block diagram showing a schematic configuration of a data structure of map data according to the present embodiment.
- the data structure 1 of map data includes position information 1A indicating the position of a feature, and degradation information 1B related to the degradation state of the feature in association with each other. ing.
- the transmission data is used in a process in which the information processing apparatus determines, based on the deterioration information, whether the feature specified by the position information is deteriorated.
- the information processing apparatus determines whether or not the feature at a certain position is deteriorated based on the deterioration information associated with the position information indicating the position. can do.
- the map data management system S of the present embodiment includes a server device 100 that manages map data, and an on-board terminal 200 mounted on each of a plurality of vehicles. And each in-vehicle terminal 200 are connected via the network NW. Although one in-vehicle terminal 200 is shown in FIG. 2, the map data management system S may include a plurality of in-vehicle terminals 200. Further, the server apparatus 100 may also be configured by a plurality of apparatuses.
- the on-vehicle terminal 200 includes the white line W1 and the white line W2 of the light L emitted by the lidar 205 by itself in the vehicle V on which the lidar 205 is mounted.
- Reflection intensity data D indicating the reflection intensity measured by receiving the reflected light from “an example of the object” is transmitted to the server apparatus 100.
- the bar shown as the reflection intensity data D in FIG. 3A and FIG. 4A represents the magnitude of the reflection intensity at that point by the length thereof (the longer the reflection intensity, the longer the reflection intensity).
- the reflection intensity data D is data including the reflection intensity at each point irradiated with the light L irradiated by the lidar 205.
- FIGS. 3A and 4A show that the reflection intensities at five points are measured for each of the white line W1 and the white line W2.
- the server device 100 identifies the degraded feature based on the plurality of pieces of reflection intensity data D received from each of the plurality of on-vehicle terminals 200.
- the degraded feature is identified by statistically processing the plurality of reflection intensity data D.
- the reflection intensity at each point in the white line is a high value and a uniform value for the white line not degraded, as shown in FIG. 3B.
- the average value ⁇ calculated based on the plurality of reflection intensities increases, and the standard deviation ⁇ decreases.
- FIG. 4 (A) as for the deteriorated white line, the reflection intensity at each point in the white line has a low value or an uneven value, as shown in FIG.
- the server apparatus 100 determines whether the feature is degraded or not by comparing the average value ⁇ and the standard deviation ⁇ calculated based on the plurality of reflection intensities with a threshold, and identifies the degraded feature. Do. Then, the server device 100 updates the map data corresponding to the degraded feature.
- the map data may be updated by a device that has received an instruction from the server device 100.
- the on-vehicle terminal 200 is roughly divided into a control unit 201, a storage unit 202, a communication unit 203, and an interface unit 204.
- the storage unit 202 is configured by, for example, a hard disk drive (HDD) or a solid state drive (SSD), and an operating system (OS), a reflection intensity data processing program, map data, reflection intensity data D, various data, and the like.
- the map data describes position information indicating the position of a feature (white line in the present embodiment) to be subjected to the deterioration determination, and a feature ID for identifying the feature as another feature (position Since the information and the feature ID are information linked to one feature, the feature ID can be said to be one of position information indicating the position of the one feature).
- different feature IDs are assigned to the white line W1 and the white line W2.
- map data maps data in which position information and feature ID are described for each feature
- map data stored in the storage unit 202 may store, for example, map data of the whole country, or map data corresponding to a certain area including the current position of the vehicle is received in advance from the server device 100 or the like. May be stored.
- the communication unit 203 controls the communication state between the in-vehicle terminal 200 and the server device 100.
- the interface unit 204 implements an interface function when exchanging data between the external device Lidar 205 or the internal sensor 206 and the on-vehicle terminal 200.
- the Lidar 205 is attached to the roof of the vehicle, and emits infrared laser light (irradiating downward from the roof at a certain angle), and receives light reflected from points on the surface of the feature around the vehicle It is an apparatus which detects a feature by repeating the processing of doing so as to draw a circle around the vehicle and generating reflection intensity data D indicating the reflection intensity at each point. Since the reflection intensity data D is data indicating the intensity of laser light being horizontally irradiated and reflected by the ground or a feature, the portion with low reflection intensity (the ground portion without features) and the portion with high reflection intensity ( The portion where the feature exists) is included.
- a plurality of lidars 205 may be attached to the front or rear of the vehicle, and the reflection intensity data of the field of view acquired by each may be combined to generate reflection intensity data D around the vehicle.
- the Lidar 205 When the reflection intensity is measured, the Lidar 205 immediately transmits reflection intensity data D (including a portion with low reflection intensity and a portion with high reflection intensity) to the on-vehicle terminal 200 via the interface unit 204.
- the control unit 201 receives the reflection intensity data D from the lidar 205, the control unit 201 receives irradiation intensity data indicating the intensity of the infrared laser light irradiated for measuring the reflection intensity data D, and the reflection intensity data D.
- the measurement position information indicating the position of the vehicle (Lidar 205) at the time of reception and the measurement date and time information indicating the date and time of reception of the reflection intensity data D are stored in the storage unit 202 in association with each other.
- the control unit 201 transmits, to the server apparatus 100, one of the reflection intensity data D, the irradiation intensity data, the measurement position information, and the measurement date and time information stored in the storage unit 202 after a predetermined time has elapsed from measurement.
- the items may be deleted from the storage unit 202.
- the internal sensor 206 is a generic term such as a satellite positioning sensor (GNSS (Global Navigation Satellite System)), a gyro sensor, a vehicle speed sensor, and the like mounted on a vehicle.
- GNSS Global Navigation Satellite System
- the camera 207 is mounted on a vehicle, and transmits a photographed image obtained by photographing the surroundings of the vehicle to the on-vehicle terminal 200 via the interface unit 204.
- the control unit 201 temporarily stores various data, such as a central processing unit (CPU) for controlling the entire control unit 201, a read only memory (ROM) in which a control program for controlling the control unit 201 and the like is stored in advance. And a random access memory (RAM).
- the CPU reads and executes various programs stored in the ROM and the storage unit 202 to realize various functions.
- the control unit 201 acquires estimated own vehicle position information.
- the estimated own vehicle position information may be generated by a device outside the on-board terminal 200, or may be generated by the control unit 201.
- the estimated vehicle position information is generated, for example, by matching the feature position measured by Lidar 205 with the feature position of map data for automatic driving, or based on information detected by the inner sensor 206 and map data It can be generated or a combination of these.
- control unit 201 predicts the actual white line position viewed from the own vehicle (Lidar 205) based on the estimated own vehicle position information and the white line position information indicated by the map data. At this time, the control unit 201 calculates and sets the white line prediction range in which the white line is included, with some margin.
- Map coordinate system Xm
- Ym Vehicle coordinate system XV
- YV White line map position in map coordinate system: mxm
- mym White line predicted position in the vehicle coordinate system lxv
- lyv Estimated vehicle position in map coordinate system: xm
- ym Estimated vehicle azimuth in map coordinate system: ⁇ m
- a vehicle coordinate system is a coordinate system which makes the position of a vehicle a reference (origin).
- the control unit 201 calculates a white line prediction range from the white line map position indicated by the position information of the white line in the traveling direction (for example, 10 m ahead) of the vehicle based on the estimated own vehicle position indicated by the estimated own vehicle position information. At this time, as shown in FIG. 5, if the lane in which the vehicle V travels is divided by the white line 1 on the left side and the white line 2 on the right side, the white line prediction range is calculated for each of the white lines 1 and 2.
- the control unit 201 calculates the white line 1 predicted position 301 (white line predicted position for the white line 1) based on the white line 1 map position and the estimated own vehicle position.
- the white line predicted position is obtained by the following equation (1).
- the control unit 201 sets a white line 1 prediction range 311 based on the white line 1 prediction position 301. Specifically, a certain range including the white line 1 predicted position 301 is set as the white line 1 predicted range 311. Then, the control unit 201 extracts white line 1 reflection intensity data 321 indicating the reflection intensity in the white line 1 prediction range 311 from the reflection intensity data D including the reflection intensities at a plurality of points.
- the control unit 201 extracts the reflection intensity data 321 and 322 thus extracted from the ground object ID respectively corresponding to the white line 1 map position and the white line 2 map position, and the reflection intensity data D from which the reflection intensity data 321 and 322 are extracted. It transmits to the server apparatus 100 in association with the corresponding irradiation intensity data and measurement date and time information.
- reflection intensity data D (which may be raw data measured by Lidar 205 or data obtained by processing the raw data) measured by Lidar 205 and stored in storage unit 202 by in-vehicle terminal 200 may be pre-extraction reflection intensity
- the data D may be referred to as data D, and the data D may be referred to as reflection intensity data D after extraction, which indicates the reflection intensity extracted in the white line prediction range.
- the transmission data 500 is configured to include a basic information unit 510, a recognition object information unit 520, and a unique information unit 530.
- the basic information unit 510 includes a header 511, vehicle metadata 512, and a vehicle position 513.
- the header 511 stores Ver (version) of a data format of transmission data, and a time stamp (transmission time of transmission data 500).
- the vehicle metadata 512 stores a vehicle ID identifying a vehicle on which the on-board terminal 200 is mounted, information indicating a vehicle size, and information indicating a type of sensor mounted on the vehicle (Lidar 205 or camera 207).
- the vehicle position 513 stores information indicating the vehicle position when the on-board terminal 200 recognizes a feature.
- the recognition object information unit 520 is configured to include the feature ID 521.
- the feature ID 521 stores an ID (for example, feature IDs respectively corresponding to the white line 1 map position and the white line 2 map position) specifying the feature which is the target of the deterioration information.
- the server apparatus 100 or the on-board terminal 200 specifies a feature based on the feature ID.
- the specific information unit 530 includes an acquisition date 531, deterioration information 532, weather information 533, and a sensor type 534.
- the deterioration information 532 stores the post-extraction reflection intensity data D and the irradiation intensity data.
- the acquisition date 531 stores measurement date information indicating the date when the control unit 201 receives the reflection intensity data D from the lidar 205.
- the weather information 533 stores information indicating the weather (such as weather, rain, snow, fog, etc.) when the control unit 201 receives the reflection intensity data D from the lidar 205.
- the weather information may be generated by the control unit 201 based on, for example, an image captured by the camera 207, or may be received from the weather information providing server.
- the specific information unit 530 may include road surface information indicating the state of the road surface (wet, snow, etc.) instead of or in addition to the weather information 533.
- the usage sensor type 534 stores information indicating the sensor type for which the data stored in the deterioration information 532 has been measured. In the present embodiment, since the post-extraction reflection intensity data D and the irradiation intensity data are stored in the deterioration information 532, information indicating the lidar 205 is stored in the use sensor type 534.
- the server apparatus 100 is roughly divided into a control unit 101, a storage unit 102, a communication unit 103, a display unit 104, and an operation unit 105.
- the storage unit 102 is configured by, for example, an HDD or an SSD, and stores an OS, a white line deterioration determination program, map data, transmission data 500 received from the on-vehicle terminal 200, and various other data.
- the communication unit 103 controls the communication state with the on-vehicle terminal 200.
- the display unit 104 is configured of, for example, a liquid crystal display or the like, and displays information such as characters and images.
- the operation unit 105 includes, for example, a keyboard, a mouse, and the like, receives an operation instruction from an operator, and outputs the content of the instruction to the control unit 101 as an instruction signal.
- the control unit 101 includes a CPU that controls the entire control unit 101, a ROM in which a control program that controls the control unit 101 and the like is stored in advance, and a RAM that temporarily stores various data.
- the CPU reads and executes various programs stored in the ROM and the storage unit 102 to realize various functions.
- the control unit 101 determines the deterioration state of the white line based on the plurality of pieces of reflection intensity data D received from each of the one or more on-vehicle terminals 200. Then, the control unit 101 updates the map data corresponding to the feature so that the degraded feature can be identified as being degraded.
- step S105 the server device 100 executes the processing of steps S201 to S202.
- control unit 201 of the on-vehicle terminal 200 acquires estimated own vehicle position information (step S101).
- control unit 201 acquires white line position information from the map data corresponding to the estimated own vehicle position indicated by the estimated own vehicle position information acquired in the process of step S101 (step S102). At this time, as described above, the control unit 201 acquires the position information of the white line in the traveling direction of the vehicle and the feature ID.
- control unit 201 calculates and sets a white line prediction range from the estimated own vehicle position indicated by the estimated own vehicle position information and the white line map position indicated by the white line position information (step S103).
- the control unit 201 extracts the reflection intensity data D before extraction out of the reflection intensity data D before extraction measured by Lidar 205 and obtains the reflection intensity data D after extraction (step S104). Specifically, the control unit 201 first measures the measurement position of the measurement position information stored in association with the pre-extraction reflection intensity data D, and the irradiation angle when the lidar 205 irradiates the laser light Based on the angle), the pre-extraction reflection intensity data D measured by irradiating the laser light to the range including the white line prediction range is specified. Next, the control unit 101 extracts a portion within the white line prediction range in the identified pre-extraction reflection intensity data D to obtain post-extraction reflection intensity data D2. For example, the control unit 101 extracts a portion corresponding to the azimuth ( ⁇ 1, ⁇ 2 (see FIG. 5)) of the white line prediction range based on the vehicle direction.
- control unit 201 generates transmission data 500 (step S105).
- the post-extraction reflection intensity data D extracted in the process of step S104 is stored in the deterioration information 532.
- control unit 201 transmits the transmission data 500 generated in the process of step S105 to the server apparatus 100 (step S106), and ends the process of reflection intensity data transmission.
- control unit 101 of the server device 100 receives the transmission data 500 from the in-vehicle terminal 200 (step S201), the control unit 101 stores the transmission data 500 in the storage unit 102 (step S202), and ends the reflection intensity data transmission process. Do. As a result, the plurality of post-extraction reflection intensity data D transmitted from each of the plurality of in-vehicle terminals 200 is accumulated in the storage unit 102 of the server device 100.
- the control unit 101 of the server device 100 acquires the specified feature ID (step S211).
- the control unit 101 is the transmission data 500 including the feature ID, and the deterioration information of the transmission data 500 whose measurement date and time is within a predetermined period (for example, the last three months) (reflection intensity data D after extraction) ) From the storage unit 102 (step S212).
- the reason for limiting the acquisition target to the reflection intensity data D whose measurement date and time is within a predetermined period is because the reflection intensity data D which is too old is not suitable for determining the current deterioration state.
- the control unit 101 corrects the extracted reflection intensity data D extracted in the process of step S212 (step S213).
- the reflection intensity data D is corrected using at least one of measurement date information and weather information (road surface information).
- the reflection intensity measured by the Lidar 205 differs depending on the measurement date and time and the weather (road surface condition) at the time of measurement because it is affected by the influence of sunlight and the condition of the road surface. For example, even if the reflection intensity at the same white line is, the reflection intensity at dawn or dusk and the reflection intensity in the day are different.
- the reflection intensity at the time of fine weather and the reflection intensity at the time of cloudy weather, rain, snow, etc. differ. Thereby, the difference between the reflection intensity data due to the time of measurement or the weather (road surface condition) can be offset to perform the deterioration determination appropriately.
- the control unit 101 calculates an average of the extracted reflection intensity data D corrected in the process of step S213 (step S214), and then calculates a standard deviation (step S215).
- the control unit 101 extracts reflection intensity data D after extraction for each feature ID (every white line W1 and white line W2 in the example of FIG. 3A and FIG. 4A).
- the control unit 101 calculates the average and the standard deviation of the reflection intensities at the respective points. Calculate
- step S216 determines whether the average calculated in the process of step S214 is equal to or less than the first threshold.
- step S216 determines that the average is equal to or less than the first threshold.
- step S2128 determines that the designated white line is "deteriorated” (step S218). Updating is performed to add information indicating "deterioration" for the corresponding map data (step S219), and the deterioration determination process is ended.
- the control unit 101 determines that the designated white line is "deteriorated” in the process of step S218 is an example of specifying the deteriorated white line.
- step S216 determines that the average is not less than the first threshold (step S216: NO)
- step S217 determines whether the standard deviation calculated in the process of step S215 is the second threshold or more It is determined (step S217).
- step S217: YES when the control unit 101 determines that the standard deviation is equal to or larger than the second threshold (step S217: YES), the control unit 101 determines that the designated white line is "deteriorated” (step S218). The map data corresponding to is updated by adding information indicating "deterioration" (step S219), and the deterioration determination process is ended.
- step S217: NO when the control unit 101 determines that the standard deviation is not greater than or equal to the second threshold
- step S220 determines that the specified white line is "not deteriorated" (step S220). Finish.
- the control unit 101 of the server apparatus 100 controls the light irradiated by the lidar 205 provided in the vehicle (an example of the “moving object”) of the white line (“feature”)
- An example is acquired reflection intensity data D measured by receiving the reflected light which reflected, and the white line which has deteriorated based on the acquired reflection intensity data D concerned is specified.
- the deteriorated white line can be identified by using the reflection intensity data D acquired from the vehicle.
- the white line deterioration based on an image captured by a camera mounted on a vehicle, the night time, changes in brightness such as back light, camera resolution, etc. cause deterioration judgment appropriately. It is difficult to carry out, and the deterioration determination using the reflection intensity data D as in this embodiment is superior.
- the control unit 101 further acquires measurement date and time information indicating the measurement date and time of the reflection intensity data D, selects the reflection intensity data D measured in a predetermined period based on the measurement date and time information, and selects the selected reflection intensity
- the deteriorated white line is identified based on the data D. Therefore, by appropriately setting a predetermined period (for example, the last few months), the white line that has deteriorated based on the reflection intensity data excluding the reflection intensity data D that is inappropriate for the white line deterioration determination can be appropriately determined. It can be identified.
- control unit 101 further acquires a feature ID for specifying the position of the white line that has reflected light, and specifies the deteriorated white line based on the reflection intensity data D and the feature ID. Thereby, the position of the deteriorated white line can also be specified.
- control unit 101 specifies the deteriorated white line based on the post-extraction reflection intensity data D measured within the set white line prediction range based on the position information.
- the deterioration determination can be performed excluding the reflection intensity data D indicating the light reflected by other than the white line, and the deterioration determination can be performed on the white line with higher accuracy.
- control unit 101 updates the map data corresponding to the white line determined to be “deteriorated” in the process of step S 218 in FIG. 8 (performs update to add information indicating “deterioration is present”) .
- the degradation information can be reflected on the map data representing the degraded white line.
- control unit 101 receives the reflected light in which the white line reflects the light irradiated by Lidar included in one or a plurality of vehicles, and acquires the reflection intensity data D measured in each of the one or a plurality of vehicles. And identifies the white line that has deteriorated based on the plurality of pieces of acquired reflection intensity data D. Therefore, according to the map data management system S of the present embodiment, it is possible to identify the white line which has deteriorated with high accuracy, using the reflection intensity data D acquired from one or a plurality of vehicles.
- the feature that is the target of the degradation determination is described as a white line, but all features that can be subjected to the degradation determination based on the reflection intensity can be the targets of the degradation determination.
- the white line which is the target of the deterioration determination is a solid line
- the white line may be a broken line.
- White lines are used not only to separate lanes, but also as guideways, letters and pedestrian crossings.
- the target of the deterioration determination may include not only white lines but also features such as signs and signs. That is, the features to be subjected to the deterioration determination can be classified into various types. Therefore, feature type information indicating the type of feature may be further linked to the feature ID, and the threshold value may be changed in the deterioration determination using the reflection intensity data according to the type of feature. .
- the white line prediction range is set for each type of white line (for example, the white line prediction range)
- the position information of the four corner points is described in the map data, and the control unit 201 of the in-vehicle device 200 sets the white line prediction range based thereon) and the white line prediction range according to the type of white line to be subjected to the deterioration determination. May be set.
- the control unit 201 of the on-vehicle terminal 200 periodically transmits the reflection intensity data D to the server device 100
- the on-vehicle terminal 200 (vehicle) of the control unit 201 is predetermined.
- a condition may be added that only the reflection intensity data D measured in the area of (for example, the measurement area designated by the server apparatus 100) is transmitted.
- the reflection intensity data D measured in the area in which the white line does not need to be determined does not need to be received. I'm sorry.
- control unit 101 of the server apparatus 100 refers to the position information stored together with the reflection intensity data D in the storage unit 102, and performs deterioration determination of the designated area (for example, the white line designated by the operator or the like). It is also possible to identify the white line that is deteriorating based on the reflection intensity data measured in the required area). In this way, by specifying an area that needs to be judged for deterioration, only the white line in the area can be judged for deterioration, and the processing load is higher than when it is judged that the area does not need to be judged for deterioration. Can be reduced.
- the designated area for example, the white line designated by the operator or the like.
- the lidar 205 is attached to the roof portion of the vehicle and the like, and one infrared laser beam L is irradiated to draw a circle around the vehicle downward at a constant angle, for example, as shown in FIG.
- a plurality (five in FIG. 9A) of infrared laser beams L are irradiated at different irradiation angles in the downward direction so that Lidar 205 draws a circle around the vehicle. It may be As a result, as shown in FIG. 9B, the reflection intensity data D can be measured at one time along the traveling direction of the vehicle.
- the measurement of the reflection intensity data D by irradiating a single infrared laser beam L is performed every time the vehicle V moves by a predetermined distance, and by combining them, as shown in FIG. Similar to the example shown in, the reflected intensity data D can be obtained along the traveling direction of the vehicle.
- the control unit 101 of the server device 100 sets the area (paint area) where the white line is painted as the effective area, based on the reflection intensity data D measured along the traveling direction of the vehicle V as described above. It is also possible to divide a non-painted part (non-painted area) as an invalid area, and to perform deterioration determination based on only the reflection intensity corresponding to the effective area. Specifically, as shown in FIGS.
- the reflection intensity indicated by the reflection intensity data D measured along the traveling direction of the vehicle V with respect to the white line of the broken line is roughly classified into the paint area Since a high value is obtained and a low value is obtained in the non-painting area, a threshold value is set, and if the reflection intensity is equal to or more than the threshold value, the area is separated as an effective area, and other areas are classified as invalid areas.
- the feature ID is set for each predetermined distance similarly to the white line which is a solid line, without setting the feature ID for each paint area of the white line which is a broken line. It is possible to prevent the deterioration determination on the non-painted area.
- the method of separating the paint area (effective area) and the non-paint area (ineffective area) is not only the white line of the broken line but also the deterioration of the conduction zone, the character, the pedestrian crossing etc. composed of the paint area and the non-paint area It may be adopted for determination.
- the white line prediction range is calculated in advance, and the reflection intensity data D included therein is processed as the light reflected by the white line. That is, it has been guaranteed that the post-extraction reflection intensity data D transmitted by the on-board terminal 200 to the server device 100 is data indicating the reflection intensity at the white line.
- the on-vehicle terminal 200 transmits the pre-extraction reflection intensity data D received from the lidar 205 in association with the measurement position information and the measurement date and time information to the server device 100.
- the control unit 101 of the server device 100 specifies the reflection intensity based on the reflection by the white line from the distribution of the reflection intensity indicated by the pre-extraction reflection intensity data D and the positional relationship of the white line that divides the lane where the vehicle travels.
- the deterioration determination is performed based on the identified reflection intensity.
- the degradation is caused by the combination of the measurement position information corresponding to the reflection intensity data D and the information indicating the irradiation angle at which the lidar 205 irradiates the laser light L.
- the position of the white line may be specified.
- the reflectance (the ratio of the post-extraction reflection intensity data D to the irradiation intensity data) may be stored instead of the post-extraction reflection intensity data D and the irradiation intensity data.
- the date and time of measurement of the post-extraction reflection intensity data D as a basis of the reflectance is stored in the acquisition date and time 531.
- the control unit 101 of the server 100 receives the extracted reflection intensity data D and the irradiation intensity data received from the on-vehicle terminal 200, or the reflectance (hereinafter, “the post-extraction reflection intensity data D and the irradiation intensity data, or the reflectance”).
- the degradation level for example, 10 levels
- the degradation type for example, partial peeling of paint, smear of paint, adhesion of dirt
- the control unit 101 receives the photographed image photographed by the camera 207 from the on-vehicle terminal 200, and based on at least one of the photographed image or the reflection intensity data D, the deterioration level of the feature or The type of deterioration may be determined.
- the control unit 101 may perform statistical processing on the reflection intensity data D or the like to make a determination, analyze a captured image to make a determination, or may make a combination by making a combination of both.
- the deterioration information 532 of the transmission data 500 may include the photographed image or an area for the photographed image may be separately provided.
- the acquisition date 531 stores the shooting date and time of the captured image
- the usage sensor type 534 stores information indicating the camera 207.
- the control unit 101 reflects the determined degradation level and degradation type of the feature on the map data.
- the data structure of map data stored in storage unit 102 using FIG. 11 (in particular, the data structure of map data that holds degradation information related to white lines (sometimes referred to as “division lines” that are features) explain.
- the map data 600 includes the feature ID (division line ID) 601, the position 602, the line width 603, the belonging link 604, the type of line 605, the deterioration information acquisition date (hour) 606, and the deterioration information 607. And the degradation type 608.
- the map data 600 is used for processing in which the server apparatus 100, the in-vehicle terminal 200, or another information processing apparatus determines, based on the deterioration information 607, whether the feature specified by the position 602 is deteriorated.
- the feature ID (section line ID) 601 stores an ID for identifying a section line, and is used when the server apparatus 100 or the on-vehicle terminal 200 specifies a feature (section line).
- latitude and longitude information indicating the position of the dividing line is stored. In addition, it is good also as storing latitude and longitude information which shows a position about each of a plurality of points which constitute a longitudinal direction line which passes along the center of a division line.
- the line width 603 stores length information in the short direction of the dividing line.
- the type of line 605 stores information indicating the type of dividing line (such as a broken line or a solid line).
- a deterioration information acquisition date (hour) 606 stores a date when the deterioration level stored in the deterioration information 607 is acquired (determined).
- the deterioration information 607 stores the deterioration level of the dividing line.
- the degradation type 608 stores information indicating the type of degradation.
- the measurement date and time such as the reflection intensity data D used to determine the deterioration level or the date or date obtained from this
- a date or date representing the predetermined period may be stored. For example, when a large amount of reflection intensity data D etc.
- the predetermined period in step S 212 may be one day such as the day before the treatment day, in which case the date (the day before the treatment day Store the date of In addition, the predetermined period may be from 10 am to 11 am on the ⁇ ⁇ ⁇ month ⁇ day, in which case the deterioration information acquisition date (hour) 606 on the ⁇ ⁇ ⁇ ⁇ ⁇ 10 am (or morning 11) may be stored.
- the above-mentioned thing was shown as an example of data structure of map data 600, when an object is a white line, whether or not the retroreflective material is further applied besides the above, a puddle at the time of rainfall You may add information indicating whether it is likely to be
- the deterioration information acquisition date (hour) 606 storing the information, the deterioration information 607 storing the deterioration level, and the deterioration type 608 storing the information indicating the deterioration type may be held in the map data 600 as history information.
- the history information can be used to predict the progress of the deterioration of the feature.
- the control unit 101 of the server device 100 determines the degradation level or the degradation type of the feature based on the reflection intensity data D or the like received from the in-vehicle terminal 200 or the photographed image
- the in-vehicle terminal The control unit 201 may determine the degradation level or the degradation type of the feature based on the reflection intensity data D and the like, and may transmit the determination result to the server device 100 by including the determination result in the transmission data 500.
- transmission data 500 in the sixth modification the date and time when the deterioration level is determined is stored in acquisition date and time 531 (or the date or date and time when measurement timing such as reflection intensity data D used for determination of the deterioration level is specified May be stored).
- the deterioration level determined by the control unit 201 is stored in the deterioration information 532 (However, in this case as well, it is preferable to include the reflection intensity data D etc. in the transmission data 500). Furthermore, as shown in FIG. 12, the degradation type 535 is provided in the specific information portion 530 of the transmission data 500, and information indicating the degradation type is stored. Furthermore, the weather information 533 may store information specifying the weather or road surface condition when measuring the reflection intensity data D used to determine the deterioration level. Furthermore, when the degradation level or the degradation type of the feature is determined based on both the reflection intensity data D measured by Lidar 205 and the like and the captured image captured by the camera 207, Lidar 205 and the use sensor type 534 of the transmission data 500 are used.
- the information indicating the camera 207 is stored.
- the on-vehicle terminal 200 stores the information indicating the other sensors in the use sensor type 534 of the transmission data 500. Do.
- the control unit 101 of the server device 100 stores the information stored in the acquisition date 531 of the transmission data 500 in the deterioration information acquisition date (hour) 606 of the map data 600. Further, the control unit 101 stores the degradation level stored in the degradation information 532 of the transmission data 500 in the degradation information 607 of the map data 600. Further, the control unit 101 stores the information stored in the degradation type 535 of the transmission data 500 in the degradation type 608 of the map data 600. Each time the control unit 101 receives the transmission data 500 including the same feature ID (division line ID), the degradation information stores the information stored in the acquisition date 531 in association with the feature ID.
- the acquisition date (hour) 606, the deterioration information 607 storing the deterioration level stored in the deterioration information 532 and the deterioration type 608 storing the information stored in the deterioration type 535 may be held in the map data 600 as history information .
- the history information can be used to predict the progress of the deterioration of the feature.
- the seventh modification is a modification of the fifth modification.
- the reflection information D and the like stored in the deterioration information 532 of the transmission data 500 may be stored in the deterioration information 607 of the map data 600 in the seventh modification. That is, the control unit 101 of the server device 100 stores reflection intensity data D and the like stored in the deterioration information 532 in the transmission data 500 received from the vehicle terminal 200 without determining the deterioration level and the deterioration type.
- the measurement date and time stored in the acquisition date and time 531 of the data 500 may be stored in the deterioration information acquisition date (hour) 606 of the map data 600.
- each time transmission data 500 including the same feature ID (division line ID) is received deterioration information acquisition is performed in which the information stored in the acquisition date 531 is stored in association with the feature ID.
- the degradation information 607 storing reflection intensity data D and the like stored in the degradation information 532 may be held in the map data 600 as history information.
- the history information can be used to predict the progress of the deterioration of the feature.
- the deterioration of the feature is recovered without the restoration of the feature, it can be determined that the deterioration type is dirt adhesion.
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Immunology (AREA)
- Business, Economics & Management (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Pathology (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Instructional Devices (AREA)
- Road Repair (AREA)
Abstract
Description
本願は、地物の劣化状態に関する劣化情報を含む地図データのデータ構造に関する。 The present application relates to a data structure of map data including deterioration information on the deterioration state of a feature.
自動運転車両では、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などのセンサで計測した地物位置と、自動運転用の地図データに記述された地物位置をマッチングして高精度に自車位置を推定する必要がある。利用する地物として標識や看板、道路に描かれた白線などがあり、これらの地物位置を含む自動運転用の地図データは安定した自動運転を行うために、現実に即して整備・更新を行う必要がある。例えば、白線が経年劣化等によりその一部が消えてしまっている場合には、地図データにおける当該白線を表すデータに対して、劣化情報を反映させておく必要がある。 In an autonomous driving vehicle, the object position measured by a sensor such as LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) and the object position described in map data for automatic operation are matched with high accuracy. It is necessary to estimate the car position. There are signs, signs, white lines drawn on roads, etc. as features to be used, and map data for automatic operation including the position of these features is maintained and updated according to the reality in order to perform stable automatic operation. Need to do. For example, when a white line has partially disappeared due to age deterioration or the like, it is necessary to reflect deterioration information on data representing the white line in map data.
そのため、従来は地図整備車両を走行させて、劣化した地物がないか実地調査を行う必要があった。そうした中、レーザー計測技術の発達により、地表面を計測した点群データを用いて地図データの利用・更新等に活かす技術の開発が進められている。例えば、特許文献1には、点群データに建物や街路樹等、道路面以外のデータも多く含まれているところ、この中から道路面を計測しているデータを抽出する技術が開示されている。当該技術は道路に描かれた白線を抽出するための前処理として利用することができる。
Therefore, conventionally, it was necessary to run a map maintenance vehicle and to conduct an on-site survey to see if there were any degraded features. Under such circumstances, with the development of laser measurement technology, development of technology for utilizing and updating map data using point cloud data obtained by measuring the ground surface has been advanced. For example,
特許文献1の技術を用いることにより、地表面を計測した点群データから道路領域を判定することができたが、地物の劣化状態まで判定することはできなかった。しかしながら、自動運転技術において、自車位置推定、レーンキープ、走行可能領域の認識などで地物の情報を用いた処理の重要性は非常に高く、地物の劣化状態がその処理に与える影響も大きい。そのため、実際の地物の劣化状態を把握し、劣化している地物については地図データに反映させておくことが重要である。
Although the road area could be determined from the point cloud data obtained by measuring the ground surface by using the technique of
本願発明は、こうした事情に鑑み、ある位置にある地物が劣化しているかどうかを判定することができる地図データのデータ構造を提供することを課題の一例とする。 In view of such circumstances, the present invention provides an example of a problem of providing a data structure of map data that can determine whether a feature at a certain position is deteriorated.
請求項1に記載の発明は、地物の位置を示す位置情報と、前記地物の劣化状態に関する劣化情報と、を関連付けて含む地図データのデータ構造であって、情報処理装置が、前記位置情報により特定される前記地物が劣化しているかどうかを前記劣化情報に基づいて判定する処理に用いられる、前記地図データのデータ構造である。
The invention according to
本願発明を実施するための形態について、図1を用いて説明する。なお、図1は、本実施形態に係る地図データのデータ構造の概要構成を示すブロック図である。 A mode for carrying out the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of a data structure of map data according to the present embodiment.
図1に示すように、本実施形態に係る地図データのデータ構造1は、地物の位置を示す位置情報1Aと、前記地物の劣化状態に関する劣化情報1Bと、を関連付けて含んで構成されている。
As shown in FIG. 1, the
送信データは、情報処理装置が、前記位置情報により特定される前記地物が劣化しているかどうかを前記劣化情報に基づいて判定する処理に用いられる。 The transmission data is used in a process in which the information processing apparatus determines, based on the deterioration information, whether the feature specified by the position information is deteriorated.
本実施形態に係る送信データのデータ構造によれば、情報処理装置は、ある位置にある地物が劣化しているかどうかを、当該位置を示す位置情報と関連付けられている劣化情報に基づいて判定することができる。 According to the data structure of transmission data according to the present embodiment, the information processing apparatus determines whether or not the feature at a certain position is deteriorated based on the deterioration information associated with the position information indicating the position. can do.
図2-図8を用いて実施例について説明する。なお以下に説明する実施例は、本願発明を、地図データ管理システムSに適用した場合の実施例である。 An embodiment will be described with reference to FIGS. The embodiment described below is an embodiment in which the present invention is applied to a map data management system S.
[1.地図データ管理システムSの構成及び概要]
図2に示すように、本実施例の地図データ管理システムSは、地図データを管理するサーバ装置100と、複数の車両のそれぞれに搭載される車載端末200とを含んで構成され、サーバ装置100と各車載端末200はネットワークNWを介して接続されている。なお、図2では車載端末200を一台示しているが、地図データ管理システムSは複数の車載端末200を含んで構成してもよい。また、サーバ装置100についても複数の装置で構成してもよい。
[1. Configuration and Outline of Map Data Management System S]
As shown in FIG. 2, the map data management system S of the present embodiment includes a
車載端末200は、図3(A)、図4(A)に示すように、車載端末200と共にLidar205が搭載された車両Vにおいて、Lidar205が自ら照射した光Lの白線W1、白線W2(「地物」の一例)からの反射光を受光することにより測定した反射強度を示す反射強度データDをサーバ装置100に送信する。なお、図3(A)、図4(A)において反射強度データDとして示している棒線は、その長さによってその地点における反射強度の大きさを表している(長いほど反射強度が大きい)。反射強度データDは、Lidar205が照射した光Lが照射された各地点における反射強度を含むデータである。図3(A)、図4(A)では、白線W1、白線W2それぞれについて5地点での反射強度が測定されていることを示している。
As shown in FIG. 3 (A) and FIG. 4 (A), the on-
サーバ装置100は、複数の車載端末200それぞれから受信した複数の反射強度データDに基づいて、劣化している地物を特定する。具体的には、複数の反射強度データDを統計処理することにより劣化している地物を特定する。例えば、図3(A)に示すように、劣化していない白線については、白線内の各地点での反射強度は高い値且つ均一的な値となるため、図3(B)に示すように、複数の反射強度に基づいて算出した平均値μが高くなり、且つ、標準偏差σが小さくなる。一方、図4(A)に示すように、劣化した白線については、白線内の各地点での反射強度は低い値又は不均一的な値となることから、図4(B)に示すように、複数の反射強度に基づいて算出した平均値μが低くなるか、又は、標準偏差σが大きくなる。そこで、サーバ装置100は、複数の反射強度に基づいて算出した平均値μや標準偏差σを閾値と比較することにより、地物が劣化していないか判定し、劣化している地物を特定する。そして、サーバ装置100は、劣化している地物に対応する地図データを更新する。なお、地図データの更新は、サーバ装置100から指示を受けた装置が行うこととしてもよい。
The
[2.車載端末200の構成]
次に、本実施例に係る車載端末200の構成について説明する。図2に示すように、車載端末200は、大別して、制御部201と、記憶部202と、通信部203と、インターフェース部204を含んで構成されている。
[2. Configuration of in-vehicle terminal 200]
Next, the configuration of the on-
記憶部202は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等により構成されており、OS(Operating System)、反射強度データ処理プログラム、地図データ、反射強度データD及び各種データ等を記憶する。地図データには、劣化判定の対象となる地物(本実施例では、白線)について、その位置を示す位置情報と、他の地物と識別するための地物IDが記述されている(位置情報と地物IDは一の地物に紐付く情報であるため、地物IDは当該一の地物の位置を示す位置情報の一つということができる)。図3(A)の例では、白線W1と白線W2にはそれぞれ別の地物IDが割り当てられる。なお、白線が数百メートルに及ぶなど長く、一の地物として取り扱うことが不適当な場合には、一定の長さ(例えば、5m)で区切りそれぞれを別個の地物として地物IDを付与して取り扱うこととする。また、記憶部202が記憶する地図データと同様の地図データ(地物毎に、位置情報と地物IDが記述された地図データ)が、サーバ装置100の記憶部102にも記憶されており、車載装置200とサーバ装置100それぞれにおいて地物IDにより同一の地物を特定することができる。更に、記憶部202が記憶する地図データは、例えば全国の地図データを記憶しておくこととしてもよいし、車両の現在位置を含む一定地域に対応する地図データをサーバ装置100等から予め受信して記憶しておくこととしてもよい。
The
通信部203は、車載端末200とサーバ装置100との通信状態を制御する。
The
インターフェース部204は、外部機器であるLidar205や内界センサ206と車載端末200の間でデータをやりとりする際のインターフェース機能を実現する。
The
Lidar205は、車両のルーフ部分等に取り付けられ、赤外線レーザー光を照射し(ルーフ部分から下向きに一定の角度で照射し)、車両の周囲にある地物の表面上の点で反射した光を受光するという処理を、車両の周囲に円を描くように繰り返し、各点における反射強度を示す反射強度データDを生成することにより、地物を検出する機器である。反射強度データDは、レーザー光を水平に照射し、地面や地物で反射した強度を示すデータであるため、反射強度が低い部分(地物が存在しない地面部分)と反射強度が高い部分(地物が存在する部分)が含まれる。また、Lidar205は、車両フロント部やリア部などに複数取り付け、それぞれが取得した視野範囲の反射強度データを合成して、車両の周囲の反射強度データDを生成してもよい。
The
Lidar205は、反射強度を測定すると即時に反射強度データD(反射強度が低い部分と高い部分を含む)を、インターフェース部204を介して車載端末200に送信する。制御部201は、Lidar205から反射強度データDを受信すると、受信した反射強度データDを、反射強度データDを測定するために照射した赤外線レーザー光の強度を示す照射強度データと、反射強度データDの受信時の車両(Lidar205)の位置を示す測定位置情報と、反射強度データDの受信時の日時を示す測定日時情報と、対応付けて記憶部202に記憶させる。なお、制御部201は、記憶部202に記憶させた反射強度データD、照射強度データ、測定位置情報及び測定日時情報のうち、測定から所定時間が経過したもの、或いは、サーバ装置100に送信したものについては、記憶部202から削除してもよい。
When the reflection intensity is measured, the
内界センサ206は、車両に搭載される、衛星測位センサ(GNSS(Global Navigation Satellite System))、ジャイロセンサ、車速センサ等の総称である。
The
カメラ207は、車両に搭載され、車両の周囲を撮影して得た撮影画像を、インターフェース部204を介して車載端末200に送信する。
The
制御部201は、制御部201全体を制御するCPU(Central Processing Unit)と、制御部201を制御する制御プログラム等が予め記憶されているROM(Read Only Memory)と、各種データを一時的に格納するRAM(Random Access Memory)と、により構成されている。そして、CPUが、ROMや記憶部202に記憶された各種プログラムを読み出し実行することにより各種機能を実現する。
The
制御部201は、推定自車位置情報を取得する。推定自車位置情報は、車載端末200外の装置が生成したものであってもよいし、制御部201が生成したものであってもよい。推定自車位置情報は、例えば、Lidar205で計測した地物位置と、自動運転用の地図データの地物位置をマッチングして生成したり、内界センサ206で検出した情報と地図データに基づいて生成したり、これらの組み合わせにより生成することができる。
The
また、制御部201は、推定自車位置情報と、地図データで示される白線の位置情報に基づいて、自車両(Lidar205)から見た実際の白線位置を予測する。このとき、制御部201は、ある程度の余裕を持って、白線が含まれる白線予測範囲を算出・設定する。
In addition, the
ここで、図5を用いて、白線予測範囲の設定方法について具体的に説明する。図5における座標系等は次の通りである。
地図座標系:Xm,Ym
車両座標系:XV,YV
地図座標系における白線地図位置:mxm,mym
車両座標系における白線予測位置:lxv,lyv
地図座標系における推定自車位置:xm,ym
地図座標系における推定自車方位角:Ψm
車両座標系とは、車両の位置を基準(原点)とする座標系である。
Here, the method of setting the white line prediction range will be specifically described with reference to FIG. The coordinate system etc. in FIG. 5 are as follows.
Map coordinate system: Xm, Ym
Vehicle coordinate system: XV, YV
White line map position in map coordinate system: mxm, mym
White line predicted position in the vehicle coordinate system: lxv, lyv
Estimated vehicle position in map coordinate system: xm, ym
Estimated vehicle azimuth in map coordinate system: Ψm
A vehicle coordinate system is a coordinate system which makes the position of a vehicle a reference (origin).
制御部201は、推定自車位置情報の示す推定自車位置に基づき、車両の進行方向(例えば、10m先)にある白線の位置情報の示す白線地図位置から、白線予測範囲を算出する。このとき、図5に示すように、車両Vが走行するレーンが左側の白線1と右側の白線2により区切られている場合であれば、白線1及び2それぞれについて白線予測範囲を算出する。
The
白線1と白線2とで白線予測範囲の算出方法は同様であるので、ここでは、白線1について白線予測範囲を算出する場合について説明する。まず、制御部201は、白線1地図位置と推定自車位置に基づいて白線1予測位置301(白線1についての白線予測位置)を算出する。白線予測位置は、次の(1)式で求められる。
次に、制御部201は、白線1予測位置301を基準に白線1予測範囲311を設定する。具体的には、白線1予測位置301を含む一定の範囲を白線1予測範囲311とする。そして、制御部201は、複数の点における反射強度を含む反射強度データDから、白線1予測範囲311内の反射強度を示す白線1反射強度データ321を抽出する。
Next, the
制御部201は、こうして抽出した反射強度データ321、322を、白線1地図位置及び白線2地図位置にそれぞれ対応する地物IDと、反射強度データ321、322の抽出元である反射強度データDと対応する照射強度データ、測定日時情報と対応付けてサーバ装置100に送信する。なお、以下では、Lidar205が測定し、車載端末200が記憶部202に記憶させた反射強度データD(Lidar205が測定した生データ又は生データを加工したデータであってもよい)を抽出前反射強度データDと呼び、そのうち、白線予測範囲内で抽出した反射強度を示す反射強度データDを抽出後反射強度データDと呼ぶ場合がある。
The
ここで、図6を用いて、車載端末200が反射強度データDをサーバ装置100に送信する際の送信データ500のデータ構造について説明する。図6に示すように、送信データ500は、基本情報部510、認識オブジェクト情報部520及び特有情報部530を含んで構成される。
Here, the data structure of the transmission data 500 when the on-
基本情報部510は、ヘッダ511、車両メタデータ512、車両位置513を含んで構成される。ヘッダ511には、送信データのデータフォーマットのVer(バージョン)や、タイムスタンプ(送信データ500の送信時刻)が格納される。車両メタデータ512には、車載端末200が搭載されている車両を識別する車両ID、車両サイズを示す情報、車両が搭載するセンサの種別(Lidar205やカメラ207)を示す情報が格納される。車両位置513には、車載端末200が地物を認識した際の車両位置を示す情報が格納される。
The basic information unit 510 includes a header 511, vehicle metadata 512, and a vehicle position 513. The header 511 stores Ver (version) of a data format of transmission data, and a time stamp (transmission time of transmission data 500). The vehicle metadata 512 stores a vehicle ID identifying a vehicle on which the on-
認識オブジェクト情報部520は地物ID521を含んで構成される。地物ID521は、劣化情報の対象である地物を特定するID(例えば、白線1地図位置及び白線2地図位置にそれぞれ対応する地物ID)が格納される。サーバ装置100や車載端末200は、地物IDに基づいて地物を特定する。
The recognition object information unit 520 is configured to include the feature ID 521. The feature ID 521 stores an ID (for example, feature IDs respectively corresponding to the
特有情報部530は、取得日時531、劣化情報532、天候情報533、センサ種別534を含んで構成される。劣化情報532には、抽出後反射強度データD及び照射強度データが格納される。取得日時531には、制御部201がLidar205から反射強度データDを受信した日時を示す測定日時情報が格納される。天候情報533には、制御部201がLidar205から反射強度データDを受信した際の天候(晴、雨、雪、霧等)を示す情報が格納される。天候情報は、例えば、カメラ207が撮影した画像等に基づいて制御部201が生成することとしても良いし、天候情報提供サーバから受信することとしてもよい。また、特有情報部530には、天候情報533に代えて又は加えて、路面の状態(濡れ、積雪有り等)を示す路面情報を含んでもよい。使用センサ種別534には、劣化情報532に格納するデータを測定したセンサ種別を示す情報が格納される。本実施例では、劣化情報532には抽出後反射強度データD及び照射強度データが格納されるため、使用センサ種別534には、Lidar205を示す情報が格納される。
The specific information unit 530 includes an acquisition date 531, deterioration information 532, weather information 533, and a sensor type 534. The deterioration information 532 stores the post-extraction reflection intensity data D and the irradiation intensity data. The acquisition date 531 stores measurement date information indicating the date when the
[3.サーバ装置100の構成]
次に、サーバ装置100の構成について説明する。図2に示すように、サーバ装置100は、大別して、制御部101、記憶部102、通信部103、表示部104及び操作部105を含んで構成されている。
[3. Configuration of Server Device 100]
Next, the configuration of the
記憶部102は、例えばHDDやSSD等により構成されており、OS、白線劣化判定プログラム、地図データ、車載端末200から受信した送信データ500及びその他各種データ等を記憶する。
The
通信部103は、車載端末200との通信状態を制御する。
The
表示部104は、例えば、液晶ディスプレイ等により構成されており、文字や画像等の情報を表示する。
The
操作部105は、例えば、キーボード、マウス等により構成されており、オペレータからの操作指示を受け付け、その指示内容を指示信号として制御部101に出力する。
The
制御部101は、制御部101全体を制御するCPUと、制御部101を制御する制御プログラム等が予め記憶されているROMと、各種データを一時的に格納するRAMと、により構成されている。そして、CPUが、ROMや記憶部102に記憶された各種プログラムを読み出し実行することにより各種機能を実現する。
The
制御部101は、一又は複数の車載端末200それぞれから受信した複数の反射強度データDに基づいて、白線の劣化状態を判定する。そして、制御部101は、劣化している地物が劣化していることを識別できるように、当該地物に対応する地図データを更新する。
The
[4.地図データ管理システムSの動作例]
[4.1.反射強度データ処理時の動作例]
次に、図7のフローチャートを用いて、地図データ管理システムSによる反射強度データ処理の動作例について説明する。なお、図7のフローチャートでは、一の車載端末200が反射強度データDを測定してサーバ装置100に送信する流れについて説明しているが、地図データ管理システムSに含まれる各車載端末200について同様の処理が実行される。また、図7の車載端末200のステップS101~ステップS105の処理は、定期的に(例えば、所定時間毎に、及び/又は、車載端末200が搭載された車両が所定距離移動する毎に)実行され、車載端末200によるステップS105の処理を受けて、サーバ装置100はステップS201~ステップS202の処理を実行する。
[4. Operation Example of Map Data Management System S]
[4.1. Example of operation at reflection intensity data processing]
Next, an operation example of reflection intensity data processing by the map data management system S will be described using the flowchart of FIG. 7. Although the flowchart of FIG. 7 describes the flow in which one in-
まず、車載端末200の制御部201は、推定自車位置情報を取得する(ステップS101)。
First, the
次に、制御部201は、ステップS101の処理で取得した推定自車位置情報の示す推定自車位置に対応する地図データから、白線の位置情報を取得する(ステップS102)。このとき、制御部201は、上述したように、車両の進行方向にある白線の位置情報と地物IDを取得する。
Next, the
次に、制御部201は、推定自車位置情報の示す推定自車位置と白線の位置情報の示す白線地図位置から、白線予測範囲を算出・設定する(ステップS103)。
Next, the
次に、制御部201は、Lidar205が測定した抽出前反射強度データDのうち白線予測範囲内のものを抽出して、抽出後反射強度データDを得る(ステップS104)。具体的には、制御部201は、まず、抽出前反射強度データDと対応付けて記憶されている測定位置情報の測定位置と、Lidar205がレーザー光を照射する際の照射角(下向きの一定の角度)に基づいて、白線予測範囲を含む範囲にレーザー光を照射して測定した抽出前反射強度データDを特定する。次いで、制御部101は、当該特定した抽出前反射強度データDにおける白線予測範囲内の部分を抽出して抽出後反射強度データD2を得る。例えば、制御部101は、車両方向を基準とする白線予測範囲の方位角(θ1、θ2(図5参照))に対応する部分を抽出する。
Next, the
次に、制御部201は、送信データ500を生成する(ステップS105)。このとき、劣化情報532には、ステップS104の処理で抽出した抽出後反射強度データDが格納される。
Next, the
次に、制御部201は、ステップS105の処理で生成した送信データ500をサーバ装置100に送信し(ステップS106)、反射強度データ送信時処理を終了する。
Next, the
これに対して、サーバ装置100の制御部101は、車載端末200から送信データ500を受信すると(ステップS201)、これを記憶部102に記憶させ(ステップS202)、反射強度データ送信時処理を終了する。これにより、サーバ装置100の記憶部102には、複数の車載端末200それぞれから送信された複数の抽出後反射強度データDが蓄積されることとなる。
On the other hand, when the
[4.2.劣化判定処理時の動作例]
次に、図8のフローチャートを用いて、サーバ装置100による劣化判定処理の動作例について説明する。劣化判定処理は、例えば、オペレータ等から白線について劣化判定することの指示とともに、劣化判定すべき白線の地物IDが指定された場合に実行される。
[4.2. Operation example at the time of deterioration judgment processing]
Next, an operation example of the deterioration determination process by the
まず、サーバ装置100の制御部101は、指定された地物IDを取得する(ステップS211)。次いで、制御部101は、当該地物IDを含む送信データ500であって、且つ、測定日時が所定期間内(例えば、直近3ヶ月)である送信データ500の劣化情報(抽出後反射強度データD)を記憶部102から取得する(ステップS212)。取得対象を測定日時が所定期間内の反射強度データDに限定している理由は、あまりに古い反射強度データDでは、現在の劣化状態を判定するのに適切でないからである。
First, the
次に、制御部101は、ステップS212の処理で抽出した抽出後反射強度データDを補正する(ステップS213)。具体的には、測定日時情報又は天候情報(路面情報)の少なくとも何れか一方の情報を用いて反射強度データDの補正を行う。Lidar205により測定される反射強度は、日光の影響や路面の状態の影響を受けるため測定日時や測定時の天候(路面状態)により異なる。例えば、同一の白線における反射強度であっても、明け方や夕暮れ時での反射強度と日中での反射強度は異なる。また、晴天時の反射強度と、曇りや雨、雪等の時の反射強度も異なる。これにより、測定時の時刻や天候(路面状態)による反射強度データ間の差を相殺して、適切に劣化判定を行うことができる。
Next, the
次に、制御部101は、ステップS213の処理で補正した抽出後反射強度データDの平均を算出し(ステップS214)、次いで、標準偏差を算出する(ステップS215)。なお、制御部101は、平均及び標準偏差を算出する場合、地物ID毎(図3(A)、図4(A)の例では、白線W1と白線W2毎)に抽出後反射強度データDを処理する。また、図3(A)、図4(A)の例では、白線W1について5つの地点での反射強度が測定されているので、制御部101はそれぞれの地点での反射強度の平均及び標準偏差を算出する。
Next, the
次に、制御部101は、ステップS214の処理で算出した平均が第1の閾値以下であるか否かを判定する(ステップS216)。このとき、制御部101は、平均が第1の閾値以下であると判定した場合には(ステップS216:YES)、指定された白線ついて「劣化あり」と判定し(ステップS218)、当該白線に対応する地図データについて「劣化あり」であることを示す情報を付加する更新を行い(ステップS219)、劣化判定処理を終了する。なお、制御部101は、ステップS218の処理で、指定された白線ついて「劣化あり」と判定することは、劣化した白線を特定することの一例である。一方、制御部101は、平均が第1の閾値以下ではないと判定した場合には(ステップS216:NO)、次いで、ステップS215の処理で算出した標準偏差が第2の閾値以上であるか否かを判定する(ステップS217)。
Next, the
このとき、制御部101は、標準偏差が第2の閾値以上であると判定した場合には(ステップS217:YES)、指定された白線ついて「劣化あり」と判定し(ステップS218)、当該白線に対応する地図データについて「劣化あり」であることを示す情報を付加する更新を行い(ステップS219)、劣化判定処理を終了する。一方、制御部101は、標準偏差が第2の閾値以上ではないと判定した場合には(ステップS217:NO)、指定された白線ついて「劣化なし」と判定し(ステップS220)、劣化判定処理を終了する。
At this time, when the
以上説明したように、本実施例における地図データ管理システムSは、サーバ装置100の制御部101が、車両(「移動体」の一例)が備えるLidar205が照射した光を白線(「地物」の一例)が反射した反射光を受光することで測定された反射強度データDを取得し、当該取得した反射強度データDに基づいて劣化している白線を特定する。
As described above, in the map data management system S in the present embodiment, the
したがって、本実施例の地図データ管理システムSによれば、車両から取得する反射強度データDを用いることで、劣化している白線を特定することができる。なお、白線の劣化判定を、車両に搭載したカメラで撮影した画像に基づいて行うことも考えられるが、夜間、逆光など明るさの変化、カメラ解像度などの制約があるため、適切に劣化判定を行うことは困難であり、本実施例のように反射強度データDを用いた劣化判定の方が優位である。 Therefore, according to the map data management system S of the present embodiment, the deteriorated white line can be identified by using the reflection intensity data D acquired from the vehicle. Although it is conceivable to determine the white line deterioration based on an image captured by a camera mounted on a vehicle, the night time, changes in brightness such as back light, camera resolution, etc. cause deterioration judgment appropriately. It is difficult to carry out, and the deterioration determination using the reflection intensity data D as in this embodiment is superior.
また、制御部101は、反射強度データDの測定日時を示す測定日時情報を更に取得し、測定日時情報に基づいて所定の期間に測定された反射強度データDを選択し、当該選択した反射強度データDに基づいて劣化している白線を特定する。したがって、所定の期間(例えば直近の数ヶ月間)を適切に設定することにより、白線の劣化判定に不適切な反射強度データDを除いた反射強度データに基づいて劣化している白線を適切に特定することができる。
The
更に、制御部101は、光を反射した白線の位置を特定するための地物IDを更に取得し、反射強度データD及び地物IDに基づいて、劣化している白線を特定する。これにより、劣化している白線の位置も特定することができる。
Furthermore, the
更にまた、制御部101は、位置情報に基づいて、設定された白線予測範囲内で測定された抽出後反射強度データDに基づいて、劣化している白線を特定する。これにより、白線以外で反射された光を示す反射強度データDを除外して劣化判定を行うことができ、より高精度に白線について劣化判定を行うことができる。
Furthermore, the
更にまた、制御部101は、図8のステップS218の処理で「劣化あり」と判定した白線に対応する地図データを更新する(「劣化あり」であることを示す情報を付加する更新を行う)。これにより、劣化している白線を表す地図データに対して、劣化情報を反映させることができる。
Furthermore, the
更にまた、制御部101は、一又は複数の車両が備えるLidarが照射した光を白線が反射した反射光を受光して、当該一又は複数の車両のそれぞれにおいて測定された反射強度データDを取得し、当該取得した複数の反射強度データDに基づいて劣化している白線を特定する。したがって、本実施例の地図データ管理システムSによれば、一又は複数の車両から取得する反射強度データDを用いて、高精度に劣化している白線を特定することができる。
Furthermore, the
なお、本実施例では、劣化判定の対象の地物を白線として説明したが、反射強度に基づいて劣化判定を行うことが可能な全ての地物を劣化判定の対象とすることができる。 In the present embodiment, the feature that is the target of the degradation determination is described as a white line, but all features that can be subjected to the degradation determination based on the reflection intensity can be the targets of the degradation determination.
[5.変形例]
次に、本実施例の変形例について説明する。なお、以下に説明する変形例は適宜組み合わせることができる。
[5. Modified example]
Next, a modification of this embodiment will be described. In addition, the modification demonstrated below can be combined suitably.
[5.1.第1変形例]
上記実施例では、劣化判定の対象である白線が実線である場合について説明したが、白線が破線である場合もある。また、白線はレーンを区切るためだけではなく、導流帯、文字、横断歩道等にも用いられている。更に、劣化判定の対象は白線のみならず、標識や看板等の地物も含めることができる。つまり、劣化判定の対象とする地物は様々な種別に分類することができる。そこで、地物の種類を示す地物種類情報を更に地物IDと紐付けておくこととし、地物の種類によって反射強度データを用いて劣化判定をする際の閾値を変更することとしてもよい。
[5.1. First modified example]
Although the case where the white line which is the target of the deterioration determination is a solid line has been described in the above embodiment, the white line may be a broken line. White lines are used not only to separate lanes, but also as guideways, letters and pedestrian crossings. Furthermore, the target of the deterioration determination may include not only white lines but also features such as signs and signs. That is, the features to be subjected to the deterioration determination can be classified into various types. Therefore, feature type information indicating the type of feature may be further linked to the feature ID, and the threshold value may be changed in the deterioration determination using the reflection intensity data according to the type of feature. .
また、白線が破線である場合、白線がペイントされている部分毎に地物IDを設定して、白線がペイントされていない部分については地物IDを設定せずに劣化判定の対象から除外することとしてもよい。なお、導流帯、文字、横断歩道等は、白線の向きが車両の進行方向と平行でない場合もあるので、白線の種類毎に白線予測範囲の設定方法を定めておき(例えば、白線予測範囲の四隅の点の位置情報を地図データに記述しておき、車載装置200の制御部201はそれに基づいて白線予測範囲を設定する)、劣化判定の対象となる白線の種類に応じて白線予測範囲を設定することとしてもよい。
In addition, when the white line is a broken line, the feature ID is set for each portion where the white line is painted, and the feature ID is not set for the portion where the white line is not painted. You may do it. In addition, since the direction of the white line may not be parallel to the traveling direction of the vehicle, there may be a case where the white line prediction range is set for each type of white line (for example, the white line prediction range) The position information of the four corner points is described in the map data, and the
[5.2.第2変形例]
上記実施例では、車載端末200の制御部201は定期的に反射強度データDをサーバ装置100に送信することとしたが、これに加えて、制御部201は車載端末200(自車両)が所定のエリア(例えば、サーバ装置100から指定された測定エリア)内で測定した反射強度データDのみを送信するという条件を加えることとしてもよい。これにより、例えば、サーバ装置100が白線の劣化判定を行う必要のあるエリアを測定エリアとして指定することにより、白線の劣化判定を行う必要のないエリアで測定された反射強度データDを受信しなくてすむ。これにより、車載端末200とサーバ装置100間の通信データ量の削減や、反射強度データDを記憶するサーバ装置100の記憶部102の記憶容量の節約、劣化判定に係る処理負荷の軽減を実現することができる。
[5.2. Second modified example]
In the above embodiment, although the
また、サーバ装置100の制御部101は、記憶部102に反射強度データDとともに記憶させた位置情報を参照して、指定されたエリア(例えば、オペレータ等により指定された、白線の劣化判定を行う必要のあるエリア)で測定された反射強度データに基づいて、劣化している白線を特定することとしてもよい。これにより、劣化判定を行う必要のあるエリアを指定することにより、当該エリア内の白線についてのみ劣化判定を行うことができ、劣化判定を行う必要のないエリアについて劣化判定を行う場合よりも処理負担を軽減できる。
Further, the
[5.3.第3変形例]
上記実施例では、Lidar205が車両のルーフ部分等に取り付けられ、一定の角度で下向きに車両の周囲に円を描くように一本の赤外線レーザー光Lを照射することとしたが、例えば、図9(A)に示すように、Lidar205が車両の周囲に円を描くように複数本(図9(A)では5本)の赤外線レーザー光Lをそれぞれ下向き方向の照射角度を異ならせて照射することとしてもよい。これにより、図9(B)に示すように、一度に、車両の進行方向に沿って反射強度データDを測定することができる。また、上記実施例のように、一本の赤外線レーザー光Lを照射して反射強度データDを測定するということを車両Vが所定の距離移動する度に行い、それらを組み合わせることにより、図9で示した例と同様に、車両の進行方向に沿って反射強度データDを得ることができる。
[5.3. Third Modified Example]
In the above embodiment, the
また、第1変形例でも説明したが、図10(A)に示すように、白線が破線である場合に、白線がペイントされていない部分は、白線の劣化がそもそも発生しないことから劣化判定の対象から外すことが好ましい。そこで、サーバ装置100の制御部101は、上述したように車両Vの進行方向に沿って測定された反射強度データDに基づいて、白線がペイントされている部分(ペイントエリア)を有効エリア、白線がペイントされていない部分(非ペイントエリア)を無効エリアとして切り分け、有効エリアに対応する反射強度のみに基づいて劣化判定を行うこととしてもよい。具体的には、図10(A)、(B)に示すように、破線の白線について車両Vの進行方向に沿って測定された反射強度データDの示す反射強度は、大別して、ペイントエリアで高い値となり、非ペイントエリアで低い値となることから、閾値を設定して、反射強度が閾値以上であれば有効エリア、それ以外は無効エリアとして切り分ける。これにより、第1変形例で説明したように、破線である白線のペイントエリア毎に地物IDを設定することなく、実線である白線と同様に所定の距離毎に地物IDを設定することができ、且つ、非ペイントエリアについて劣化判定を行わないようにすることができる。なお、このペイントエリア(有効エリア)と非ペイントエリア(無効エリア)を切り分ける手法は、破線の白線以外にも、ペイントエリアと非ペイントエリアで構成される導流帯、文字、横断歩道等の劣化判定に採用してもよい。
In addition, as described in the first modified example, as shown in FIG. 10A, when the white line is a broken line, the white line does not occur in the first place in the portion where the white line is not painted. It is preferable not to be targeted. Therefore, the
[5.4.第4変形例]
上記実施例では、予め白線予測範囲を算出して、そこに含まれる反射強度データDは、白線で反射した光によるものとして処理を行っている。すなわち、車載端末200がサーバ装置100に送信する抽出後反射強度データDは、白線での反射強度を示すデータであることが保証されていた。第4変形例では、車載端末200は、Lidar205から受信した抽出前反射強度データDを、測定位置情報及び測定日時情報と対応付けてサーバ装置100に送信することとする。そして、サーバ装置100の制御部101は、当該抽出前反射強度データDの示す反射強度の分布と、車両が走行するレーンを区切る白線の位置関係から白線による反射に基づく反射強度を特定し、当該特定した反射強度に基づいて、劣化判定を行うこととする。そして、劣化判定により地物が劣化していると判定した場合には、反射強度データDと対応する測定位置情報と、Lidar205がレーザー光Lを照射する照射角度を示す情報との組み合わせにより、劣化している白線の位置を特定することとしてもよい。これにより、Lidar205が測定した抽出前反射強度データDから、白線の劣化判定に用いる部分を抽出する処理、白線の地図位置の取得処理に掛かる車載端末200の処理負担を軽減することができる。また、第4変形例では、記憶部202に記憶されている地図データに白線の位置情報を持たせなくても、サーバ装置100において白線の劣化判定を行うことが可能となる。
[5.4. Fourth Modified Example]
In the above-described embodiment, the white line prediction range is calculated in advance, and the reflection intensity data D included therein is processed as the light reflected by the white line. That is, it has been guaranteed that the post-extraction reflection intensity data D transmitted by the on-
[5.5.第5変形例]
送信データ500の劣化情報532に、抽出後反射強度データD及び照射強度データに代えて、反射率(照射強度データに対する抽出後反射強度データDの割合)を格納することとしてもよい。この場合、取得日時531には、反射率の基となる抽出後反射強度データDを測定した日時を格納する。サーバ100の制御部101は、車載端末200から受信した抽出後反射強度データD及び照射強度データ、又は、反射率(以下、「抽出後反射強度データD及び照射強度データ、又は、反射率」をまとめて「反射強度データD等」という場合がある)に基づいて、地物の劣化レベル(例えば、10段階のレベル)や劣化種別(例えば、塗料の部分剥離、塗料のかすれ、汚れ付着)を判定することとしてもよい。このとき、制御部101は、カメラ207が撮影した撮影画像を車載端末200から受信して、当該撮影画像、又は、反射強度データD等の少なくとも何れか一方に基づいて、地物の劣化レベルや劣化種別を判定することとしてもよい。例えば、制御部101は反射強度データD等を統計処理して判定したり、撮影画像を解析して判定したり、両者を組み合わせて判定したりしてもよい。なお、車載端末200から撮影画像を受信する場合、例えば、送信データ500の劣化情報532に撮影画像を含ませたり、別途、撮影画像用の領域を設けたりしてもよく、このような場合、取得日時531には、撮影画像の撮影日時が格納されるとともに、使用センサ種別534にはカメラ207を示す情報が格納される。そして、制御部101は、判定した地物の劣化レベルや劣化種別を地図データに反映することとする。次に、図11を用いて記憶部102に記憶される地図データのデータ構造(特に地物である白線(「区画線」という場合がある)に関する劣化情報を保持する地図データのデータ構造)について説明する。
[5.5. Fifth modified example]
In the degradation information 532 of the transmission data 500, the reflectance (the ratio of the post-extraction reflection intensity data D to the irradiation intensity data) may be stored instead of the post-extraction reflection intensity data D and the irradiation intensity data. In this case, the date and time of measurement of the post-extraction reflection intensity data D as a basis of the reflectance is stored in the acquisition date and time 531. The
図11に示すように、地図データ600は、地物ID(区画線ID)601、位置602、線幅603、所属リンク604、線の種別605、劣化情報取得日(時)606、劣化情報607及び劣化種別608を含む。地図データ600は、サーバ装置100、車載端末200又は他の情報処理装置が、位置602により特定される地物が劣化しているかどうかを劣化情報607に基づいて判定する処理に用いられる。地物ID(区画線ID)601には、区画線を識別するIDが格納され、サーバ装置100や車載端末200が地物(区画線)を特定する際に用いられる。位置602には、区画線の位置を示す緯度・経度情報が格納される。なお、区画線の中央を通る長手方向の線を構成する複数の点のそれぞれについて位置を示す緯度・経度情報を格納することとしてもよい。線幅603には、区画線の短手方向の長さ情報が格納される。線の種別605には、区画線の種別(破線、実線など)を示す情報が格納される。
As shown in FIG. 11, the map data 600 includes the feature ID (division line ID) 601, the position 602, the line width 603, the belonging link 604, the type of line 605, the deterioration information acquisition date (hour) 606, and the deterioration information 607. And the degradation type 608. The map data 600 is used for processing in which the
劣化情報取得日(時)606には、劣化情報607に格納される劣化レベルを取得(判定)した日付が格納される。劣化情報607には、区画線の劣化レベルが格納される。劣化種別608には、劣化の種別を示す情報が格納される。劣化情報取得日(時)606については、劣化レベルを判定した日付に代えて、劣化レベルの判定に用いた反射強度データD等の測定日時又はこれから求まる日付又は日時(劣化レベルの判定を、一定の期間に測定された反射強度データD等に基づいて行った場合には、当該一定の期間を代表する日付又は日時)を格納してもよい。例えば、一日に大量の反射強度データD等を受信している場合などは、ステップS212の所定期間を処理日の前日などの一日にしてもよく、その場合、その日付(処理日の前日の日付)を格納する。また、所定期間を○年○月○日の午前10時~午前11時などにしてもよく、その場合、劣化情報取得日(時)606に○年○月○日の午前10時(又は午前11時)を格納することとしてもよい。なお、地図データ600のデータ構造の例として上記のものを示したが、対象が白線の場合には、上記以外にもさらに、再帰性反射材が塗布されているか否かや、降雨時に水溜りになりやすいか否か、などを示す情報を追加しても良い。 A deterioration information acquisition date (hour) 606 stores a date when the deterioration level stored in the deterioration information 607 is acquired (determined). The deterioration information 607 stores the deterioration level of the dividing line. The degradation type 608 stores information indicating the type of degradation. For the deterioration information acquisition date (hour) 606, instead of the date on which the deterioration level was determined, the measurement date and time such as the reflection intensity data D used to determine the deterioration level or the date or date obtained from this When the measurement is performed based on the reflection intensity data D or the like measured in the period of (1), a date or date representing the predetermined period may be stored. For example, when a large amount of reflection intensity data D etc. is received in one day, etc., the predetermined period in step S 212 may be one day such as the day before the treatment day, in which case the date (the day before the treatment day Store the date of In addition, the predetermined period may be from 10 am to 11 am on the ○ ○ ○ month ○ day, in which case the deterioration information acquisition date (hour) 606 on the ○ ○ ○ ○ ○ 10 am (or morning 11) may be stored. In addition, although the above-mentioned thing was shown as an example of data structure of map data 600, when an object is a white line, whether or not the retroreflective material is further applied besides the above, a puddle at the time of rainfall You may add information indicating whether it is likely to be
制御部101は、同一の地物について劣化レベル及び劣化種別を判定する度に、当該地物を特定する地物ID601又は位置602と対応付けて、劣化レベル及び劣化種別を判定した日時を示す情報を格納した劣化情報取得日(時)606と、劣化レベルを格納した劣化情報607と、劣化種別を示す情報を格納した劣化種別608と、を履歴情報として地図データ600に保持してもよい。履歴情報は、地物の劣化の進行状況を予測するために利用することができる。また、地物の劣化が地物の修復無しに回復した場合には、劣化種別が汚れ付着であったと判定することもできる。
Every time the
[5.6.第6変形例]
第5変形例では、サーバ装置100の制御部101が車載端末200から受信した反射強度データD等や撮影画像に基づいて、地物の劣化レベルや劣化種別を判定することとしたが、車載端末200の制御部201が反射強度データD等に基づいて、地物の劣化レベルや劣化種別を判定し、判定結果を送信データ500に含めてサーバ装置100に送信することとしてもよい。そして、第6変形例における送信データ500においては、取得日時531に劣化レベルを判定した日時を格納する(または、劣化レベルの判定に用いた反射強度データD等の測定時期を特定する日付又は日時を格納してもよい)。また、劣化情報532に制御部201が判定した劣化レベルを格納することとする(但し、この場合も反射強度データD等を送信データ500に含めることが好ましい)。更に、図12に示すように、送信データ500の特有情報部530に劣化種別535を設け、劣化種別を示す情報を格納する。更に、天候情報533には、劣化レベルの判定に用いた反射強度データDを測定した際の天候又は路面状態を特定する情報を格納してもよい。更に、Lidar205が測定した反射強度データD等とカメラ207が撮影した撮影画像の双方に基づいて地物の劣化レベルや劣化種別を判定した場合には、送信データ500の使用センサ種別534にLidar205及びカメラ207を示す情報を格納する。なお、車載端末200は、その他のセンサで測定したデータに基づいて地物の劣化レベルや劣化種別を判定した場合には、送信データ500の使用センサ種別534に当該その他のセンサを示す情報を格納する。
[5.6. Sixth modified example]
In the fifth modification, although the
一方、サーバ装置100の制御部101は、送信データ500の取得日時531に格納された情報を、地図データ600の劣化情報取得日(時)606に格納する。また、制御部101は、送信データ500の劣化情報532に格納された劣化レベルを、地図データ600の劣化情報607に格納する。更に、制御部101は、送信データ500の劣化種別535に格納された情報を、地図データ600の劣化種別608に格納する。なお、制御部101は、同一の地物ID(区画線ID)を含む送信データ500を受信する度に、当該地物IDと対応付けて、取得日時531に格納された情報を格納した劣化情報取得日(時)606、劣化情報532に格納された劣化レベルを格納した劣化情報607及び劣化種別535に格納された情報を格納した劣化種別608を履歴情報として地図データ600に保持してもよい。履歴情報は、地物の劣化の進行状況を予測するために利用することができる。また、地物の劣化が地物の修復無しに回復した場合には、劣化種別が汚れ付着であったと判定することもできる。
On the other hand, the
[5.7.第7変形例]
第7変形例は第5変形例の変形例である。第7変形例における地図データ600の劣化情報607には、送信データ500の劣化情報532に格納された反射強度データD等を格納することとしてもよい。すなわち、サーバ装置100の制御部101は、劣化レベル及び劣化種別を判定せずに、車両端末200から受信した送信データ500における劣化情報532に格納された反射強度データD等を格納するとともに、送信データ500の取得日時531に格納された測定日時を地図データ600の劣化情報取得日(時)606に格納することとしてもよい。また、この場合も、同一の地物ID(区画線ID)を含む送信データ500を受信する度に、当該地物IDと対応付けて、取得日時531に格納された情報を格納した劣化情報取得日(時)606、劣化情報532に格納された反射強度データD等を格納した劣化情報607を履歴情報として地図データ600に保持してもよい。履歴情報は、地物の劣化の進行状況を予測するために利用することができる。また、地物の劣化が地物の修復無しに回復した場合には、劣化種別が汚れ付着であったと判定することもできる。
[5.7. Seventh Modified Example]
The seventh modification is a modification of the fifth modification. The reflection information D and the like stored in the deterioration information 532 of the transmission data 500 may be stored in the deterioration information 607 of the map data 600 in the seventh modification. That is, the
1 地図データ
1A 位置情報
1B 劣化情報
S 地図データ管理システム
100 サーバ装置
101 制御部
102 記憶部
103 通信部
104 表示部
105 操作部
200 車載端末
201 制御部
202 記憶部
203 通信部
204 インターフェース部
205 Lidar
206 内界センサ
207 カメラ
DESCRIPTION OF
206
Claims (11)
情報処理装置が、前記位置情報により特定される前記地物が劣化しているかどうかを前記劣化情報に基づいて判定する処理に用いられる、前記地図データのデータ構造。 A data structure of map data including position information indicating a position of a feature and degradation information on a degradation state of the feature in association with each other,
A data structure of the map data, which is used in a process in which an information processing apparatus determines whether the feature specified by the position information is deteriorated based on the deterioration information.
前記劣化情報は、前記地物に対して照射された照射光の強度に対する、当該照射光による反射光の強度である反射率を示す情報であることを特徴とするデータ構造。 The data structure according to claim 1, wherein
The data structure, wherein the deterioration information is information indicating a reflectance that is an intensity of light reflected by the irradiation light with respect to an intensity of the irradiation light irradiated to the feature.
前記劣化情報は、前記地物に対して照射された照射光の強度、及び、当該照射光による反射光の強度を示す情報であることを特徴とするデータ構造。 The data structure according to claim 1, wherein
The data structure characterized in that the deterioration information is information indicating the intensity of the irradiation light irradiated to the feature and the intensity of the reflected light by the irradiation light.
前記劣化情報は、前記地物に対して照射された照射光の強度に対する、当該照射光による反射光の強度である反射率、又は、前記照射光の強度及び前記反射光の強度、に基づいて判定された劣化レベルを示す情報であることを特徴とするデータ構造。 The data structure according to claim 1, wherein
The deterioration information is based on the reflectance which is the intensity of the reflected light by the irradiation light with respect to the intensity of the irradiation light irradiated to the feature, or the intensity of the irradiation light and the intensity of the reflected light. A data structure characterized by being information indicating a determined degradation level.
前記劣化レベルが判定された時期を特定する情報を更に含むことを特徴とするデータ構造。 The data structure according to claim 4, wherein
A data structure characterized by further including information specifying a time when the deterioration level is determined.
前記位置情報と関連付けて、前記劣化レベルを示す劣化情報と、当該劣化レベルが判定された時期を特定する情報とを、履歴情報として含むことを特徴とする含むデータ構造。 The data structure according to claim 5, wherein
A data structure including, as history information, deterioration information indicating the deterioration level and information specifying a time when the deterioration level is determined in association with the position information.
前記地物の劣化種別を特定する劣化種別情報を更に含むことを特徴とするデータ構造。 The data structure according to any one of claims 1 to 6, wherein
A data structure characterized by further including deterioration type information for specifying the deterioration type of the feature.
前記劣化種別が判定された時期を特定する情報を更に含むことを特徴とするデータ構造。 The data structure according to claim 7, which is:
A data structure characterized by further including information specifying a time when the degradation type is determined.
前記地物の劣化種別は、塗料の部分剥離、塗料のかすれ又は汚れ付着の少なくとも何れかを含むことを特徴とするデータ構造。 The data structure according to claim 8, wherein
The data structure characterized in that the degradation type of the feature includes at least one of partial peeling of paint, blur of paint, and adhesion of dirt.
前記位置情報と関連付けて、前記劣化種別を示す劣化種別情報と、当該劣化種別が判定された時期を特定する情報とを、履歴情報として含むことを特徴とする含むデータ構造。 The data structure according to claim 8 or 9, wherein
A data structure including, as history information, deterioration type information indicating the deterioration type and information specifying a time when the deterioration type is determined in association with the position information.
前記地物は区画線であることを特徴とするデータ構造。 The data structure according to any one of claims 1 to 10, wherein
A data structure characterized in that the feature is a dividing line.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019557235A JPWO2019107353A1 (en) | 2017-11-30 | 2018-11-27 | Data structure of map data |
| JP2022104284A JP2022121579A (en) | 2017-11-30 | 2022-06-29 | Data structure of map data |
| JP2023201299A JP2024009306A (en) | 2017-11-30 | 2023-11-29 | Data structure of map data |
| JP2025039133A JP2025085682A (en) | 2017-11-30 | 2025-03-12 | Information processing device, information processing method, information processing program, and recording medium |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017229995 | 2017-11-30 | ||
| JP2017-229995 | 2017-11-30 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019107353A1 true WO2019107353A1 (en) | 2019-06-06 |
Family
ID=66664035
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/043571 Ceased WO2019107353A1 (en) | 2017-11-30 | 2018-11-27 | Data structure of map data |
Country Status (2)
| Country | Link |
|---|---|
| JP (4) | JPWO2019107353A1 (en) |
| WO (1) | WO2019107353A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022137534A (en) * | 2021-03-09 | 2022-09-22 | 本田技研工業株式会社 | Map creation device and vehicle position recognition device |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20150285688A1 (en) * | 2014-04-03 | 2015-10-08 | General Electric Company | Thermographic route examination system and method |
| JP2017020303A (en) * | 2015-07-14 | 2017-01-26 | 株式会社キクテック | Road sign body deterioration detection method |
| WO2017014288A1 (en) * | 2015-07-21 | 2017-01-26 | 株式会社東芝 | Crack analyzer, crack analysis method, and crack analysis program |
| WO2017057356A1 (en) * | 2015-09-28 | 2017-04-06 | 倉敷紡績株式会社 | Structure imaging apparatus, structure inspection apparatus, and structure inspection system |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4984152B2 (en) * | 2007-08-31 | 2012-07-25 | アイシン・エィ・ダブリュ株式会社 | Image recognition system, server device, and image recognition device |
| JP2011027594A (en) * | 2009-07-27 | 2011-02-10 | Toyota Infotechnology Center Co Ltd | Map data verification system |
| JP5776546B2 (en) * | 2011-12-28 | 2015-09-09 | 富士通株式会社 | Road surface inspection program and road surface inspection device |
| JP6040096B2 (en) * | 2013-05-20 | 2016-12-07 | 国立大学法人 東京大学 | Road surface condition estimation device |
| US20180038701A1 (en) * | 2015-03-03 | 2018-02-08 | Pioneer Corporation | Route search device, control method, program and storage medium |
| JP2016170708A (en) * | 2015-03-13 | 2016-09-23 | 株式会社東芝 | Road state determination apparatus and road state determination method |
-
2018
- 2018-11-27 WO PCT/JP2018/043571 patent/WO2019107353A1/en not_active Ceased
- 2018-11-27 JP JP2019557235A patent/JPWO2019107353A1/en not_active Ceased
-
2022
- 2022-06-29 JP JP2022104284A patent/JP2022121579A/en active Pending
-
2023
- 2023-11-29 JP JP2023201299A patent/JP2024009306A/en active Pending
-
2025
- 2025-03-12 JP JP2025039133A patent/JP2025085682A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20150285688A1 (en) * | 2014-04-03 | 2015-10-08 | General Electric Company | Thermographic route examination system and method |
| JP2017020303A (en) * | 2015-07-14 | 2017-01-26 | 株式会社キクテック | Road sign body deterioration detection method |
| WO2017014288A1 (en) * | 2015-07-21 | 2017-01-26 | 株式会社東芝 | Crack analyzer, crack analysis method, and crack analysis program |
| WO2017057356A1 (en) * | 2015-09-28 | 2017-04-06 | 倉敷紡績株式会社 | Structure imaging apparatus, structure inspection apparatus, and structure inspection system |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022137534A (en) * | 2021-03-09 | 2022-09-22 | 本田技研工業株式会社 | Map creation device and vehicle position recognition device |
| JP7583649B2 (en) | 2021-03-09 | 2024-11-14 | 本田技研工業株式会社 | Map generation device and vehicle position recognition device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024009306A (en) | 2024-01-19 |
| JPWO2019107353A1 (en) | 2020-12-17 |
| JP2022121579A (en) | 2022-08-19 |
| JP2025085682A (en) | 2025-06-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10620317B1 (en) | Lidar-based high definition map generation | |
| US11248925B2 (en) | Augmented road line detection and display system | |
| CN112074885A (en) | Lane sign positioning | |
| JP2020500290A (en) | Method and system for generating and using location reference data | |
| US20160180171A1 (en) | Background map format for autonomous driving | |
| CN102208035A (en) | Image processing system and position measurement system | |
| JP2023121809A (en) | Deteriorated ground object identification device, deteriorated ground object identification system, deteriorated ground object identification method, deteriorated ground object identification program and computer readable recording medium with deteriorated ground object identification program recorded thereon | |
| EP4170305A1 (en) | System and method for simultaneous online lidar intensity calibration and road marking change detection | |
| CN114623830B (en) | Unmanned vehicle positioning method | |
| JP2025085682A (en) | Information processing device, information processing method, information processing program, and recording medium | |
| US11485373B2 (en) | Method for a position determination of a vehicle, control unit, and vehicle | |
| JP6500607B2 (en) | Vehicle position determination device and vehicle position determination method | |
| JP6500606B2 (en) | Vehicle position determination device and vehicle position determination method | |
| EP2945138A1 (en) | Method and apparatus for providing information data about entities along a route taken by a vehicle | |
| JP2025110415A (en) | Data collection device | |
| JP2019101605A (en) | Data structure for transmission data | |
| JP2024133552A (en) | Determination device, determination method, and determination program | |
| US20210061164A1 (en) | System and method for illuminating a path for an object by a vehicle | |
| CN117665816A (en) | High-precision map determining method, system, vehicle and medium based on imaging radar | |
| JP2019101138A (en) | Data structure of map data | |
| US20250035447A1 (en) | Position estimation device, position estimation method, and position estimation program | |
| JP7587645B2 (en) | Information processing device | |
| JP7696388B2 (en) | Data collection device, data collection method, computer program for data collection, and data collection system | |
| US20240102823A1 (en) | Map update system, map update apparatus, and storage medium | |
| JP2022050476A (en) | Feature data structure, storage medium, information processing device and detection device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18883421 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2019557235 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18883421 Country of ref document: EP Kind code of ref document: A1 |