[go: up one dir, main page]

WO2015151862A1 - 自動車及び自動車用プログラム - Google Patents

自動車及び自動車用プログラム Download PDF

Info

Publication number
WO2015151862A1
WO2015151862A1 PCT/JP2015/058480 JP2015058480W WO2015151862A1 WO 2015151862 A1 WO2015151862 A1 WO 2015151862A1 JP 2015058480 W JP2015058480 W JP 2015058480W WO 2015151862 A1 WO2015151862 A1 WO 2015151862A1
Authority
WO
WIPO (PCT)
Prior art keywords
authentication
information
user
vehicle
caller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2015/058480
Other languages
English (en)
French (fr)
Inventor
佐古曜一郎
鈴木將洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mico Latta Inc
Original Assignee
Mico Latta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mico Latta Inc filed Critical Mico Latta Inc
Priority to US15/120,584 priority Critical patent/US10369967B2/en
Priority to JP2015529949A priority patent/JP5877574B1/ja
Publication of WO2015151862A1 publication Critical patent/WO2015151862A1/ja
Anticipated expiration legal-status Critical
Priority to US16/445,656 priority patent/US11180116B2/en
Priority to US17/492,080 priority patent/US12090956B2/en
Priority to US18/787,315 priority patent/US20240391424A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/305Detection related to theft or to other events relevant to anti-theft systems using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/227Handing over between remote control and on-board control; Handing over between remote control arrangements
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00571Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated by interacting with a central unit
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns

Definitions

  • the present invention relates to an automobile and an automobile program.
  • authentication information such as a driver's biometric information is registered and stored in advance, and the stored authentication information is compared with the authentication information of the driver who gets on the vehicle.
  • An apparatus or method has been proposed that performs authentication based on whether or not both match with each other and controls the opening and closing of the vehicle door and the start of the vehicle based on the authentication result (for example, the following patent document) 1 and Patent Document 2).
  • authentication information such as biometric information needs to be registered in advance for a person who is scheduled to drive. Therefore, even if the owner or the like of the car permits the person who has not registered the authentication information to use the car, the user alone cannot authenticate. For this reason, the driver who has registered the authentication information goes to the car with the person who has been authorized to use it, and after authorization is made to make the car available, the use is permitted. It requires troublesome work such as handing it over to the person who has been sent.
  • an autonomous driving vehicle capable of autonomous driving and capable of unmanned traveling has been developed.
  • one person uses it and then another person uses it. Therefore, it is predicted that the number of cases in which the autonomous driving vehicle moves to the use start position of another person and starts using the vehicle by unmanned traveling is increased.
  • the other person is a person who has not registered the authentication information, even if the use is permitted by the owner of the self-driving car, the use can no longer be started. turn into.
  • An object of the present invention is to provide an automobile capable of solving the above-mentioned problems.
  • First storage means for storing information for personal authentication of the passenger; First authentication means for authenticating a user who is going to use the own vehicle using the personal authentication information stored in the first storage means; A communication means for communicating with a communication partner; Second storage means for storing information for communicating with the registered counterpart through the communication means; A second authenticating means for authenticating the user by connecting to the registered counterpart using the information stored in the second storage means by the communication means;
  • a vehicle comprising: a determination unit that determines whether or not the vehicle can be used according to an authentication result of the first authentication unit and / or the second authentication unit.
  • the present invention further includes: When the first authentication means can authenticate the user, the determination means determines that the vehicle can be used, When the user cannot be authenticated by the first authenticating means, authentication by the second authenticating means is performed, and the determining means determines the vehicle according to the authentication result by the second authenticating means. Can be configured to determine whether to allow the use of. When configured in this way, even if the user who intends to use the car is a person whose authentication information is not stored in the first storage means used for authentication in the first authentication means, The vehicle can be used if it can be authenticated by a registered partner (referred to as an authentication permitter) that is stored in the second storage means that is prompted for authentication by the second authentication means. In this case, the authentication permitter can receive a request for authentication through the communication means and notify the vehicle of the authentication result for the user through the communication means.
  • a registered partner referred to as an authentication permitter
  • the present invention further includes
  • the determination unit determines that the vehicle can be used. It can also be configured. In such a configuration, when the authentication by the first authentication unit can be performed and the authentication by the second authentication unit can be performed, the user can use the vehicle. Therefore, compared with the case of only the authentication by the first authentication means, the authentication becomes stricter and it becomes possible to strictly prevent unauthorized use.
  • the apparatus of the present invention even a person who does not store authentication information in the storage means used for authentication by the first authentication means can use the automobile. In addition, authentication becomes stricter, and unauthorized use can be strictly prevented.
  • FIG. 1 is a block diagram illustrating a hardware configuration example of an example of an autonomous driving vehicle that is a first embodiment of an automobile according to the present invention
  • FIG. It is a figure which shows the flowchart for demonstrating the process example at the time of the user's getting off in the automatic driving vehicle of the example of FIG.
  • FIG. It is a figure which shows a part of flowchart for demonstrating the process operation example corresponding to the call of the user in the automatic driving vehicle of the example of FIG.
  • FIG. 11 It is a block diagram which shows the hardware structural example of an example of the autonomous driving vehicle which is 2nd Embodiment of the motor vehicle by this invention. It is a block diagram which shows the hardware structural example of the taxi dispatch management server in the system of the example of FIG. It is a figure which shows the flowchart for demonstrating the example of reception processing operation
  • 1st Embodiment is an example in case a motor vehicle is what is called a private vehicle, and is set as the structure of an autonomous driving vehicle. And in this 1st Embodiment, about the automatic driving vehicle 1 which is embodiment of the motor vehicle of this invention, the utilization form as shown in FIG. 1 is enabled.
  • the user 2 ⁇ / b> A uses the automatic driving vehicle 1 (for example, drives), returns to the home 4, gets off the automatic driving vehicle 1, and enters the home 4. Then, the user 2A instructs the automatic driving car 1 to move to the parking lot 5 slightly away from the home 4 when getting off.
  • the automatic driving vehicle 1 for example, drives
  • the user 2A instructs the automatic driving car 1 to move to the parking lot 5 slightly away from the home 4 when getting off.
  • the autonomous driving vehicle 1 has a function of moving by autonomous driving by unmanned driving.
  • the automatic driving vehicle 1 moves to the parking lot 5 by autonomous driving by unattended driving according to the instruction of the user 2A who gets off.
  • the autonomous vehicle 1 has a function of performing communication through the communication network 3 including the mobile phone network and the Internet. Then, when there is a call through the mobile phone network of the communication network 3, the autonomous driving vehicle 1 authenticates the caller 2B who has made the call, and if the authentication is successful, the caller 2B is instructed. Move to a new location.
  • the user of the mobile phone terminal installs an application program for calling the automatic driving vehicle 1 in advance on the mobile phone terminal that calls the automatic driving vehicle 1. Then, when the user performs a calling operation of the autonomous driving vehicle 1 using an application program for calling a mobile phone terminal, the telephone is automatically sent to the wireless communication unit of the autonomous driving vehicle 1.
  • a call request to which information on the current position of the mobile phone terminal is added is sent to the automatic driving vehicle 1 as position information of a place where the automatic driving vehicle 1 is called and awaited.
  • the automatic driving vehicle 1 moves toward the location indicated by the position information.
  • the first caller authentication for authenticating the caller using the authentication information stored in the storage unit the first caller authentication for authenticating the caller using the authentication information stored in the storage unit.
  • the set authentication permitter confirms the caller's call permission, and the automatic call vehicle 1 receives the result and performs second caller authentication for authentication.
  • Examples of caller authentication information stored in the storage unit for the first caller authentication include biometric information such as a caller's face image, name, address, date of birth, ID, password, telephone number, and the like.
  • the mail address or the like can be used alone or in combination.
  • the caller sends this authentication information from the mobile phone terminal to the automatic driving vehicle 1 through the mobile phone network.
  • the face image of the caller can be taken by a camera provided in the mobile phone terminal, and the other biometric information of the caller can be prestored in the memory of the mobile phone terminal. Further, as other information, information input by the caller can be used.
  • biometric information including face images and other information stored in the cloud can be used via the communication network 3.
  • the dismounter registered and stored in the automatic driving vehicle 1 when getting off the vehicle.
  • the phone number of your mobile phone terminal The phone number of your mobile phone terminal.
  • the authorized person for the second caller authentication can be the owner of the autonomous driving vehicle 1 or the person who finally got off from the autonomous driving vehicle 1.
  • the automatic driving car 1 stores the telephone number of the owner of the automatic driving car 1 or the person who last got off from the automatic driving car 1 (the latest getting off person).
  • the authorized person for the second caller authentication is the person who finally got off and registered the telephone number of the mobile phone terminal.
  • the autonomous vehicle 1 requests the caller to provide authentication information, and sends the authentication information provided by the caller to the authentication permitter in response to the request.
  • the authentication permitter determines whether or not the caller is allowed to call the automatic driving vehicle 1. Send to.
  • examples of the authentication information provided by the caller are the same as the authentication information stored in the first caller authentication, such as biometric information such as the caller's face image, name, address, and date of birth. ID, password, telephone number and / or mail address can be used alone or in combination. In the example described below, the caller's name and face image are used.
  • the automatic driving vehicle 1 determines whether or not the second caller authentication has been performed based on whether or not the call permission confirmation result has been received from the authentication permitter. Accordingly, the vehicle travels autonomously to a designated waiting place.
  • the automatic driving vehicle 1 of this embodiment performs authentication about a user about the user who is going to start utilization newly in a waiting place, and only the user who was able to do the authentication at the time of the boarding.
  • the automatic driving vehicle 1 can be used, that is, the automatic driving vehicle 1 can be caused to travel.
  • the waiting place is not only when the caller has moved once and then moved in response to the call by the caller, but is not parked or parked at that position without moving at the previous departure. Including the case.
  • the first user authentication for performing authentication for the user using the authentication information stored in the storage unit is set in advance.
  • the authentication permitter confirms the use permission of the user, and the automatic driving vehicle 1 receives the result and performs the second user authentication for authentication.
  • user biometric information such as a user's face image, fingerprint, voice, vein, iris, and the like is used.
  • the face image of the latest passenger is taken and stored in the storage unit for the first user authentication. That is, in the example of FIG. 1, the autonomous driving vehicle 1 captures the face image when the user gets off, and uses the face image as authentication information in the storage unit for the first user authentication. Try to remember.
  • the authorized person for the second user authentication is the same as the authorized person for the second caller authentication, and is the owner of the autonomous driving vehicle 1 or the person who finally got off from the autonomous driving vehicle 1. can do.
  • the authorized person for the second user authentication is the person who finally got off and registered the telephone number of the mobile phone terminal.
  • the autonomous vehicle 1 requests the user to provide authentication information, and sends the authentication information provided by the user to the authentication permitter in response to the request.
  • the authorized person determines whether or not the user can permit the use of the autonomous driving vehicle 1 based on the authentication information of the user. Send to.
  • authentication information provided by the user are the same as the authentication information stored in the first caller authentication, such as biometric information such as a user's face image, name, address, and date of birth. ID, password, telephone number and / or mail address can be used alone or in combination. In the example described below, the user's name and date of birth are used.
  • the autonomous driving vehicle 1 determines whether or not the second user authentication has been performed based on whether or not the use permission confirmation result has been received from the authentication permitter. Allow the use of cars. That is, the user can drive the automatic driving vehicle 1.
  • the self-driving car 1 determines that the first caller authentication has been made and responds to the call from the parking lot 5 to the home 4 of the user 2A. Head.
  • the autonomous driving vehicle 1 captures and acquires a face image of the user 2A who has boarded the vehicle. Then, the automatic driving vehicle 1 compares the face image of the user 2A stored at the time of getting off with the face image of the user 2A acquired by photographing. Then, in this case, since both face images match, it is determined by the first user authentication that the authentication has been completed, and the use of the automatic driving vehicle 1 by the user 2A is permitted.
  • another user 2 ⁇ / b> B (for example, the family of the user 2 ⁇ / b> A) who is not the user 2 ⁇ / b> A who gets off calls the automatic driving car 1 at his / her mobile phone terminal at home 4.
  • the first caller authentication does not match the telephone number of the mobile phone terminal stored at the time of getting off.
  • the autonomous driving vehicle 1 makes a call to the user 2A who gets off the vehicle as an authentication permitter.
  • authentication information consisting of the name and face image of the caller 2B is acquired from the user 2B who is the caller as authentication information, and is sent to the user 2A who is the authentication permitter. send.
  • the user 2A who is the authentication permitter, examines the sent authentication information and determines whether or not the automatic driving vehicle 1 can be called. If not permitted, a call rejection notification is sent to the autonomous driving vehicle 1.
  • the automatic driving vehicle 1 can perform the second caller authentication by the call permission confirmation notice from the authorized person.
  • the standby location designated by the user 2B that is, in the example of FIG. 1, the user 2B is the family of the user 2A, and goes to the home 4 of the user 2A.
  • the autonomous driving vehicle 1 When the autonomous driving vehicle 1 arrives at the home 4, the user 2 ⁇ / b> B gets on the autonomous driving vehicle 1. Then, the self-driving car 1 compares the face image of the user 2A stored at the time of getting off with the face image taken by the user 2B who has boarded the vehicle, and the first user is not matched. It is determined that the authentication has failed. Then, at this time, the autonomous driving vehicle 1 makes a call to the user 2A who gets off the vehicle who is an authorized person. Then, the autonomous driving vehicle 1 acquires predetermined authentication information from the user 2B, in this example, authentication information including the name and face image of the user 2B, and uses this information as a user who is an authorized person. Send to 2A.
  • the user 2A who is an authentication permitter examines the sent authentication information and determines whether or not the use of the autonomous driving vehicle 1 may be permitted. If it is permitted, a notice of disapproval of use is sent to the autonomous vehicle 1. In this example, it is assumed that a use permission confirmation notification is sent to the autonomous driving vehicle 1.
  • the automatic driving vehicle 1 determines that the second user authentication has been made based on the call permission confirmation notification from the authentication permitter, and permits the user 2B to use the automatic driving vehicle 1.
  • FIG. 2 is a block diagram illustrating a hardware configuration example of the electronic control circuit unit 10 of the autonomous vehicle 1 according to the first embodiment.
  • the automatic driving vehicle 1 of this embodiment is an example in the case of an electric vehicle.
  • the battery is not shown in FIG.
  • the automatic driving vehicle 1 of this embodiment includes an automatic driving mode and a manual driving mode.
  • the manual operation mode is a mode in which the vehicle can travel in accordance with the driver's accelerator pedal operation, brake pedal operation, shift lever operation, and steering operation (handle operation), as in a normal automobile that is not an autonomous driving vehicle.
  • the autonomous driving vehicle 1 itself automatically (autonomously) avoids obstacles even if the driver does not operate the accelerator pedal, the brake pedal, the shift lever and the steering. It is a driving mode to change.
  • the driver of the automatic driving vehicle 1 can switch the automatic driving vehicle 1 running in the manual driving mode to the automatic driving mode by a predetermined operation through, for example, the touch panel 112 described later, and while driving in the automatic driving mode.
  • a predetermined operation through, for example, the touch panel 112 described later, and while driving in the automatic driving mode.
  • the driver performs an accelerator pedal operation, a brake pedal operation, a shift lever operation, or a steering operation, the driver automatically returns to the manual operation mode.
  • the electronic control circuit unit 10 has a wireless communication unit 102, a motor drive control unit 103, and a steering drive control unit through a system bus 100 with respect to a control unit 101 configured with a computer.
  • 104 manual / automatic operation mode switching control unit 105, radar 106, camera group 107, sensor group 108, surrounding moving body grasping unit 109, current position detection unit 110, display unit 111, touch panel 112, car navigation (hereinafter referred to as car navigation) (Abbreviated) functional unit 113, user authentication unit 114, user authentication information storage unit 115, caller authentication unit 116, caller authentication information storage unit 117, user and caller permission authentication unit 118, authentication permitter
  • Each of the connection information storage unit 119 and the audio output unit 120 is connected.
  • a motor drive unit 121 is connected to the motor drive control unit 103.
  • a steering drive unit 122 is connected to the steering drive control unit 104.
  • a manual driving operation detection unit 123 is connected to the manual / automatic driving mode switching control unit 105.
  • a car navigation database 124 is connected to the car navigation function unit 113.
  • a speaker 125 is connected to the audio output unit 120.
  • the wireless communication unit 102 has a function of performing communication such as telephone communication and e-mail communication through a mobile phone network.
  • the control unit 101 performs processing when receiving a call request from the caller through the wireless communication unit 102 and generates a communication path with the authorized authenticator, and performs second caller authentication,
  • a processing function for performing the second user authentication is provided as a software processing function.
  • the motor drive control unit 103 controls the supply of a drive signal to the motor drive unit 121 of the automatic driving vehicle 1 constituted by the electric vehicle of this embodiment, so that the automatic driving vehicle 1
  • the start of travel, the travel speed control (including brake control and accelerator control), the travel stop, etc. are controlled.
  • the steering drive control unit 104 controls the supply of a drive control signal to the steering drive unit 122 of the autonomous driving vehicle 1 of this embodiment, thereby controlling the course change of the autonomous driving vehicle 1. To do.
  • the manual / automatic operation mode switching control unit 105 performs control to switch the operation mode of the automatic driving vehicle 1 between the manual operation mode and the automatic operation mode in accordance with a selection operation input through the touch panel 112.
  • the manual driving operation detection unit 123 receives operation information of an accelerator pedal operation, a brake pedal operation, a shift lever operation, and a steering operation by the driver, and supplies the manual driving operation information to the manual / automatic driving mode switching control unit 105. To do.
  • the manual / automatic driving mode switching control unit 105 supplies the manual driving operation information from the manual driving operation detecting unit 123 to the motor driving control unit 103 and the steering driving control unit 104 when the automatic driving vehicle 1 is in the manual driving mode. Then, the motor drive unit 121 and the steering drive unit 122 are controlled according to the driver's pedal operation, shift lever operation, and steering operation (handle operation).
  • the manual / automatic driving mode switching control unit 105 outputs the output of the radar 106, the camera group 107, the sensor group 108, and the surrounding moving body grasping unit 109 as described later when the automatic driving vehicle 1 is in the automatic driving mode.
  • the automatic driving operation information generated by the control unit 101 is supplied to the motor driving control unit 103 and the steering driving control unit 104, and the motor driving unit 121 and the steering driving unit 122 are driven and controlled by the automatic driving operation information.
  • the car navigation function unit 113 searches for a route from the current position to the destination (destination) set by the driver or the like, and is controlled so as to travel along the searched route.
  • the radar 106 is used to measure the distance to people or objects existing around the vehicle of the autonomous driving vehicle 1 and includes a laser radar, a millimeter wave radar, or the like.
  • the laser radar is embedded, for example, near the ceiling or the bumper, and the millimeter wave radar is provided, for example, at the front and rear of the vehicle. Both laser radar and millimeter wave radar may be provided, or only one of them may be provided. Further, other radars such as a microwave radar may be used. Further, a sonar (not shown) can be used for the same purpose as the radar.
  • the camera group 107 includes one to a plurality of cameras for photographing the inside of the autonomous driving vehicle 1 and one to a plurality of cameras for photographing the outside of the vehicle such as the front, side, and rear of the autonomous driving vehicle 1.
  • a camera that captures the interior of a vehicle is attached to the rear-view mirror (rear-view mirror, rear-view mirror) installed between the driver's seat and front passenger seat, the upper part of the front window, etc.
  • a camera for photographing the work of a passenger (passenger) sitting in the passenger seat or the rear seat is included.
  • Cameras that photograph the periphery of the autonomous vehicle 1 are attached to the left and right sides of the rearview mirror, for example, and two cameras (stereo cameras) that primarily photograph the left front and right front of the autonomous vehicle 1
  • the camera includes a camera that is attached to, for example, a door mirror or a fender mirror of the autonomous driving vehicle 1 and photographs the left and right sides, a camera that captures the rear of the autonomous driving vehicle 1, and the like.
  • the sensor group 108 includes an opening / closing detection sensor for detecting opening / closing of a door and a window, a sensor for detecting seat belt wear, a seating sensor for detecting that a passenger is seated in a seat such as a driver's seat and a passenger seat, etc.
  • it includes a human sensor (infrared sensor) for detecting a person in the vicinity outside the vehicle and various sensors for acquiring information to assist automatic driving.
  • a vibration sensor for detecting vibration of a vehicle or a tire
  • a rotation speed sensor for detecting the rotation speed of a tire
  • a geomagnetic sensor for detecting acceleration
  • a gyro sensor for detecting angle and angular velocity
  • the sensor group 108 also includes sensors that detect lighting of a right turn signal, a left turn signal (direction indicator), and a hazard lamp (emergency blinking light).
  • the surrounding moving body grasping unit 109 grasps the moving body (including a person) around the own vehicle using the radar 106, the sensor group 108, and the captured image of the camera group 107.
  • the surrounding moving body grasping unit 109 grasps surrounding obstacles and moving bodies by performing processing based on, for example, Bayesian theory.
  • the current position detector 110 receives radio waves from GPS satellites and detects the current position of the vehicle. Since the current position detection unit 110 has poor accuracy of the position detected by the radio wave from the GPS satellite, the current position detection unit 110 includes not only the information on the current position detected by the reception of the radio wave from the GPS satellite, but also 1 to In addition to using a plurality of sensors, radar 106, captured images of the camera group 107 (with a navigation function), and the like, for example, processing based on Bayesian theory is performed to detect and confirm the current position with higher accuracy. ing.
  • the autonomous driving vehicle 1 has position information acquired by receiving radio waves from the radar 106, the camera group 107, the sensor group 108, and GPS satellites in the current position detection unit 110 and the surrounding moving body grasping unit 109.
  • Information that is, information corresponding to information obtained from human eyes and ears is processed by Bayesian theory, and based on this, the control unit 101 performs intelligent information processing such as changing the course of the own vehicle and avoiding obstacles. (Artificial intelligence) and control (artificial intelligence) are performed to generate automatic driving operation information.
  • the display unit 111 includes, for example, an LCD (Liquid Crystal Display).
  • the touch panel 112 is arranged by superimposing a touch sensor capable of touch input with a finger on the display screen of the display unit 111 formed of an LCD.
  • a display image including software buttons (including keyboard character input buttons) is displayed on the display screen of the display unit 111 based on the control of the control unit 101.
  • the touch panel 112 detects a touch by a finger on the software button displayed on the display screen, the touch panel 112 transmits the touch to the control unit 101.
  • the control unit 101 is configured to execute control processing corresponding to the software button.
  • the car navigation function unit 113 is a function unit for guiding the automatic driving vehicle 1 to assist in moving to a designated destination based on a map stored in the car navigation database 124 and route guidance data. It is. In this embodiment, the car navigation function unit 113 is configured to perform slightly different processing in the manual operation mode and the automatic operation mode.
  • the car navigation function unit 113 is detected and confirmed by the current position detection unit 110 on the map that explicitly displays the route (route) to the destination on the display screen of the display unit 111.
  • the vehicle position (current position) on the map is moved as the vehicle moves, and route guidance such as intersections and branch points on the route is provided. Provide voice guidance where necessary. This is the same as the normal car navigation function.
  • the car navigation function unit 113 notifies the control unit 101 of information on the direction and distance of the vehicle when the current position of the vehicle is away from the route to the destination.
  • the control unit 101 is notified of the change direction information along the route before the intersection or branching point on the route as the vehicle moves. To do.
  • the control unit 101 instructs the own vehicle on the route.
  • the motor drive unit 121 is controlled through the motor drive control unit 103 and the automatic drive operation information for controlling the steering drive unit 122 is generated through the steering drive control unit 104 so as to move along the route as described. . Therefore, by the route guidance to the destination by the car navigation function unit 113 and the control unit 101 in the automatic driving mode, the automatic driving vehicle 1 can move to the destination even when the passenger is unattended.
  • the user authentication unit 114 uses the user authentication information stored in the user authentication information storage unit 115 and the authentication information acquired from the new user to perform the first user authentication described above. I do.
  • the first user authentication is performed by matching / mismatching the face image of the latest disembarkation person and the face image of the new user.
  • the image recognition means is configured.
  • the user authentication information storage unit 115 stores a face image of a passenger who is photographed by a predetermined camera in the camera group 107.
  • the user authentication information storage unit 115 is updated and stored by overwriting the previous face image of the person getting off, which was captured by the camera, over the previous face image of the person getting off.
  • the autonomous driving vehicle 1 When the first user authentication is performed by the user's voice, the autonomous driving vehicle 1 is provided with a microphone (not shown) that picks up the passenger's voice and the user authentication information.
  • the storage unit 115 stores the voice of the person getting off the vehicle, and the user authentication unit 114 is configured to have a speaker voice recognition function, and collects sound using the stored voice and a microphone (not shown).
  • the first user authentication is performed by determining a match / mismatch with the voice of the new user.
  • the autonomous driving vehicle 1 is provided with a fingerprint reading device, and the user authentication information storage unit 115 stores the fingerprint of the dismounter.
  • the stored and user authentication unit 114 is configured to have a fingerprint recognition function, and determines whether the stored fingerprint matches or does not match the new user's fingerprint acquired by the fingerprint reader. Thus, the first user authentication is performed. Even when veins, irises, and other biological information are used, the same configuration change is possible.
  • the caller authentication unit 116 uses the caller authentication information stored in the caller authentication information storage unit 117 and the authentication information acquired from the caller acquired when the wireless communication unit 102 receives the call. Thus, the first caller authentication described above is performed. In this embodiment, as described above, the first caller authentication is performed by matching / mismatching between the telephone number of the mobile phone terminal of the latest passenger and the telephone number of the mobile phone terminal of the caller. The caller authentication unit 116 acquires the telephone number when an incoming call is received from the caller to the wireless communication unit 102, and matches / mismatches the telephone number stored in the caller authentication information storage unit 117. The first caller authentication is performed after the determination.
  • the caller authentication information storage unit 117 stores the telephone number of the mobile phone terminal of the latest disembarkation person input through the touch panel 112.
  • the telephone number stored in the caller authentication information storage unit 117 is also overwritten on the previously stored telephone number, so that it is the telephone number of only the latest passenger.
  • it may be stored sequentially without overwriting, and a history of the telephone number of the disembarking person may be left.
  • the difference in information used as authentication information is the same as the configuration of the user authentication unit 114 and the user authentication information storage unit 115.
  • the configuration is changed according to the above.
  • the user / caller permission authenticating unit 118 executes the above-described second user authentication function and the second caller authentication function. That is, the user / caller permission authenticating unit 118 generates a communication path with a function for acquiring authentication information from the user or the caller and the authentication permitter, and uses the authentication information acquired from the user or the caller. And a function of sending information to the authentication permitter through the generated communication path and acquiring information on permission or non-permission from the authentication permitter.
  • the telephone number of the mobile phone terminal of the dismounter is stored as described above.
  • the above-described authentication mode using the unit 118 and the authentication permitter connection information storage unit 119 can be set through the touch panel 112 to turn on or off.
  • the on / off setting of the authentication mode can be performed only when authentication is obtained with an ID and a password set in advance by the owner of the automatic driving vehicle 1 or the like.
  • the ON / OFF setting can be made for each of the first caller authentication, the second caller authentication, the first user authentication, and the second user authentication.
  • ON / OFF of the authentication mode is ON / OFF for all of the first caller authentication, the second caller authentication, the first user authentication, and the second user authentication. It is set.
  • the voice output unit 120 has a built-in memory for storing voice message data to be emitted to the outside, and a voice synthesizer that converts voice message data read from the memory into an analog voice signal And a DA converter. Then, the voice output unit 120 supplies the voice message selected by the control of the control unit 101 to the speaker 125 so as to be emitted to the outside as voice.
  • an inquiry message such as “Do you want to turn on the authentication mode?”
  • a notification message such as “Authenticated.” Or “Authentication failed.” Is prepared.
  • the electronic control circuit unit 10 of the automatic driving vehicle 1 is configured.
  • the motor drive control unit 103, the steering drive control unit 104, and manual / automatic operation mode switching are performed.
  • Each processing function can be realized as a software process performed by the control unit 101 executing a program.
  • the control unit 101 includes a motor drive control unit 103, a steering drive control unit 104, a manual / automatic operation mode switching control unit 105, a surrounding moving body grasping unit 109,
  • the processing functions of the current position detection unit 110, the car navigation function unit 113, the user authentication unit 114, the caller authentication unit 116, the user and caller permission authentication unit 118, and the voice output unit 120 are realized as software processing Will be described.
  • FIG. 3 is a flowchart for explaining an example of a flow of processing executed by the control unit 101 when the user gets off from the automatic driving vehicle 1.
  • the control unit 101 determines whether or not the driving of the motor driving unit 121 of the own vehicle is stopped by a user (for example, a driver, which will be described as a case where the user is a driver) and the power supply system is turned off. (Step S101). When it is determined in step S101 that the drive of the motor drive unit 121 is not stopped, the control unit 101 continues the necessary control during travel (step S102), and then returns to step S101.
  • a user for example, a driver, which will be described as a case where the user is a driver
  • step S101 When it is determined in step S101 that the driving of the motor driving unit 121 has been stopped, the driver is generally expected to get off, so the control unit 101 determines whether the authentication mode is on. It discriminate
  • step S103 If it is determined in step S103 that the authentication mode is on, the control unit 101 captures the driver's face image with a camera that captures the driver in the camera group 107 (step S106). The photographed driver's face image information is stored in the user authentication information storage unit 115 (step S107).
  • the control unit 101 emits a message prompting the driver to input caller authentication information through the speaker 125 and displays the message on the display screen of the display unit 111 to request the caller authentication information.
  • a message “Please input the telephone number for calling” is emitted through the speaker 125 and displayed on the display screen of the display unit 111.
  • control unit 101 determines whether or not the caller authentication information has been received and waits for reception of the caller authentication information (step S109).
  • the control unit 101 sets the caller authentication information to the caller authentication information. It memorize
  • step S104 the control unit 101 determines whether or not the authentication mode is turned on by the driver (step S105), and determines that the authentication mode is not turned on (for example, the authentication mode is not turned on). When the driver gets off the vehicle, the processing routine at the time of getting off is terminated. If it is determined in step S105 that the authentication mode has been turned on, the process proceeds to step S106, and the processes after step S106 are repeated.
  • FIG. 4 and FIG. 5 which is a continuation thereof are diagrams showing a flowchart for explaining an example of the flow of processing operation of the control unit 101 when the automatic driving vehicle 1 receives an incoming call.
  • a call request for calling the autonomous driving vehicle 1 is performed by starting the application program from a mobile phone terminal in which a dedicated application program is installed in advance.
  • the transmission signal addressed to the automatic driving vehicle 1 from the mobile phone terminal includes a call request and information on the current position measured by the mobile phone terminal as a standby location.
  • the control unit 101 monitors the incoming notification from the wireless communication unit 102 to determine whether or not an incoming call has been detected (step S111). When determining that no incoming call has been detected, the control unit 101 performs other necessary processing. Perform (step S112), and then return to step S111.
  • step S111 When it is determined in step S111 that an incoming call has been detected, an automatic response is made (step S113), and the control unit 101 determines whether the incoming call is a call request (step S114) and determines that the call is not a call request. Sometimes, the process proceeds to the corresponding process routine for the incoming call (step S115).
  • step S114 When it is determined in step S114 that the incoming call is a call request, the control unit 101 performs first caller authentication. That is, in this example, the control unit 101 compares and refers to the telephone number of the mobile phone terminal of the disembarkation person stored in the caller authentication information storage unit 117 and the telephone number of the called party (step S116). It is determined whether or not they match (step S117), and first caller authentication is performed.
  • step S117 when the telephone number matches and the first caller authentication can be performed, the control unit 101 extracts and acquires the position information of the standby location sent from the caller. (Step S131 in FIG. 5). Next, the control unit 101 uses the data of the car navigation function unit 113 to search for a route to the standby location using the data of the car navigation database 124, and predict and calculate the time required to move to the standby location ( Step S132). Next, the control unit 101 transmits the required time calculated by the prediction to the caller through the wireless communication unit 102 (step S133). Next, the control unit 101 disconnects communication with the caller, starts a movement control routine to the standby location, and ends this processing routine (step S134).
  • the control unit 101 performs the second caller authentication as follows. That is, the control unit 101 sends an acquisition request for permission authentication information to the other party (caller), and acquires the permission authentication information from the other party (caller) (step S118).
  • the authorization authentication information is the face image and name of the other party (caller), and the mobile phone terminal of the other party (caller) calls with the camera of the mobile phone terminal according to the dedicated application program described above. The person's face image is photographed, and the photographed face image and the name of the caller stored in advance are sent to the automatic driving car 1, so that the automatic driving car 1 receives it.
  • step S118 a communication path is established between the wireless communication unit 102 and the authentication permitter using the connection information stored in the authentication permitter connection information storage unit 119 on another line for the mobile phone terminal. Is generated. Then, the caller permission authentication information acquired in step S118 is transmitted to the authentication permitter through the generated communication path, and the authentication permitter is requested to authenticate (step S119).
  • step S119 In response to the authentication request for the authorized person in step S119, as described above, either the call permission confirmation result or the call rejection result is sent from the authentication authorized person. Therefore, the control unit 101 determines whether or not the second caller authentication has been performed based on whether or not the call permission confirmation result has been received from the authentication permitter (step S120). When it is determined in step S120 that the call permission confirmation result has been received from the authorized person and it is determined that the second caller authentication has been performed, the control unit 101 proceeds to step S131 in FIG. Perform the process.
  • step S120 when it is determined that the second caller authentication cannot be performed by receiving the call rejection result without receiving the call permission confirmation result from the authentication permitter, the control unit 101 cannot perform the authentication.
  • a voice message for rejecting the call is generated by voice synthesis, for example, and sent to the caller through the wireless communication unit 102 to be notified, and then the communication path with the caller is disconnected (step S121).
  • the control unit 101 ends the call handling process routine.
  • control unit 101 uses the function of the car navigation function unit 113 to search for a route using the location acquired by step S131 and indicated by the location information of the standby location as the destination, and the departure location as the current location.
  • the navigation (guidance) along the movement route (route) of the search result obtained as a result is started (step S141).
  • control unit 101 determines whether or not the destination has been reached while confirming the current position during movement (step S142), and determines that the destination has not arrived at the destination, It is determined whether or not a significant delay of, for example, 10 minutes or more has occurred with respect to the time required for the movement (step S143). If there is no significant delay, the process returns to step S142, and after this step S142. Repeat the process. If it is determined in step S143 that a significant delay has occurred, the required time is recalculated, communication is regenerated with the caller, and the calculation result is notified to the caller (step S144). . And the control part 101 returns a process to step S142, and repeats the process after this step S142.
  • step S142 When it is determined in step S142 that the vehicle has arrived at the destination (waiting place), the control unit 101 stops at the waiting place and starts a calling boarding control routine (step S145). Then, the control unit 101 ends this call movement control routine.
  • step S145 an example of the calling boarding control routine activated in step S145 will be described with reference to FIG. 7 and FIG.
  • the user will be described as a driver who rides in the driver's seat of the autonomous driving vehicle 1 and operates.
  • the control unit 101 monitors the detection of the user's boarding and waits for detection of the user's boarding (step S151). When it is detected in step S151 that the user has boarded, the control unit 101 captures a face image of the user (driver) who has boarded with a camera that captures the driver in the camera group 107 (step S152). .
  • control unit 101 performs first user authentication. That is, in this example, the face image of the disembarkation person stored in the user authentication information storage unit 115 is compared with the face image of the user who gets into the driver's seat (step S153), and both face images are obtained. Are determined to match (step S154).
  • step S154 If it is determined in step S154 that the face images match and it is determined that the first user authentication has been performed, the control unit 101 enters a state in which the use (driving) by the user of the driver seat is permitted (step S154). S159). And the control part 101 complete
  • the control unit 101 When it is determined in step S154 that the face images are inconsistent and the first user authentication cannot be performed, the control unit 101 performs the second user authentication as follows. That is, the control unit 101 displays a message by voice through the speaker 125 or on the display screen of the display unit 111, requests the user to obtain permission authentication information, and receives a request from the user who has received the request.
  • the authorization authentication information is acquired (step S155).
  • the authorization authentication information is a user's face image and name. Since the face image of the user has already been acquired in step S152, the control unit 101 requests the user to input his / her name, and accepts the input of the user's name in response to this request.
  • step S155 the control unit 101 generates a communication path with the authentication permitter using the connection information stored in the authentication permitter connection information storage unit 119 through the wireless communication unit 102. (Step S156). Then, the user permission authentication information acquired in step S155 is transmitted to the authentication permitter through the generated communication path, and confirmation authentication is requested from the authentication permitter (step S157).
  • step S157 In response to the authentication request to the authorized person in step S157, as described above, either the use permission confirmation result or the use non-permitted result is sent from the authentication authorized person. Therefore, in this example, the control unit 101 determines whether or not the second user authentication has been performed based on whether or not the use permission confirmation result has been received from the authentication permitter (step S158). In step S158, when it is determined that the second user authentication has been completed after receiving the use permission confirmation result from the authentication permitter, the control unit 101 advances the process to step S159 to use the driver seat by the user. Enable (driving).
  • step S158 when it is determined that the second user authentication has failed due to the use non-permission result without receiving the use permission confirmation result from the authentication permitter, the control unit 101 cannot perform the authentication. As a result, the host vehicle is locked in a non-runnable state, and is set in a non-permitted state that cannot be used (driven) by the user of the driver seat (step S161 in FIG. 8).
  • control part 101 produces
  • control unit 101 requests a subsequent post-processing instruction from the authentication permitter and, upon receiving the post-processing instruction, disconnects the communication path with the authentication permitter (step S163).
  • This post-processing instruction is, for example, an instruction such as “return to parking” or “return to home”.
  • step S164 determines whether or not the user who gets on the vehicle has been confirmed to get off.
  • step S164 determines whether or not the user who gets on the vehicle has been confirmed to get off.
  • the first user authentication using the user authentication information stored in the automatic driving vehicle 1 and the new user authentication information. Even when the user cannot perform the second user authentication based on the confirmation and authentication of the user by a predetermined authentication permitter, the user can use the automatic driving vehicle 1. Thereby, the use of the autonomous driving vehicle by a user different from the latest dismounter becomes possible. Then, when the first user authentication is completed, the user can be permitted to use the automatic driving vehicle 1 without performing the second user authentication.
  • the user can call and use the automatic driving vehicle 1. Even in such a case, in the above-described embodiment, the first caller authentication is performed and the second caller authentication is performed. When the first caller authentication is completed, the call by the caller is answered. In addition, when the first caller authentication cannot be performed, the second caller authentication based on the confirmation authentication of the caller by a predetermined authentication permitter is performed, whereby the caller's automatic driving vehicle 1 Call is possible. Therefore, even a caller who is not registered in advance in the automatic driving vehicle 1 is allowed to call the automatic driving vehicle 1, which is very convenient.
  • the user authentication information storage unit 115 stores only the authentication information of the user who gets off the vehicle. However, all the users who can be assumed to use are stored in advance. You may keep it. In that case, in the first user authentication, not only the user who gets off, but also the user who has registered in advance, when the first user authentication can be authenticated, the automatic driving The car 1 can be used, which is convenient.
  • the caller authentication information storage unit 117 not only the authentication information of the user who gets off, but also all the users who can be expected to use may be stored in advance. In that case, in the first caller authentication, not only the user who gets off, but all of the callers registered in advance make a call when the first caller authentication is completed. It is convenient.
  • the control unit 101 performs the second user authentication.
  • User authentication may not be performed (locked), and the automatic driving vehicle 1 may be disabled. This is because when the latest disembarkation person always uses the automatic driving car 1 again after disembarking, it is not necessary for other users to use it, so there is no need to make an inquiry. This is the case when visiting stores such as supermarkets and convenience stores for shopping.
  • the phone number stored in the caller authentication information storage unit 117 is the phone number of the mobile phone terminal.
  • the phone number is not limited to the phone number of the mobile phone terminal. Needless to say, it may be a telephone number of an IP phone.
  • an e-mail address can be used instead of a telephone number. E-mail addresses can be used not only on mobile phone terminals but also on PCs and tablets.
  • information on the current position is sent as information on the standby location in the call request, but a location other than the current location may be specified as the standby location.
  • an address may be specified, such as “in front of a store at the north exit of the XX station on the XX line” or “front entrance of a department store in Ginza”. May be.
  • the autonomous driving vehicle 1 searches for the standby location in the map information of the car navigation database 124 and detects the standby location. If it cannot be detected, the autonomous driving vehicle 1 1 can be detected by accessing a map server on the Internet through the wireless communication unit 102, searching, and acquiring the result. In that case, the route search to the meeting place is performed in cooperation with the map server, and the navigation can also be performed using the service of the map server.
  • the automatic driving vehicle 1 in the first embodiment described above includes the automatic driving mode and the manual driving mode
  • a configuration of only the automatic driving mode may be used.
  • there is no manual operation mode and therefore the manual / automatic operation mode switching control unit 105 and the manual operation operation detecting unit 123 are not necessary.
  • an automatic operation control unit (not shown) that performs control processing for automatic operation is provided.
  • the automobile is not limited to the autonomous driving vehicle, and the driving by the driver is essential, and the conventional automobile having no automatic driving mode is also used. Can be applied.
  • the above-described automatic driving vehicle can run without a driver, the user is not limited to the driver, and may be a passenger seated in a passenger seat or a rear seat.
  • the user authentication information storage unit 115, the caller authentication information storage unit 117, the authentication permitter connection information storage unit 119, and the car navigation database 124 are installed in the own vehicle. Some or all of these storage units can be installed on the cloud instead of in the host vehicle and used via the communication network 3. Further, some or all of the authentication units such as the user authentication unit 114, the caller authentication unit 116, the user and the caller permission authentication unit 118 are processed on the cloud via the communication network 3 instead of in the own vehicle. You can also
  • the second embodiment is an example of a case where the automobile is a taxi managed by a taxi company and is configured as an autonomous driving vehicle.
  • a use form as shown in FIG. 9 is enabled for an autonomous driving vehicle 1A which is an embodiment of the automobile of the present invention.
  • the same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
  • an automatic driving vehicle 1A constituting a taxi, a taxi user 2C, and a taxi dispatch management server 7 of a taxi company are connected through a communication network 3 including a mobile phone network and the Internet. Configure a communication system.
  • the taxi user 2C accesses the taxi dispatch management server 7 of the taxi company 6 through the communication network 3 in advance to register as a member. Then, the user 2C pre-registers his / her face image and biological information such as voice, fingerprint, vein, and iris as user authentication information as a taxi user at the time of membership registration. This user authentication information is used for the first user authentication for authenticating the user executed in the autonomous driving vehicle 1A. In this example, the user authentication information is a registered user's face image.
  • the taxi user 2C also registers his / her name, address, date of birth, ID, password, mobile phone number and e-mail address, and payment information such as credit card information and financial institution account information. To do. Further, as in the first embodiment, the mobile phone terminal of the user 2C who has become a member accesses the taxi dispatch management server 7 and sends a request for taxi dispatch along with his / her current location. An application program is installed and provided by the taxi company.
  • the user 2C activates an application program for requesting the taxi dispatch from his / her mobile phone terminal, and performs an operation for requesting taxi dispatch from the taxi dispatch management server 7.
  • the taxi dispatch management server 7 accepts a request for taxi dispatch. Then, the taxi dispatch management server 7 acquires information on the current location of the user 2C included in the taxi dispatch request, and recognizes the location as a standby location.
  • the taxi dispatch management server 7 sends information indicating what the authentication information for confirmation is to the mobile phone terminal of the taxi user 2C.
  • Information indicating what the authentication information for confirmation is is used for the second user authentication in the second embodiment.
  • the taxi dispatch management server 7 selects and dispatches the taxi heading to the waiting place of the user 2C from the managed taxis. Then, the taxi dispatch management server 7 uses the position information of the waiting place and the face image information in the registered information of the user 2C as a member for the first user authentication to the taxi to be dispatched. The authentication information is sent through the communication network 3 and stored, and the user 2C is instructed to go to the standby location.
  • the autonomous driving vehicle 1A Upon receiving this instruction, the autonomous driving vehicle 1A goes to the designated waiting place and, as will be described later for the user, the first user authentication is stored in the stored authentication information, in this example, the face image of the user. Use information.
  • the autonomous driving vehicle 1A makes a request for acquisition of authentication information for the second user authentication determined at the time of the call request to the boarded user. Then, the automatic driving vehicle 1A sends the acquired authentication information to the taxi dispatch management server 7 and requests user confirmation authentication.
  • the use permission confirmation result is sent to the automatic driving vehicle 1A, and when the confirmation and authentication is not successful, the unusable result is sent to the automatic driving vehicle 1A.
  • the automatic driving vehicle 1A receives the use permission confirmation result from the taxi dispatch management server 7, it determines that the second user authentication has been completed, permits the customer to use the taxi, and rejects the use from the taxi dispatch management server 7.
  • the permission result is received, it is determined that the second user authentication cannot be performed, and the customer's use is rejected.
  • the first user authentication can be performed, and when the second user authentication is performed, control is performed so as to allow the customer to use the taxi.
  • the customer's taxi use is not permitted immediately but the customer's taxi use is permitted only when the second user authentication is performed. is there.
  • FIG. 10 is a block diagram showing a hardware configuration example of an electronic control circuit unit 10A of an automatic driving vehicle (automatic driving taxi) 1A as a second embodiment of the automobile of the present invention. 10, the same parts as those in the electronic control circuit unit 10 of the automatic driving vehicle 1 of the first embodiment shown in FIG.
  • the electronic control circuit unit 10A of the autonomous driving vehicle 1A of this embodiment includes a user authentication unit 114, a user authentication information storage unit 115, and a call for the autonomous driving vehicle 1 of the first embodiment.
  • the user authentication unit 116, the caller authentication information storage unit 117, the user and caller permission authentication unit 118, and the authentication permitter connection information storage unit 119 are not provided. Instead, the customer authentication unit 131, the customer authentication information A storage unit 132, a boarding permission authentication unit 133, and an authentication permitter connection information storage unit 134 are provided.
  • the automatic driving vehicle 1A in the second embodiment does not have a manual driving mode, and therefore, the manual / automatic driving mode switching control unit 105 and the manual driving operation detecting unit 123 are not provided, but instead.
  • an automatic operation control unit 105A that performs control processing for the automatic operation described in the first embodiment is provided.
  • the other configuration is the same as that of the automatic driving vehicle 1 of the first embodiment.
  • the authentication information of the user who requested the taxi call sent from the taxi dispatch management server 7 of the taxi company (authentication information for the first user authentication) is stored in the customer. It is stored as (passenger) authentication information.
  • the taxi dispatch management server 7 sends the face image of the member user who requested the taxi call to the automatic driving car 1A, and the face image information is the customer authentication information storage unit 132. Is remembered.
  • the customer authentication unit 131 performs first user authentication. That is, in this example, when a user gets into the automatic driving vehicle 1A, the user's face image is captured to acquire the user's authentication information. Then, the customer authentication unit 131 compares and refers to the acquired face image and the face image as authentication information stored in the customer authentication information storage unit 132, and determines the match / mismatch, First user authentication is performed.
  • the boarding permission authentication unit 133 generates a communication path between the function for acquiring the second authentication information from the customer and the authentication permitter, in this example, the taxi dispatch management server 7, and the authentication information acquired from the customer. Is transmitted to the authentication permitter through the generated communication path, and information regarding permission / denial from the authentication permitter is acquired.
  • the authorized person connection information storage unit 134 stores a telephone number, an e-mail address, and a URL (Uniform Resource Locator) for generating a communication path with the taxi dispatch management server 7 as the authorized person connection information. Is done.
  • the electronic control circuit unit 10A of the autonomous driving vehicle 1A is configured.
  • the motor drive control unit 103 the steering drive control unit 104, the automatic operation control unit 105A, and the surroundings
  • Each processing function of the moving body grasping unit 109, the current position detecting unit 110, the car navigation function unit 113, the voice output unit 120, the customer authentication unit 131, and the boarding permission authentication unit 133 is realized by the control unit 101 as software processing. Can do.
  • FIG. 11 is a block diagram illustrating a hardware configuration example of the taxi dispatch management server 7.
  • the taxi dispatch management server 7 sends a wireless communication unit 702 for a customer, a member customer information storage unit 703, a passenger customer confirmation and authentication unit 704, a taxi to a control unit 701 composed of a computer.
  • a wireless communication unit 705, a taxi location information management unit 706, a customer location detection unit 707, a map data storage unit 708, a display unit 709, and an operator user interface 710 are connected.
  • the customer wireless communication unit 702 is a dedicated wireless communication unit for receiving a taxi call request from a customer.
  • the customer wireless communication unit 702 receives a customer taxi call request sent through a mobile phone network.
  • the member customer information storage unit 703 is a member's face image, biological information such as voice, fingerprint, vein, iris, name, address, date of birth, ID, password, mobile phone terminal phone number, Payment information such as e-mail addresses, credit card information, and financial institution account information is stored.
  • the boarding customer confirmation and authentication unit 704 is a member customer based on the telephone number, ID, and password registered in the member customer information storage unit 703. If it is a member customer, a process for accepting the taxi call request is performed.
  • the boarding customer confirmation and authentication unit 704 has a function of transmitting authentication information for second user authentication to the mobile phone terminal of the customer member.
  • the boarding customer confirmation and authentication unit 704 has information other than the information used for the first user authentication (facial image information in this example) among the registered information of the member who has received the taxi call request.
  • One or a plurality of information is arbitrarily selected, authentication information for second user authentication is defined, and this is used for authentication for the second user authentication for the mobile phone terminal of the customer member. Communicate information.
  • the boarding customer confirmation authentication unit 704 It is determined whether or not the authorization authentication can be performed based on the coincidence / non-coincidence with the authentication information determined at the time of the taxi call request, and when the authorization authentication is successful, the use permission confirmation result is returned to the automatic driving vehicle 1A. If not, the use disapproval result is returned to the automatic driving vehicle 1A.
  • the taxi radio communication unit 705 generates a communication path with each of the autonomous driving vehicles 1A that are taxis and exchanges various information.
  • the taxi location information management unit 706 constantly monitors the current location information sent from the autonomous driving vehicle 1A, and manages the location of each autonomous driving vehicle 1A that is a taxi. In this embodiment, the taxi position information management unit 706 displays the current position of the autonomous driving vehicle 1 ⁇ / b> A that is each taxi on a map displayed on the display screen of the display unit 709.
  • the customer position detection unit 707 Upon receiving a taxi call request from the member customer's mobile phone terminal, the customer position detection unit 707 extracts the current position information of the member customer included in the taxi call request and detects the customer position. Then, the detected customer position is displayed on the display screen of the display unit 709.
  • the map data storage unit 708 stores map data, and displays a map image based on the map data on the display screen of the display unit 709.
  • the operator user interface 710 is an interface through which an operator performs an input operation through telephone communication with a customer member or a display screen of the display unit 709.
  • the operator determines the taxi to be dispatched from the customer position and taxi position displayed on the map on the display screen, and instructs the predetermined autonomous driving vehicle 1A to transmit the customer position and customer authentication information. To do.
  • the control unit 701 transmits the customer position and customer authentication information to the autonomous driving vehicle 1A through the taxi wireless communication unit 705.
  • each part of the boarding customer confirmation authentication part 704, the taxi position information management part 706, and the customer position detection part 707 is also comprised as a software process which the control part 701 performs by running a program. it can.
  • FIG. 12 is a flowchart illustrating an example of the flow of processing for accepting a taxi call request from a customer in the taxi dispatch management server 7. The processing of each step of FIG. 12 is described as a case where the control unit 701 performs the functions of the boarding customer confirmation authentication unit 704, taxi location information management unit 706, and customer location detection unit 707 as software function means. To do.
  • the control unit 701 of the taxi dispatch management server 7 determines whether a taxi call request from a customer member has been received (step S201). In this case, in step S201, as described above, when a taxi call request is received from the mobile phone terminal of the member customer, the telephone number, ID and password included in the taxi call request, and the member customer information storage unit By determining whether the telephone number, ID, and password registered in 703 match or not, it is determined whether or not the customer is a member customer. If the customer is a member customer, the taxi call request is accepted.
  • step S201 If it is determined in step S201 that a taxi call request from a customer member has not been received, the control unit 701 continues the process of step S201.
  • step S201 When it is determined in step S201 that a taxi call request from a customer member has been received, the control unit 701 extracts position information included in the taxi call request and displays the customer's taxi waiting location on the display screen of the display unit 709. It is displayed so that the operator can confirm it (step S202).
  • control unit 701 receives the instruction information on the taxi to be dispatched from the operator, determines the taxi to be dispatched (step S203), and receives the first of the customers who have received the automated driving vehicle 1A that is the determined taxi.
  • the authentication information for the user authentication in this example, the face image information is sent, and the location information of the customer's standby location is sent to indicate the standby location (step S204).
  • control unit 701 determines authentication information for second user authentication, and sets the authentication information for the second user authentication thus determined to the mobile phone terminal of the customer who has requested the taxi call. Is transmitted (step S205). Thus, the taxi call request acceptance process is completed.
  • FIG. 13 is a flowchart for explaining an example of the flow of customer acceptance processing in the automatic driving vehicle 1A. That is, the control unit 101 of the autonomous driving vehicle 1A waits for the reception of information from the taxi dispatch management server 7 (step S211), and when determining that the information has been received from the taxi dispatch management server 7, The authentication information is stored in the customer authentication information storage unit 132, and the position information of the standby location is stored in the destination storage unit of the car navigation function unit 113 (step S212). This completes the customer acceptance process in the automatic driving vehicle 1A.
  • FIG. 14 and FIG. 15 which is a continuation thereof are flowcharts for explaining an example of the flow of the customer boarding control processing operation in the autonomous driving vehicle 1A.
  • the control unit 101 monitors the detection of the user's boarding and waits for detection of the user's boarding (Step S221).
  • the control unit 101 uses a camera that captures a face image of the user (driver) who has boarded the passenger in the passenger seat or the rear seat of the camera group 107. A picture is taken (step S222).
  • control unit 101 performs first user authentication. That is, in this example, the face image of the customer member who requested the taxi call stored in the customer authentication information storage unit 132 is compared with the face image of the passenger (step S223), and both face images are obtained. It is determined whether or not they match (step S224).
  • the control unit 101 When it is determined in step S224 that the face images match and it is determined that the first user authentication has been performed, the control unit 101 performs the second user authentication as follows. That is, the control unit 101 displays a message by voice through the speaker 125 or on the display screen of the display unit 111, and requests the passenger to obtain an authentication information set when the taxi call request is accepted. Then, the authentication information from the passenger who has received the request is acquired (step S225). In this case, for example, if the authentication information is the user's name, ID, and password, the user inputs the user's name, ID, and password in response to this request. , Accept the input.
  • step S225 the control unit 101 uses the connection information stored in the authentication permitter connection information storage unit 134 through the wireless communication unit 102 to connect with the taxi dispatch management server 7 that is the authentication permitter. Create a communication path between them. Then, the user authorization authentication information acquired in step S225 is transmitted to the taxi dispatch management server 7 through the generated communication path, and confirmation authentication in the taxi dispatch management server 7 is requested (step S226).
  • step S226 In response to the authentication request to the taxi dispatch management server 7 in step S226, either the use permission confirmation result or the use non-permission result is sent from the taxi dispatch management server 7 as described above. Therefore, the control unit 101 determines whether or not the second user authentication has been completed depending on whether or not the use permission confirmation result has been received from the taxi dispatch management server 7 (step S227). In step S227, when the use permission confirmation result is received from the taxi dispatch management server 7 and it is determined that the second user authentication has been made, the control unit 101 permits the taxi use (boarding) of the passenger seat.
  • step S224 When it is determined in step S224 that the first user authentication has not been performed, and in step S227, a second use permission result is received without receiving a use permission confirmation result from the taxi dispatch management server 7.
  • the control unit 101 locks the host vehicle in a travel-disabled state, and sets the vehicle in a disallowed state in which the taxi cannot be used by the passenger (step S231 in FIG. 15).
  • control unit 101 generates a voice message that prompts the passenger to get off and that the passenger has not been authenticated, for example, by voice synthesis, emits the sound through the speaker 125, and notifies the passenger (step). S232).
  • control unit 101 requests the post-processing instruction from the taxi dispatch management server 7 and, upon receiving the post-processing instruction, disconnects the communication path with the taxi dispatch management server 7 (step S233).
  • This post-processing instruction is, for example, an instruction such as “Return to parking” or “Reception of another taxi user”.
  • control unit 101 determines whether or not the passenger has got off the vehicle (step S234).
  • control unit 101 performs the movement control according to the post-processing instruction received in step S233. Etc. are performed (step S235).
  • the control unit 101 ends this call handling process routine.
  • the user's face image is used as the user authentication information for the first user authentication (customer authentication), and the second for user confirmation.
  • the user authentication the user name, ID, and password are used.
  • the user authentication information for the first user authentication customer authentication
  • the user name, ID, and password are used.
  • the user's face image may be used as the second user authentication.
  • a part of the information registered as a member is transmitted as the first user authentication information to the automatic driving vehicle 1A, which is a taxi, and registered as a member. Other information in the information thus obtained may be used as the second user authentication information.
  • the first user authentication information and the second user authentication information are registered in advance by the taxi user 2C becoming a member of the taxi calling service of the taxi company.
  • the taxi user 2C becomes a member of the taxi calling service of the taxi company.
  • the first user authentication information and the second May be determined and sent from the taxi user's mobile phone terminal to the taxi dispatch management server 7.
  • the taxi user does not need to be a member of the taxi calling service of the taxi company. Since the payment method is not directly related to the user authentication for getting on the taxi of the present invention, the description thereof is omitted in this embodiment.
  • an unmanned taxi is assumed.
  • the present invention can also be applied to an autonomous vehicle that is driven by a taxi driver.
  • the operator of the taxi dispatch management server 7 can notify the taxi driver of the use permission confirmation result in the taxi dispatch management server 7.
  • a taxi driver can make a payment, and cash payment is also possible.
  • the use permission confirmation in the taxi dispatch management server 7 may be performed by an operator of the taxi dispatch management server 7.
  • the authentication information for use permission confirmation is, for example, a user's face image
  • the registered face image is only the face image from the front and is sent from the automatic driving vehicle 1A.
  • the face image is a face image taken obliquely from the side
  • comparison authentication by visual recognition by the operator can be performed, so that the user can be confirmed well.
  • the face image registered in the taxi dispatch management server 7 may be a face image from one direction such as the front.
  • face images from a plurality of angles can be registered, authentication accuracy can be improved, and user confirmation can be tightened.
  • the authentication information for the first user authentication is biometric information such as a user's face image, voice, fingerprint, vein, iris, etc., but is not limited thereto, the authentication information for the first user authentication is Information similar to the authentication information for the second user authentication, for example, name, address, date of birth, ID, password, mobile phone terminal phone number or mail address may be used.
  • the first user authentication is performed after the user gets into the autonomous driving vehicle.
  • the user of the invention gets into the autonomous driving vehicle.
  • the automobile of the present invention opens the locked door and permits the user to get into the autonomous driving vehicle (this is also a kind of permission for use) Can be controlled).
  • the automobile of the present invention may perform door opening / closing control according to the user authentication result.
  • car of the above-described embodiment has been described as an electric car, it may be a gasoline car, a hybrid car, a fuel cell car, or other driving type car.
  • the vehicle of the present invention includes a motorcycle, a three-wheeled vehicle, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Lock And Its Accessories (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】認証用情報を登録していない者であっても、利用ができる自動車を提供する。 【解決手段】乗車者の認証用情報を記憶する第1の記憶手段115と、自車を利用しようとする者である利用者について、第1の記憶手段115に記憶した認証用情報を用いて認証を行う第1の認証手段114と、通信の相手先との間で通信を行うための通信手段102と、登録された相手先へ通信手段102を通じて通信を行うための情報を記憶する第2の記憶手段119と、通信手段102により、第2の記憶手段119に記憶された情報を用いて登録された相手先と接続して、利用者についての認証を行う第2の認証手段118と、第1の認証手段114及び/または第2の認証手段118の認証結果に応じて、自車の利用を可能にするかどうかを決定する決定手段101を備える自動車である。

Description

自動車及び自動車用プログラム
 この発明は、自動車及び自動車用プログラムに関する。
 従来から、車両の盗難防止の目的で、予め運転者の生体情報などの認証用情報を登録して記憶しておき、その記憶した認証用情報と、乗車した運転者の認証用情報とを比較参照して両者が一致したか否かにより認証を行い、その認証結果により、車両のドアの開閉や車両の発進の制御を行うようにする装置や方法が提案されている(例えば下記の特許文献1や特許文献2参照)。
特開2010-208554号公報 特開2011-025903号公報
 しかしながら、上述した従来の装置や方法は、運転を予定している者について、その生体情報などの認証用情報を予め登録しておく必要がある。したがって、自動車の所有者等が、認証用情報を未登録の者に当該自動車の利用を許可したとしても、利用者のみでは認証ができない。このため、認証用情報を登録している運転者などが、利用を許可された者と一緒に自動車のところに行き、認証をとって、当該自動車を利用可能な状態にした後、利用を許可された者に引き渡すなどの面倒な手間を必要とする。
 また、最近は、自律走行が可能で、無人走行の可能な自動運転車が開発されているが、このような自動運転車の場合には、或る者が利用した後、別の者の利用に供するために、自動運転車が無人走行により、当該別の者の利用開始位置まで移動して、その利用を開始させるようにする場合も多くなることが予測される。この場合に、前記の別の者が、認証用情報を登録していない者である場合、自動運転車の所有者等により利用を許可された者であっても、もはや利用を開始できない状態となってしまう。
 また、従来は、予め登録された認証用情報による認証のみによって、自動車の利用を可能にしているために、登録されていれば、もはや利用する権限を失った者であっても、登録情報が記憶されている限り、利用可能となってしまうという問題もあった。
 この発明は、上述の問題点を解決することができるようにした自動車を提供することを目的とする。
 上記の課題を解決するために、本発明は、
 乗車者の個人認証用情報を記憶する第1の記憶手段と、
 自車を利用しようとする者である利用者について、前記第1の記憶手段に記憶した前記個人認証用情報を用いて認証を行う第1の認証手段と、
 通信の相手先との間で通信を行うための通信手段と、
 登録された相手先へ前記通信手段を通じて通信を行うための情報を記憶する第2の記憶手段と、
 前記通信手段により、前記第2の記憶手段に記憶された前記情報を用いて前記登録された相手先と接続して、前記利用者についての認証を行う第2の認証手段と、
 前記第1の認証手段及び/または前記第2の認証手段の認証結果に応じて、自車の利用を可能にするかどうかを決定する決定手段と
 を備えることを特徴とする自動車を提供する。
 そして、本発明は、さらに、
 前記第1の認証手段で前記利用者について認証ができたときには、前記決定手段は、自車の利用を可能にすると決定し、
 前記第1の認証手段で前記利用者について認証ができなかったときには、前記第2の認証手段による認証を行い、前記決定手段は、前記第2の認証手段での認証結果に応じて、自車の利用を可能にするかどうかを決定するように構成することができる。このように構成した場合には、自動車を利用しようとする利用者が、第1の認証手段での認証に用いられる第1の記憶手段に認証用情報が記憶されていない者であっても、第2の認証手段により認証が促される第2の記憶手段に記憶され、登録された相手先(認証許可者という)により認証を受けることができれば、当該自動車を利用することが可能である。この場合に、認証許可者は、通信手段を通じて認証の要請を受け、利用者についての認証結果を、通信手段を通じて自動車に通知することができる。
 したがって、この発明によれば、第1の認証手段での認証に用いられる第1の記憶手段に認証用情報が記憶されていない者であっても、自動車の利用をすることができる。
 また、本発明は、さらに、
 前記第1の認証手段で前記利用者について認証ができ、かつ、第2の認証手段で前記利用者について認証ができたときに、前記決定手段は、自車の利用を可能にすると決定するように構成することもできる。このように構成した場合には、第1の認証手段による認証ができ、かつ、第2の認証手段による認証ができたときに、利用者による自動車の利用が可能になる。したがって、第1の認証手段による認証のみの場合に比較して、認証が厳格になり、不正な利用を厳正に防止することが可能になる。
 この発明による装置によれば、第1の認証手段での認証に用いられる記憶手段に認証用情報を記憶していない者であっても、自動車の利用をすることができる。また、認証が厳格になり、不正な利用を厳正に防止することが可能になる。
この発明による自動車の第1の実施形態を含む通信システムを説明するための図である。 この発明による自動車の第1の実施形態である自動運転車の一例のハードウエア構成例を示すブロック図である。 図2の例の自動運転車における利用者の降車時の処理例を説明するためのフローチャートを示す図である。 図2の例の自動運転車における利用者の呼出に対応する処理動作例を説明するためのフローチャートの一部を示す図である。 図2の例の自動運転車における利用者の呼出に対応する処理動作例を説明するためのフローチャートの一部を示す図である。 図2の例の自動運転車における利用者の呼出に対応して移動する制御動作例を説明するためのフローチャートを示す図である。 図2の例の自動運転車における呼出利用者が乗車する際の処理動作例を説明するためのフローチャートの一部を示す図である。 図2の例の自動運転車における呼出利用者が乗車する際の処理動作例を説明するためのフローチャートの一部を示す図である。 この発明による自動車の第2の実施形態を含む通信システムを説明するための図である。 この発明による自動車の第2の実施形態である自動運転車の一例のハードウエア構成例を示すブロック図である。 図9の例のシステムにおけるタクシー配車管理サーバのハードウエア構成例を示すブロック図である。 図11の例のタクシー配車管理サーバにおける顧客からのタクシー呼出要求を受けた時の受付処理動作例を説明するためのフローチャートを示す図である。 図10の例のタクシーを構成する自動運転車における顧客の情報の受付処理動作例を説明するためのフローチャートを示す図である。 図10の例の自動運転車における顧客利用者が乗車する際の処理動作例を説明するためのフローチャートの一部を示す図である。 図10の例の自動運転車における顧客利用者が乗車する際の処理動作例を説明するためのフローチャートの一部を示す図である。
 [第1の実施形態]
 第1の実施形態は、自動車が、いわゆる自家用自動車であり、かつ、自動運転車の構成とされた場合の例である。そして、この第1の実施形態では、この発明の自動車の実施形態である自動運転車1について、図1に示すような利用形態を可能にするものである。
 先ず、この利用形態を説明すると共に、実施形態の自動運転車1の動作を説明する。図1の例では、利用者2Aが自動運転車1を利用(例えば運転)して自宅4に戻って、自動運転車1から降車して、自宅4に入る。そして、利用者2Aは、降車の際に自動運転車1に自宅4から若干離れた駐車場5に移動するように指示する。
 自動運転車1は、この実施形態では、無人運転による自律走行により移動する機能を備えている。自動運転車1は、降車した利用者2Aの指示に従って、無人運転による自律走行により、駐車場5に移動する。
 また、自動運転車1は、この実施形態では、携帯電話網及びインターネットを含む通信ネットワーク3を通じた通信を行う機能を備えている。そして、自動運転車1は、この通信ネットワーク3の携帯電話網を通じた呼び出しがあると、その呼び出しをしてきた呼出者2Bについて認証を行い、その認証ができたときには、その呼出者2Bにより指示された場所に移動する。
 なお、この実施形態においては、自動運転車1に対して呼び出しを行う携帯電話端末には、自動運転車1の呼出用のアプリケーションプログラムを、携帯電話端末の使用者が予めインストールするようにする。そして、使用者が、携帯電話端末の呼出用のアプリケーションプログラムを用いて、自動運転車1の呼び出し操作をすると、自動的に自動運転車1の無線通信部に宛てた電話発信を行い、その際に、自動運転車1を呼び出して待ち受ける場所の位置情報として、この実施形態では、携帯電話端末の現在位置の情報を付加した呼出要求を自動運転車1に送る。自動運転車1は、呼出者の認証ができたときには、この位置情報により示された場所に向けて移動する。
 この場合に、自動運転車1が行う呼出者についての認証としては、この実施形態では、記憶部に記憶した認証用情報を用いて呼出者についての認証を行う第1の呼出者認証と、予め設定された認証許可者に呼出者の呼出許可確認を行わせ、その結果を自動運転車1が受信して認証とする第2の呼出者認証とを行う。
 第1の呼出者認証のために記憶部に記憶する呼出者の認証用情報の例としては、呼出者の顔画像などの生体情報、氏名、住所、生年月日、ID、パスワード、電話番号及び/またはメールアドレスなどを、単独で、あるいは複数個を組み合わせて用いることができる。呼出者は、携帯電話端末から携帯電話網を通じて、この認証用情報を自動運転車1に送る。呼出者の顔画像は、携帯電話端末が備えるカメラで撮影したものを利用することができ、呼出者のその他の生体情報は、予め携帯電話端末のメモリに記憶したものを利用することができる。また、その他の情報は、呼出者が入力したものを利用することができる。また、顔画像を含めた生体情報やその他の情報は、クラウド上に記憶したものを、通信ネットワーク3を介して利用することもできる。
 以下に説明する例では、この第1の呼出者認証のために記憶部に記憶する呼出者の認証用情報の例としては、降車時に、降車者が、自動運転車1に登録して記憶した、自分の携帯電話端末の電話番号とする。
 また、第2の呼出者認証のための認証許可者としては、自動運転車1の所有者または自動運転車1から最後に降車した者とすることができる。そのため、自動運転車1には、自動運転車1の所有者または自動運転車1から最後に降車した者(直近の降車者)の電話番号が記憶される。
 この実施形態では、第2の呼出者認証のための認証許可者は、最後に降車し、携帯電話端末の電話番号を登録した者としている。そして、第2の呼出者認証においては、自動運転車1は、呼出者に認証用情報の提供を要請し、その要請に応じて呼出者が提供した認証用情報を認証許可者に送る。認証許可者は、その呼出者の認証用情報に基づいて当該呼出者による自動運転車1の呼出を許可してよいかどうか判断し、許可してよければ、呼出許可確認結果を自動運転車1に送る。
 ここで、呼出者が提供する認証用情報の例としては、第1の呼出者認証において記憶する認証用情報と同様であり、呼出者の顔画像などの生体情報、氏名、住所、生年月日、ID、パスワード、電話番号及び/またはメールアドレスなどを、単独で、あるいは複数個を組み合わせて用いることができる。以下に説明する例では、呼出者の氏名と顔画像を用いるものとする。
 自動運転車1は、認証許可者から呼出許可確認結果を受けたかどうかにより、第2の呼出者認証ができたか否かを判定し、第2の呼出者認証ができたときには、呼出者の要請に応じて、指定された待ち受け場所に自律走行により移動する。
 そして、この実施形態の自動運転車1は、待ち受け場所において、新たに利用を開始しようとする利用者については、その乗車時に、利用者についての認証を行い、その認証ができた利用者のみが自動運転車1の利用、すなわち、自動運転車1を走行させることを可能とするようにする。なお、待ち受け場所は、図1の例のように、一旦移動した後、呼出者による呼出に応じて移動してきた場合のみではなく、前回の降車時に移動せずにその位置に停車または駐車していた場合を含むものである。
 この場合に、乗車時の利用者についての認証としては、この実施形態では、記憶部に記憶された認証用情報を用いて利用者についての認証を行う第1の利用者認証と、予め設定された認証許可者に利用者の利用許可確認を行わせ、その結果を自動運転車1が受信して認証とする第2の利用者認証とを行う。
 第1の利用者認証のために記憶部に記憶する利用者の認証用情報の例としては、利用者の顔画像、指紋、声、静脈、虹彩などの利用者の生体情報が用いられる。以下に説明する例では、第1の利用者認証のために記憶部には、直近の降車者の顔画像が撮影されて記憶される。すなわち、図1の例においては、自動運転車1は、利用者の降車時に、その顔画像を撮影して、その顔画像を認証用情報として、第1の利用者認証のために記憶部に記憶するようにする。
 また、第2の利用者認証のための認証許可者は、第2の呼出者認証の認証許可者と同様であり、自動運転車1の所有者または自動運転車1から最後に降車した者とすることができる。
 この実施形態では、第2の利用者認証のための認証許可者は、最後に降車し、携帯電話端末の電話番号を登録した者としている。そして、第2の利用者認証においては、自動運転車1は、利用者に認証用情報の提供を要請し、その要請に応じて利用者が提供した認証用情報を認証許可者に送る。認証許可者は、その利用者の認証用情報に基づいて当該利用者による自動運転車1の利用を許可してよいかどうか判断し、許可してよければ、利用許可確認結果を自動運転車1に送る。
 ここで、利用者が提供する認証用情報の例としては、第1の呼出者認証において記憶する認証用情報と同様であり、利用者の顔画像などの生体情報、氏名、住所、生年月日、ID、パスワード、電話番号及び/またはメールアドレスなどを、単独で、あるいは複数個を組み合わせて用いることができる。以下に説明する例では、利用者の氏名と生年月日を用いるものとする。
 自動運転車1は、認証許可者から利用許可確認結果を受けたかどうかにより、第2の利用者認証ができたか否かを判定し、第2の利用者認証ができたときには、利用者による自車の利用を許可する。つまり、利用者は、自動運転車1を走行させることができる。
 例えば、図1の例において、降車した利用者2Aが、自宅4において、自分の携帯電話端末で自動運転車1に呼出の電話をかけると、この実施形態では、第1の呼出者認証において、降車時に記憶した携帯電話端末の電話番号と一致するので、自動運転車1は、第1の呼出者認証ができたと判断して、呼び出しに応じて、駐車場5から利用者2Aの自宅4に向かう。
 そして、自動運転車1が自宅4に到着したら、利用者2Aは、自動運転車1に乗車する。自動運転車1は、乗車してきた利用者2Aの顔画像を撮影して取得する。そして、自動運転車1は、降車時に記憶された利用者2Aの顔画像と、撮影して取得したその利用者2Aの顔画像とを比較する。すると、この場合には、両顔画像は一致していることから、第1の利用者認証により、認証ができたと判断して、利用者2Aによる当該自動運転車1の利用を許可する。
 一方、図1の例において、降車した利用者2Aではない他の利用者2B(例えば利用者2Aの家族)が、自宅4において、自分の携帯電話端末で自動運転車1に呼出の電話をかけると、この実施形態では、第1の呼出者認証においては、降車時に記憶した携帯電話端末の電話番号と不一致となる。この時には、自動運転車1は、認証許可者である降車した利用者2Aに電話をかける。そして、呼出者である利用者2Bから、認証用情報として、この例では、当該呼出者2Bの氏名と顔画像からなる認証用情報を取得して、それを認証許可者である利用者2Aに送る。認証許可者である利用者2Aは、送られてきた認証用情報を精査して、自動運転車1の呼び出しを許可してよいか否か判別し、許可してよければ、呼出許可確認通知、不許可であれば、呼出不許可通知、を自動運転車1に送る。
 ここで、呼出許可確認通知が認証許可者である利用者2Aの携帯電話端末から送られるものとすると、自動運転車1は、認証許可者からの呼出許可確認通知により第2の呼出者認証ができたと判断し、呼出者の呼び出しに応じて、利用者2Bの指定する待ち受け場所、図1の例では、利用者2Bは利用者2Aの家族であるので、利用者2Aの自宅4に向かう。
 そして、自動運転車1が自宅4に到着したら、利用者2Bは、自動運転車1に乗車する。すると、自動運転車1は、降車時に記憶された利用者2Aの顔画像と、乗車してきた利用者2Bの撮影された顔画像とを比較して、不一致であることから、第1の利用者認証により、認証はできなかったと判断する。すると、この時には、自動運転車1は、認証許可者である降車した利用者2Aに電話をかける。そして、自動運転車1は、利用者2Bから、所定の認証用情報、この例では、利用者2Bの氏名と顔画像からなる認証用情報を取得して、それを認証許可者である利用者2Aに送る。認証許可者である利用者2Aは、送られてきた認証用情報を精査して、自動運転車1の利用を許可してよいか否か判別し、許可してよければ利用許可確認通知、不許可であれば利用不許可通知を、自動運転車1に送る。この例では、利用許可確認通知が自動運転車1に送られるものとする。
 自動運転車1は、認証許可者からの呼出許可確認通知により第2の利用者認証ができたと判断し、利用者2Bによる当該自動運転車1の利用を許可する。
 [自動運転車1のハードウエア構成例]
 以上の処理を実現する自動運転車1のハードウエア構成例について、以下に説明する。
 図2は、第1の実施形態の自動運転車1の電子制御回路部10のハードウエア構成例を示すブロック図である。なお、この実施形態の自動運転車1は、電気自動車の場合の例である。ただし、バッテリーは、図2では図示を省略した。
 また、この実施形態の自動運転車1は、自動運転モードと、手動運転モードとを備えている。手動運転モードは、自動運転車ではない通常の自動車と同様に、運転者のアクセルペダル操作やブレーキペダル操作、シフトレバー操作及びステアリング操作(ハンドル操作)に応じた走行ができるモードである。また、自動運転モードは、運転者がアクセルペダル操作やブレーキペダル操作、シフトレバー操作及びステアリング操作をしなくても、自動運転車1自身が自動的(自律的)に障害物を回避しながら進路変更をする走行モードである。
 自動運転車1の運転者は、例えば後述するタッチパネル112を通じた所定の操作により、手動運転モードで走行中の自動運転車1を自動運転モードに切り替えることができると共に、自動運転モードで走行中に、運転者がアクセルペダル操作やブレーキペダル操作、シフトレバー操作またはステアリング操作をすると、自動的に手動運転モードに戻るように構成されている。
 図2に示すように、電子制御回路部10は、コンピュータを搭載して構成されている制御部101に対して、システムバス100を通じて、無線通信部102、モータ駆動制御部103、ステアリング駆動制御部104、手動/自動運転モード切替制御部105、レーダー106、カメラ群107、センサ群108、周囲移動体把握部109、現在位置検出部110、表示部111、タッチパネル112、カーナビゲーション(以下、カーナビと略称する)機能部113、利用者認証部114、利用者認証用情報記憶部115、呼出者認証部116、呼出者認証用情報記憶部117、利用者及び呼出者許可認証部118、認証許可者接続情報記憶部119、音声出力部120、のそれぞれが接続されている。
 モータ駆動制御部103には、モータ駆動部121が接続されている。ステアリング駆動制御部104には、ステアリング駆動部122が接続されている。手動/自動運転モード切替制御部105には、手動運転操作検知部123が接続されている。また、カーナビ機能部113には、カーナビ用データベース124が接続されている。さらに、音声出力部120には、スピーカ125が接続されている。
 無線通信部102は、この実施形態では、携帯電話網を通じて電話通信や電子メール通信などの通信を行う機能を備える。制御部101は、この無線通信部102を通じて、呼出者からの呼出要求を受けたときの処理を行う機能と、許可認証者との通信路の生成を行って、第2の呼出者認証や、第2の利用者認証を行うための処理機能を、ソフトウエア処理機能として備えている。
 モータ駆動制御部103は、制御部101の制御の下に、この実施形態の電気自動車で構成される自動運転車1のモータ駆動部121への駆動信号の供給を制御して、自動運転車1の走行開始、走行速度制御(ブレーキ制御及びアクセル制御を含む)、走行停止などを制御するようにする。
 ステアリング駆動制御部104は、制御部101の制御の下に、この実施形態の自動運転車1のステアリング駆動部122への駆動制御信号の供給を制御して、自動運転車1の進路変更の制御をするようにする。
 手動/自動運転モード切替制御部105は、タッチパネル112を通じた選択操作入力に応じて、自動運転車1の運転モードを、手動運転モードと、自動運転モードとのいずれかに切り替える制御を行う。手動運転操作検知部123は、運転者によるアクセルペダル操作やブレーキペダル操作、シフトレバー操作さらにはステアリング操作の操作情報を受けて、その手動運転操作情報を手動/自動運転モード切替制御部105に供給する。
 手動/自動運転モード切替制御部105は、自動運転車1が手動運転モードのときには、この手動運転操作検知部123からの手動運転操作情報を、モータ駆動制御部103、ステアリング駆動制御部104に供給して、モータ駆動部121、ステアリング駆動部122を、運転者のペダル操作やシフトレバー操作、ステアリング操作(ハンドル操作)に応じて制御する。
 また、手動/自動運転モード切替制御部105は、自動運転車1が自動運転モードのときには、後述するようにして、レーダー106、カメラ群107、センサ群108、周囲移動体把握部109の出力に基づいて制御部101で生成される自動運転操作情報を、モータ駆動制御部103、ステアリング駆動制御部104に供給して、モータ駆動部121、ステアリング駆動部122を、自動運転操作情報により駆動制御する。なお、自動運転モードにおいては、カーナビ機能部113において、運転者などにより設定された行先(目的地)に対する現在位置からの経路が探索され、その探索された経路に沿って走行するように制御される。
 レーダー106は、自動運転車1の車両の周囲に存在する人や物との距離を測るためのもので、レーザー・レーダーやミリ波レーダーなどからなる。レーザー・レーダーは、例えば天井やバンパー付近に埋め込まれ、ミリ波レーダーは、例えば車両の前部及び後部に設けられている。レーザー・レーダーとミリ波レーダーの両方を備えてもよいし、一方のみであってもよい。また、マイクロ波レーダーなど、その他のレーダーを用いてもよい。さらに、レーダーと同様の目的でソナー(図示せず)を用いることができる。
 カメラ群107は、自動運転車1の車内を撮影する1~複数個のカメラと、自動運転車1の前方、側方、後方など、車外の周囲を撮影する1~複数個のカメラとを含む。車内を撮影するカメラは、例えば運転席と助手席の間に設置されたバックミラー(後写鏡、ルームミラー)やフロントウインドウの上部などに取り付けられ、運転席に座った人物(運転者)の所作を撮影するカメラの他、助手席や、後部座席に座った乗車者(同乗者)の所作を撮影するためのカメラを含む。また、自動運転車1の周囲を撮影するカメラは、例えばバックミラーの左側方及び右側方に取り付けられ、自動運転車1の左前方及び右前方を主として撮影する2台のカメラ(ステレオカメラ)や、自動運転車1の例えばドアミラーまたはフェンダーミラーに取り付けられて左右の側方を撮影するカメラ、自動運転車1の後方を撮影するカメラなどを含む。
 センサ群108は、ドアの開閉や窓の開閉を検知する開閉検知センサ、シートベルト着用を検出するためのセンサ、運転席や助手席などの座席に乗車者が着座したことを検知する着座センサなどの他、車外の近傍の人物を検知する人感センサ(赤外線センサ)や自動運転のための補助となる情報を取得するための各種センサからなる。自動運転のための補助となる情報を取得するための各種センサとしては、例えば車両やタイヤの振動を検出するための振動センサ、タイヤの回転数を検出する回転数センサ、方位を検出するための地磁気センサ、加速度を検出するための加速度センサ、角度や角速度を検出するためのジャイロセンサ(ジャイロスコープ)、などが含まれる。また、この実施形態では、センサ群108には、右ウインカーや左ウインカー(方向指示器)やハザードランプ(非常点滅灯)の点灯を検知するセンサも含まれている。
 周囲移動体把握部109は、レーダー106やセンサ群108、また、カメラ群107の撮像画像を用いて、自車の周囲の移動体(人物を含む)を把握するようにする。周囲移動体把握部109は、例えばベイズ理論に基づいた処理を行うことで、周囲の障害物や移動体を把握するようにする。
 現在位置検出部110は、GPS衛星からの電波を受信して、自車の現在位置を検出する。現在位置検出部110は、GPS衛星からの電波により検出された位置の精度は悪いので、GPS衛星からの電波の受信で検出された現在位置の情報のみではなく、センサ群108に含まれる1~複数個のセンサ及びレーダー106、カメラ群107の撮像画像(ナビ機能を併用)などをも用いると共に、例えばベイズ理論に基づいた処理を行うことで、より精度の高い現在位置を検出確認するようにしている。
 自動運転車1は、自動運転モードにおいては、現在位置検出部110や周囲移動体把握部109において、レーダー106、カメラ群107、センサ群108、GPS衛星からの電波の受信で取得した位置情報などの各種情報、つまり、人間の目や耳から得る情報に対応する情報をベイズ理論により処理し、これに基づき、制御部101は、自車の進路変更や障害物の回避など知的な情報処理(人工知能)及び制御(人工知能)を行って、自動運転操作情報を生成する。
 表示部111は、例えばLCD(Liquid Crystal Display;液晶ディスプレイ)からなる。タッチパネル112は、LCDからなる表示部111の表示画面の上に、指によるタッチ入力が可能なタッチセンサが重畳されて配設されたものである。表示部111の表示画面には、制御部101の制御に基づき、ソフトウエアボタン(キーボードの文字入力用ボタンを含む)を含む表示画像が表示される。そして、タッチパネル112は、表示画面に表示されているソフトウエアボタン上の指によるタッチを検出すると、そのタッチを制御部101に伝達する。これを受けた制御部101は、ソフトウエアボタンに対応する制御処理を実行するように構成されている。
 カーナビ機能部113に接続されているカーナビ用データベース124には、国内の地図及び経路案内データが、予め格納されている。カーナビ機能部113は、カーナビ用データベース124に記憶されている地図や、経路案内データに基づいて、自動運転車1が指定された目的地まで移動するのを補助するように案内するための機能部である。この実施形態では、カーナビ機能部113は、手動運転モードと、自動運転モードとで、若干異なる処理をするように構成されている。
 すなわち、手動運転モードにおいては、カーナビ機能部113は、表示部111の表示画面上において、目的地までの経路(ルート)を明示的に表示する地図上に、現在位置検出部110で検出確認されている自車位置を重畳表示した画像を表示すると共に、自車の移動に伴い、地図上の自車位置(現在位置)を移動させ、かつ、ルート上の交差点や分岐点など、経路案内が必要な箇所で音声案内をするようにする。これは、通常のカーナビ機能と同様である。
 一方、自動運転モードにおいては、カーナビ機能部113は、自車の現在位置が目的地までのルート上から離れているときには、その離間方向及び距離の情報を制御部101に通知すると共に、自車の現在位置が目的地までのルート上に在るときには、自車の移動に伴い、ルート上の交差点や分岐点などの手前で、ルートに沿った進路方向の変更指示情報を制御部101に通知するようにする。制御部101は、このカーナビ機能部113からの通知された情報と、現在位置検出部110の現在位置確認結果及び周囲移動体把握部109の把握結果とに基づいて、自車がルート上を指示された通りの進路をとって移動するように、モータ駆動制御部103を通じてモータ駆動部121を制御すると共に、ステアリング駆動制御部104を通じてステアリング駆動部122を制御するための自動運転操作情報を生成する。したがって、自動運転モードにおけるカーナビ機能部113及び制御部101による目的地までの経路案内により、乗車者が無人の状態においても、自動運転車1は、目的地まで移動することができる。
 利用者認証部114は、利用者認証用情報記憶部115に記憶された利用者の認証用情報と、新たな利用者から取得した認証用情報とを用いて、上述した第1の利用者認証を行う。この実施形態では、前述したように、直近の降車者の顔画像と、新たな利用者の顔画像との一致/不一致により第1の利用者認証を行うので、この利用者認証部114は、画像認識手段の構成とされている。
 利用者認証用情報記憶部115には、この実施形態では、カメラ群107の内の所定のカメラで撮影された降車者の顔画像が記憶される。この実施形態では、この利用者認証用情報記憶部115には、カメラで撮影された直近の降車者の顔画像が、記憶されていた以前の降車者の顔画像に重ね書きされて更新記憶される。なお、重ね書きをせず、順次記憶し、降車者の顔画像の履歴を残すようにしてもよい。
 なお、利用者の音声により第1の利用者認証を行う場合には、自動運転車1には、降車者の音声を収音するマイクロフォン(図示せず)が設けられると共に、利用者認証用情報記憶部115には、降車者の音声が記憶され、利用者認証部114は、話者音声認識機能を備えるものとして構成されて、記憶されていた音声と、マイクロフォン(図示せず)により収音された新たな利用者の音声との一致/不一致を判定することで、第1の利用者認証が行われる。
 また、利用者の指紋により第1の利用者認証を行う場合には、自動運転車1には、指紋読み取り装置が設けられると共に、利用者認証用情報記憶部115には、降車者の指紋が記憶され、利用者認証部114は、指紋認識機能を備えるものとして構成されて、記憶されていた指紋と、指紋読み取り装置により取得された新たな利用者の指紋との一致/不一致を判定することで、第1の利用者認証が行われる。静脈、虹彩、その他の生体情報を用いる場合も、同様の構成の変更により可能となる。
 呼出者認証部116は、呼出者認証用情報記憶部117に記憶された呼出者の認証用情報と、無線通信部102で呼出を受けた時に取得した呼出者から取得した認証用情報とを用いて、上述した第1の呼出者認証を行う。この実施形態では、前述したように、直近の降車者の携帯電話端末の電話番号と、呼出者の携帯電話端末の電話番号との一致/不一致により第1の呼出者認証を行うので、この呼出者認証部116は、無線通信部102への呼出者からの着信があった時に、その電話番号を取得して、呼出者認証用情報記憶部117に記憶された電話番号との一致/不一致を判定して、第1の呼出者認証を行う構成とされている。
 呼出者認証用情報記憶部117には、この実施形態では、タッチパネル112を通じて入力された直近の降車者の携帯電話端末の電話番号が記憶される。この呼出者認証用情報記憶部117に記憶される電話番号も、以前に記憶されていた電話番号に重ね書きされることで、直近の降車者のみの電話番号とされる。なお、重ね書きをせず、順次記憶し、降車者の電話番号の履歴を残すようにしてもよい。
 なお、呼出者認証部116と呼出者認証用情報記憶部117の構成に関しても、利用者認証部114及び利用者認証用情報記憶部115の構成と同様に、認証用情報として使用する情報の違いに応じて構成が変更されるものである。
 利用者及び呼出者許可認証部118は、上述した第2の利用者認証の機能と、第2の呼出者認証機能とを実行する。すなわち、利用者及び呼出者許可認証部118は、利用者または呼出者から認証用情報を取得する機能と、認証許可者と通信路を生成し、利用者または呼出者から取得した認証用情報を、生成した通信路を通じて認証許可者に送り、当該認証許可者からの許可、不許可に関する情報を取得する機能とを備える。
 認証許可者接続情報記憶部119には、認証許可者接続情報として、この実施形態では、前述したように、降車者の携帯電話端末の電話番号が記憶される。
 そして、この実施形態の自動運転車1においては、利用者認証部114、利用者認証用情報記憶部115、呼出者認証部116、呼出者認証用情報記憶部117、利用者及び呼出者許可認証部118及び認証許可者接続情報記憶部119を用いた上述した認証モードをオンにするか、オフにするかの設定が、タッチパネル112を通じて行えるように構成されている。ただし、当該認証モードのオン、オフ設定は、例えば予め自動運転車1の所有者等により設定されたIDとパスワードにより認証が取れたときにのみ、可能とされている。そして、オン、オフの設定は、第1の呼出者認証、第2の呼出者認証、第1の利用者認証、第2の利用者認証、のそれぞれについて可能とすることもできるが、以下に説明する実施形態では、認証モードのオン、オフは、第1の呼出者認証、第2の呼出者認証、第1の利用者認証、第2の利用者認証、の全てについてのオン、オフの設定とされている。
 音声出力部120は、図示は省略するが、外部に放音する音声メッセージデータを記憶するメモリを内蔵すると共に、そのメモリから読み出された音声メッセージデータを、アナログ音声信号に変換する音声合成器やD-A変換器を内蔵している。そして、音声出力部120は、制御部101の制御により選択された音声メッセージを、スピーカ125に供給して、音声として外部に放音するようにする。なお、記憶する音声メッセージとしては、後述するように、例えば「認証モードをオンにしますか?」などの問い合わせメッセージや、「認証しました。」、「認証できませんでした。」などの通知メッセージなどが用意されている。
 以上のように、自動運転車1の電子制御回路部10は構成されるが、図2に示した各処理ブロックのうち、モータ駆動制御部103、ステアリング駆動制御部104、手動/自動運転モード切替制御部105、周囲移動体把握部109、現在位置検出部110、カーナビ機能部113、利用者認証部114、呼出者認証部116、利用者及び呼出者許可認証部118、音声出力部120、の各処理機能は、制御部101がプログラムを実行することで行うソフトウエア処理として実現することができる。
 [第1の実施形態の自動運転車1での処理動作の例]
 次に、第1の実施形態の自動運転車1において、上述した認証モードに関係する処理動作について、以下に説明する。以下の説明においては、制御部101が、図2に示した各ブロックのうち、モータ駆動制御部103、ステアリング駆動制御部104、手動/自動運転モード切替制御部105、周囲移動体把握部109、現在位置検出部110、カーナビ機能部113、利用者認証部114、呼出者認証部116、利用者及び呼出者許可認証部118、音声出力部120、の各処理機能をソフトウエア処理として実現した場合として説明する。
 <降車時処理>
 図3は、自動運転車1から利用者が降車する際に、制御部101が実行する処理の流れの例を説明するためのフローチャートを示す図である。
 制御部101は、利用者(例えば運転者。以下、利用者が運転者の場合として説明する)により、電源系がオフとされて、自車のモータ駆動部121の駆動が停止させられたか否か判別する(ステップS101)。このステップS101で、モータ駆動部121の駆動は停止させられてはいないと判別したときには、制御部101は、走行時の必要な制御を継続し(ステップS102)、その後、ステップS101に戻る。
 ステップS101で、モータ駆動部121の駆動は停止させられたと判別したときには、一般的には、運転者は降車すると予想されることから、制御部101は、認証モードがオンとなっているか否か判別する(ステップS103)。
 このステップS103で、認証モードがオンとなっていると判別したときには、制御部101は、カメラ群107の内の運転者を撮影するカメラで運転者の顔画像を撮影し(ステップS106)、その撮影した運転者の顔画像情報を、利用者認証用情報記憶部115に記憶する(ステップS107)。
 次に、制御部101は、運転者に呼出者認証用情報の入力を促すメッセージを、スピーカ125を通じて放音すると共に、表示部111の表示画面に表示して、呼出者認証用情報を要求する(ステップS108)。この例では、例えば「呼び出し用の電話番号を入力して下さい。」とのメッセージを、スピーカ125を通じて放音すると共に、表示部111の表示画面に表示する。
 次に、制御部101は、呼出者認証用情報を受け付けたか否か判別して呼出者認証用情報を受け付けるのを待ち(ステップS109)、受け付けたら、呼出者認証用情報を呼出者認証用情報記憶部117に記憶する(ステップS110)。そして、この降車時処理ルーチンを終了する。
 また、ステップS103で、認証モードがオンとなってはいないと判別したときには、制御部101は、運転者に認証モードをオンにするかを問い合わせるメッセージを、スピーカ125を通じて放音すると共に、表示部111の表示画面に、認証モードをオンに設定変更するためのアイコンボタンなどの表示を行う(ステップS104)
 このステップS104の次には、制御部101は、運転者により認証モードがオンとされたか否か判別し(ステップS105)、認証モードがオンにされなかったと判別(例えば認証モードがオンにされずに、運転者が降車)したときには、この降車時処理ルーチンを終了する。そして、ステップS105で、認証モードがオンにされたと判別したときには、処理をステップS106に進め、このステップS106以降の処理を繰り返す。
 <呼出対応処理>
 次に、図4及びその続きである図5は、自動運転車1に呼び出しの着信があった場合における制御部101の処理動作の流れの例を説明するためのフローチャートを示す図である。この実施形態では、前述したように、自動運転車1を呼び出すための呼出要求は、予め、専用のアプリケーションプログラムをインストールしている携帯電話端末から、当該アプリケーションプログラムを起動させて行うようにする。この場合に、携帯電話端末からの自動運転車1宛ての送信信号には、呼出要求であることと、待ち受け場所として、携帯電話端末で測位された現在位置の情報が含まれる。
 制御部101は、無線通信部102からの着信通知を監視して、着信を検出したか否か判別し(ステップS111)、着信を検出してはいないと判別したときには、必要なその他の処理を行い(ステップS112)、その後、処理をステップS111に戻す。
 ステップS111で、着信を検出したと判別したときには、自動応答し(ステップS113)、制御部101は、当該着信は、呼出要求であるか否か判別し(ステップS114)、呼出要求でないと判別したときには、処理を、その着信についての対応処理ルーチンに進める(ステップS115)。
 ステップS114で、着信は、呼出要求であると判別したときには、制御部101は、第1の呼出者認証をする。すなわち、制御部101は、この例では、呼出者認証用情報記憶部117に記憶された降車者の携帯電話端末の電話番号と、着信した相手の電話番号とを比較参照し(ステップS116)、一致しているかどうかを判別して(ステップS117)、第1の呼出者認証を行う。
 そして、ステップS117で、電話番号の一致が確認できて、第1の呼出者認証ができたときには、制御部101は、呼出者から送られてきている待ち受け場所の位置情報を抽出して取得する(図5のステップS131)。次に、制御部101は、カーナビ機能部113の機能により、カーナビ用データベース124のデータを用いて、待ち受け場所までの経路を探索し、当該待ち受け場所までの移動にかかる所要時間を予測計算する(ステップS132)。次に、制御部101は、予測計算した所要時間を、無線通信部102を通じて呼出者に送信する(ステップS133)。次に、制御部101は、呼出者との通信を切断すると共に、待ち受け場所までの移動制御ルーチンを起動して、この処理ルーチンを終了する(ステップS134)。
 また、ステップS117で、電話番号が不一致と判定されて、第1の呼出者認証ができなかったときには、制御部101は、次のようにして、第2の呼出者認証を行う。すなわち、制御部101は、許可認証用情報の取得要求を相手先(呼出者)に送り、相手先(呼出者)からその許可認証用情報を取得するようにする(ステップS118)。この例では、許可認証用情報は、相手先(呼出者)の顔画像と氏名であり、相手先(呼出者)の携帯電話端末は、前述した専用アプリケーションプログラムに従って、携帯電話端末のカメラで呼出者の顔画像を撮影し、その撮影した顔画像と、予め記憶されている呼出者の氏名を自動運転車1に送ってくるので、自動運転車1は、それを受信することになる。
 ステップS118の次には、無線通信部102における携帯電話端末用の別回線で、認証許可者接続情報記憶部119に記憶されている接続用情報を用いて、認証許可者との間で通信路を生成する。そして、その生成した通信路を通じて、ステップS118で取得した呼出者の許可認証用情報を認証許可者に送信して、当該認証許可者に認証を要請する(ステップS119)。
 このステップS119による認証許可者に対する認証要請に対しては、前述したように、認証許可者からは、呼出許可確認結果または呼出不許可結果のいずれかが送られてくる。そこで、制御部101は、認証許可者から呼出許可確認結果を受けたかどうかにより第2の呼出者認証ができたか否か判別する(ステップS120)。このステップS120で、認証許可者から呼出許可確認結果を受け、第2の呼出者認証ができたと判別したときには、制御部101は、処理を図5のステップS131に進めて、前述したステップS131以降の処理を行う。
 ステップS120で、認証許可者からは呼出許可確認結果を受けずに、呼出不許可結果を受けて、第2の呼出者認証ができなかったと判別したときには、制御部101は、認証ができなかったことにより、呼出を拒否する旨の音声メッセージを、例えば音声合成により生成して、無線通信部102を通じて呼出者に送って通知し、その後、呼出者との通信路を切断する(ステップS121)。これにより、制御部101は、この呼出対応処理ルーチンを終了する。
 <呼出移動制御>
 次に、ステップS134で起動された呼出移動制御ルーチンの例を、図6を参照しながら説明する。
 制御部101は、まず、ステップS131で取得して待ち受け場所の位置情報により示される場所を目的地とすると共に、出発地を現在位置として、カーナビ機能部113の機能により経路探索を実行し、その結果得られた探索結果の移動経路(ルート)に沿ったナビゲーション(案内)を開始する(ステップS141)。
 そして、制御部101は、移動中の現在位置を確認しながら、目的地に到着したか否か判別し(ステップS142)、目的地に到着していないと判別したときには、予測した待ち受け場所までの移動にかかる所要時間に対して、例えば10分以上の大幅な遅れが生じているか否か判別し(ステップS143)、大幅な遅れが生じていなければ、処理をステップS142に戻し、このステップS142以降の処理を繰り返す。ステップS143で、大幅な遅れを生じていると判別したときには、所要時間を再計算すると共に、呼出者との間に通信を再生成して、その計算結果を呼出者に通知する(ステップS144)。そして、制御部101は、処理をステップS142に戻し、このステップS142以降の処理を繰り返す。
 ステップS142で、目的地(待ち受け場所)に到着したと判別したときには、制御部101は、当該待ち受け場所に停車して、呼出乗車制御ルーチンを起動する(ステップS145)。そして、制御部101は、この呼出移動制御ルーチンを終了する。
 <呼出乗車制御>
 次に、ステップS145で起動される呼出乗車制御ルーチンの例を、図7及びその続きである図8を参照しながら説明する。以下の例においては、利用者は自動運転車1の運転席に乗車して運転をする運転者の場合として説明する。
 制御部101は、利用者の乗車を検知するのを監視して、利用者の乗車を検知するのを待つ(ステップS151)。このステップS151で、利用者の乗車を検知したときには、制御部101は、乗車した利用者(運転者)の顔画像をカメラ群107のうちの運転者を撮影するカメラで撮影する(ステップS152)。
 次に、制御部101は、第1の利用者認証を行う。すなわち、この例においては、利用者認証用情報記憶部115に記憶されている降車者の顔画像と、運転席に乗り込んだ利用者の顔画像とを比較参照し(ステップS153)、両顔画像が一致しているか否か判別する(ステップS154)。
 ステップS154で顔画像が一致したと判別されて、第1の利用者認証ができたと判別したときには、制御部101は、当該運転席の利用者による利用(運転)を許可する状態にする(ステップS159)。そして、制御部101は、この呼出乗車制御ルーチンを終了する。
 ステップS154で、顔画像が不一致であって、第1の利用者認証ができなかったと判別したときには、制御部101は、次のようにして、第2の利用者認証を行う。すなわち、制御部101は、スピーカ125を通じて音声により、また、表示部111の表示画面にメッセージを表示して、許可認証用情報の取得要求を利用者に要請し、当該要請を受けた利用者からの許可認証用情報を取得するようにする(ステップS155)。この例では、許可認証用情報は、利用者の顔画像と氏名である。利用者の顔画像は、ステップS152で既に取得しているので、制御部101は、利用者に氏名の入力を要請し、この要請に対する利用者の氏名の入力を受け付ける。
 ステップS155の次には、制御部101は、無線通信部102を通じて、認証許可者接続情報記憶部119に記憶されている接続用情報を用いて、認証許可者との間で通信路を生成する(ステップS156)。そして、その生成した通信路を通じて、ステップS155で取得した利用者の許可認証用情報を認証許可者に送信して、当該認証許可者に確認認証を要請する(ステップS157)。
 このステップS157による認証許可者に対する認証要請に対しては、前述したように、認証許可者からは、利用許可確認結果または利用不許可結果のいずれかが送られてくる。そこで、制御部101は、この例では、認証許可者から利用許可確認結果を受けたかどうかにより第2の利用者認証ができたか否か判別する(ステップS158)。このステップS158で、認証許可者から利用許可確認結果を受け、第2の利用者認証ができたと判別したときには、制御部101は、処理をステップS159に進めて、当該運転席の利用者による利用(運転)を許可する状態にする。
 ステップS158で、認証許可者からは利用許可確認結果を受けずに、利用不許可結果を受けて、第2の利用者認証ができなかったと判別したときには、制御部101は、認証ができなかったことにより、自車を走行不可状態にロックして、当該運転席の利用者による利用(運転)ができない不許可状態にする(図8のステップS161)。
 そして、制御部101は、乗車した利用者に対して、認証ができなかった旨と、降車を促す音声メッセージを、例えば音声合成により生成して、スピーカ125を通じて放音して利用者に通知する(ステップS162)。
 次に、制御部101は、認証許可者にその後の事後処理指示を要請し、その事後処理指示を受信したら、認証許可者との間の通信路を切断する(ステップS163)。この事後処理指示としては、例えば「駐車場に戻れ」あるいは「自宅に戻れ」などの指示となる。
 次に、制御部101は、乗車した利用者の降車が確認できたか否か判別し(ステップS164)、このステップS164で、利用者の降車が確認できていないと判別したときには、制御部101は、当該ステップS164の処理を継続する。このステップS164で、利用者の降車が確認できたと判別したときには、ステップS163で受け付けた事後処理指示に応じた移動制御などの処理を行う(ステップS165)。以上で、制御部101は、この呼出対応処理ルーチンを終了する。
 [第1の実施形態の効果]
 以上説明した第1の実施形態の自動運転車1においては、自動運転車1に記憶された利用者の認証用情報と、新たな利用者の認証用情報とを用いた第1の利用者認証ができなかった時にも、予め定められた認証許可者による利用者の確認認証に基づく第2の利用者認証を行うことで、利用者の自動運転車1の利用が可能になる。これにより、直近の降車者と異なる利用者による自動運転車の利用が可能になる。そして、第1の利用者認証ができたときには、その利用者については、第2の利用者認証を行うことなく、自動運転車1の利用を許可することができる。
 また、上述の第1の実施形態によれば、利用者は、自動運転車1を呼び出して利用することができる。その場合にも、上述の実施形態においては、第1の呼出者認証を行うと共に、第2の呼出者認証を行い、第1の呼出者認証ができたときには、その呼出者による呼出に応じるようにすると共に、第1の呼出者認証ができなかったときには、予め定められた認証許可者による呼出者の確認認証に基づく第2の呼出者認証を行うことで、呼出者の自動運転車1の呼出が可能になる。したがって、自動運転車1に予め登録していない呼出者であっても、自動運転車1の呼出が許可されるようになり、非常に便利である。
 [第1の実施形態の変形例]
 なお、以上の例では、利用者認証用情報記憶部115には、降車した利用者の認証用情報のみを記憶するようにしたが、予め、利用することが想定できる利用者の全てを記憶させておいてもよい。その場合には、第1の利用者認証においては、降車した利用者のみではなく、その事前登録した利用者が利用する際に、第1の利用者認証で認証ができたときに、自動運転車1の利用をすることができるようになり、便利である。
 呼出者認証用情報記憶部117についても同様であり、降車した利用者の認証用情報のみではなく、予め、利用することが想定できる利用者の全てを記憶させておいてもよい。その場合には、第1の呼出者認証においては、降車した利用者のみではなく、その事前登録した呼出者の全てが呼出をした際に、第1の呼出者認証ができたときには呼出ができることになり、便利である。
 なお、以上の例では、第1の利用者認証ができなかったときには、制御部101は、第2の利用者認証を行うようにしているが、直近の降車者の設定等により、第2の利用者認証を行わず(ロックし)、自動運転車1を利用不可とできるようにしてもよい。直近の降車者が、降車後、再度必ず自動運転車1を利用する場合には、他の利用者に利用させることはないので、問い合わせる必要がないからである。スーパーやコンビニなどの店舗に、買い物をするために立ち寄る場合などはこれにあたる。
 上述の第1の実施形態では、呼出者認証用情報記憶部117に記憶される電話番号は、携帯電話端末の電話番号としたが、携帯電話端末の電話番号に限らず、固定電話の電話番号やIP電話の電話番号であってもよいことは言うまでもない。また、電話番号の代わりに、メールアドレスを用いることもできる。メールアドレスは、携帯電話端末のみならず、PCやタブレットでも利用できる。
 上述の第1の実施形態では、呼出要求には、待ち受け場所の情報として、現在位置の情報を送るようにしたが、待ち受け場所として現在位置以外の場所を指定するようにしてもよい。その場合の待ち受け場所の情報としては、住所を指定してもよいし、「××線の○○駅の北口の売店の前」、「銀座△△百貨店の正面入口」というような指定であってもよい。その場合には、自動運転車1は、カーナビ用データベース124の地図情報において待ち受け場所を探索して、その待ち受け場所を検知するようにするが、もしも検知することができない場合には、自動運転車1は、無線通信部102を通じてインターネットの地図サーバなどにアクセスして、探索し、その結果を取得することで検知することができる。その場合には、その待ち合わせ場所までの経路探索も地図サーバと連携して行うと共に、ナビゲーションも、当該地図サーバのサービスを利用して行うことが可能である。
 また、上述の第1の実施形態における自動運転車1は、自動運転モードと手動運転モードを備えていたが、自動運転モードのみの構成でもよい。この場合、手動運転モードは有さず、このため、手動/自動運転モード切替制御部105と、手動運転操作検知部123は不要となる。その代わりに、自動運転のための制御処理を行う自動運転制御部(図示せず)が設けられる。
 なお、第1の利用者認証及び第2の利用者認証に関する発明部分については、自動車は、自動運転車に限らず、運転者による運転を必須とし、自動運転モードを有しない従前の自動車にも適用することができる。また、上述の自動運転車は運転者がいなくても走行可能であるので、利用者は、運転者に限られるものではなく、助手席や後部座席に着席する乗車者であってもよい。
 上述の第1の実施形態では、利用者認証用情報記憶部115、呼出者認証用情報記憶部117、認証許可者接続情報記憶部119、カーナビ用データベース124は、自車内に設置されていたが、それらの記憶部の一部または全部を、自車内ではなく、クラウド上に設置し、通信ネットワーク3を介して、利用することもできる。さらに、利用者認証部114、呼出者認証部116、利用者及び呼出者許可認証部118等の認証部の一部または全部を、自車内ではなく、通信ネットワーク3を介して、クラウド上で処理することもできる。
 [第2の実施形態]
 第2の実施形態は、自動車が、タクシー会社が管理するタクシーである場合であって、かつ、自動運転車の構成とされた場合の例である。この第2の実施形態では、この発明の自動車の実施形態である自動運転車1Aについて、図9に示すような利用形態を可能にするものである。なお、この第2の実施形態において、第1の実施形態と同一部分には、同一参照符号を付して、その詳細な説明は省略する。
 この第2の実施形態においては、タクシーを構成する自動運転車1Aと、タクシー利用者2Cと、タクシー会社のタクシー配車管理サーバ7とが、携帯電話網及びインターネットを含む通信ネットワーク3を通じて接続される通信システムを構成する。
 タクシー利用者2Cは、予めタクシー会社6のタクシー配車管理サーバ7に対して、通信ネットワーク3を通じてアクセスして、会員登録するようにする。そして、利用者2Cは、この会員登録の際に、自分の顔画像や、音声、指紋、静脈、虹彩などの生体情報を、タクシーの利用者としての利用者認証用情報として予め登録する。この利用者認証用情報は、自動運転車1Aにおいて実行される利用者を認証するための第1の利用者認証に用いられる。この例では、この利用者認証用情報としては、登録された利用者の顔画像とされる。
 タクシー利用者2Cは、また、自分の氏名、住所、生年月日、ID、パスワード、携帯電話端末の電話番号やメールアドレス、さらには、クレジットカード情報、金融機関の口座情報などの決済情報も登録するようにする。さらに、会員になった利用者2Cの携帯電話端末には、第1の実施形態と同様に、タクシー配車管理サーバ7にアクセスして、タクシーの配車の要求を、自分の現在位置を伴って送るようにするアプリケーションプログラムが、タクシー会社から提供されてインストールされる。
 この実施形態では、利用者2Cは、自分の携帯電話端末の前記タクシーの配車の要求を行うアプリケーションプログラムを起動して、タクシー配車管理サーバ7に、タクシーの配車を要求する操作をする。
 タクシー配車管理サーバ7では、そのタクシーの配車の要求を受け付ける。そして、タクシー配車管理サーバ7は、タクシーの配車の要求に含まれる利用者2Cの現在位置の情報を取得して、その位置を待ち受け場所として認識する。
 そして、タクシー配車管理サーバ7は、タクシー利用者2Cの携帯電話端末に、確認のための認証用情報が何であるかを示す情報を送る。この確認のための認証用情報が何であるかを示す情報は、この第2の実施形態において第2の利用者認証に用いられる。
 そして、タクシー配車管理サーバ7は、利用者2Cの待ち受け場所に向かうタクシーを、管理しているタクシーの中から選択して配車する。そして、タクシー配車管理サーバ7は、配車するタクシーには、待ち受け場所の位置情報と、会員である利用者2Cの登録されている情報の内、顔画像の情報を、第1の利用者認証の認証用情報として、通信ネットワーク3を通じて送って記憶させ、利用者2Cの待ち受け場所に赴くように指示する。
 この指示を受けた自動運転車1Aは、指定された待ち受け場所に赴き、利用者について後述するように、第1の利用者認証を、記憶した認証用情報、この例では利用者の顔画像の情報を用いて行う。
 この第1の利用者認証ができたときには、自動運転車1Aは、呼出要求時に定められた第2の利用者認証の認証用情報の取得要請を、乗車した利用者に対して行う。そして、自動運転車1Aは、その取得した認証用情報を、タクシー配車管理サーバ7に送って、利用者確認認証の依頼をする。
 すると、タクシー配車管理サーバ7では、自動運転車1Aから送られてきた認証用情報と、呼出要求時に定められた第2の利用者認証のための認証用情報と、呼出要求してきた会員である利用者の登録情報から取得して、両者を比較することで利用者の確認認証を行う。そして、その確認認証ができたときには、利用許可確認結果を自動運転車1Aに送り、確認認証ができなかったときには、利用不可結果を自動運転車1Aに送る。
 自動運転車1Aは、タクシー配車管理サーバ7から利用許可確認結果を受信したときには、第2の利用者認証ができたと判断して、顧客のタクシー利用を許可し、タクシー配車管理サーバ7から利用不許可結果を受信したときには、第2の利用者認証ができなかったと判断して、顧客の利用を拒否する。
 以上のように、この第2の実施形態では、第1の利用者認証ができると共に、第2の利用者認証ができたときに、顧客のタクシー利用を許可するように制御する。つまり、第1の利用者認証ができても、即座に顧客のタクシー利用を許可するのではなく、第2の利用者認証ができたときに初めて顧客のタクシー利用を許可するようにするものである。
 なお、この第2の実施形態では、第1の実施形態における呼出者の認証処理は存在せず、利用者認証のみを行う。
 [第2の実施形態の自動車の例としての自動運転車1Aのハードウエア構成例]
 図10は、この発明の自動車の第2の実施形態としての自動運転車(自動運転タクシー)1Aの電子制御回路部10Aのハードウエア構成例を示すブロック図である。図10において、図2に示した第1の実施形態の自動運転車1の電子制御回路部10と同一部分には同一符号を付して、その説明は省略する。
 図10に示すように、この実施形態の自動運転車1Aの電子制御回路部10Aは、第1の実施形態の自動運転車1の利用者認証部114、利用者認証用情報記憶部115、呼出者認証部116、呼出者認証用情報記憶部117、利用者及び呼出者許可認証部118、認証許可者接続情報記憶部119は設けられず、その代わりに、顧客認証部131、顧客認証用情報記憶部132、乗車許可認証部133、認証許可者接続情報記憶部134が設けられる。
 また、この第2の実施形態における自動運転車1Aは、手動運転モードは有さず、このため、手動/自動運転モード切替制御部105と、手動運転操作検知部123は設けられず、その代わりに、第1の実施形態で説明した自動運転のための制御処理を行う自動運転制御部105Aが設けられる。その他は、第1の実施形態の自動運転車1と同様の構成とされる。
 顧客認証用情報記憶部132には、タクシー会社のタクシー配車管理サーバ7から送られてくるタクシーの呼出要求をした利用者の認証用情報(第1の利用者認証の認証用情報)が、顧客(乗客)認証用情報として記憶される。この例では、タクシー配車管理サーバ7からは、タクシーの呼出要求をした会員の利用者の顔画像が自動運転車1Aに送られてくるので、その顔画像の情報が顧客認証用情報記憶部132に記憶される。
 顧客認証部131は、第1の利用者認証を行う。すなわち、この例では、当該自動運転車1Aに利用者が乗り込んだ時に、その利用者の顔画像を撮影して当該利用者の認証用情報を取得する。そして、顧客認証部131は、取得した顔画像と、顧客認証用情報記憶部132に記憶されている認証用情報としての顔画像とを比較参照して、その一致/不一致を判定することで、第1の利用者認証を行う。
 乗車許可認証部133は、顧客から第2の認証用情報を取得する機能と、認証許可者、この例ではタクシー配車管理サーバ7との間に通信路を生成し、顧客から取得した認証用情報を、生成した通信路を通じて認証許可者に送り、当該認証許可者からの許可、不許可に関する情報を取得する機能とを備える。
 認証許可者接続情報記憶部134には、認証許可者接続情報として、この実施形態では、タクシー配車管理サーバ7と通信路を生成するための電話番号やメールアドレス、URL(Uniform Resource Locator)が記憶される。
 以上のように、自動運転車1Aの電子制御回路部10Aは構成されるが、図10に示した各ブロックのうち、モータ駆動制御部103、ステアリング駆動制御部104、自動運転制御部105A、周囲移動体把握部109、現在位置検出部110、カーナビ機能部113、音声出力部120、顧客認証部131、乗車許可認証部133の各処理機能は、制御部101が、ソフトウエア処理として実現することができる。
 [タクシー配車管理サーバ7のハードウエア構成例]
 図11は、タクシー配車管理サーバ7のハードウエア構成例を示すブロック図である。
 図11に示すように、タクシー配車管理サーバ7は、コンピュータからなる制御部701に対して、システムバス700を通じて顧客用無線通信部702、会員顧客情報記憶部703、乗車顧客確認認証部704、タクシー用無線通信部705、タクシー位置情報管理部706、顧客位置検出部707、地図データ記憶部708、表示部709、オペレータ用ユーザインターフェース710、が接続されて構成されている。
 顧客用無線通信部702は、顧客からのタクシー呼出要求を受けるための専用の無線通信部であり、この例では、携帯電話網を通じて送られてくる顧客のタクシー呼出要求を受ける。
 会員顧客情報記憶部703は、前述したように、会員の顔画像や、音声、指紋、静脈、虹彩などの生体情報、氏名、住所、生年月日、ID、パスワード、携帯電話端末の電話番号やメールアドレス、クレジットカード情報、金融機関の口座情報などの決済情報を記憶している。
 乗車顧客確認認証部704は、会員の顧客の携帯電話端末からのタクシー呼出要求を受けたときには、会員顧客情報記憶部703に登録されている電話番号及びID、パスワードに基づいて、会員の顧客であるか否か判断し、会員の顧客であれば、そのタクシー呼出要求を受け付ける処理を行う。
 また、乗車顧客確認認証部704は、顧客会員の携帯電話端末に対して第2の利用者認証のための認証用情報を伝達する機能を備える。この場合、この例では、乗車顧客確認認証部704は、タクシー呼出要求を受け付けた会員の登録情報のうち、第1の利用者認証のために用いられる情報(この例では顔画像情報)以外の一つまたは複数の情報を任意に選択して、第2の利用者認証のための認証用情報を定め、それを顧客会員の携帯電話端末に対して第2の利用者認証のための認証用情報を伝達する。
 さらに、乗車顧客確認認証部704は、第2の利用者認証のための認証用情報と共に、その確認認証依頼が自動運転車1Aから送られてきたときには、当該送られてきた認証用情報と、タクシー呼出要求の際に定めた認証用情報との一致/不一致により、許可認証できるか否か判別し、許可認証できたときには、利用許可確認結果を自動運転車1Aに返し、また、許可認証ができなかったときには、利用不許可結果を自動運転車1Aに返す。
 タクシー用無線通信部705は、タクシーである自動運転車1Aのそれぞれと通信路を生成して、種々の情報のやり取りをするためのものである。
 タクシー位置情報管理部706は、自動運転車1Aから送られて来る現在位置情報を常時監視して、タクシーである自動運転車1Aのそれぞれの位置を管理する。そして、この実施形態では、タクシー位置情報管理部706は、表示部709の表示画面に表示される地図上に、各タクシーである自動運転車1Aの現在位置を表示するようにする。
 顧客位置検出部707は、会員の顧客の携帯電話端末からのタクシー呼出要求を受けたときに、当該タクシー呼出要求に含まれる会員顧客の現在位置情報を抽出して、顧客位置を検出する。そして、その検出した顧客位置を、表示部709の表示画面に表示する。
 地図データ記憶部708は、地図データを記憶されており、その地図データによる地図画像を、表示部709の表示画面に表示する。
 オペレータ用ユーザインターフェース710は、顧客会員との電話通信や、表示部709の表示画面を通じて入力作業をオペレータが行うインターフェースである。オペレータは、表示画面の地図上に表示されている顧客位置とタクシー位置とから、配車するタクシーを定め、定められた自動運転車1Aに、顧客位置及び顧客の認証用情報を伝達するように指示する。制御部701は、その指示に従って、タクシー用無線通信部705を通じて、自動運転車1Aへの顧客位置及び顧客の認証用情報を伝達するようにする。
 なお、図11において、乗車顧客確認認証部704、タクシー位置情報管理部706、顧客位置検出部707の各部の機能は、制御部701がプログラムを実行することにより行うソフトウエア処理として構成することもできる。
 [タクシー配車管理サーバ7における顧客からのタクシー呼出要求の受付処理]
 図12は、タクシー配車管理サーバ7における顧客からのタクシー呼出要求の受付処理の流れの例を説明するためのフローチャートを示す図である。なお、この図12の各ステップの処理は、制御部701が、乗車顧客確認認証部704、タクシー位置情報管理部706、顧客位置検出部707の各部の機能をソフトウエア機能手段として行う場合として説明する。
 タクシー配車管理サーバ7の制御部701は、顧客会員からのタクシー呼出要求を受け付けたか否か判別する(ステップS201)。この場合に、ステップS201では、前述したように、会員の顧客の携帯電話端末からのタクシー呼出要求を受けたときには、そのタクシー呼出要求に含まれる電話番号及びID、パスワードと、会員顧客情報記憶部703に登録されている電話番号及びID、パスワードとの一致/不一致を判定することで、会員の顧客であるか否か判断し、会員の顧客であれば、そのタクシー呼出要求を受け付ける。
 このステップS201で、顧客会員からのタクシー呼出要求を受け付けてはいないと判別したときには、制御部701は、当該ステップS201の処理を継続する。
 ステップS201で、顧客会員からのタクシー呼出要求を受け付けたと判別したときには、制御部701は、当該タクシー呼出要求に含まれる位置情報を抽出して、顧客のタクシー待ち受け場所を表示部709の表示画面に表示して、オペレータに確認させるようにする(ステップS202)。
 次に、制御部701は、オペレータからの配車するタクシーの指示情報を受けて、配車するタクシーを決定し(ステップS203)、その決定したタクシーである自動運転車1Aに、受け付けた顧客の第1の利用者認証の認証用情報、この例では、顔画像の情報を送ると共に、当該顧客の待ち受け場所の位置情報を送って、待ち受け場所を指示する(ステップS204)。
 そして、制御部701は、第2の利用者認証のための認証用情報を定め、タクシー呼出要求をしてきた顧客の携帯電話端末に、その定めた第2の利用者認証のための認証用情報を伝達する(ステップS205)。以上で、タクシー呼出要求の受付処理は完了となる。
 [自動運転車1Aにおける顧客受付処理]
 図13は、自動運転車1Aにおける顧客受付処理の流れの例を説明するためのフローチャートである。すなわち、自動運転車1Aの制御部101は、タクシー配車管理サーバ7からの情報の受信を待ち(ステップS211)、タクシー配車管理サーバ7からの情報の受信があったと判別したときには、受信した顧客の認証用情報を、顧客認証用情報記憶部132に記憶すると共に、待ち受け場所の位置情報をカーナビ機能部113の目的地の記憶部に記憶する(ステップS212)。以上で、自動運転車1Aにおける顧客受付処理は終了である。
 [自動運転車1Aでの顧客乗車制御処理動作の例]
 図14及びその続きである図15は、自動運転車1Aにおける顧客乗車制御処理動作の流れの例を説明するためのフローチャートである。
 制御部101は、利用者の乗車を検知するのを監視して、利用者の乗車を検知するのを待つ(ステップS221)。このステップS221で、利用者の乗車を検知したときには、制御部101は、乗車した利用者(運転者)の顔画像をカメラ群107のうちの助手席や後部座席の乗車者を撮影するカメラで撮影する(ステップS222)。
 次に、制御部101は、第1の利用者認証を行う。すなわち、この例においては、顧客認証用情報記憶部132に記憶されているタクシー呼出要求してきた顧客会員の顔画像と、乗車者の顔画像とを比較参照し(ステップS223)、両顔画像が一致しているか否か判別する(ステップS224)。
 ステップS224で顔画像が一致したと判別されて、第1の利用者認証ができたと判別したときには、制御部101は、次のようにして、第2の利用者認証を行う。すなわち、制御部101は、スピーカ125を通じて音声により、また、表示部111の表示画面にメッセージを表示して、タクシー呼出要求の受け付けの際に定められた認証用情報の取得要求を乗車者に要請し、当該要請を受けた乗車者からの認証用情報を取得するようにする(ステップS225)。この場合に、例えば認証用情報が、利用者の氏名、ID及びパスワードであるとした場合、利用者は、この要請に対して利用者の氏名、ID及びパスワードを入力するので、制御部101は、その入力を受け付ける。
 ステップS225の次には、制御部101は、無線通信部102を通じて、認証許可者接続情報記憶部134に記憶されている接続用情報を用いて、認証許可者であるタクシー配車管理サーバ7との間で通信路を生成する。そして、その生成した通信路を通じて、ステップS225で取得した利用者の許可認証用情報をタクシー配車管理サーバ7に送信して、当該タクシー配車管理サーバ7における確認認証を要請する(ステップS226)。
 このステップS226によるタクシー配車管理サーバ7に対する認証要請に対しては、前述したように、タクシー配車管理サーバ7からは、利用許可確認結果または利用不許可結果のいずれかが送られてくる。そこで、制御部101は、タクシー配車管理サーバ7から利用許可確認結果を受けたかどうかにより第2の利用者認証ができたか否か判別する(ステップS227)。このステップS227で、タクシー配車管理サーバ7から利用許可確認結果を受け、第2の利用者認証ができたと判別したときには、制御部101は、当該乗車席のタクシー利用(乗車)を許可する。
 ステップS224で、第1の利用者認証ができなかったと判別したとき、また、ステップS227で、タクシー配車管理サーバ7からは利用許可確認結果を受けずに、利用不許可結果を受けて、第2の利用者認証ができなかったと判別したときには、制御部101は、自車を走行不可状態にロックして、乗車者によるタクシー利用ができない不許可状態にする(図15のステップS231)。
 そして、制御部101は、乗車者に対して、認証ができなかった旨と、降車を促す音声メッセージを、例えば音声合成により生成して、スピーカ125を通じて放音して乗車者に通知する(ステップS232)。
 次に、制御部101は、タクシー配車管理サーバ7にその後の事後処理指示を要請し、その事後処理指示を受信したら、タクシー配車管理サーバ7との間の通信路を切断する(ステップS233)。この事後処理指示としては、例えば「駐車場に戻れ」あるいは「別のタクシー利用者の受付」などの指示となる。
 次に、制御部101は、乗車者の降車が確認できたか否か判別し(ステップS234)、利用者の降車が確認できたと判別したときには、ステップS233で受け付けた事後処理指示に応じた移動制御などの処理を行う(ステップS235)。以上で、制御部101は、この呼出対応処理ルーチンを終了する。
 [第2の実施形態の効果]
 上述した第2の実施形態によれば、自動運転車の無人運転によるタクシーサービスを実現することができる。そして、上述の第2の実施形態においては、顧客について登録した認証用情報による第1の利用者認証と、タクシー配車管理サーバ7における顧客との間で予め定めた認証用情報による第2の利用者認証とにより、顧客についての認証を行うようにしたので、認証が厳格になり、顧客の認証が確実にできると共に、不正な利用を厳正に防止することが可能になるという効果がある。
 [第2の実施形態の変形例]
 上述の第2の実施形態の説明においては、第1の利用者認証(顧客認証)のための利用者認証用情報として、利用者の顔画像を用いて、利用者の確認のための第2の利用者認証として、利用者の氏名、ID及びパスワードとしたが、逆に、第1の利用者認証(顧客認証)のための利用者認証用情報として、利用者の氏名、ID及びパスワードを用い、第2の利用者認証として、利用者の顔画像を用いるようにしてもよい。要は、この第2の実施形態では、会員として登録された情報の内の一部の情報を、第1の利用者認証用情報として、タクシーである自動運転車1Aに伝達し、会員として登録された情報の内の他の情報を、第2の利用者認証用情報として用いるようにすればよい。
 また、第1の利用者認証用情報及び第2の利用者認証用情報は、上述の第2の実施形態では、予め、タクシー利用者2Cがタクシー会社のタクシー呼出サービスの会員となって、登録したおいた情報としたが、登録しておいた情報に限られるものではない。例えば、タクシー利用者が、タクシー配車管理サーバ7に電話をかけてタクシーの呼出要求をしたときに、タクシー配車管理サーバ7との間での通信において、第1の利用者認証用情報及び第2の利用者認証用とを定めて、タクシー利用者の携帯電話端末から、タクシー配車管理サーバ7に送るようにしてもよい。この場合には、タクシー利用者は、タクシー会社のタクシー呼出サービスの会員となる必要はない。なお、決済方法については、この発明のタクシーに乗車する利用者認証とは直接に関係がないので、この実施形態では、その説明は省略する。
 また、上述の説明では、無人運転タクシーを想定したが、タクシードライバーが運転するようにする自動運転車の場合にも、この発明は適用可能である。その場合には、タクシー配車管理サーバ7での利用許可確認結果を、タクシー配車管理サーバ7のオペレータがタクシードライバーに通知するようにすることもできる。なお、この場合は、タクシードライバーが決済をすることができ、現金決済も可能である。
 なお、タクシー配車管理サーバ7での利用許可確認は、タクシー配車管理サーバ7のオペレータが行うようにしてもよい。その場合には、利用許可確認のための認証用情報が、例えば利用者の顔画像の場合に、登録された顔画像が正面からの顔画像のみであって、自動運転車1Aから送られてきた顔画像が斜め横から撮影した顔画像であっても、オペレータによる視認による比較認証ができるので、利用者確認が良好にできる。このため、タクシー配車管理サーバ7に登録する顔画像は正面など、一方向からの顔画像で良くなる。また、逆に、複数の角度からの顔画像を登録し、認証精度を高め、利用者確認を厳しくすることもできる。
 第1の利用者認証の認証用情報は、利用者の顔画像、声、指紋、静脈、虹彩などの生体情報としたが、これに限らず、第1の利用者認証の認証用情報は、第2の利用者認証の認証用情報と同様の情報、例えば、氏名、住所、生年月日、ID、パスワード、携帯電話端末の電話番号やメールアドレスなどであってもよい。
 [その他の実施形態又は変形例]
 なお、第1及び第2の実施形態において、第1の利用者認証は、利用者が自動運転車に乗り込んだ後に行うようにしたが、この発明の自動車が、利用者が自動運転車に乗り込む前に、利用者の顔画像を撮影したり、利用者の声を収音したり、指紋の取込を行ったりして、第1の利用者認証を行うようにすることもできる。その場合には、この発明の自動車は、第1の利用者認証を行ったら、ロックしていたドアを開けて、利用者の当該自動運転車への乗り込みを許可(これも利用の許可の一種である)するように制御することができる。すなわち、この発明の自動車は、ドアの開閉制御を、利用者認証結果に応じて行うようにしてもよい。
 そして、第2の実施形態の場合には、第1の利用者認証及び第2の利用者認証の認証結果に応じて利用者の乗車を許可してもよいし、第1の利用者認証だけで利用者の乗車を許可し、当該乗車を許可されて乗車した利用者について、第2の利用者認証を行って、その第2の利用者認証ができたときに、タクシーとしての自動運転車1Aの利用を許可するように制御することができる。
 また、上述の実施形態の自動車は、電気自動車の場合として説明したが、ガソリン車、ハイブリッド車、燃料電池車、その他の駆動方式の自動車であってもよい。
 なお、以上の説明は4輪の自動車について説明したが、この発明の自動車は、自動二輪車、自動三輪車その他を含むものである。
 1,1A…自動運転車、10,10A…電子制御回路部、101…制御部、102…無線通信部、114…利用者認証部、115…利用者認証用情報記憶部、116…呼出者認証部、117…呼出者認証用情報記憶部、118…利用者及び呼出者認証用情報記憶部、119…認証許可者接続用情報記憶部、131…顧客認証部、132…顧客認証用情報記憶部、133…乗車許可認証部、134…認証許可者接続用情報記憶部
 

Claims (23)

  1.  乗車者の認証用情報を記憶する第1の記憶手段と、
     自車を利用しようとする者である利用者について、前記第1の記憶手段に記憶した前記認証用情報を用いて認証を行う第1の認証手段と、
     通信の相手先との間で通信を行うための通信手段と、
     登録された相手先へ前記通信手段を通じて通信を行うための情報を記憶する第2の記憶手段と、
     前記通信手段により、前記第2の記憶手段に記憶された前記情報を用いて前記登録された相手先と接続して、前記利用者についての認証を行う第2の認証手段と、
     前記第1の認証手段及び/または前記第2の認証手段の認証結果に応じて、自車の利用を可能にするかどうかを決定する決定手段と
     を備えることを特徴とする自動車。
  2.  前記第1の認証手段で前記利用者について認証ができたときには、前記決定手段は、自車の利用を可能にすると決定し、
     前記第1の認証手段で前記利用者について認証ができなかったときには、前記第2の認証手段による認証を行い、前記決定手段は、前記第2の認証手段での認証結果に応じて、自車の利用を可能にするかどうかを決定する
     ことを特徴とする請求項1に記載の自動車。
  3.  前記第1の記憶手段に記憶される前記乗車者の認証用情報は、降車した運転者及び/または運転者以外の乗車者の認証用情報である
     ことを特徴とする請求項1または請求項2に記載の自動車。
  4.  前記登録された相手先は、当該自車の所有者または自車からの直近に降車した運転者及び/または運転者以外の乗車者である
     ことを特徴とする請求項1~請求項3のいずれかに記載の自動車。
  5.  前記第1の認証手段及び/または前記第2の認証手段をオン状態またはオフ状態に選択する選択手段を備える
     ことを特徴とする請求項1~請求項4に記載の自動車。
  6.  前記第1の認証手段で前記利用者について認証ができ、かつ、第2の認証手段で前記利用者について認証ができたときに、前記決定手段は、自車の利用を可能にすると決定する
     ことを特徴とする請求項1に記載の自動車。
  7.  前記第1の記憶手段には、自車を管理する管理者から送られてくる前記利用者の認証用情報が記憶される
     ことを特徴とする請求項6に記載の自動車。
  8.  前記登録された通信の相手先は、当該自車を管理する管理者である
     ことを特徴とする請求項6または請求項7に記載の自動車。
  9.  自律走行により自動運転を行う
     請求項1~請求項8のいずれかに記載の自動車。
  10.  前記通信手段を通じて通信の相手先からの指示情報を受け付けて、前記指示情報で指定された待ち合わせ場所を検知する手段と、
     自車の現在位置を検出する現在位置検出手段と、
     地図情報及びナビゲーション情報を取得する手段と、
     前記取得した地図情報及びナビゲーション情報と、前記検出した現在位置情報とを用いて、前記検知した待ち合わせ場所において待機する手段と、
     を備えることを特徴とする請求項9に記載の自動車。
  11.  前記取得した地図情報及びナビゲーション情報と、前記検出した現在位置情報とを用いて、前記検知した待ち合わせ場所に自律走行により移動する
     ことを特徴とする請求項10に記載の自動車。
  12.  前記通信の相手先は、前記登録された通信の相手先である
     ことを特徴とする請求項10または請求項11に記載の自動車。
  13.  自律走行により自動運転を行う自動車であって、
     呼出者の認証用情報を記憶する第1の記憶手段と、
     通信の相手先との間で通信を行うための通信手段と、
     前記通信手段で前記呼出者からの着信を受けたときに、前記通信手段を通じて認証用情報を取得し、前記取得した前記認証用情報と前記第1の記憶手段に記憶した前記認証用情報とを用いて、前記呼出者についての認証を行う第1の認証手段と、
     登録された相手先へ前記通信手段を通じて通信を行うための情報を記憶する第2の記憶手段と、
     前記通信手段により、前記第2の記憶手段に記憶された前記情報を用いて前記登録された相手先と接続し、前記登録された相手先による前記呼出者の確認により、前記呼出者についての認証を行う第2の認証手段と、
     前記第1の認証手段及び/または前記第2の認証手段の認証結果に応じて、前記呼出者からの呼び出しに応じるか否かを決定する決定手段と
     を備えることを特徴とする自動車。
  14.  自車の現在位置を検出する現在位置検出手段と、
     地図情報及びナビゲーション情報を取得する手段と、
     前記取得した地図情報及びナビゲーション情報と、前記検出した現在位置情報とを用いて、自律走行により指定された場所に自車を移動する手段と、
     を備え、
     前記呼出者からの情報には、指定された待ち合わせ場所の情報を含み、
     前記決定手段で、前記呼出者からの呼び出しに応じると決定したときに、自車を前記指定された待ち合わせ場所に移動させるようにする
     ことを特徴とする請求項13に記載の自動車。
  15.  前記現在位置検出手段で検出された前記現在位置から前記呼出者により指定された待ち合わせ場所までの移動にかかる所要時間を予測計算する計算手段を備え、
     前記決定手段で、前記呼出者からの呼び出しに応じると決定したときに、自車を前記指定された待ち合わせ場所に移動させるようにすると共に、前記計算手段で計算された前記所要時間を前記呼出者に報知するための時間情報を前記通信の相手先に通知する
     ことを特徴とする請求項14に記載の自動車。
  16.  前記第1の記憶手段に記憶される前記乗車者の認証用情報は、降車した運転者及び/または運転者以外の乗車者の認証用情報である
     ことを特徴とする請求項13~請求項15のいずれかに記載の自動車。
  17.  前記登録された通信の相手先は、当該自車の所有者または自車から直近に降車した運転者及び/または運転者以外の乗車者である
     ことを特徴とする請求項13~請求項16のいずれかに記載の自動車。
  18.  前記第1の認証手段は、顔画像認識、音声認識による話者認識、指紋認証、静脈認証、虹彩認証などの生体情報による認証を行う
     ことを特徴とする請求項1~請求項17のいずれかに記載の自動車。
  19.  前記第1の記憶手段に記憶される前記乗車者の認証用情報は、前記自車内及び/またはクラウド上に設置された顔画像認識手段及び/または音声認識手段により取得される
     ことを特徴とする請求項18に記載の自動車。
  20.  前記第1の認証手段は、氏名、住所、生年月日、ID、パスワード、電話番号及び/またはメールアドレスの一致/不一致の判定を行うことで認証を行う
     ことを特徴とする請求項1~請求項17のいずれかに記載の自動車。
  21.  前記第2の認証手段は、顔画像認識、氏名、住所、生年月日、ID、パスワード、電話番号及び/またはメールアドレスによる前記乗車した者の確認である
     ことを特徴とする請求項1~請求項20のいずれかに記載の自動車。
  22.  登録された通信の相手先との間で通信を行うための通信手段を備える自動車が有するコンピュータを、
     乗車者の認証用情報を記憶する第1の記憶手段、
     自車を利用しようとする者である利用者について、前記第1の記憶手段に記憶した前記認証用情報を用いて認証を行う第1の認証手段、
     登録された相手先へ前記通信手段を通じて通信を行うための情報を記憶する第2の記憶手段、
     前記通信手段により、前記第2の記憶手段に記憶された前記情報を用いて前記登録された相手先と接続して、前記利用者の認証を行う第2の認証手段、
     前記第1の認証手段及び/または前記第2の認証手段の認証結果に応じて、自車の利用を可能にするかどうかを決定する決定手段、
     として機能させるための自動車用プログラム。
  23.  登録された通信の相手先との間で通信を行うための通信手段を備え、自律走行により自動運転を行う自動車が有するコンピュータを、
     呼出者の認証用情報を記憶する第1の記憶手段、
     通信の相手先との間で通信を行うための通信手段、
     前記通信手段で前記呼出者からの着信を受けたときに、前記通信手段を通じて認証用情報を取得し、前記取得した前記認証用情報と前記第1の記憶手段に記憶した前記認証用情報とを用いて、前記呼出者についての認証を行う第1の認証手段、
     登録された相手先へ前記通信手段を通じて通信を行うための情報を記憶する第2の記憶手段、
     前記通信手段により、前記第2の記憶手段に記憶された前記情報を用いて前記登録された相手先と接続し、前記登録された相手先から取得する情報に基づいて、前記呼出者についての認証を行う第2の認証手段、
     前記第1の認証手段及び/または前記第2の認証手段の認証結果に応じて、前記呼出者からの呼び出しに応じるか否かを決定する決定手段
     として機能させるための自動車用プログラム。
     
PCT/JP2015/058480 2014-04-01 2015-03-20 自動車及び自動車用プログラム Ceased WO2015151862A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US15/120,584 US10369967B2 (en) 2014-04-01 2015-03-20 Vehicle and program for vehicle
JP2015529949A JP5877574B1 (ja) 2014-04-01 2015-03-20 自動車及び自動車用プログラム
US16/445,656 US11180116B2 (en) 2014-04-01 2019-06-19 Vehicle dispatch management system and vehicle dispatch management server
US17/492,080 US12090956B2 (en) 2014-04-01 2021-10-01 Vehicle and program for vehicle
US18/787,315 US20240391424A1 (en) 2014-04-01 2024-07-29 Vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-075079 2014-04-01
JP2014075079 2014-04-01

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/120,584 A-371-Of-International US10369967B2 (en) 2014-04-01 2015-03-20 Vehicle and program for vehicle
US16/445,656 Continuation US11180116B2 (en) 2014-04-01 2019-06-19 Vehicle dispatch management system and vehicle dispatch management server

Publications (1)

Publication Number Publication Date
WO2015151862A1 true WO2015151862A1 (ja) 2015-10-08

Family

ID=54240192

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/058480 Ceased WO2015151862A1 (ja) 2014-04-01 2015-03-20 自動車及び自動車用プログラム

Country Status (3)

Country Link
US (4) US10369967B2 (ja)
JP (6) JP5877574B1 (ja)
WO (1) WO2015151862A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154566A1 (ja) * 2016-03-11 2017-09-14 パナソニックIpマネジメント株式会社 自動車両配車システム及びサーバ装置
JP2017214800A (ja) * 2016-06-02 2017-12-07 Ihi運搬機械株式会社 自動運転パーキングシステム
JP2018097514A (ja) * 2016-12-12 2018-06-21 三菱電機株式会社 車載認証装置および車載認証方法
JP2019505899A (ja) * 2015-12-30 2019-02-28 ウェイモ エルエルシー 自律走行車サービス
JP2019043732A (ja) * 2017-09-04 2019-03-22 三菱ロジスネクスト株式会社 配車システムおよび配車方法
JP2019218057A (ja) * 2019-09-05 2019-12-26 みこらった株式会社 自動車及び自動車用プログラム
WO2020002959A1 (ja) * 2018-06-26 2020-01-02 日産自動車株式会社 乗降車地点決定方法及び乗降車地点決定装置
JP2020535549A (ja) * 2017-09-28 2020-12-03 ユーエーティーシー, エルエルシー 自律車両を乗車者にマッチングさせるためのシステムおよび方法
US11023836B2 (en) 2017-08-07 2021-06-01 Toyota Jidosha Kabushiki Kaisha Vehicle dispatch system, vehicle dispatch method, server, user terminal, and storage medium
US11048263B2 (en) 2016-12-27 2021-06-29 Toyota Jidosha Kabushiki Kaisha Autonomous driving device for vehicle
JP2021147855A (ja) * 2020-03-18 2021-09-27 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP2021147956A (ja) * 2020-03-23 2021-09-27 株式会社東海理化電機製作所 認証装置、コンピュータプログラム、および認証システム
JP2022009477A (ja) * 2017-05-16 2022-01-14 みこらった株式会社 自動車及び自動車用プログラム
WO2023085202A1 (ja) * 2021-11-12 2023-05-19 株式会社デンソー 車両遠隔運転システム、および、車両遠隔運転方法
JP2023072662A (ja) * 2021-11-12 2023-05-24 株式会社デンソー 車両遠隔運転システム、および、車両遠隔運転方法
JP2023083304A (ja) * 2021-12-06 2023-06-15 みこらった株式会社 自動車及び自動車用プログラム
JP2024146262A (ja) * 2023-03-31 2024-10-15 本田技研工業株式会社 車両の制御装置、制御方法、及びプログラム

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105094767B (zh) * 2014-05-06 2019-02-12 华为技术有限公司 自动驾驶车辆调度方法、车辆调度服务器及自动驾驶车辆
JP6375237B2 (ja) * 2015-01-28 2018-08-15 日立オートモティブシステムズ株式会社 自動運転制御装置
KR101709521B1 (ko) * 2015-07-30 2017-03-09 주식회사 한글과컴퓨터 무인 스마트카를 이용한 공익서비스 시스템 및 방법
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US12265386B2 (en) 2015-11-04 2025-04-01 Zoox, Inc. Autonomous vehicle fleet service and system
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US9630619B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US20170253237A1 (en) * 2016-03-02 2017-09-07 Magna Electronics Inc. Vehicle vision system with automatic parking function
US10471933B2 (en) * 2016-08-30 2019-11-12 Nzube John Etonye Vehicle security system
JP6598254B2 (ja) * 2016-10-20 2019-10-30 みこらった株式会社 自動運転車及び自動運転車用プログラム
KR101909345B1 (ko) 2016-12-19 2018-10-17 전자부품연구원 홍채인식과 얼굴인식을 복합적으로 활용하는 차량 보안 방법 및 시스템
US10613537B2 (en) * 2016-12-31 2020-04-07 Lyft Inc. Autonomous vehicle pickup and drop-off management
WO2018135508A1 (ja) 2017-01-18 2018-07-26 パナソニックIpマネジメント株式会社 車両運行管理システムおよび車両運行管理方法
JP6702217B2 (ja) * 2017-02-06 2020-05-27 株式会社デンソー 自動運転装置
JP6794859B2 (ja) * 2017-02-07 2020-12-02 株式会社デンソー 乗車管理装置
US10852730B2 (en) * 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
US10220857B2 (en) 2017-02-23 2019-03-05 Uber Technologies, Inc. Vehicle control system
JP6399129B2 (ja) * 2017-03-08 2018-10-03 オムロン株式会社 乗客支援装置、方法及びプログラム
DE102017204169A1 (de) 2017-03-14 2018-09-20 Bayerische Motoren Werke Aktiengesellschaft Authentifizierungssystem für ein zumindest teilweise autonomes Fahrzeug
JP6292646B1 (ja) * 2017-03-16 2018-03-14 三菱ロジスネクスト株式会社 配車システム
JP6274699B1 (ja) * 2017-03-16 2018-02-07 三菱ロジスネクスト株式会社 配車システム
JP6343362B1 (ja) * 2017-03-21 2018-06-13 三菱ロジスネクスト株式会社 有人無人兼用車および配車システム
JP6940969B2 (ja) * 2017-03-29 2021-09-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 車両制御装置、車両制御方法及びプログラム
JP2020097250A (ja) * 2017-04-06 2020-06-25 アルプスアルパイン株式会社 シフト装置及び車両
JP6769383B2 (ja) 2017-04-13 2020-10-14 トヨタ自動車株式会社 自動運転装置、及び通知方法
JP6862257B6 (ja) * 2017-04-14 2021-06-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 自動運転車両、自動運転車両の停車方法及びプログラム
CN108868224A (zh) * 2017-05-09 2018-11-23 法雷奥汽车内部控制(深圳)有限公司 用于车辆的车载自动停车系统
JP6723955B2 (ja) * 2017-05-12 2020-07-15 日立オートモティブシステムズ株式会社 情報処理装置及び異常対処方法
US10585430B2 (en) * 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
JP6710857B2 (ja) * 2017-06-19 2020-06-24 佐藤 順 携帯端末等の位置情報と連動した車両等のシステム
JP6341525B1 (ja) * 2017-06-22 2018-06-13 三菱ロジスネクスト株式会社 配車システムおよび配車方法
CN109213141B (zh) 2017-07-05 2024-02-02 松下电器(美国)知识产权公司 自主行驶车、行驶控制装置和方法及记录程序的记录介质
US10416671B2 (en) * 2017-07-11 2019-09-17 Waymo Llc Methods and systems for vehicle occupancy confirmation
US20190018418A1 (en) * 2017-07-13 2019-01-17 Horng-Huei Tseng Vehicle summon system
JP6358636B1 (ja) * 2017-07-20 2018-07-18 三菱ロジスネクスト株式会社 配車システム
JP6358637B1 (ja) * 2017-07-25 2018-07-18 三菱ロジスネクスト株式会社 配車システム
CN111201547A (zh) * 2017-08-01 2020-05-26 亚历克西斯·达科斯塔 在运输行业部门中的交互式实时系统及使用其的实时方法
JP6794957B2 (ja) * 2017-08-04 2020-12-02 トヨタ自動車株式会社 車両の配車システム
JP7061914B2 (ja) * 2017-08-24 2022-05-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 車両制御権設定方法、車両制御権設定装置、車両制御権設定プログラム及び車両制御方法
JP6729518B2 (ja) * 2017-08-25 2020-07-22 トヨタ自動車株式会社 自動運転車両及びドライバレス輸送システム
CN107627945B (zh) * 2017-08-31 2020-06-05 浙江吉利控股集团有限公司 飞行汽车系统及飞行汽车共享方法
JP6448041B1 (ja) * 2017-09-04 2019-01-09 三菱ロジスネクスト株式会社 配車システムおよび配車方法
US11072311B2 (en) * 2017-09-05 2021-07-27 Future Mobility Corporation Limited Methods and systems for user recognition and expression for an automobile
CN107844886A (zh) * 2017-09-15 2018-03-27 北京百度网讯科技有限公司 车辆调度方法、装置、设备及存储介质
KR101930462B1 (ko) * 2017-09-25 2018-12-17 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량
JP2021007275A (ja) 2017-09-27 2021-01-21 日本電産株式会社 スポーク型モータ、車両用モータ、無人飛行体及び電動アシスト装置
US20190111890A1 (en) * 2017-10-12 2019-04-18 Hitachi, Ltd. Terminal-vehicle linking method, terminal-vehicle linking apparatus, and terminal-vehicle linking program
JP6941031B2 (ja) 2017-11-08 2021-09-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 認証方法、プログラム、サーバ及び配車システム
KR102227105B1 (ko) * 2017-11-21 2021-03-12 인성데이타(주) 배차를 위한 방법 및 시스템
JP7020901B2 (ja) * 2017-12-21 2022-02-16 トヨタ自動車株式会社 認証システムおよび認証装置
JP6528342B1 (ja) * 2017-12-28 2019-06-12 株式会社オプテージ 乗客との会話により目的地を絞り込む移動体、移動体システム、目的地絞り込み方法及びプログラム
JP6881344B2 (ja) * 2018-02-09 2021-06-02 株式会社デンソー 出迎えシステム
US12157368B2 (en) 2018-02-12 2024-12-03 Aurora Operations, Inc. Autonomous vehicle interface system with multiple interface devices featuring redundant vehicle commands
US11285965B2 (en) * 2018-02-12 2022-03-29 Uatc, Llc Autonomous vehicle interface system with multiple interface devices featuring redundant vehicle commands
JP7080684B2 (ja) 2018-03-16 2022-06-06 本田技研工業株式会社 車両利用システム、および車両利用方法
JP7238268B2 (ja) * 2018-04-27 2023-03-14 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
BR112020025273A2 (pt) * 2018-06-18 2021-03-09 Nissan Motor Co., Ltd. Sistema para operação de veículos comerciais
US10909866B2 (en) * 2018-07-20 2021-02-02 Cybernet Systems Corp. Autonomous transportation system and methods
US10745018B2 (en) 2018-09-19 2020-08-18 Byton Limited Hybrid user recognition systems for vehicle access and control
KR102587085B1 (ko) * 2018-10-01 2023-10-11 현대자동차주식회사 자율주행차량의 호출자 탐색 방법
KR20200056495A (ko) * 2018-11-09 2020-05-25 현대자동차주식회사 자율 발렛 주차를 지원하는 시스템 및 방법, 그리고 이를 위한 인프라 및 차량
DE102018129573A1 (de) * 2018-11-23 2020-05-28 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Nutzeranmeldung
CN109800901A (zh) * 2018-12-07 2019-05-24 纳恩博(北京)科技有限公司 滑板车的调度方法、装置、存储介质及电子装置
JP6754528B2 (ja) * 2019-01-09 2020-09-16 愛のタクシーチケットホールディングス株式会社 タクシーチケット運用システム
JP7259337B2 (ja) 2019-01-11 2023-04-18 トヨタ自動車株式会社 車両
US10723226B1 (en) * 2019-01-15 2020-07-28 Deere & Company Machine control using biometric recognition
JP7259343B2 (ja) * 2019-01-18 2023-04-18 トヨタ自動車株式会社 配車サービスシステム、配車サービス方法、およびプログラム
US10988115B2 (en) 2019-02-11 2021-04-27 Ford Global Technologies, Llc Systems and methods for providing vehicle access using biometric data
JP2020135113A (ja) 2019-02-14 2020-08-31 トヨタ自動車株式会社 走行制御装置および走行制御方法
JP7211490B2 (ja) * 2019-03-27 2023-01-24 日産自動車株式会社 車両走行ルート制御システム、車両走行ルート制御装置及び車両走行ルート制御方法
DE102019204602B4 (de) * 2019-04-01 2020-10-15 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Maskierung von in einem Bild enthaltenen Objekten
JP7117743B2 (ja) * 2019-04-20 2022-08-15 株式会社Zmp 自動運転車両による利用者搬送システム
GB2584611B (en) * 2019-05-09 2021-10-27 Jaguar Land Rover Ltd Apparatus and method for use with a vehicle
CN110103878B (zh) * 2019-05-22 2020-12-29 北京百度网讯科技有限公司 用于控制无人车的方法和装置
JP7226167B2 (ja) * 2019-07-23 2023-02-21 トヨタ自動車株式会社 車両
KR102135256B1 (ko) * 2019-08-08 2020-07-17 엘지전자 주식회사 자율 주행 시스템에서 차량의 사용자 인증 위한 방법 및 장치
JP6854018B2 (ja) * 2019-09-25 2021-04-07 みこらった株式会社 自動運転車及び自動運転車用プログラム
US11267401B2 (en) 2019-09-27 2022-03-08 GM Cruise Holdings, LLC Safe passenger disembarking for autonomous vehicles via audible signals
US10953852B1 (en) * 2019-09-27 2021-03-23 GM Cruise Holdings, LLC. Pick-up authentication via audible signals
JP7276079B2 (ja) 2019-11-07 2023-05-18 トヨタ自動車株式会社 配車システム、サーバ装置、及び配車プログラム
JP7406424B2 (ja) * 2020-03-23 2023-12-27 株式会社東海理化電機製作所 認証装置、コンピュータプログラム、および認証システム
US11537701B2 (en) * 2020-04-01 2022-12-27 Toyota Motor North America, Inc. Transport related n-factor authentication
CN111597962B (zh) * 2020-05-12 2023-05-02 盛景智能科技(嘉兴)有限公司 仓储物料防盗报警方法、装置及电子设备
US11180113B1 (en) 2020-05-21 2021-11-23 Micron Technology, Inc. Security notification based on biometric identifier
JP6937529B1 (ja) * 2020-05-26 2021-09-22 株式会社電脳交通 タクシー配車システム、タクシー配車管理装置、タクシー車両側端末、タクシー配車方法、タクシー配車管理プログラム及びコンピュータで記録可能な媒体並びに記憶した機器
JP7410796B2 (ja) * 2020-05-27 2024-01-10 本田技研工業株式会社 車両制御システム、及び車両制御方法
JP2021196956A (ja) * 2020-06-16 2021-12-27 トヨタ自動車株式会社 決済代行装置、決済代行システム、決済代行方法、及び決済代行プログラム
JP2021002364A (ja) * 2020-09-02 2021-01-07 富士ゼロックス株式会社 サービス提供装置、サーバ、サービス提供システム及びプログラム
JP7468411B2 (ja) * 2021-03-05 2024-04-16 トヨタ自動車株式会社 自動運転車両、配車管理装置、及び端末機器
KR102529737B1 (ko) * 2021-03-18 2023-05-08 주식회사 경신 차량의 시동 서비스 장치 및 그 방법
JP7723525B2 (ja) * 2021-08-03 2025-08-14 株式会社Subaru 乗員に応じた車両の設定システム、および車両
US11884238B2 (en) * 2021-10-21 2024-01-30 Zoox, Inc. Vehicle door interface interactions
KR102588983B1 (ko) * 2022-03-29 2023-10-17 포티투닷 주식회사 차량 내 인터페이스를 제공하는 장치 및 방법
CN115131702B (zh) * 2022-06-27 2024-11-19 中国平安人寿保险股份有限公司 车辆定损处理方法、装置、设备及存储介质
CN115450501B (zh) * 2022-08-12 2023-06-27 重庆长安汽车股份有限公司 车门锁的控制方法、装置、车辆及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194417A (ja) * 1998-12-28 2000-07-14 Mitsubishi Electric Corp 自動配車システム
JP2005196516A (ja) * 2004-01-08 2005-07-21 Meidensha Corp 顔認識によるセキュリティ方法
JP2006063627A (ja) * 2004-08-26 2006-03-09 Toyota Motor Corp 車両用盗難防止装置
JP2006077431A (ja) * 2004-09-08 2006-03-23 Toyota Motor Corp 車載盗難防止装置及びセンター認証装置
JP2006327346A (ja) * 2005-05-25 2006-12-07 Toyota Motor Corp 車両盗難防止装置、車両盗難防止装置における運転者判定方法
JP2007113388A (ja) * 2002-12-13 2007-05-10 Matsushita Electric Ind Co Ltd 車載機器制御システム及び車載機器制御装置
JP2007186144A (ja) * 2006-01-16 2007-07-26 Nikon Corp 車両の盗難防止システム
JP2008090421A (ja) * 2006-09-29 2008-04-17 Quality Kk 車両管理システム
JP2008162498A (ja) * 2006-12-28 2008-07-17 Toshiba Corp 乗り物管理システム
JP2009104401A (ja) * 2007-10-23 2009-05-14 Yuhshin Co Ltd 生体認証システム
US20130073114A1 (en) * 2011-09-16 2013-03-21 Drivecam, Inc. Driver identification based on face data

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11311049A (ja) * 1998-04-28 1999-11-09 Honda Motor Co Ltd 車両共用システムにおけるカードキー制御装置
JP3698399B2 (ja) * 1999-08-25 2005-09-21 矢崎総業株式会社 車両盗難防止システム
JP3736725B2 (ja) * 1999-08-25 2006-01-18 矢崎総業株式会社 車両盗難防止システム
JP2002279588A (ja) * 2001-03-22 2002-09-27 Osaka Gas Co Ltd 自動車の配車システム、および自動車の配車方法
JP2002335207A (ja) * 2001-05-10 2002-11-22 J-Nextel Inc 双方向通信ネットワークによるタクシー自動化予約配車の方法、タクシー予約スタンド及びその通信システム並びにプログラム
EP1571278A1 (en) 2002-12-13 2005-09-07 Matsushita Electric Industrial Co., Ltd. Onboard device control system, onboard device controller, and onboard device control method
JP2004314906A (ja) * 2003-04-18 2004-11-11 Nec Fielding Ltd 車両制御システム、車両制御方法、管理装置及びプログラム
JP2005076327A (ja) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd 車両錠解錠システム
JP2005207110A (ja) * 2004-01-22 2005-08-04 Omron Corp 車輌利用許可システム、ゲート利用許可システム
JP2006232015A (ja) * 2005-02-23 2006-09-07 Toyota Motor Corp 車両用盗難検出装置
JP2006306208A (ja) * 2005-04-27 2006-11-09 Denso Corp 車両遠隔制御システム及び車両制御装置
JP4723352B2 (ja) * 2005-11-10 2011-07-13 株式会社東海理化電機製作所 電子キーシステム及び通信ユニット
US9459622B2 (en) * 2007-01-12 2016-10-04 Legalforce, Inc. Driverless vehicle commerce network and community
JP4038551B1 (ja) * 2007-02-07 2008-01-30 クオリティ株式会社 車両管理システムおよび資格管理プログラム
JP4814281B2 (ja) * 2008-05-15 2011-11-16 三菱重工業株式会社 荷役作業用車輌およびその制御方法
JP5272815B2 (ja) 2009-03-11 2013-08-28 オムロン株式会社 車両盗難防止装置、車両盗難防止方法、およびプログラム
JP2011025903A (ja) 2009-07-24 2011-02-10 Hiroshi Okamura 個人認証セキュリティ装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194417A (ja) * 1998-12-28 2000-07-14 Mitsubishi Electric Corp 自動配車システム
JP2007113388A (ja) * 2002-12-13 2007-05-10 Matsushita Electric Ind Co Ltd 車載機器制御システム及び車載機器制御装置
JP2005196516A (ja) * 2004-01-08 2005-07-21 Meidensha Corp 顔認識によるセキュリティ方法
JP2006063627A (ja) * 2004-08-26 2006-03-09 Toyota Motor Corp 車両用盗難防止装置
JP2006077431A (ja) * 2004-09-08 2006-03-23 Toyota Motor Corp 車載盗難防止装置及びセンター認証装置
JP2006327346A (ja) * 2005-05-25 2006-12-07 Toyota Motor Corp 車両盗難防止装置、車両盗難防止装置における運転者判定方法
JP2007186144A (ja) * 2006-01-16 2007-07-26 Nikon Corp 車両の盗難防止システム
JP2008090421A (ja) * 2006-09-29 2008-04-17 Quality Kk 車両管理システム
JP2008162498A (ja) * 2006-12-28 2008-07-17 Toshiba Corp 乗り物管理システム
JP2009104401A (ja) * 2007-10-23 2009-05-14 Yuhshin Co Ltd 生体認証システム
US20130073114A1 (en) * 2011-09-16 2013-03-21 Drivecam, Inc. Driver identification based on face data

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019505899A (ja) * 2015-12-30 2019-02-28 ウェイモ エルエルシー 自律走行車サービス
US11205240B2 (en) 2015-12-30 2021-12-21 Waymo Llc Autonomous vehicle services
US11727523B2 (en) 2015-12-30 2023-08-15 Waymo Llc Autonomous vehicle services
US10768636B2 (en) 2016-03-11 2020-09-08 Panasonic Intellectual Property Management Co., Ltd. Automatic vehicle dispatching system and server device
WO2017154566A1 (ja) * 2016-03-11 2017-09-14 パナソニックIpマネジメント株式会社 自動車両配車システム及びサーバ装置
JPWO2017154566A1 (ja) * 2016-03-11 2018-03-15 パナソニックIpマネジメント株式会社 自動車両配車システム及びサーバ装置
JP2017214800A (ja) * 2016-06-02 2017-12-07 Ihi運搬機械株式会社 自動運転パーキングシステム
JP2018097514A (ja) * 2016-12-12 2018-06-21 三菱電機株式会社 車載認証装置および車載認証方法
US11048263B2 (en) 2016-12-27 2021-06-29 Toyota Jidosha Kabushiki Kaisha Autonomous driving device for vehicle
JP2022009477A (ja) * 2017-05-16 2022-01-14 みこらった株式会社 自動車及び自動車用プログラム
JP7219507B2 (ja) 2017-05-16 2023-02-08 みこらった株式会社 自動車及び自動車用プログラム
US11954625B2 (en) 2017-08-07 2024-04-09 Toyota Jidosha Kabushiki Kaisha Vehicle dispatch system, vehicle dispatch method, server, user terminal, and storage medium
US11915176B2 (en) 2017-08-07 2024-02-27 Toyota Jidosha Kabushiki Kaisha Vehicle dispatch system, vehicle dispatch method, server, user terminal, and storage medium
US11023836B2 (en) 2017-08-07 2021-06-01 Toyota Jidosha Kabushiki Kaisha Vehicle dispatch system, vehicle dispatch method, server, user terminal, and storage medium
US11373126B2 (en) 2017-08-07 2022-06-28 Toyota Jidosha Kabushiki Kaisha Vehicle dispatch system, vehicle dispatch method, server, user terminal, and storage medium
US12373753B2 (en) 2017-08-07 2025-07-29 Toyota Jidosha Kabushiki Kaisha Vehicle dispatch system, vehicle dispatch method, server, user terminal, and storage medium
JP2019043732A (ja) * 2017-09-04 2019-03-22 三菱ロジスネクスト株式会社 配車システムおよび配車方法
JP2020535549A (ja) * 2017-09-28 2020-12-03 ユーエーティーシー, エルエルシー 自律車両を乗車者にマッチングさせるためのシステムおよび方法
JP7116164B2 (ja) 2017-09-28 2022-08-09 ウーバー テクノロジーズ,インコーポレイテッド 自律車両を乗車者にマッチングさせるためのシステムおよび方法
US12432567B2 (en) 2017-09-28 2025-09-30 Uber Technologies, Inc. Systems and methods for matching an autonomous vehicle to a rider
US11747808B2 (en) 2017-09-28 2023-09-05 Uber Technologies, Inc. Systems and methods for matching an autonomous vehicle to a rider
WO2020002959A1 (ja) * 2018-06-26 2020-01-02 日産自動車株式会社 乗降車地点決定方法及び乗降車地点決定装置
JP7019041B2 (ja) 2018-06-26 2022-02-17 日産自動車株式会社 乗降車地点決定方法及び乗降車地点決定装置
JPWO2020002959A1 (ja) * 2018-06-26 2021-08-02 日産自動車株式会社 乗降車地点決定方法及び乗降車地点決定装置
JP2019218057A (ja) * 2019-09-05 2019-12-26 みこらった株式会社 自動車及び自動車用プログラム
JP2021147855A (ja) * 2020-03-18 2021-09-27 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP7419122B2 (ja) 2020-03-18 2024-01-22 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP2021147956A (ja) * 2020-03-23 2021-09-27 株式会社東海理化電機製作所 認証装置、コンピュータプログラム、および認証システム
JP7407038B2 (ja) 2020-03-23 2023-12-28 株式会社東海理化電機製作所 認証装置、コンピュータプログラム、および認証システム
JP7626120B2 (ja) 2021-11-12 2025-02-04 株式会社デンソー 車両遠隔運転システム、および、車両遠隔運転方法
JP2023072662A (ja) * 2021-11-12 2023-05-24 株式会社デンソー 車両遠隔運転システム、および、車両遠隔運転方法
WO2023085202A1 (ja) * 2021-11-12 2023-05-19 株式会社デンソー 車両遠隔運転システム、および、車両遠隔運転方法
JP7510211B2 (ja) 2021-12-06 2024-07-03 みこらった株式会社 自動車及び自動車用プログラム
JP2024124417A (ja) * 2021-12-06 2024-09-12 みこらった株式会社 自動車及び自動車用プログラム
JP2023083304A (ja) * 2021-12-06 2023-06-15 みこらった株式会社 自動車及び自動車用プログラム
JP7774907B2 (ja) 2021-12-06 2025-11-25 みこらった株式会社 自動車及び自動車用プログラム
JP2024146262A (ja) * 2023-03-31 2024-10-15 本田技研工業株式会社 車両の制御装置、制御方法、及びプログラム
JP7705426B2 (ja) 2023-03-31 2025-07-09 本田技研工業株式会社 車両の制御装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
JP5877574B1 (ja) 2016-03-08
US20190299933A1 (en) 2019-10-03
US10369967B2 (en) 2019-08-06
JP2018165149A (ja) 2018-10-25
JP5958847B2 (ja) 2016-08-02
US20240391424A1 (en) 2024-11-28
US11180116B2 (en) 2021-11-23
JP2017186010A (ja) 2017-10-12
JP6609005B2 (ja) 2019-11-20
JP6172646B2 (ja) 2017-08-02
JP2016064830A (ja) 2016-04-28
JP6372836B2 (ja) 2018-08-15
US12090956B2 (en) 2024-09-17
JP2016210417A (ja) 2016-12-15
JPWO2015151862A1 (ja) 2017-04-13
JP2016115364A (ja) 2016-06-23
JP5995259B2 (ja) 2016-09-21
US20220017046A1 (en) 2022-01-20
US20170008490A1 (en) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6609005B2 (ja) 自動車及び自動車用プログラム
JP6590348B2 (ja) 自動運転車及び自動運転車用プログラム
JP6590281B2 (ja) 自動車及び自動車用プログラム
JP6598254B2 (ja) 自動運転車及び自動運転車用プログラム
JP2017191371A (ja) 自動車及び自動車用プログラム
JP6762499B2 (ja) 自動車及び自動車用プログラム
JP6854018B2 (ja) 自動運転車及び自動運転車用プログラム
JP7510211B2 (ja) 自動車及び自動車用プログラム
JP6994265B2 (ja) 自動車及び自動車用プログラム
JP7257066B2 (ja) 自動車及び自動車用プログラム
JP2021093211A (ja) 自動運転車及び自動運転車用プログラム
JP2024180458A (ja) 移動体呼び寄せシステム、呼び寄せ装置、呼び寄せ装置用プログラム、移動体用装置及び移動体用装置用プログラム
JP2020074119A (ja) 自動車及び自動車用プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015529949

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15773075

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15120584

Country of ref document: US

NENP Non-entry into the national phase
122 Ep: pct application non-entry in european phase

Ref document number: 15773075

Country of ref document: EP

Kind code of ref document: A1