JP2019031268A - Control policy learning and vehicle control method based on reinforcement learning without active exploration - Google Patents
Control policy learning and vehicle control method based on reinforcement learning without active exploration Download PDFInfo
- Publication number
- JP2019031268A JP2019031268A JP2018091189A JP2018091189A JP2019031268A JP 2019031268 A JP2019031268 A JP 2019031268A JP 2018091189 A JP2018091189 A JP 2018091189A JP 2018091189 A JP2018091189 A JP 2018091189A JP 2019031268 A JP2019031268 A JP 2019031268A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- control
- control policy
- policy
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
【課題】車両の操作を行なう目的で車両を自律的に制御するためのコンピュータ実装型方法を提供する。【解決手段】方法は、最低予想累積コストで車両の操作を実施する目的で車両を制御するように構成された制御ポリシーを学習するために、車両の操作に関連する受動的に収集されたデータに対して、受動的actor−critic強化学習方法を適用するステップと、車両の操作を行なうために制御ポリシーにしたがって車両を制御するステップと、を含む。【選択図】図6A computer-implemented method for autonomously controlling a vehicle for the purpose of operating the vehicle. The method includes passively collected data related to vehicle operation to learn a control policy configured to control the vehicle for the purpose of performing the operation of the vehicle at the lowest expected accumulated cost. In contrast, the method includes applying a passive actuator-critic reinforcement learning method and controlling the vehicle according to a control policy in order to operate the vehicle. [Selection] Figure 6
Description
関連出願の相互参照
本出願は、2016年7月8日出願の米国特許出願第15/205,558号の一部継続出願であり、その利益を主張するものである。
CROSS REFERENCE TO RELATED APPLICATIONS This application is a continuation-in-part of US patent application Ser. No. 15 / 205,558, filed Jul. 8, 2016, and claims its benefit.
本発明は、車両を自律的に制御する方法に関し、より詳細には車両の操作を自律的に制御するために使用可能な制御ポリシー(control policy)を修正及び/又は最適化するための強化学習方法に関する。 The present invention relates to a method for autonomously controlling a vehicle, and more particularly to reinforcement learning for modifying and / or optimizing a control policy that can be used to autonomously control the operation of a vehicle. Regarding the method.
一定のタイプのシステムにおいては、環境を能動的に探索することにより、最適なシステム制御ポリシーを決定するために、モデルフリー強化学習(RL)技術を利用することができる。しかしながら、車両が採用し得るあらゆる活動の広範な能動的探索に付随する潜在的にマイナスの帰結に起因して、車両の自律的制御のために使用可能な制御ポリシーに対して従来のRLアプローチを適用することは困難であり得る。さらに、車両の安全性の確保を支援するのに必要とされる形で能動的探索を行なうことによって、高い計算コストが必要となる可能性がある。代替案としてのモデルベースのRL技術の使用には、車両が作動する環境の正確なシステムダイナミクスモデルが必要になり得る。しかしながら、自律的車両が作動する複雑な環境は、正確にモデリングすることが非常に困難なものであり得る。 In certain types of systems, model-free reinforcement learning (RL) techniques can be utilized to determine the optimal system control policy by actively searching the environment. However, due to the potential negative consequences associated with extensive active exploration of any activity that a vehicle can employ, the traditional RL approach to control policies that can be used for autonomous control of the vehicle It can be difficult to apply. Furthermore, high computational costs may be required by performing an active search in the form required to assist in ensuring vehicle safety. As an alternative, the use of model-based RL technology may require an accurate system dynamics model of the environment in which the vehicle operates. However, the complex environment in which autonomous vehicles operate can be very difficult to model accurately.
本明細書中に記載の実施形態の一態様においては、車両の操作を行なう目的で車両を自律的に制御するためのコンピュータ実装型方法が提供されている。該方法は、最低予想累積コストで車両の操作を実施する目的で車両を制御するように構成された制御ポリシーを学習するために、車両の操作に関連する受動的に収集されたデータに対して、受動的actor−critic強化学習方法を適用するステップと;車両の操作を行なうために制御ポリシーにしたがって車両を制御するステップと;を含む。 In one aspect of the embodiments described herein, a computer-implemented method for autonomously controlling a vehicle for the purpose of operating the vehicle is provided. The method applies to passively collected data related to vehicle operation to learn a control policy configured to control the vehicle for the purpose of performing vehicle operation at the lowest expected accumulated cost. Applying a passive actuator-critic reinforcement learning method; and controlling the vehicle according to a control policy to operate the vehicle.
本明細書中に記載の実施形態の別態様においては、操作を行なうようシステムを制御するために使用可能な制御ポリシーを最適化するためのコンピュータ実装型方法が提供されている。該方法は、システムを制御するために使用可能な制御ポリシーを提供するステップと、行なうべき操作に関する受動的に収集されたデータに対して受動的actor−critic強化学習方法を適用して、最低予想累積コストで操作を行なうようにシステムを制御するために制御ポリシーが操作可能になるような形で制御ポリシーを修正するステップと、を含む。 In another aspect of the embodiments described herein, a computer-implemented method for optimizing a control policy that can be used to control a system to perform operations is provided. The method includes providing a control policy that can be used to control the system, and applying a passive actor-critic reinforcement learning method to passively collected data regarding the operation to be performed, thereby providing a minimum expectation. Modifying the control policy in such a way that the control policy is operable to control the system to operate at an accumulated cost.
本明細書中に記載の実施形態の別態様においては、車両の操作を行なう目的で車両を自律的に制御するために使用可能な制御ポリシーを最適化するように構成されたコンピュータ処理システムが提供されている。このコンピュータ処理システムは、コンピュータ処理システムの操作を制御するための1つ以上のプロセッサと、1つ以上のプロセッサにより使用可能なデータ及びプログラム命令を記憶するためのメモリとを含む。メモリは、1つ以上のプロセッサによって実行された時点で、1つ以上のプロセッサに、a)車両の操作に関わる受動的に収集されたデータを受信させ;b)到達コストを推定するために使用可能なZ値関数を決定させ;c)コンピュータ処理システム内のcriticネットワークにおいて:Z値関数及び受動的に収集されたデータのサンプルを使用してZ値を決定させ;受動的に収集されたデータのサンプルを用いて最適なポリシー下で平均コストを推定させ;d)コンピュータ処理システム内のactorネットワークにおいて、受動的に収集されたデータ、システムについての制御ダイナミクス、到達コスト及び制御ゲインを用いて制御ポリシーを修正させ;e)推定平均コストが収束するまで、ステップ(c)及び(d)を反復的に繰返させる;コンピュータコードを記憶するように構成されている。 In another aspect of the embodiments described herein, a computer processing system is provided that is configured to optimize a control policy that can be used to autonomously control a vehicle for the purpose of operating the vehicle. Has been. The computer processing system includes one or more processors for controlling the operation of the computer processing system and a memory for storing data and program instructions usable by the one or more processors. The memory, when executed by one or more processors, causes one or more processors to: a) receive passively collected data relating to the operation of the vehicle; b) used to estimate the arrival cost Possible Z value function is determined; c) in a critical network in a computer processing system: using the Z value function and a sample of passively collected data to determine the Z value; passively collected data To estimate the average cost under optimal policy using a sample of d; control in an actor network in a computer processing system using passively collected data, control dynamics for the system, cost of arrival and control gain Modify the policy; e) repeat steps (c) and (d) until the estimated average cost converges To repeat; configured to store computer code.
本明細書中に記載の実施形態は、最低予想累積コストで車両の操作を行なうように車両を自律的に制御するために構成された制御ポリシーを学習することを目的として、車両の操作に関連する受動的に収集されたデータに対して受動的actor−critic(pAC)強化学習方法を適用するためのコンピュータ実装型の方法に関する。このとき、車両は、車両の操作を行なうための制御ポリシーにしたがってコンピュータ処理システムによって制御され得る。pAC方法は、制御ポリシーを学習するために、合流操作中に車両が作動している環境の正確なシステムダイナミクスモデルを必要としない。pAC方法は同様に、(例えば、行動を行ない且つその行動の結果を監視して制御ポリシーを決定し変更することを伴い得る)制御ポリシーを学習するための環境の能動的探索を使用しない。本明細書中に記載のpAC方法は、能動的探索の代りに、制御されている車両の、受動的に収集されたデータ、部分的に公知のシステムダイナミクスモデル及び公知の制御ダイナミクスモデルを使用する。特定の実施形態において、pAC方法は、1車線内を走行する第2の車両と第3の車両の間においてこの車線内に車両を合流させるように車両を制御するために使用可能な制御ポリシーを学習する目的で使用され得る。 Embodiments described herein are related to vehicle operation for the purpose of learning a control policy configured to autonomously control the vehicle to operate the vehicle at the lowest expected accumulated cost. The present invention relates to a computer-implemented method for applying a passive actor-critical (pAC) reinforcement learning method to passively collected data. At this time, the vehicle can be controlled by the computer processing system in accordance with a control policy for operating the vehicle. The pAC method does not require an accurate system dynamics model of the environment in which the vehicle is operating during the merge operation in order to learn the control policy. The pAC method likewise does not use an active search of the environment to learn control policies (which may involve, for example, taking actions and monitoring the outcome of those actions to determine and change control policies). The pAC method described herein uses passively collected data, partially known system dynamics model, and known control dynamics model of the vehicle being controlled instead of active search. . In certain embodiments, the pAC method has a control policy that can be used to control a vehicle to merge vehicles in this lane between a second vehicle and a third vehicle traveling in one lane. Can be used for learning purposes.
本開示に関連して、「オンライン」とは、コンピュータ処理システムが学習し得ると共に、actor及びcriticのネットワークパラメータが、上記システムが作動するにつれて(例えば車両が移動するなどにつれて)、コンピュータ処理され且つ更新され得ることを意味する。オンラインのソリューションを用いてactorパラメータ及びcriticパラメータを決定かつ更新すると、車両及びシステムのダイナミクス(dynamics)の変更が許容され得る。同様に、自律的操作とは、自律的に実施される操作である。 In the context of this disclosure, “online” means that a computer processing system can learn and that actor and critic network parameters are computer processed as the system operates (eg, as the vehicle moves) and It means that it can be updated. Once the actor and critic parameters are determined and updated using online solutions, changes in vehicle and system dynamics may be tolerated. Similarly, an autonomous operation is an operation performed autonomously.
図1は、本明細書中に開示される種々の実施形態に係る方法を実現すべく構成されたコンピュータ処理システム14のブロック図である。更に詳細には、少なくとも一つの実施形態において、コンピュータ処理システム14は、本明細書中に記述された方法に従い、制御入力を決定すべく構成され得る。また、コンピュータ処理システムは、システム(例えば、自律車両)を制御して特定の操作若しくは機能を自律的に実施すべく使用可能な制御ポリシーを修正及び/又は最適化するようにも構成され得る。
FIG. 1 is a block diagram of a
最適な又は最適化された制御ポリシーは、最低予想累積コストで車両の操作を行なう目的で車両を制御するように構成された制御ポリシーであり得る。最適な制御ポリシーは、車両の操作に関連する受動的に収集されたデータに対して受動的actor−critic(pAC)強化学習方法を適用することにより初期制御ポリシーを修正することを通して学習され得る。pAC強化学習方法は、制御ポリシーのパラメータ値を反復的に最適化するために初期制御ポリシーに対し適用され得る。初期制御ポリシーのパラメータはランダム値に初期化され得る。1つ以上の配置において、最適な制御ポリシーは、このポリシーに付随する平均コストが収束したときに学習されたものとみなされる。平均コストは、平均コストの値がpAC方法の予め定められた回数の反復について予め定められた範囲又は許容誤差ゾーン外へ変動しない場合に、収束したものとみなすことができる。例えば、図5に例示された実施形態において、平均コストは、20000回の反復後、約0.3の値を達成している。20000回の反復後の予め定められた回数の反復について平均コストがいずれの方向にも0.3から一定値を超えて変動しない場合、制御ポリシーは最適化されたものと考えられてよい。そのとき、車両は、車両の操作を行なうために、最適化された制御ポリシーにしたがって制御され得る。車両の操作を行なう目的で車両を制御するための最適化された制御ポリシーの使用は、このとき、最低予想累積コストでの車両の操作の実施を結果としてもたらすはずである。 The optimal or optimized control policy may be a control policy configured to control the vehicle for the purpose of operating the vehicle at the lowest expected accumulated cost. The optimal control policy can be learned through modifying the initial control policy by applying a passive actuator-critical (pAC) reinforcement learning method to passively collected data related to vehicle operation. The pAC reinforcement learning method may be applied to the initial control policy to iteratively optimize the control policy parameter values. The parameters of the initial control policy can be initialized to random values. In one or more arrangements, the optimal control policy is considered learned when the average cost associated with this policy has converged. The average cost can be considered converged if the average cost value does not vary out of a predetermined range or tolerance zone for a predetermined number of iterations of the pAC method. For example, in the embodiment illustrated in FIG. 5, the average cost has achieved a value of about 0.3 after 20000 iterations. A control policy may be considered optimized if the average cost does not fluctuate beyond 0.3 to a certain value in either direction for a predetermined number of iterations after 20000 iterations. The vehicle can then be controlled according to an optimized control policy in order to operate the vehicle. The use of an optimized control policy to control the vehicle for the purpose of operating the vehicle should then result in performing the vehicle operation at the lowest expected accumulated cost.
少なくとも一つの実施形態において、コンピュータ処理システムは、車両に組み込まれ得ると共に、車両の操作の制御に向けられた制御ポリシーを修正及び最適化するように構成され得る。制御ポリシーを修正及び/又は最適化するためにコンピュータ処理システムにより必要とされる情報(例えば、データ、命令、及び/又は他の情報)は、任意の適切な手段から、例えば車両センサから又は無線接続を介して遠隔データベースのような車外情報源から、受信され且つ/又はそれにより収集され得る。幾つかの実施形態においては、制御ポリシーを修正及び/又は最適化するためにコンピュータ処理システムにより必要とされる情報(例えば、データ)の少なくとも幾つかは、車両の操作の前に(例えば、メモリ内に記憶されたデータ及び他の情報として)コンピュータ処理システムに提供され得る。また、コンピュータ処理システムは、修正若しくは最適化された制御ポリシーに従って車両を制御することで、関連する自律的操作を実施するようにも構成され得る。 In at least one embodiment, the computer processing system can be incorporated into a vehicle and can be configured to modify and optimize a control policy directed to controlling the operation of the vehicle. Information (eg, data, instructions, and / or other information) required by the computer processing system to modify and / or optimize the control policy is obtained from any suitable means, such as from vehicle sensors or wirelessly. It can be received from and / or collected by an external source such as a remote database via a connection. In some embodiments, at least some of the information (e.g., data) required by the computer processing system to modify and / or optimize the control policy may be prior to operation of the vehicle (e.g., memory Can be provided to the computer processing system (as data and other information stored therein). The computer processing system may also be configured to perform related autonomous operations by controlling the vehicle according to a modified or optimized control policy.
少なくとも一つの実施形態において、コンピュータ処理システムは、(例えばスタンドアロンのコンピュータ処理システムとして)車両から遠隔的に配置され得ると共に、制御ポリシーを車両から遠隔的に修正及び/又は最適化するように構成され得る。遠隔的なコンピュータ処理システムによって生成された最適化又は修正された制御ポリシーは、その後、車両による展開のために車両のコンピュータ処理システムへロード又はインストールされて、実際の交通環境において車両を制御し得る。 In at least one embodiment, the computer processing system may be remotely located from the vehicle (eg, as a stand-alone computer processing system) and configured to modify and / or optimize the control policy remotely from the vehicle. obtain. The optimized or modified control policy generated by the remote computer processing system can then be loaded or installed into the vehicle computer processing system for deployment by the vehicle to control the vehicle in the actual traffic environment. .
図1を参照すると、コンピュータ処理システム14は、コンピュータ処理システム14及び関連する構成要素の全体的な操作を制御する(少なくとも一つのマイクロプロセッサを含み得る)一つ以上のプロセッサ58であって、メモリ54のような一時的でない(non-transitory)コンピュータ可読媒体内に記憶された命令を実行する、プロセッサ58を含み得る。本開示に関連して、コンピュータ可読記憶媒体とは、命令を実行するシステム、装置若しくはデバイスによって使用されるか又はそれに関連して使用されるプログラムを含む又は記憶し得る任意の有形媒体であり得る。プロセッサ58は、プログラムコード中に含まれた命令を実施すべく構成された少なくとも一つのハードウェア回路(例えば、集積回路)を含み得る。複数のプロセッサ58が在る構成において、斯かるプロセッサは相互から独立して作動し得るか、又は、一つ以上のプロセッサが相互に協働して作動し得る。
Referring to FIG. 1,
幾つかの実施形態において、コンピュータ処理システム14は、RAM50、ROM52、及び/又は他の任意で適切な形態のコンピュータ可読メモリを含み得る。メモリ54は、一つ以上のコンピュータ可読メモリを備え得る。一つ又は複数のメモリ54は、コンピュータ処理システム14の構成要素であり得るか、又は、一つ又は複数のメモリは、コンピュータ処理システム14に作用的に接続されてコンピュータ処理システム14に使用され得る。本説明を通して使用される「作用的に接続された」という語句は、直接的な物理接触のない接続を含め、直接的又は間接的な接続を含み得る。
In some embodiments,
一つ以上の構成において、本明細書中に記述されたコンピュータ処理システム14は、人工的又はコンピュータ的な知能要素、例えば、ニューラルネットワーク、又は他の機械学習アルゴリズム、を組み込み得る。更に、一つ以上の構成において、本明細書中に記述された特定の機能又は操作を実施するように構成されたハードウェア及び/又はソフトウェア要素は、複数の要素及び/又は箇所に分散され得る。コンピュータ処理システム14に加え、車両は、コンピュータ処理システム14により実施される制御機能を増強若しくは支援するために、又は他の目的のために、付加的なコンピュータ処理システム及び/又はデバイス(図示せず)を組み込み得る。
In one or more configurations, the
メモリ54は、さまざまな機能を実行するためにプロセッサ58により実行可能であるデータ60及び/又は命令56(例えばプログラム論理)を格納し得る。データ60は、制御ポリシーにより制御されるべき車両の操作に関連する受動的に収集されたデータを含み得る。さらに受動的に収集されたデータは、コンピュータ処理システム14による使用のため他のソースに対して提供されてよい(あるいは、他のソース上に存在し得る)。受動的に収集されたデータとは、能動的探索から収集されないデータとして定義され得る。高速道路合流操作に関連する受動的に収集されたデータとしては例えば、入り口ランプの近くで高速道路の最も右側のレーン内を走行する車両の速度及び加速、ならびに入り口ランプに沿って走行し最も右側のレーンに進入するサンプル車両の速度及び加速が含まれ得る。受動的に収集されたデータの一例は、建物の上に組付けられたカメラを用いた高速道路の入口の周囲の車両の軌跡の獲得について説明するhttp://www.fhwa.dot.gov/publications/research/operations/06137/中に記載のデータセットである。別の例において、受動的に収集されたデータは、人間のドライバが実行する操作に応答して車両センサが収集するデータを含み得る。人間のドライバにより実行された操作、その操作が実行された車両環境条件、及び操作に後続して及び/又は操作に応答して車両の周囲で発生する事象に関連するデータが収集され、コンピュータ処理システムに提供され得る。代替的には、コンピュータ処理システムが車両内に設置された場合、コンピュータ処理システム14は、(制御ポリシー101などの)1つ以上の車両制御ポリシーのオンライン修正及び/又は最適化のために、このような受動的に収集されたデータを蓄積及び/又は受信するように構成され得る。
車両制御ダイナミクスモデル87は、車両がさまざまな入力にどのように応答するかを記述する刺激−応答モデルであり得る。車両制御ダイナミクスモデル87は、所与の車両状態xにおける車両についての車両制御ダイナミクスB(x)を(受動的に収集されたデータを用いて)決定するように使用され得る。状態コスト関数q(x)は、状態xにある車両又はコストであり、逆強化学習などの公知の方法に基づいて学習され得る。状態コストq(x)及び車両制御ダイナミクスB(x)は、本明細書中に記載されているように制御ポリシー101の修正及び最適化の両方のために使用され得る。任意の所与の車両についての車両制御ダイナミクスモデル87を決定し、メモリ54などのメモリ内に記載することができる。
The vehicle
再び図1を参照すると、コンピュータ処理システムの実施形態は、2つの学習システム又は学習ネットワーク、並びに相互に作用するactorネットワーク(又は「actor」)83及びcriticネットワーク(又は「critic」)81も含み得る。これらネットワークは、例えば、人工ニューラルネットワーク(ANN)を用いて実現され得る。本明細書中に記述された目的に対し、(変数πによっても表される)制御ポリシー101は、一群の車両の状態のうちの各状態xに応じて車両により取られるべき行動uを特定又は決定する関数又は他の関係として定義され得る。故に、自律的操作の実行中の車両の各状態xに対し、車両は、関連する行動u=π(x)を実施するように制御され得る。したがって、制御ポリシーは、車両の操作を制御して、例えば、高速道路合流などの関連する操作を自律的に実施する。actor83は、制御ポリシーに関して作動し、criticから受信した情報及び他の情報を用いて、ポリシーを修正及び/又は最適化し得る。制御ポリシーにより自律的に制御された車両操作は、高速道路への合流、又は、車線の変更のような特定の目的を達成すべく実施される一つの運転操作又は一群の運転操作として定義され得る。
Referring back to FIG. 1, an embodiment of a computer processing system may also include two learning systems or networks, and an interacting actor network (or “actor”) 83 and a critic network (or “critic”) 81. . These networks can be realized using, for example, an artificial neural network (ANN). For the purposes described herein, the control policy 101 (also represented by the variable π) specifies or determines the action u to be taken by the vehicle according to each state x of the group of vehicle states. It can be defined as a function to determine or other relationship. Thus, for each state x of the vehicle that is performing an autonomous operation, the vehicle can be controlled to perform the associated action u = π (x). Therefore, the control policy controls the operation of the vehicle and autonomously performs related operations such as highway merge. The
コンピュータ処理システム14は、制御ポリシーの修正及び最適化に対して使用可能である新規な半モデルフリーRL方法(semi-model-free RL method)(本明細書においては受動的actor/critic(pAC)方法という)を実行するように構成され得る。この方法において、criticは、車両の種々の状態に対する評価関数を学習し、且つ、actorは、能動的探索なしで、代わりに受動的に収集されたデータと既知の車両制御ダイナミクスモデルとを用いて制御ポリシーを改善する。この方法は、部分的に既知であるシステムダイナミクスモデルを使用することにより、能動的探索に対する必要性を回避する。この方法は、車両環境の制御されていないダイナミクス又は過渡的なノイズレベルに関する知見を必要としない。この方法は、例えば、環境がノイズ的に如何に展開するかのサンプルは入手可能であるが車両センサにより能動的に探索することは困難であり得る自律車両に関して、実行可能である。
The
本明細書中に記載の特定の実施形態において、制御ポリシーにより制御されるべき車両の操作は、1車線内を走行する第2の車両と第3の車両の間でこの車線内に車両を合流させるための操作である。制御ポリシーは、第2の車両と第3の車両の間の中間に車両を合流させる目的で車両を制御するために構成され得る。 In the specific embodiment described herein, the operation of the vehicle to be controlled by the control policy is to merge the vehicle in this lane between the second vehicle and the third vehicle traveling in one lane. It is an operation to make it. The control policy may be configured to control the vehicle for the purpose of merging the vehicle in the middle between the second vehicle and the third vehicle.
本明細書中に記載のコンピュータ処理システム14の実施形態は、さまざまなタイプの入力及び出力情報を測定、受信及び/又はアクセスすることにより、システム(例えば車両)の状態x(t)を決定する。例えば、システムに連結された又は他の形でシステムと通信状態にあるセンサを用いて、データを測定することができる。コンピュータ処理システム14は、方程式(1)により特徴付けされる車両の安定性及び所望の運動を達成するためと同時に、方程式(2)中に記載のエネルギーベースのコスト関数を最小化するために、制御入力uを決定し得る。
Embodiments of the
制御ポリシーを修正及び最適化する目的に対し、状態x∈Rn及び制御入力u∈Rmにより、離散時間確率論的ダイナミクス系は以下のように定義され得る。
Δx=A(xt)Δt+B(xt)utΔt+C(xt)dω (1)
式中、ω(t)はブラウニアン運動であり、A(xt)、B(xt)ut、及びC(xt)は、それぞれ、受動的ダイナミクス、車両制御用ダイナミクス、及び、過渡的ノイズレベルである。Δtは、時間のステップサイズである。この種の系は、多くの状況において生ずる(例えば、ほとんどの機械系のモデルはこれらのダイナミクスに従う)。関数A(x)、B(x)及びC(x)は、理解されるべく、モデル化されている特定の系に依存する。受動的ダイナミクスは、車両の環境における変化であって、車両システムに対する制御入力の結果ではない変化を含む。
For the purpose of modifying and optimizing the control policy, with state xεR n and control input uεR m , a discrete-time stochastic dynamics system can be defined as follows:
Δx = A (x t ) Δt + B (x t ) u t Δt + C (x t ) dω (1)
Where ω (t) is a Brownian motion, and A (x t ), B (x t ) u t , and C (x t ) are passive dynamics, vehicle control dynamics, and transients, respectively. Noise level. Δt is a time step size. This type of system occurs in many situations (eg, most mechanical models follow these dynamics). The functions A (x), B (x) and C (x) depend on the particular system being modeled to be understood. Passive dynamics include changes in the environment of the vehicle that are not the result of control inputs to the vehicle system.
本明細書中に記述された方法及びシステムにおいて、離散時間ダイナミクス系に対するマルコフ決定過程(MDP)は、タプル<X、U、P、R>であり、式中、X⊆Rn及びU⊆Rmは、状態空間及び行動空間である。P:={p(y|x,u)|x,y∈X,u∈U}は、行動による状態遷移モデルであり、且つ、R:={r(x,u)|x∈X,u∈U}は、状態x及び行動uに関する即時コスト関数である。先に記述されたように、制御ポリシーu=π(x)は、状態xから行動uへとマッピングする関数である。予期される累積コストである、ポリシーπの下での到達コスト関数(cost-to-go function)(又は価値関数)Vπ(x)は、無限時間区間(infinite horizon)の平均コストの最適性判断基準の下で、以下のように定義される。
は平均コストであり、kは時間インデックスであり、且つ、Δtは時間ステップである。最適な到達コスト関数は、以下の離散時間ハミルトン−ヤコビ−ベルマン方程式を満足する。
Is the average cost, k is the time index, and Δt is the time step. The optimal arrival cost function satisfies the following discrete-time Hamilton-Jacobi-Berman equation:
離散時間ダイナミクス系に対する線形マルコフ決定過程(L−MDP)は、連続的な状態空間及び行動空間に対して厳密な解が迅速に求められ得るという利点を備えた汎用マルコフ決定過程のサブクラスである。構築されたダイナミクス、及び、別体的な状態コスト及び制御コストの下で、ベルマン方程式は、組み合わされた状態コスト及び制御されていないダイナミクスの線形固有関数を見出すことに解が限定された線形微分方程式として再構築され得る。その後、L−MDPに対する到達コスト関数(又は、価値関数)は、正確なダイナミクスモデルが利用可能であるときに、二次プログラミング(QP)のような最適化方法により、効率的に求められ得る。 Linear Markov decision processes (L-MDP) for discrete-time dynamics systems are a subclass of generalized Markov decision processes with the advantage that exact solutions can be quickly obtained for continuous state spaces and action spaces. Under constructed dynamics and separate state and control costs, the Bellman equation is a linear derivative whose solution is limited to finding linear eigenfunctions of combined state and uncontrolled dynamics. It can be reconstructed as an equation. Thereafter, the reaching cost function (or value function) for L-MDP can be efficiently determined by an optimization method such as quadratic programming (QP) when an accurate dynamics model is available.
マルコフ決定過程の線形公式は、以下に示されるように、制御コストを定義すべく、且つ、車両ダイナミクスに関する条件を加えるべく使用され得る。
ハミルトン−ヤコビ−ベルマン方程式(式(2))は、L−MDP形態において、指数的に変換された到達コスト関数に対する線形微分方程式(以下、線形化ベルマン方程式という)へと書き換えられ得る。
その後、L−MDP系に対する最適な制御ポリシーは、
は、xkにおけるxに関する到達コスト関数Vの偏微分値であり、パラメータρ(xk)はB(xk)TVkで表されるベクトルが乗算する回数を表す制御ゲインである。Z値及び平均コストは、系のダイナミクスが完全に入手可能であるとき、固有値又は固有関数を解くことにより、線形化ベルマン方程式から導かれ得る。
After that, the optimal control policy for L-MDP system is
Is the partial differential value of the arrival cost function V with respect to x at x k , and the parameter ρ (x k ) is a control gain representing the number of multiplications by the vector represented by B (x k ) T V k Z values and average costs can be derived from linearized Bellman equations by solving eigenvalues or eigenfunctions when the dynamics of the system are fully available.
固有値問題の解決法については、全体が参照により本明細書に組込まれているAdvances in Neural Information Processing Systems,2006,p1369〜1376,Vol.19中で公開された「Linearly-solvable Markov Decision Problems」内でTodorovにより論述されている。固有関数問題の解決法については、同様に全体が参照により本明細書に組込まれているConference:In Adaptive Dynamic Programming and Reinforcement Learning,IEEE Symposium,2009,p161〜168中で公開された「Eigenfunction Approximation Methods for Linearly-solvable Optimal Control Problems」内でTodorovにより論述されている。 For solutions to the eigenvalue problem, see Advances in Neural Information Processing Systems, 2006, pp. 1369-1376, Vol. Discussed by Todorov in “Linearly-solvable Markov Decision Problems” published in 19th. For solving eigenfunction problems, see also “Eigenfunction Approximation Methods” published in Conference: In Adaptive Dynamic Programming and Reinforcement Learning, IEEE Symposium, 2009, p. 161-168, which is incorporated herein by reference in its entirety. for Linearly-solvable Optimal Control Problems "by Todorov.
本明細書中に記載されているコンピュータ処理システム14の実施形態には、互いに相互作用する2つの学習システム又は学習ネットワーク、actorネットワーク(又は「actor」)83及びcriticネットワーク(又は「critic」)81が含まれる。これらのネットワークは、人工神経ネットワークを用いて実装され得る。
Embodiments of the
1つ以上の配置において、actor83は内部ループフィードバックコントローラとして実装され、critic81は外部ループフィードバックコントローラとして実装される。両方共、車両起動型メカニズム又は制御指令をもたらすために操作可能である制御機構との関係においてフィードフォワード経路内に位置設定されてよい。
In one or more arrangements,
反復とは、(criticについては重みω、actorについてはμなどの)critic及びactorパラメータの更新として定義され得る。さらに、criticネットワークパラメータの更新は、車両が動いているときに行なうことができる。本明細書中に記載の方法において、ここで、criticネットワーク及びactorネットワークパラメータの更新中に使用される唯一のデータは、受動的に収集されたデータである。 Iteration may be defined as updating the critical and actor parameters (such as weight ω for critical and μ for actor). In addition, the critical network parameters can be updated when the vehicle is moving. In the method described herein, the only data used during updating of the critical network and actor network parameters is passively collected data.
critic81は、受動的に収集されたデータのサンプル内に反映されている状態及び状態コストを用いて、推定平均コスト及び、actorネットワークによって適用された場合に車両の到達コストについての最小値を生成する近似された到達コスト関数を決定する。受動的に収集されたデータのサンプル内に反映された車両状態及び車両制御ダイナミクスモデル87から受信した状態コストq(x)を用いて、critic81は、車両の現在の状態xk及び推定された次の状態xk+1、及び受動的に収集されたデータのサンプルを用いる最適ポリシー下の状態コストqkを評価する。critic81は同様に、近似された到達コスト関数
(Z値関数)及び現在の状態についての付随する推定Z値を決定し、actor83による使用のための推定された平均コスト
を生成するために、前述のベルマン方程式(方程式(5))の線形化版を使用する。推定された次の状態xk+1は、受動的に収集されたデータ及び車両ダイナミクスモデル87を用いて計算可能である。
The
(Z value function) and the associated estimated Z value for the current state, and the estimated average cost for use by
To generate a linearized version of the aforementioned Bellman equation (equation (5)). The estimated next state x k + 1 can be calculated using passively collected data and the
Z値の推定を目的として、重み付けされた放射基底関数(RBF)の線形結合がZ値関数を近似するために使用され得る:
重み付けされた放射基底関数の線形結合を用いてZ値関数を近似する前に、重み付けされた放射基底関数内で使用される重みを最適化することができる。放射基底関数内で使用するため、累乗された真の到達コスト(又はZ値)と推定到達コストとの間の最小二乗誤差を最小化することにより、重みωを最適化することができる。Z(xk)及びZavgを真のZ値とし、
、
を推定Z値とすると、
,
Is the estimated Z value,
重みを最適化する前に、重み付けされた放射基底関数内で使用される重みを更新することができる。重みωは最適化に先立ち更新され得、criticネットワークにより使用される重み及び平均コスト
は、pAC方法のために使用される情報を用いて真の到達コスト及び真の平均コストを決定することができないことを理由として、線形化されたベルマン方程式(LBE)(方程式(5))から以下のように決定される近似された時間差誤差ekで真の到達コストと推定到達コスト間の誤差を近似することによって、ラングランジェ緩和時間差(TD)学習に基づいて反復ステップにおける使用に先立ち更新され得る。
From the linearized Bellman equation (LBE) (Equation (5)) because the true arrival cost and the true average cost cannot be determined using the information used for the pAC method. by approximating the error between the true arrival cost estimated arrival cost in time difference error e k approximated are determined as follows, updates prior to use in the iteration step based on the rung Langeais relaxation time difference (TD) learning Can be done.
乗数の値は、以下の方程式を解くことで計算される。
いくつかの事例において、制約サブセットが有効でない場合がある。このような場合には、これらの制約についての乗数はゼロに設定され、残りの有効な制約についての乗数が得られる。criticは、制御ポリシーと無関係な状態コストqkと受動的ダイナミクス(xkxk+1)の下での状態遷移サンプルを用いてパラメータを更新する。重みω、推定Z値
及び平均コスト
は、車両が動いている間に、方程式(10)−(11A)にしたがってオンラインで更新され得る。
In some cases, the constraint subset may not be valid. In such cases, the multipliers for these constraints are set to zero, and the multipliers for the remaining valid constraints are obtained. The critical updates the parameters with the state cost q k independent of the control policy and the state transition samples under passive dynamics (x k x k + 1 ). Weight ω, estimated Z value
And average cost
Can be updated online according to equations (10)-(11A) while the vehicle is moving.
コンピュータ処理システム内で、criticネットワークに作用的に連結されたactor83は、到達コストについて最小値を生成する車両に対し適用するための制御入力を決定し得る。criticにより生成された推定到達コスト
及び推定平均コストZavg、状態コストq(x)、車両制御ダイナミクスモデル87から決定される現在の状態についての制御ダイナミクス情報B(x)、及び到達コスト関数
を推定し推定平均コスト
を生成するためにcriticにより使用される車両の現在の状態及び推定された次の状態を用いて、actor83は制御入力を決定することができる。制御入力は、制御ポリシーπを修正するために使用可能である。特定の実施形態において、ポリシーπは、本明細書中に記載の要領で収束に至るまで反復的に修正され、その時点で最適化されたものとみなされる。actorは、標準ベルマン方程式を用いて能動的探索なしで制御ポリシーを改良し修正する。制御ダイナミクスは、車両についての公知の制御ダイナミクスから決定され得る。
Within the computer processing system, an
And the estimated average cost Z avg , the state cost q (x), the control dynamics information B (x) for the current state determined from the vehicle
Estimate the estimated average cost
Using the current state of the vehicle used by critic to generate and the estimated next state,
actor83は同様に、所望される操作(例えば高速道路合流、レーン変更など)を自律的に行なうため、実時間で車両システムに対して制御入力u(x)を適用することもできる。本明細書中で開示されているいくつかの実施形態において、actor83は、内部ループフィードバックコントローラ内で具現され得、critic81は外部ループフィードバックコントローラ内で具現され得る。両方のコントローラ共、車両起動式制御機構との関係においてフィードフォワード経路内に位置設定され得る。
Similarly, the
actor83は、critic由来の推定値(例えば
及び
)、受動的ダイナミクス下のサンプル、公知の制御ダイナミクスBkを用いて制御ゲインρ(xk)を推定することにより、制御ポリシーを改良又は修正することができる。制御ポリシーの修正には、制御ゲインを近似するステップ、制御ゲインを最適化して最適化された制御ゲインを提供するステップ、及び最適化された制御ゲインを用いて制御ポリシーを修正するステップが含まれ得る。
The
as well as
), The control policy can be improved or modified by estimating the control gain ρ (x k ) using the samples under passive dynamics, the known control dynamics B k . Modifying a control policy includes approximating the control gain, optimizing the control gain to provide an optimized control gain, and modifying the control policy using the optimized control gain. obtain.
制御ゲインρ(xk)は、重み付けされた放射基底関数の線形結合で学習された状態で近似され得る:
は、最適な制御ポリシー下の、真の到達コスト関数、平均コスト及び推定行動−状態価値である。最適な制御ポリシーは、ポリシーが最適なポリシーである場合にのみ真の行動価値コストがV*+V* avgに等しいことから、目的関数を最小化することによって学習され得る。以下の関係にしたがって、制御ゲインρ(xk)を更新する場合に
及び
を決定するために、
及び
を使用することができる:
Is the true cost of arrival function, average cost and estimated behavior-state value under optimal control policy. The optimal control policy can be learned by minimizing the objective function because the true action value cost is equal to V * + V * avg only if the policy is the optimal policy. When updating the control gain ρ (x k ) according to the following relationship:
as well as
In order to determine the,
as well as
Can be used:
制御ゲインを最適化する前に、制御入力を決定することができ、制御入力、受動的に収集されたデータのサンプル及び近似された制御ゲインを用いて行動価値関数の値Qを決定することができる。重み付けされた放射基底関数の線形結合を用いて制御ゲインを近似する前に、重み付けされた放射基底関数内で使用される重みμを更新することができる。 Prior to optimizing the control gain, the control input can be determined, and using the control input, the passively collected sample of data, and the approximated control gain, the value Q of the action value function can be determined. it can. Prior to approximating the control gain using a linear combination of the weighted radial basis functions, the weight μ used in the weighted radial basis functions can be updated.
重みμは、以下で定義する近似時間差(TD)誤差dkを用いて更新され得る:
真の到達コスト及び真の平均コストを計算することができないため、誤差dkを決定するために標準ベルマン方程式を近似することができる。
を近似することができる。
Can be approximated.
この手順は、受動的ダイナミクス下での状態遷移サンプル(xk、xk+1)、状態コストqk、及び所与の状態における制御ダイナミクスBkを使用することによって能動的探索なしでポリシーを改良する。標準actor−critic方法は、能動的探索を用いてポリシーを最適化する。これらのactor及びcritic関数が定義された状態で、コンピュータ処理システム14は、L−MDPを用いて半モデルフリー強化学習を実装することができる。
This procedure allows policies to be created without active search by using state transition samples (x k , x k + 1 ) under passive dynamics, state cost q k , and control dynamics B k in a given state. Improve. Standard actor-critical methods use active search to optimize policies. With these actor and critical functions defined, the
本明細書中に記載の方法において、ポリシーは、到達コストと行動−状態価値との間の誤差を最小化することによって、車両制御ダイナミクスについての知識及び受動的に収集されたデータのサンプルを用いて学習されるパラメータで最適化される。本明細書中に記載の方法は、通常車を制御するために利用可能である車両自体のダイナミクスモデルで最適なポリシーを決定することを可能にする。これらの方法は、同様に、通常そのダイナミクスモデルが未知である周囲の車両の操作に関する受動的に収集されたデータも使用する。さらに、本明細書に記載の方法を用いると、最適な制御ポリシーを決定するために、車両環境の受動的ダイナミクスA(xt)及び遷移ノイズレベル及びC(xt)を知っている必要はない。 In the method described herein, the policy uses knowledge of vehicle control dynamics and a sample of passively collected data by minimizing the error between cost of arrival and action-state value. Optimized with the learned parameters. The method described herein makes it possible to determine the optimal policy with the vehicle's own dynamics model that is normally available to control the vehicle. These methods also use passively collected data regarding the operation of surrounding vehicles, whose dynamics model is usually unknown. Furthermore, using the method described herein, it is necessary to know the passive dynamics A (x t ) and transition noise level and C (x t ) of the vehicle environment in order to determine the optimal control policy. Absent.
別の態様においては、本明細書中で記載されているように、1つの操作を行なうようシステムを制御するために使用可能な制御ポリシーを最適化するためのコンピュータ実装型方法が提供されている。この方法は、システムを制御するために使用可能な制御ポリシーを提供するステップと;行なうべき操作に関する受動的に収集されたデータに対して受動的actor−critic強化学習方法を適用して、最低予想累積コストで操作を行なうようにシステムを制御するために制御ポリシーが操作可能になるような形で制御ポリシーを修正するステップと;を含むことができる。受動的に収集されたデータに対して受動的actor−critic強化学習方法を適用するステップは、a)コンピュータ処理システム内のcriticネットワークにおいて、受動的に収集されたデータのサンプルを用いてZ値を推定し、受動的に収集されたデータのサンプルを用いて最適なポリシー下で平均コストを推定するステップと;b)コンピュータ処理システム内のactorネットワークにおいて、受動的に収集されたデータのサンプル、システムについての制御ダイナミクス、到達コスト及び制御ゲインを用いて制御ポリシーを修正するステップと;c)制御ポリシーを修正する上で、及び最適なポリシー下でZ値及び平均コストを推定する上で使用されるパラメータを更新するステップと;d)推定平均コストが収束するまで、ステップ(a)〜(c)を反復的に繰返すステップとを含むことができる。 In another aspect, a computer-implemented method is provided for optimizing a control policy that can be used to control a system to perform a single operation, as described herein. . The method provides a control policy that can be used to control the system; and applies a passive actor-critic reinforcement learning method to passively collected data regarding the operation to be performed, to provide a minimum expectation Modifying the control policy in such a way that the control policy is operable to control the system to operate at an accumulated cost. Applying a passive actor-critic reinforcement learning method to passively collected data includes the steps of: a) using a sample of passively collected data in a critical network in a computer processing system. Estimating and estimating an average cost under optimal policy using a sample of passively collected data; b) a sample of data passively collected in an actor network within a computer processing system, system Modifying control policy using control dynamics, arrival cost and control gain for; c) used to modify control policy and to estimate Z value and average cost under optimal policy Updating the parameters; d) the estimated average cost converges Until it may include the step of repeating steps (a) ~ (c) iteratively.
図6〜9は、本明細書中に記載の一実施形態に係る、最小予想累積コストで車両の操作を行なう目的で車両を制御するために構成された制御ポリシーを学習するため、車両の操作に関連する受動的に収集されたデータに対して受動的actor−critic強化学習方法を適用するコンピュータ実装型方法を例示するフローチャートである。 6-9 illustrate vehicle operation to learn a control policy configured to control a vehicle for the purpose of operating the vehicle at a minimum expected accumulated cost, according to one embodiment described herein. 6 is a flow chart illustrating a computer-implemented method for applying a passive actor-critic reinforcement learning method to passively collected data associated with.
図6を参照すると、ブロック710において、プロセッサ58は、行なうべき車両の操作に関連する受動的に収集されたデータを受信し得る。受動的に収集されたデータは、メモリ54及び/又はコンピュータ処理システム14の外部のソースから受信され得る。
Referring to FIG. 6, at
ブロック720では、コンピュータ処理システム14のプロセッサ及び/又は他の要素は、受動的に収集されたデータのサンプルに対し、本明細書中に記載の受動的actor−critic(PAC)強化学習方法を反復的に適用することができる。PAC方法を適用することにより、最低予想累積コストで車両の操作を行なうように車両が制御され得るようにする制御ポリシーを学習することが可能である。ブロック730では、車両は、車両の操作を行なうために学習された制御ポリシーにしたがって制御され得る。
At
図7は、図6のブロック720に示されているような、本明細書中に記載の実施形態に係る受動的actor−critic(PAC)強化学習方法の適用を例示するフローチャートである。
FIG. 7 is a flow chart illustrating application of a passive actor-critical (PAC) reinforcement learning method according to embodiments described herein, as shown in
図7を参照すると、ブロック810において、コンピュータ処理システムは、車両の操作を行なうように車両を制御するために適応され得る初期制御ポリシーを受信することができる。制御ポリシーの初期版のパラメータは、コンピュータ処理システム内のランダム化ルーチンを用いてランダム値に初期化され得る。
Referring to FIG. 7, at
ブロック820では、コンピュータ処理システムは、受動的に収集されたデータのサンプルを用いて前述の最適な制御ポリシー下でZ値及び平均コストを推定することができる。ブロック830では、コンピュータ処理システムは、最適なポリシー下で受動的に収集されたデータ、推定されたZ値及び推定された平均コストのサンプルを用いて制御ポリシーを修正することができる。ブロック840では、コンピュータ処理システムは、推定平均コストが収束するまで、ブロック820及び830に示されたステップを反復的に繰返すことができる。
At
図8は、図7のブロック820に示されているように、受動的に収集されたデータのサンプルを用いて最適な制御ポリシー下でZ値及び平均コストを推定するための、criticネットワークによる受動的actor−critic(PAC)強化学習方法のステップの適用を例示するフローチャートである。
FIG. 8 shows a passive network with a critic network for estimating the Z-value and average cost under optimal control policy using a sample of passively collected data, as shown in
ブロック910では、Z値関数を近似するために使用可能である重み付けされた放射基底関数内で使用される重みを更新することができる。ブロック920では、Z値関数を近似するために使用可能である重み付けされた放射基底関数内で使用される重みを、最適化することができる。ブロック930では、重み付けされた放射基底関数の線形結合を用いて、Z値関数を近似することができる。ブロック940では、ブロック930で決定された近似Z値関数及び受動的に収集されたデータのサンプルを用いてZ値を近似することができる。
At
図8は、図7のブロック830に示されているように、受動的に収集されたデータのサンプルを用いて最適な制御ポリシー下でZ値及び平均コストを推定するための、actorネットワークによる受動的actor−critic(PAC)強化学習方法のステップの適用を例示するフローチャートである。
FIG. 8 shows a passive by actor network for estimating Z-value and average cost under optimal control policy using passively collected samples of data, as shown in
ブロック1010では、制御ゲインを近似するために使用可能である重み付けされた放射基底関数内で使用される重みを更新することができる。ブロック1020では、重み付けされた放射基底関数の線形結合を用いて、制御ゲインρ(xk)を近似することができる。先に説明された関係(12)及び受動的に収集されたデータのサンプルを用いて制御ゲインを近似することができる:
ブロック1030では、関係
を用いて制御入力uを決定することができる。ブロック1040では、ブロック1030で決定された制御入力、受動的に収集されたデータのサンプル及びブロック1020で近似された制御ゲインρ(xk)を用いて、行動価値関数Qの値を決定することができる。行動価値関数Qの値は、先に段落[0045]で明記された関係、
Can be used to determine the control input u. At
この関係は、先に段落[0028]中に明記されたものである。上述したcritic及びactorネットワークにより行なわれるステップは、推定平均コストが収束するまで、追加の受動的に収集されたデータについて反復的に繰返し可能である。 This relationship was specified earlier in paragraph [0028]. The steps performed by the critical and actor networks described above can be iteratively repeated for additional passively collected data until the estimated average cost has converged.
図2は、本明細書中に記載の方法に係るコンピュータ処理システム14内での制御入力の決定及び制御ポリシーの修正及び制御ポリシーの最適化の実行中の情報の流れを示す概略図である。従来のactor−critic方法は環境から能動的に収集されたデータのサンプルを使用して動作し得るが、本明細書中で説明されているpAC方法は、環境の能動的探索なく、代りに受動的に収集されたサンプル及び公知の車両制御ダイナミクスを用いて、最適な制御ポリシーを決定する。critic81又はactor83のいずれかで受信したあらゆる情報を、後日使用するためにメモリ内にバッファリングすることができる。例えば、パラメータ値を計算又は推定するためにcritic又はactorに必要とされる情報の全てが現在利用可能でない状況においては、残りの所要情報が受信されるまで、受信された情報をバッファリングすることができる。項
及び
は、それぞれxk及びxk+1におけるxに関するZ値関数の偏導関数である。項
は、xkにおける到達コスト関数Vの偏導関数を計算するために使用可能である。
FIG. 2 is a schematic diagram illustrating the flow of information during control input determination and control policy modification and control policy optimization in the
as well as
Is the partial derivative of the Z-value function for x at x k and x k + 1 , respectively. Term
Can be used to calculate the partial derivative of the arrival cost function V at x k .
図3は、図1のコンピュータ処理システム114と同様の態様で構成されたコンピュータ処理システム114が組み込まれた例示的な実施形態に係る車両11を示す機能的ブロック図である。車両11は、乗用車、トラック、又は、本明細書中に記述された操作を実施し得る他の任意の車両の形態を取り得る。車両11は、完全に又は部分的に自律モードで作動すべく構成され得る。自律モードで作動している間、車両11は、人的相互作用なしで作動すべく構成され得る。例えば、高速道路の合流操作が実行されている自律モードにおいて、車両は、車両乗員からの入力なしで、高速道路上の車両から安全距離を維持すること、他の車両と速度を調和すること等を行うように、スロットル、ブレーキ及び他のシステムを作動させ得る。
FIG. 3 is a functional block diagram illustrating a
車両11は、コンピュータ処理システム114に加え、且つ、相互に作動的に通信する種々のシステム、サブシステム及び構成要素、及び構成要素、例えば、センサシステム又は配列28、一つ以上の通信インタフェース16、操舵システム18、スロットルシステム20、制動システム22、電源30、動力システム26、並びに本明細書中に記述されたように車両を操作するために必要な他のシステム及び構成要素を含み得る。車両11は、図3に示されたよりも多い又は少ないサブシステムを含み得ると共に、各サブシステムは、複数の要素を含み得る。更に、車両11のサブシステム及び要素の各々は、相互接続され得る。車両11の記述された機能及び/又は自律的作動の一つ以上の実施は、相互に協働して作動している複数の車両システム及び/又は構成要素により実行され得る。
The
センサシステム28は、任意の適切な形式のセンサを含み得る。本明細書中には、異なる形式のセンサの種々の例が記述される。しかし、実施形態は、記述された特定のセンサに限定されないことは理解される。
センサシステム28は、車両11の外部環境に関する情報を検知すべく構成された所定数のセンサを含み得る。例えば、センサシステム28は、全地球測位システム(GPS)のようなナビゲーションユニット、及び、例えば、慣性測定装置(IMU)(図示せず)、RADARユニット(図示せず)、レーザ測距計/LIDARユニット(図示せず)、及び車両の内部及び/又は該車両11の外部環境の複数の画像を捕捉すべく構成されたデバイスを備える一台以上のカメラ(図示せず)等の他のセンサを含み得る。カメラは、スチルカメラ又はビデオカメラであり得る。IMUは、慣性加速度に基づいて車両11の位置及び向きの変化を検知するように構成されたセンサ(例えば、加速度計及びジャイロスコープ等)の任意の組合せを組み込み得る。例えば、IMUは、車両のロール速度、ヨーレート、ピッチ速度、長手方向加速度、横方向加速度、及び、垂直加速度のようなパラメータを検知し得る。ナビゲーションユニットは、車両11の地理的位置を推定すべく構成された任意のセンサであり得る。この目的の為に、ナビゲーションユニットは、地球に対する車両11の位置に関する情報を提供するように作動可能な送受信機を含む一つ以上の送受信機を含み得る。また、ナビゲーションユニットは、業界公知の態様で、記憶され且つ/又は利用可能な地図を用いて与えられた開始点(例えば、車両の現在位置)から、選択された目的地までの走行ルートを決定又は計画するように構成され得る。また、車両11に近接して又は所定の距離以内で移動する車両に関する近さ、距離、速度及び他の情報を検出するように構成された一つ以上のセンサが設けられてもよい。
The
公知の態様において、車両センサ28は、種々の車両システムに対する適切な制御命令を策定且つ実行する際にコンピュータ処理システム114により使用されるデータを提供する。例えば、慣性センサ、車輪速度センサ、道路状態センサ、及び操舵角センサからのデータは、車両を旋回させるための命令を策定して操舵システム18において実行する上で、処理され得る。各車両センサ28は、車両11に組み込まれる任意の運転者支援機能及び自律的操作機能をサポートするために必要とされる任意のセンサを含み得る。センサシステム28が複数のセンサを含む構成において、センサは、相互から独立的に作動し得る。代替的に、各センサのうちの2つ以上が、相互に協働して作動し得る。センサシステム28のセンサは、コンピュータ処理システム114に対し、及び/又は車両11の他の任意の要素に対し、作用的に接続され得る。
In a known manner, the
また、各車両センサ28により収集された任意のデータは、本明細書中に記述された目的でデータを必要とし又は利用する任意の車両システム又は構成要素にも送信され得る。例えば、車両センサ28により収集されたデータは、コンピュータ処理システム114に、又は一つ以上の専用のシステム又は構成要素のコントローラ(図示せず)に送信され得る。付加的な特定の形式のセンサとしては、本明細書中に記述された機能及び操作を実施するために必要とされる他の任意の形式のセンサが挙げられる。
Also, any data collected by each
特定の車両センサからの情報は、一つよりも多い車両システム又は構成要素を制御すべく処理かつ使用され得る。例えば、自動化された操舵制御及び制動制御の両方を組み込んだ車両において、種々の道路状態センサは、データをコンピュータ処理システム114に提供し、このコンピュータ処理システムは、プロセッサが実行可能な記憶された命令に従って道路状態情報を処理すると共に、操舵システム及び制動システムの両方に対して適切な制御命令を策定することができるようになる。
Information from a particular vehicle sensor can be processed and used to control more than one vehicle system or component. For example, in a vehicle that incorporates both automated steering control and braking control, various road condition sensors provide data to
車両11は、センサの出力信号又は他の信号が、コンピュータ処理システム114又は別の車両システム若しくは要素による使用の前に前処理を必要とするという状況、又はコンピュータ処理システムから送信された制御信号が、起動可能なサブシステム又はサブシステム構成要素(例えば、操舵システム又はスロットルシステムの構成要素)による使用の前に処理を必要とするという状況に適した、信号処理手段38を含み得る。信号処理手段は、例えば、アナログ/デジタル(A/D)変換器又はデジタル/アナログ(D/A)変換器であり得る。
The
センサ統合機能(sensor fusion capability)138は、センサシステム28からのデータを入力として受け入れるべく構成されたアルゴリズム(又は、アルゴリズムを記憶するコンピュータプログラム製品)の形態であり得る。上記データは、例えば、センサシステム28の各センサにて検知された情報を表すデータを含む。センサ統合アルゴリズムは、センサシステムから受信したデータを処理し、(例えば、複数の個別的なセンサの出力から形成された)統合された又は合成された信号を生成し得る。センサ統合アルゴリズム138は、例えば、カルマンフィルタ、ベイジアンネットワーク、又は、別のアルゴリズムを含む。センサ統合アルゴリズム138は更に、センサシステム28からのデータに基づく種々のアセスメントを提供し得る。例示的な実施形態において、アセスメントは、車両11の環境における個別的な物体又は特定構造の評価、特定状況の評価、及び、特定の状況に基づく可能的な影響の評価を含み得る。他のアセスメントも可能である。センサ統合アルゴリズム138は、コンピュータ処理システム114に組み込まれた又はコンピュータ処理システム114と作用的に通信する(メモリ154のような)メモリ内に記憶され得ると共に、当業界において公知の態様でコンピュータ処理システムにより実行され得る。
The
本明細書中に記述された任意の情報若しくはパラメータの受信、収集、監視、処理、及び/又は、決定を参照するときにおける「連続的に」という語句の使用は、コンピュータ処理システム114が、これらのパラメータに関する情報が存在し又は検出されるや否や、又は、センサの取得サイクル及びプロセッサの処理サイクルに従ってできるだけ素早く、任意の情報を受信及び/又は処理すべく構成されることを意味している。コンピュータ処理システム114が、例えば、センサからのデータ又は車両構成要素の状況に関する情報を受信すると直ちに、コンピュータ処理システムは、記憶されたプログラム命令に従って動作し得る。同様に、コンピュータ処理システム114は、センサシステム28から及び他の情報源から、同時進行的又は連続的に情報の流れを受信して処理し得る。この情報は、本明細書中に記述された態様及び目的にて、メモリ内に記憶された命令に従って処理及び/又は評価される。
The use of the phrase “continuously” when referring to the reception, collection, monitoring, processing, and / or determination of any information or parameters described herein is used by the
また、図3は、先に記述されたように、図1のコンピュータ処理システム114と同様の態様で構成された代表的なコンピュータ処理システム114のブロック図も示している。本明細書中に記述されたようにポリシーの修正を実施すると共に制御入力を決定するために必要とされる機能を組み込むと共に、コンピュータ処理システム114は、他の車両システム及び要素に作用的に接続されると共に、その他の点では、車両11及びその構成要素の制御及び操作に影響するように構成され得る。コンピュータ処理システム114は、少なくとも幾つかのシステム及び/又は構成要素を、(ユーザ入力なしで)自律的に且つ/又は(一定程度のユーザ入力を以て)半自律的に制御すべく構成され得る。また、コンピュータ処理システムは、幾つかの機能を自律的及び/又は半自律的に制御及び/又は実行するようにも構成され得る。コンピュータ処理システム114は、種々のサブシステム(例えば、動力システム26、センサシステム28、操舵システム18)から、各通信インタフェース16のうちの任意のものから、及び/又は他の任意で適切な情報源から受信した入力及び/又は情報に基づき、車両11の機能性を制御し得る。
FIG. 3 also shows a block diagram of a representative
図3の実施形態において、コンピュータ処理システム114は、図1に関して先に記述されたように、車両制御ダイナミクスモデル187、critic181、actor183、及び、制御ポリシー201を含み得る。コンピュータ処理システム114は、先に記述されたように、制御入力を決定すべく、且つ自律車両の操作制御ポリシーを修正及び/又は最適化すべく構成され得る。また、コンピュータ処理システム114は、制御入力に従って、且つ、本明細書中に記述されたように修正又は最適化された制御ポリシーにも従って、車両を制御して所望操作を実施すべく構成され得る。
In the embodiment of FIG. 3, the
コンピュータ処理システム114は、図3に示された要素の幾つか又は全てを有し得る。加えて、コンピュータ処理システム114は、特定の用途に必要とされ又は所望される付加的な構成要素も含み得る。また、コンピュータ処理システム114は、複数のコントローラ又はコンピュータ処理デバイスであって、分散態様にて、情報を処理し且つ/又は車両11の個別的な構成要素若しくはサブシステムを制御するように機能する複数のコントローラ又はコンピュータ処理デバイスを表し、又は、それにより具現され得る。
The
メモリ154は、単一又は複数のプロセッサ158により実行されて、車両11の種々の機能を実行するデータ160及び/又は命令156(例えば、プログラムロジック)を収納し得る。メモリ154は、本明細書中に記述された車両システム及び/又は構成要素(例えば、動力システム26、センサシステム28、コンピュータ処理システム114、及び、通信インタフェース16)のうちの一つ以上にデータを送信し、それらからデータを受信し、それらと相互作用し、又はそれらを制御するための命令を含む、付加的な命令も含み得る。命令156に加え、メモリ154は、他の情報の中でも、道路地図、経路情報のようなデータを記憶し得る。斯かる情報は、自律的、半自律的、及び/又は手動的なモードにおける車両11の操作の間において、ルートを計画するのに且つその他にことをするのに、車両11及びコンピュータ処理システム114により使用され得る。
コンピュータ処理システム114は、(概略的に62と表される)一つ以上の自律的な機能又は操作を実施するために、種々の起動可能な車両システム及び構成要素の制御を連携調整するように構成され得る。これらの自律的な機能62は、メモリ154及び/又は他のメモリ内に記憶されると共に、プロセッサにより実行されたときに、本明細書中に記述された種々のプロセス、命令又は機能のうちの一つ以上を実現するコンピュータ可読プログラムコードの形態で実現され得る。
The
通信インタフェース16は、車両11と、外部センサ、他の車両、他のコンピュータシステム、(本明細書中に記述されたように、衛星システム、携帯電話/無線通信システム、種々の車両サービスセンターなどのような)種々の外部のメッセージ及び通信システム、及び/又はユーザとの間の相互作用することができるように構成され得る。通信インタフェース16は、車両11のユーザに情報を提供し又はユーザから入力を受信するためのユーザインタフェース(例えば、一台以上のディスプレイ(図示せず)、音声/オーディオインタフェース(図示せず)、及び/又は他のインタフェース)を含み得る。
また、通信インタフェース16は、ワイドエリアネットワーク(WAN)、無線通信ネットワーク、及び/又は他の任意で適切な通信ネットワークにおける通信を可能とするインタフェースも含み得る。通信ネットワークは、有線の通信リンク、及び/又は無線の通信リンクを含み得る。通信ネットワークは、上記のネットワーク及び/又は他の形式のネットワークの任意の組合せを含み得る。通信ネットワークは、一つ以上のルータ、スィッチ、アクセスポイント、無線アクセスポイント、及び/又は類似物を含み得る。一つ以上の構成において、通信ネットワークは、任意の近傍車両及び車両11と、任意の近傍の路側の通信ノード及び/又はインフラとの間の通信を許容し得る、車両対全て(V2X)(車両対インフラストラクチャ(V2I)技術及び車両対車両(V2V)技術を含む)の技術を包含し得る。
WANネットワーク環境において使用されたとき、コンピュータ処理システム114は、ネットワーク(例えば、インターネット)のようなWAN上での通信を確立するためのモデム又は他の手段を含み(又は、それに対して作用的に接続され)得る。無線通信ネットワークにおいて使用されたとき、コンピュータ処理システム114は、無線ネットワークにおける一つ以上のネットワークデバイス(例えば、基地送受信ステーション)を介して無線コンピュータ処理デバイス(図示せず)と通信するための一つ以上の送受信機、デジタル信号プロセッサ、及び付加的な回路機構並びにソフトウェアを含み(又は、それに対して作用的に接続され)得る。これらの構成は、種々の外部情報源から定常的な情報の流れを受信する種々の態様を提供する。
When used in a WAN network environment, the
車両11は、コンピュータ処理システム114並びに他の車両システム及び/又は構成要素と作用的に通信し且つコンピュータ処理システムから受信した制御命令に応じて作用し得る、種々の起動可能なサブシステム及び要素を含み得る。種々の起動可能なサブシステム及び要素は、(例えば、ACC及び/又は車線維持などの)いずれの自律的の走行支援システムが起動されているのか且つ/又は車両が完全自律モードで駆動されているのかといった所定の走行状況のような要因に依存して、手動的又は(コンピュータ処理システム114により)自動的に制御され得る。
The
操舵システム18は、車両ホイール、ラック及びピニオン操舵ギア、操舵ナックル、及び/若しくは車両11の方向を調節すべく作用可能であり得る他の任意の要素(コンピュータシステムで制御可能な任意の機構又は要素を含む)、又は要素の組み合わせを含み得る。動力システム26は、車両11に動力運動を提供すべく作用可能な構成要素を含み得る。例示的な実施形態において、動力システム26は、エンジン(図示せず)、(ガソリン、ディーゼル燃料、又は、ハイブリッド車両の場合には一つ以上の電気バッテリのような)エネルギ源、及び、変速機(図示せず)を含み得る。制動システム22は、車両11を減速すべく構成された、要素及び/又はコンピュータシステムで制御可能な任意の機構の任意の組合せを含み得る。スロットルシステムは、(例えば、加速ペダル、及び/又は例えばエンジンの作動速度を制御することで車両11の速度を制御するように構成された任意のコンピュータシステム制御可能な機構などの)要素及び/又は機構を含み得る。図3は、車両に組み込まれ得る車両サブシステムの僅かな例18、20、22、26を示している。特定の車両は、これらのシステムの一つ以上、又は示されたシステムの一つ以上に加えて他のシステム(図示せず)の一つ以上を組み込み得る。
The
車両11は、コンピュータ処理システム114、センサシステム28、起動可能なサブシステム18、20、22、26及びその他のシステム及び要素が、コントローラエリアネットワーク(CAN)バス33などを用いて互いに通信できるように構成され得る。CANバス及び/又は他の有線又は無線メカニズムを介して、コンピュータ処理システム114は、さまざまなシステム及び構成要素に対しメッセージを伝送する(及び/又はそこからメッセージを受信する)ことができる。代替的には、本明細書中に記載の要素及び/又はシステムのいずれかは、バスを使用することなく互いに直接接続され得る。同様に、本明細書中に記載の要素及び/又はシステム間の接続は、別の物理的媒体(例えば有線接続)を通したものであり得るか、又は接続は無線接続でもあり得る。図3は、コンピュータ処理システム114、メモリ154及び通信インターフェース16などの車両11のさまざまな構成要素を車両11に組込まれているものとして示しているが、これらの構成要素の1つ以上は車両11とは別個に組付ける又は付随させることのできるものである。例えば、メモリ154は、一部が又は全部が車両11とは別個に存在することができる。こうして、車両11は、別個に又は一緒に位置設定可能なデバイス要素の形で提供され得る。車両11を作り上げるデバイス要素は、有線又は無線で、共に通信可能に連結され得る。こうして、別の態様において、本明細書中で説明されるように、コンピュータ処理システム114は、車両の操作を行なう目的で車両を自律的に制御するために使用可能な制御ポリシーを最適化するように構成され得る。コンピュータ処理システム114は、コンピュータ処理システム114の操作を制御するための1つ以上のプロセッサ158と、1つ以上のプロセッサにより使用可能なデータ及びプログラム命令を記憶するためのメモリ154とを含むことができる。メモリ154は、1つ以上のプロセッサによって実行された時点で、1つ以上のプロセッサ158に、a)システムに関わる受動的に収集されたデータを受信させ;b)車両についての到達コストを推定するために使用可能なZ値関数を決定させ;c)コンピュータ処理システム内のcriticネットワークにおいて:Z値関数及び受動的に収集されたデータのサンプルを使用してZ値を決定させ;受動的に収集されたデータのサンプルを用いて最適なポリシー下で平均コストを推定させ;d)コンピュータ処理システム内のactorネットワークにおいて、受動的に収集されたデータ、システムについての制御ダイナミクス、到達コスト及び制御ゲインを用いて制御ポリシーを修正させ;e)推定平均コストが収束するまで、ステップ(c)及び(d)を反復的に繰返させる;コンピュータコードを記憶するように構成され得る。
The
図4及び5を参照すると、本明細書中に記載のpAC強化学習方法の一実施形態の一実施例において、自律的高速道路合流操作がシミュレーションされている。最低予想累積コストで車両の操作を行なう目的で車両を制御するために構成され最適化された制御ポリシーを学習するように、高速道路合流操作に関連する受動的に収集されたデータが、前述のように処理される。その後、高速道路合流操作を行なうため、学習された制御ポリシーにしたがって車両を制御することができる。 Referring to FIGS. 4 and 5, in one example of one embodiment of the pAC reinforcement learning method described herein, an autonomous highway merge operation is simulated. In order to learn a control policy that is configured and optimized to control a vehicle for the purpose of operating the vehicle at the lowest expected accumulated cost, passively collected data related to highway merge operations is described above. Is processed as follows. Thereafter, the vehicle can be controlled in accordance with the learned control policy in order to perform the highway merge operation.
高速道路合流操作は、4次元状態空間と1次元行動空間とを有し得る。車両環境ダイナミクスの受動的ダイナミクスA(xt)及び車両制御ダイナミクスB(x)は、以下のように表現可能である:
状態コストq(x)を以下のように表現することができる:
状態コスト関数は、特定の合流状況に適合させるように設計又は調整され得る。1つ以上の実施形態において、特定の合流状況のために状態コスト関数を学習する目的で逆強化学習を使用するように、コンピュータ処理システムをプログラミングすることができる。 The state cost function may be designed or adjusted to fit a particular merge situation. In one or more embodiments, the computer processing system can be programmed to use inverse reinforcement learning for the purpose of learning a state cost function for a particular merge situation.
開示を読了した時点で当業者であれば認識するように、本明細書中に記載のさまざまな態様を、方法、コンピュータ処理システム又はコンピュータプログラムプロダクトとして具体化することができる。したがって、これらの態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態又は、ソフトウェアとハードウェアの態様を組合せた実施形態の形をとることができる。その上、このような態様は、本明細書中に記載の機能を実行するための記憶媒体内又は上に具体化された、コンピュータ可読プログラムコード又は命令を有する1つ以上のコンピュータ可読記憶媒体によって記憶されたコンピュータプログラムプロダクトの形をとることができる。さらに、本明細書中に記載のデータ、命令又は事象を表わすさまざまな信号を、金属線、光ファイバ、及び/又は無線伝送媒体(例えば空気及び/又は空間)などの信号伝導媒体を通して走行する電磁波の形で発信元と宛先との間で移送することができる。 As those skilled in the art will appreciate upon reading the disclosure, various aspects described herein may be embodied as a method, a computer processing system, or a computer program product. Accordingly, these aspects can take the form of an entirely hardware embodiment, an entirely software embodiment or an embodiment combining software and hardware aspects. Moreover, such aspects are provided by one or more computer readable storage media having computer readable program code or instructions embodied in or on a storage medium for performing the functions described herein. Can take the form of a stored computer program product. In addition, electromagnetic waves that travel various signals representing data, instructions, or events described herein through signal conducting media such as metal lines, optical fibers, and / or wireless transmission media (eg, air and / or space). Can be transported between the source and destination.
図中のフローチャート及びブロック図は、さまざまな実施形態に係るシステム、方法及びコンピュータプログラムプロダクトの考えられる実装のアーキテクチャ、機能性及び操作を例示する。この点において、フローチャート又はブロック図内の各ブロックは、規定の論理関数を実装するための1つ以上の実行可能な命令を含むモジュール、セグメント又はコード部分を表わし得る。同様に、いくつかの代替的実装において、ブロック内で指摘された機能が、図中に指摘された順序以外で発生し得るという点にも留意すべきである。例えば、連続して示されている2つのブロックを、実際には実質的に同時に実行することができ、あるいは、関与する機能性に応じてブロックを逆の順序で実行することができる場合もある。 The flowchart and block diagrams in the Figures illustrate the architecture, functionality, and operation of possible implementations of systems, methods and computer program products according to various embodiments. In this regard, each block in the flowchart or block diagram may represent a module, segment, or code portion that includes one or more executable instructions for implementing a specified logical function. Similarly, it should be noted that in some alternative implementations, the functions noted in the blocks may occur out of the order noted in the figure. For example, two blocks shown in succession can actually be executed substantially simultaneously, or the blocks can be executed in reverse order depending on the functionality involved. .
本明細書中で使用される「a」及び「an」なる用語は、1以上として定義される。本明細書中で使用される「複数(plurality)」なる用語は、2以上として定義される。本明細書中で使用される「別の(another)」なる用語は、少なくとも第2以上のものとして定義される。本明細書中で使用される「〜を含む(including)」及び/又は「〜を有する(having)」なる用語は、含む(comprising)(すなわちオープンランゲージ)として定義される。本明細書中で使用される「〜と〜の少なくとも1つ「at least one of...and...」なる言い回しは、付随する列挙された品目のうちのいずれか及びその1つ以上の考えられる全ての組合せを意味し包含する。一例として、「A、B及びCの少なくとも1つ」なる言い回しは、Aのみ、Bのみ、Cのみ、又はその任意の組合せ(例えばAB、AC、BC又はABC)を含む。 The terms “a” and “an” as used herein are defined as one or more. The term “plurality” as used herein is defined as two or more. As used herein, the term “another” is defined as at least a second or more. The terms “including” and / or “having” as used herein are defined as comprising (ie, open language). As used herein, the phrase “at least one of ... and ...” refers to any of the accompanying listed items and one or more of the listed items. Means and includes all possible combinations. By way of example, the phrase “at least one of A, B, and C” includes only A, only B, only C, or any combination thereof (eg, AB, AC, BC, or ABC).
上述の詳細な説明においては、その一部を成す添付図面に対する参照が指示されている。図中、類似の符号は、文脈上別段の指示のないかぎり、類似の構成要素を識別する。詳細な説明、図及びクレーム中に記載された例示的実施形態は、限定的なものとして意図されていない。本明細書中で提示された主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を加えることも可能である。本明細書中で一般的に説明され図中に例示されている本開示の態様は、多様な異なる構成で配置、置換、組合せ、分離及び設計することができ、その全てが本明細書中で明示的に企図される。したがって、本発明の範囲を標示するものとしては、以上の明細書ではなくむしろ以下のクレームを参照すべきである。 In the foregoing detailed description, references are made to the accompanying drawings that form a part thereof. In the drawings, similar symbols identify similar components, unless context dictates otherwise. The illustrative embodiments described in the detailed description, figures, and claims are not meant to be limiting. Other embodiments may be utilized and other changes may be made without departing from the scope of the subject matter presented herein. The aspects of the present disclosure generally described herein and illustrated in the figures may be arranged, substituted, combined, separated and designed in a variety of different configurations, all of which are described herein. Explicitly contemplated. Accordingly, reference should be made to the following claims rather than to the foregoing specification as indicating the scope of the invention.
Claims (15)
最低予想累積コストで前記車両の操作を実施すべく前記車両を制御するように構成された制御ポリシーを学習するために、前記車両の操作に関連する受動的に収集されたデータに対して、受動的actor−critic強化学習方法を適用するステップと、
前記車両の操作を行なうべく前記制御ポリシーにしたがって前記車両を制御するステップと、を含む方法。 In a computer-implemented method for autonomously controlling a vehicle for the purpose of operating the vehicle,
Passively with respect to passively collected data related to operation of the vehicle to learn a control policy configured to control the vehicle to perform operation of the vehicle at the lowest expected accumulated cost Applying a dynamic actor-critical reinforcement learning method;
Controlling the vehicle in accordance with the control policy to operate the vehicle.
a) criticネットワークにおいて、前記受動的に収集されたデータのサンプルを用いて最適な制御ポリシーの下でZ値及び平均コストを推定するステップと、
b) criticネットワークに作用的に連結されたactorネットワークにおいて、前記criticネットワークからの最適な制御ポリシーの下で、前記受動的に収集されたデータのサンプル、前記推定されたZ値、及び前記推定された平均コストを用いて前記制御ポリシーを修正するステップと、
c) 前記推定された平均コストが収束するまで、ステップ(a)〜(b)を反復的に繰返すステップと、を含む、請求項1に記載の方法。 Receiving a control policy that can be adapted to control the vehicle to operate the vehicle, and applying the passive actor-critical reinforcement learning method to the passively collected data But,
a) estimating a Z value and an average cost under an optimal control policy using a sample of the passively collected data in a critical network;
b) In an actor network operatively coupled to a critical network, under an optimal control policy from the critical network, the passively collected data sample, the estimated Z value, and the estimated Modifying the control policy using a determined average cost;
The method of claim 1, comprising: c) repeating steps (a)-(b) repeatedly until the estimated average cost converges.
重み付けされた放射基底関数の線形結合を用いてZ値関数を近似するステップと、
近似されたZ値関数及び前記受動的に収集されたデータのサンプルを用いてZ値を近似するステップと、を含む、請求項3に記載の方法。 The step of estimating the Z value comprises:
Approximating the Z-value function using a linear combination of weighted radial basis functions;
The method of claim 3, comprising approximating a Z value using an approximated Z value function and the passively collected sample of data.
制御ゲインを近似するステップと、
前記制御ゲインを最適化して、最適化された制御ゲインを提供するステップと、
前記最適化された制御ゲインを用いて前記制御ポリシーを修正するステップと、を含む、請求項3に記載の方法。 The step of modifying the control policy comprises:
Approximating the control gain;
Optimizing the control gain to provide an optimized control gain;
Modifying the control policy using the optimized control gain.
制御入力を決定するステップと、
前記制御入力、前記受動的に収集されたデータのサンプル及び前記近似された制御ゲインを用いて、行動価値関数の値を決定するステップと、をさらに含む、請求項9に記載の方法。 Before optimizing the control gain,
Determining a control input;
10. The method of claim 9, further comprising: determining a value of an action value function using the control input, the passively collected sample of data, and the approximated control gain.
前記システムを制御するのに使用可能な制御ポリシーを提供するステップと、
行なうべき操作に関する受動的に収集されたデータに対して受動的actor−critic強化学習方法を適用して、最低予想累積コストで前記操作を行なうように前記システムを制御すべく前記制御ポリシーが操作可能になるように前記制御ポリシーを修正するステップと、を含む方法。 A computer-implemented method for optimizing a control policy that can be used to control a system to perform an operation, comprising:
Providing a control policy that can be used to control the system;
The control policy can be manipulated to control the system to perform the operation at the lowest expected cumulative cost by applying a passive actor-critical reinforcement learning method to passively collected data regarding the operation to be performed Modifying the control policy to become.
a)criticネットワークにおいて、前記受動的に収集されたデータのサンプルを用いてZ値を推定し、前記受動的に収集されたデータのサンプルを用いて最適なポリシーの下で平均コストを推定するステップと、
b)actorネットワークにおいて、前記受動的に収集されたデータのサンプル、前記システムについての制御ダイナミクス、到達コスト及び制御ゲインを用いて前記制御ポリシーを修正するステップと、
c)前記制御ポリシーを修正するのに使用されるパラメータ及び最適なポリシーの下で前記Z値及び前記平均コストを推定するのに使用されるパラメータを更新するステップと、
d)前記推定された平均コストが収束するまで、ステップ(a)〜(c)を反復的に繰返すステップと、を含む、請求項13に記載の方法。 Applying the passive actor-critic reinforcement learning method to passively collected data comprising:
a) Estimating a Z-value using the passively collected sample of data and estimating an average cost under an optimal policy in the critical network using the passively collected sample of data When,
b) modifying the control policy in the actor network using the passively collected sample of data, control dynamics for the system, arrival cost and control gain;
c) updating the parameters used to modify the control policy and the parameters used to estimate the Z value and the average cost under an optimal policy;
and d) repeating steps (a)-(c) repeatedly until the estimated average cost converges.
当該コンピュータ処理システムが、前記コンピュータ処理システムの操作を制御するための1つ以上のプロセッサと、前記1つ以上のプロセッサにより使用可能なデータ及びプログラム命令を記憶するためのメモリとを含み、
前記メモリは、コンピュータコードを記憶するように構成され、該コンピュータコードは、前記1つ以上のプロセッサによって実行された時点で、前記1つ以上のプロセッサに、
a)前記車両の操作に関する受動的に収集されたデータを受信させ、
b)前記車両についての到達コストを推定するのに使用可能なZ値関数を決定させ、
c)前記コンピュータ処理システム内のcriticネットワークにおいて、
c1)前記Z値関数及び前記受動的に収集されたデータのサンプルを使用してZ値を決定させ、
c2)前記受動的に収集されたデータのサンプルを用いて最適なポリシーの下で平均コストを推定させ、
d)前記コンピュータ処理システム内のactorネットワークにおいて、前記受動的に収集されたデータ、前記車両についての制御ダイナミクス、到達コスト及び制御ゲインを用いて前記制御ポリシーを修正させ、
e)前記推定された平均コストが収束するまで、ステップ(c)及び(d)を反復的に繰返させる、コンピュータ処理システム。 A computer processing system configured to optimize a control policy that can be used to autonomously control a vehicle to operate the vehicle,
The computer processing system includes one or more processors for controlling operation of the computer processing system, and a memory for storing data and program instructions usable by the one or more processors,
The memory is configured to store computer code that, when executed by the one or more processors, stores the computer code in the one or more processors,
a) receiving passively collected data regarding the operation of the vehicle;
b) determining a Z-value function that can be used to estimate the arrival cost for the vehicle;
c) In a critical network in the computer processing system,
c1) using the Z value function and the passively collected sample of data to determine a Z value;
c2) let the sample of the passively collected data be used to estimate the average cost under optimal policy,
d) let the actor network in the computer processing system modify the control policy using the passively collected data, the control dynamics for the vehicle, the arrival cost and the control gain;
e) A computer processing system that repeats steps (c) and (d) repeatedly until the estimated average cost has converged.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/594,020 | 2017-05-12 | ||
| US15/594,020 US10061316B2 (en) | 2016-07-08 | 2017-05-12 | Control policy learning and vehicle control method based on reinforcement learning without active exploration |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2019031268A true JP2019031268A (en) | 2019-02-28 |
| JP2019031268A5 JP2019031268A5 (en) | 2020-10-15 |
| JP6856575B2 JP6856575B2 (en) | 2021-04-07 |
Family
ID=65522935
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018091189A Expired - Fee Related JP6856575B2 (en) | 2017-05-12 | 2018-05-10 | Control policy learning and vehicle control method based on reinforcement learning without active search |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6856575B2 (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020180014A3 (en) * | 2019-03-05 | 2020-12-03 | 네이버랩스 주식회사 | Method and system for training autonomous driving agent on basis of deep reinforcement learning |
| CN112590792A (en) * | 2020-12-18 | 2021-04-02 | 的卢技术有限公司 | Vehicle convergence control method based on deep reinforcement learning algorithm |
| KR20220008565A (en) * | 2020-07-14 | 2022-01-21 | 중앙대학교 산학협력단 | HEMS optimization method and apparatus using hierarchical deep reinforcement learning |
| JP2022096232A (en) * | 2020-12-17 | 2022-06-29 | 本田技研工業株式会社 | Vehicle control devices, vehicle control methods, and programs |
| CN114735027A (en) * | 2022-04-13 | 2022-07-12 | 北京京东乾石科技有限公司 | Operation decision-making method and device applied to unmanned vehicles |
| CN115909780A (en) * | 2022-11-09 | 2023-04-04 | 江苏大学 | Expressway merge control system and method based on intelligent network connection and RBF neural network |
| CN116843023A (en) * | 2023-06-08 | 2023-10-03 | 南京航空航天大学 | A method for updating the health parameters of aeroengine rotating parts based on deep reinforcement learning |
| CN116946162A (en) * | 2023-09-19 | 2023-10-27 | 东南大学 | Intelligent network combined commercial vehicle safe driving decision-making method considering road surface attachment condition |
| JP2024510880A (en) * | 2021-09-10 | 2024-03-12 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Simulation-based method and data center for obtaining geofence driving policy |
| CN117911414A (en) * | 2024-03-20 | 2024-04-19 | 安徽大学 | Automatic driving automobile motion control method based on reinforcement learning |
| CN118343164A (en) * | 2024-06-17 | 2024-07-16 | 北京理工大学前沿技术研究院 | A method, system, device and storage medium for autonomous driving vehicle behavior decision-making |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004068399A1 (en) * | 2003-01-31 | 2004-08-12 | Matsushita Electric Industrial Co. Ltd. | Predictive action decision device and action decision method |
| JP2004348394A (en) * | 2003-05-21 | 2004-12-09 | Toyota Central Res & Dev Lab Inc | Environment change device and action guide information generation / presentation device |
| US20180373245A1 (en) * | 2017-06-21 | 2018-12-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous operation for an autonomous vehicle objective in a multi-vehicle environment |
| US20190035275A1 (en) * | 2017-07-28 | 2019-01-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous operation capability configuration for a vehicle |
-
2018
- 2018-05-10 JP JP2018091189A patent/JP6856575B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004068399A1 (en) * | 2003-01-31 | 2004-08-12 | Matsushita Electric Industrial Co. Ltd. | Predictive action decision device and action decision method |
| JP2004348394A (en) * | 2003-05-21 | 2004-12-09 | Toyota Central Res & Dev Lab Inc | Environment change device and action guide information generation / presentation device |
| US20180373245A1 (en) * | 2017-06-21 | 2018-12-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous operation for an autonomous vehicle objective in a multi-vehicle environment |
| US20190035275A1 (en) * | 2017-07-28 | 2019-01-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous operation capability configuration for a vehicle |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020180014A3 (en) * | 2019-03-05 | 2020-12-03 | 네이버랩스 주식회사 | Method and system for training autonomous driving agent on basis of deep reinforcement learning |
| KR20220008565A (en) * | 2020-07-14 | 2022-01-21 | 중앙대학교 산학협력단 | HEMS optimization method and apparatus using hierarchical deep reinforcement learning |
| KR102463146B1 (en) | 2020-07-14 | 2022-11-03 | 중앙대학교 산학협력단 | HEMS optimization method and apparatus using hierarchical deep reinforcement learning |
| JP7433205B2 (en) | 2020-12-17 | 2024-02-19 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
| JP2022096232A (en) * | 2020-12-17 | 2022-06-29 | 本田技研工業株式会社 | Vehicle control devices, vehicle control methods, and programs |
| CN112590792A (en) * | 2020-12-18 | 2021-04-02 | 的卢技术有限公司 | Vehicle convergence control method based on deep reinforcement learning algorithm |
| CN112590792B (en) * | 2020-12-18 | 2024-05-10 | 的卢技术有限公司 | Vehicle convergence control method based on deep reinforcement learning algorithm |
| JP7642842B2 (en) | 2021-09-10 | 2025-03-10 | 深▲ジェン▼引望智能技術有限公司 | Simulation-Based Method, Data Center, System, and Computer Program for Acquiring Geofence Driving Policy |
| JP2024510880A (en) * | 2021-09-10 | 2024-03-12 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Simulation-based method and data center for obtaining geofence driving policy |
| CN114735027A (en) * | 2022-04-13 | 2022-07-12 | 北京京东乾石科技有限公司 | Operation decision-making method and device applied to unmanned vehicles |
| CN115909780B (en) * | 2022-11-09 | 2023-07-21 | 江苏大学 | Expressway merge control system and method based on intelligent network connection and RBF neural network |
| CN115909780A (en) * | 2022-11-09 | 2023-04-04 | 江苏大学 | Expressway merge control system and method based on intelligent network connection and RBF neural network |
| CN116843023A (en) * | 2023-06-08 | 2023-10-03 | 南京航空航天大学 | A method for updating the health parameters of aeroengine rotating parts based on deep reinforcement learning |
| CN116946162B (en) * | 2023-09-19 | 2023-12-15 | 东南大学 | Intelligent network combined commercial vehicle safe driving decision-making method considering road surface attachment condition |
| CN116946162A (en) * | 2023-09-19 | 2023-10-27 | 东南大学 | Intelligent network combined commercial vehicle safe driving decision-making method considering road surface attachment condition |
| CN117911414A (en) * | 2024-03-20 | 2024-04-19 | 安徽大学 | Automatic driving automobile motion control method based on reinforcement learning |
| CN118343164A (en) * | 2024-06-17 | 2024-07-16 | 北京理工大学前沿技术研究院 | A method, system, device and storage medium for autonomous driving vehicle behavior decision-making |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6856575B2 (en) | 2021-04-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7036545B2 (en) | Online learning method and vehicle control method based on reinforcement learning without active search | |
| US10061316B2 (en) | Control policy learning and vehicle control method based on reinforcement learning without active exploration | |
| JP6856575B2 (en) | Control policy learning and vehicle control method based on reinforcement learning without active search | |
| US11269329B2 (en) | Dynamic model with learning based localization correction system | |
| US11467591B2 (en) | Online agent using reinforcement learning to plan an open space trajectory for autonomous vehicles | |
| US11493926B2 (en) | Offline agent using reinforcement learning to speedup trajectory planning for autonomous vehicles | |
| CN111252061B (en) | Real-time decision-making for autonomous vehicles | |
| EP3835908B1 (en) | Automatic driving method, training method and related apparatuses | |
| US12346794B2 (en) | Systems and methods for predicting trajectories of multiple vehicles | |
| US20200363800A1 (en) | Decision Making Methods and Systems for Automated Vehicle | |
| US9568915B1 (en) | System and method for controlling autonomous or semi-autonomous vehicle | |
| McKinnon et al. | Learn fast, forget slow: Safe predictive learning control for systems with unknown and changing dynamics performing repetitive tasks | |
| US11673584B2 (en) | Bayesian Global optimization-based parameter tuning for vehicle motion controllers | |
| WO2020119004A1 (en) | Personal driving style learning for autonomous driving | |
| CN111948938B (en) | Slack optimization model for planning open space trajectories for autonomous vehicles | |
| CN110850861A (en) | Attention-Based Hierarchical Lane Change Deep Reinforcement Learning | |
| US11815891B2 (en) | End dynamics and constraints relaxation algorithm on optimizing an open space trajectory | |
| CN116045998A (en) | Context-aware path planning for autonomously driven vehicles using dynamic step search | |
| CN111208814B (en) | Memory-based optimal motion planning using dynamic models for autonomous vehicles | |
| CN106257242A (en) | For regulating unit and the method for road boundary | |
| US12086695B2 (en) | System and method for training a multi-task model | |
| US12415538B2 (en) | Systems and methods for pareto domination-based learning | |
| CN114169463A (en) | Autonomous prediction lane information model training method and device | |
| Elisha et al. | Active online visual-inertial navigation and sensor calibration via belief space planning and factor graph based incremental smoothing | |
| US20210103800A1 (en) | Certified adversarial robustness for deep reinforcement learning |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200903 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200903 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200903 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200923 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210202 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210318 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6856575 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| LAPS | Cancellation because of no payment of annual fees |