JP2023038178A - ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法、装置およびコンピュータプログラム - Google Patents
ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法、装置およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2023038178A JP2023038178A JP2022140888A JP2022140888A JP2023038178A JP 2023038178 A JP2023038178 A JP 2023038178A JP 2022140888 A JP2022140888 A JP 2022140888A JP 2022140888 A JP2022140888 A JP 2022140888A JP 2023038178 A JP2023038178 A JP 2023038178A
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- generating
- artificial intelligence
- intelligence model
- lidar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
Abstract
Description
ここで、自律走行車両は運転者の介入なしに周辺環境を認識し、認識された周辺環境に応じて自ら与えられた目的地まで自動で走行する自律走行システム機能を搭載した車両をいう。
運転者に介入なしに自律走行車両の走行動作を制御するためには、自律走行車両の周辺環境を認識して客体(例:障害物)を認識する動作が必須的に先行されなければならず、事故防止および安全のために客体をより正確に認識することが必要であるところ、各種センサデータを通じて自律走行車両周辺に位置する客体を探知する技術に対する開発が活発になされている。
従来には、自律走行車両内に備えられるセンサ(例:ライダーセンサ)を利用して自律走行車両周辺を感知したセンサデータを学習データにして人工知能モデルを学習させ、学習された人工知能モデルを利用してリアルタイムで収集されるライダーセンサデータを分析することによって、自律走行車両周辺の客体(例:障害物)を探知しこれを回避して走行するように制御した。
また、より正確な結果値導出のために入力特徴マップのチャネル数を増加させる場合、人工知能モデルの学習および推論動作に対する非効率性が増加するという問題がある。
本発明が解決しようとする課題は、以上で言及された課題に制限されず、言及されていないさらに他の課題は下記の記載から通常の技術者に明確に理解され得るであろう。
多様な実施例において、前記一つ以上の第1特徴マップを生成する段階は、XY平面を基準として前記収集されたライダーセンサデータを格子化して複数の格子柱(pillar)を生成する段階、前記生成された複数の格子柱それぞれに対して前記予め定義された一つ以上の指標を算出する段階;および前記算出された一つ以上の指標を前記収集されたライダーセンサデータに対応するマトリックス上に入力して前記一つ以上の第1特徴マップを生成する段階を含むことができる。
多様な実施例において、XY平面基準で予め設定された客体探知領域を格子化して所定の大きさを有する複数の格子を生成する段階、前記生成された複数の格子と基準点の間の距離に基づいて、距離に関する第2特徴マップを生成する段階および前記生成された複数の格子と前記基準点の間の角度に基づいて、角度に関する第2特徴マップを生成する段階をさらに含むことができる。
多様な実施例において、前記距離に関する第2特徴マップを生成する段階は、前記生成された複数の格子それぞれの中心点座標と前記基準点座標間の距離値を算出する段階、予め設定された最大距離値を利用して前記算出された距離値を標準化する段階および前記予め設定された客体探知領域に対応するマトリックス上に前記標準化された距離値を入力して前記距離に関する第2特徴マップを生成する段階を含むことができる。
多様な実施例において、前記距離に関する第2特徴マップを生成する段階は、前記生成された複数の格子それぞれの中心点座標と前記基準点座標間の距離値を算出する段階、事前に定義されたログ関数を利用して前記算出された距離値を変換する段階および前記予め設定された客体探知領域に対応するマトリックス上に前記変換された距離値を入力して前記距離に関する第2特徴マップを生成する段階を含むことができる。
多様な実施例において、前記角度に関する第2特徴マップを生成する段階は、前記生成された複数の格子それぞれの中心点と前記基準点を連結する線とX軸またはY軸の間の角度値を算出する段階、前記算出された角度値に対する三角比を算出する段階および前記予め設定された客体探知領域に対応するマトリックス上に前記算出された三角比を入力して前記角度に関する二つの第2特徴マップを生成する段階を含むことができる。
前述した課題を解決するための本発明のさらに他の実施例に係るコンピュータで読み取り可能な記録媒体に記録されたコンピュータプログラムは、コンピューティング装置と結合されて所定の地域に対する3次元ポイントクラウド形態のライダーセンサデータを収集する段階、予め定義された一つ以上の指標を基準として前記収集されたライダーセンサデータを加工して一つ以上の第1特徴マップを生成する段階および前記生成された一つ以上の第1特徴マップと距離および角度を基準として予め生成された第2特徴マップそれぞれを個別的なチャネルとして結合して人工知能モデルの入力特徴マップを生成する段階を実行させるためにコンピュータで読み取り可能な記録媒体に保存され得る。
本発明のその他の具体的な事項は詳細な説明および図面に含まれている。
本発明の効果は以上で言及された効果に制限されず、言及されていないさらに他の効果は下記の記載から通常の技術者に明確に理解され得るであろう。
本明細書で使われた用語は、実施例を説明するためのものであり本発明を制限しようとするものではない。本明細書で、単数型は文面で特に言及しない限り複数型も含む。明細書で使われる「含む(comprises)」および/または「含む(comprising)」は、言及された構成要素の他に一つ以上の他の構成要素の存在または追加を排除しない。明細書全体に亘って同一の図面符号は同一の構成要素を指称し、「および/または」は言及された構成要素のそれぞれおよび一つ以上のすべての組み合わせを含む。たとえ「第1」、「第2」等が多様な構成要素を叙述するために使われるが、これら構成要素はこれら用語によって制限されないことは言うまでもない。これら用語は単に一つの構成要素を他の構成要素と区別するために使うものである。したがって、以下で言及される第1構成要素は本発明の技術的思想内で第2構成要素であってもよいことは言うまでもない。
明細書で使われる「部」または「モジュール」という用語はソフトウェア、FPGAまたはASICのようなハードウェア構成要素を意味し、「部」または「モジュール」は何らかの役割を遂行する。しかし、「部」または「モジュール」はソフトウェアまたはハードウェアに限定される意味ではない。「部」または「モジュール」はアドレッシングできる保存媒体にあるように構成されてもよく、一つまたはそれ以上のプロセッサを再生させるように構成されてもよい。したがって、一例として「部」または「モジュール」はソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素およびタスク構成要素のような構成要素と、プロセス、関数、属性、プロシーザー、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイおよび変数を含む。構成要素と「部」または「モジュール」内で提供される機能はさらに小さい数の構成要素および「部」または「モジュール」で結合されたり追加的な構成要素と「部」または「モジュール」にさらに分離され得る。
本明細書で、コンピュータは少なくとも一つのプロセッサを含むすべての種類のハードウェア装置を意味するものであり、実施例により該当ハードウェア装置で動作するソフトウェア的構成も包括する意味として理解され得る。例えば、コンピュータはスマートフォン、タブレットPC、デスクトップ、ノートパソコンおよび各装置で駆動される使用者クライアントおよびアプリケーションをすべて含む意味として理解され得、また、これに制限されるものではない。
また、本発明の多様な実施例に係るライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法は、自律走行車両の走行制御を目的として自律走行車両の周辺領域に対する客体を探知するための入力特徴マップを生成するものとして説明しているが、これに限定されず、一般車両(例:運転者が直接介入して走行制御をする車両)または半自律走行機能(例:運転者が直接介入して走行制御を遂行するものの、一部の機能に対してのみ部分的に自律制御を遂行する機能)により動作する車両に適用が可能である。
以下、添付された図面を参照して本発明の実施例を詳細に説明する。
本明細書で説明される各段階はコンピュータによって遂行されるものとして説明されるが、各段階の主体はこれに制限されるものではなく、実施例により各段階の少なくとも一部が互いに異なる装置で遂行されてもよい。
図1は、本発明の一実施例に係るライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成システムを図示した図面である。
図1を参照すると、本発明の一実施例に係るライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成システムは、入力特徴マップ生成装置100、使用者端末200、外部サーバー300およびネットワーク400を含むことができる。
ここで、図1に図示されたライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成システムは一実施例に従ったものであり、その構成要素は図1に図示された実施例に限定されるものではなく、必要に応じて付加、変更または削除され得る。
ここで、人工知能モデルは3次元クラウド形態のライダーセンサデータを分析するためのディープラーニングモデル(例:CNN)であり得るが、これに限定されない。
人工知能モデルは一つ以上のネットワーク関数で構成され、一つ以上のネットワーク関数は一般的に「ノード」と指称され得る互いに連結された計算単位の集合で構成され得る。このような「ノード」は「ニューロン(neuron)」と指称されてもよい。一つ以上のネットワーク関数は少なくとも一つ以上のノードを含んで構成される。一つ以上のネットワーク関数を構成するノード(またはニューロン)は一つ以上の「リンク」によって互いに連結され得る。
人工知能モデル内で、リンクを通じて連結された一つ以上のノードは、相対的に入力ノードおよび出力ノードの関係を形成することができる。入力ノードおよび出力ノードの概念は相対的なものであって、一つのノードに対して出力ノード関係にある任意のノードは他のノードとの関係で入力ノード関係にあり得、その逆も成立することができる。前述した通り、入力ノード対出力ノード関係はリンクを中心に生成され得る。一つの入力ノードに一つ以上の出力ノードがリンクを通じて連結され得、その逆も成立することができる。
前述した通り、人工知能モデルは一つ以上のノードが一つ以上のリンクを通じて互いに連結されて人工知能モデル内で入力ノードおよび出力ノード関係を形成する。人工知能モデル内でノードとリンクの個数およびノードとリンクの間の相関関係、リンクそれぞれに付与された加重値の値により、人工知能モデルの特性が決定され得る。例えば、同じ個数のノードおよびリンクが存在し、リンクの間の加重値の値が異なる二つの人工知能モデルが存在する場合、二つの人工知能モデルは互いに異なるものと認識され得る。
人工知能モデルを構成するノードのうち一部は、最初入力ノードからの距離に基づいて、一つのレイヤ(layer)を構成することができる。例えば、最初入力ノードから距離がnであるノードの集合は、nレイヤを構成することができる。最初入力ノードから距離は、最初入力ノードから該当ノードまで到達するために経なければならないリンクの最小個数によって定義され得る。しかし、このようなレイヤの定義は説明のための任意的なものであり、人工知能モデル内でレイヤの次数は前述とは異なる方法で定義され得る。例えば、ノードのレイヤは最終出力ノードから距離によって定義されてもよい。
人工知能モデルは一つ以上の隠れレイヤを含むことができる。隠れレイヤの隠れノードは以前のレイヤの出力と周辺の隠れノードの出力を入力とすることができる。各隠れレイヤ別隠れノードの数は同一であってもよく、異なってもよい。入力レイヤのノードの数は入力データのデータフィールドの数に基づいて決定され得、隠れノードの数と同一であってもよく、異なってもよい。入力レイヤに入力された入力データは隠れレイヤの隠れノードによって演算され得、出力レイヤである完全連結レイヤ(FCL:fully connected layer)により出力され得る。
多様な実施例において、人工知能モデルは客体に対する情報がラベリング(labeling)されたライダーセンサデータを学習データにして教師あり学習(supervised learning)され得る。しかし、これに限定されず、多様な学習方法が適用され得る。
ここで、教師あり学習は通常的に特定データと特定データに関連した情報をラベリングして学習データを生成し、これを利用して学習させる方法であって、因果関係を有する二つのデータをラベリングして学習データを生成し、生成された学習データを通じて学習する方法を意味する。
より具体的には、入力特徴マップ生成装置100はラベリングされた学習データを利用して人工知能モデルを構成する一つ以上のネットワーク関数に対する学習を遂行できる。例えば、入力特徴マップ生成装置100は学習入力データそれぞれを一つ以上のネットワーク関数に入力させ、一つ以上のネットワーク関数で演算された出力データそれぞれと学習入力データそれぞれのラベルに該当する学習出力データそれぞれを比較して誤差を導き出すことができる。すなわち、人工知能モデルの学習で学習入力データは一つ以上のネットワーク関数の入力レイヤに入力され得、学習出力データは一つ以上のネットワーク関数の出力と比較され得る。
また、入力特徴マップ生成装置100は誤差に基づいて一つ以上のネットワーク関数の加重値を逆伝播方式で調整することができる。すなわち、入力特徴マップ生成装置100は学習入力データに対する一つ以上のネットワーク関数の演算結果と学習出力データの誤差に基づいて一つ以上のネットワーク関数の出力が学習出力データに近づくように加重値を調整することができる。
入力特徴マップ生成装置100は一つ以上のネットワーク関数の学習が事前決定されたエポック以上遂行された場合、検証データを利用して学習中断の可否を決定することができる。事前決定されたエポックは全体学習目標エポックの一部であり得る。
検証データはラベリングされた学習データのうち少なくとも一部で構成され得る。すなわち、入力特徴マップ生成装置100は学習データを通じて人工知能モデルの学習を遂行し、人工知能モデルの学習が事前決定されたエポック以上繰り返された後、検証データを利用して人工知能モデルの学習効果が事前決定された水準以上であるかどうかを判断することができる。例えば、入力特徴マップ生成装置100は100個の学習データを利用して目標反復学習回数が10回である学習を遂行する場合、事前決定されたエポックである10回の反復学習を遂行した後、10個の検証データを利用して3回の反復学習を遂行し、3回の反復学習の間人工知能モデル出力の変化が事前決定された水準以下である場合、それ以上の学習は無意味なものと判断して学習を終了することができる。
入力特徴マップ生成装置100はテストデータを利用して一つ以上のネットワーク関数の性能をテストして一つ以上のネットワーク関数の活性化の有無を決定することによって、人工知能モデルを生成することができる。テストデータは人工知能モデルの性能を検証するために使われ得、学習データのうち少なくとも一部で構成され得る。例えば、学習データのうち70%は人工知能モデルの学習(すなわち、ラベルに類似する結果値を出力するように加重値を調整するための学習)のために活用され得、30%は人工知能モデルの性能を検証するためのテストデータとして活用され得る。入力特徴マップ生成装置100は学習が完了した人工知能モデルにテストデータを入力し、誤差を測定して事前決定された性能以上であるかどうかにより人工知能モデルの活性化の有無を決定することができる。
入力特徴マップ生成装置100は学習が完了した人工知能モデルにテストデータを利用して学習完了した人工知能モデルの性能を検証し、学習完了した人工知能モデルの性能が事前に決定された基準以上の場合、該当人工知能モデルを他のアプリケーションで使うように活性化することができる。
多様な実施例において、入力特徴マップ生成装置100はネットワーク400を通じて使用者端末200と連結され得、ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法により生成された入力特徴マップを利用して自律走行車両10周辺の客体を探知した結果を提供したり、客体を探知した結果による案内(例:走行案内など)情報を提供することができる。
ここで、使用者端末200は携帯性と移動性が保障される無線通信装置であり、ナビゲーション、PCS(Personal Communication System)、GSM(Global System for Mobile communications)、PDC(Personal Digital Cellular)、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)、IMT(International Mobile Telecommunication)-2000、CDMA(Code Division Multiple Access)-2000、W-CDMA(W-Code Division Multiple Access)、Wibro(Wireless Broadband Internet)端末、スマートフォン(Smartphone)、スマートパッド(Smartpad)、タブレットPC(Tablet PC)などのようなすべての種類のハンドヘルド(Handheld)基盤の無線通信装置を含むことができるが、これに限定されず、使用者端末200は車両10内に備えられる車両用インフォテインメントシステムであり得る。
一実施例で、外部サーバー300はネットワーク400を通じて入力特徴マップ生成装置100と連結され得、入力特徴マップ生成装置100がライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成プロセスを遂行するために必要な情報/データおよびライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成プロセスを遂行することによって生成される情報/データを保存および管理することができる。以下、図2を参照して、ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法を遂行する入力特徴マップ生成装置100のハードウェア構成について説明することにする。
図2は、本発明の他の実施例に係るライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成装置のハードウェア構成図である。
プロセッサ110はコンピューティング装置100の各構成の全般的な動作を制御する。プロセッサ110はCPU(Central Processing Unit)、MPU(Micro Processor Unit)、MCU(Micro Controller Unit)、GPU(Graphic Processing Unit)または本発明の技術分野に広く知られている任意の形態のプロセッサを含んで構成され得る。
多様な実施例において、プロセッサ110はプロセッサ110内部で処理される信号(またはデータ)を一時的および/または永久的に保存するラム(RAM:Random Access Memory、図示されず)およびロム(ROM:Read-Only Memory、図示されず)をさらに含むことができる。また、プロセッサ110はグラフィック処理部、ラムおよびロムのうち少なくとも一つを含むシステムオンチップ(SoC:system on chip)形態で具現され得る。
メモリ120は各種データ、命令および/または情報を保存する。メモリ120は本発明の多様な実施例に係る方法/動作を実行するためにストレージ150からコンピュータプログラム151をロードすることができる。メモリ120にコンピュータプログラム151がロードされると、プロセッサ110はコンピュータプログラム151を構成する一つ以上のインストラクションを実行することによって前記方法/動作を遂行できる。メモリ120はRAMのような揮発性メモリで具現され得るであろうが、本開示の技術的範囲はこれに限定されるものではない。
通信インターフェース140はコンピューティング装置100の有無線インターネット通信を支援する。また、通信インターフェース140はインターネット通信以外の多様な通信方式を支援してもよい。このために、通信インターフェース140は本発明の技術分野に広く知られている通信モジュールを含んで構成され得る。いくつかの実施例で、通信インターフェース140は省略されてもよい。
ストレージ150はコンピュータプログラム151を非臨時的に保存することができる。コンピューティング装置100を通じてライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成プロセスを遂行する場合、ストレージ150はライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成プロセスを提供するために必要な各種情報を保存することができる。
ストレージ150はROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリなどのような不揮発性メモリ、ハードディスク、着脱型ディスク、または本発明が属する技術分野で広く知られている任意の形態のコンピュータで読み取り可能な記録媒体を含んで構成され得る。
一実施例で、コンピュータプログラム151は所定の地域に対する3次元ポイントクラウド形態のライダーセンサデータを収集する段階、予め定義された一つ以上の指標を基準として前記収集されたライダーセンサデータを加工して一つ以上の第1特徴マップを生成する段階および前記生成された一つ以上の第1特徴マップと距離および角度を基準として予め生成された第2特徴マップそれぞれを個別的なチャネルとして結合して人工知能モデルの入力特徴マップを生成する段階を含むライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法を遂行するようにする一つ以上のインストラクションを含むことができる。
本発明の実施例と関連して説明された方法またはアルゴリズムの段階はハードウェアで直接具現されたり、ハードウェアによって実行されるソフトウェアモジュールで具現されたり、またはこれらの結合によって具現され得る。ソフトウェアモジュールはRAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ(Flash Memory)、ハードディスク、着脱型ディスク、CD-ROM、または本発明が属する技術分野で広く知られている任意の形態のコンピュータ読み取り可能記録媒体に常駐してもよい。
図3は、本発明のさらに他の実施例に係るライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法のフローチャートである。
図3を参照すると、S110段階で、コンピューティング装置100は所定の地域に対するライダーセンサデータを収集することができる。例えば、コンピューティング装置100はネットワーク400を通じて自律走行車両10と連結され得、自律走行車両10内に備えられたライダーセンサから収集されたライダーセンサデータの提供を受けることができる。しかし、これに限定されない。
ここで、ライダーセンサデータは3次元座標値を有する複数のライダーセンサポイントを含む3次元ポイントクラウド形態であり得るが、これに限定されない。
S120段階で、コンピューティング装置100はS110段階を経て収集されたライダーセンサデータを加工して一つ以上の第1特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100は事前に予め定義された一つ以上の指標(例:密度(例:ライダーセンサポイントの数)、最大高さ、最小高さ、平均高さなど)を基準として、3次元ポイントクラウド形態のライダーセンサデータを加工することによって、それぞれの指標に対応する第1特徴マップを生成することができる。以下、図4および5を参照して第1特徴マップを生成する方法についてより具体的に説明することにする。
図4は多様な実施例において、一つ以上の第1特徴マップを生成する方法を説明するためのフローチャートであり、図5は多様な実施例において、一つ以上の第1特徴マップを生成する過程を図示した図面である。
図4および5を参照すると、S210段階で、コンピューティング装置100は複数の格子柱(pillar)21を生成することができる。例えば、コンピューティング装置100はXY平面、XZ平面およびXY平面を含む3次元ポイントクラウド形態のライダーセンサデータ20をXY平面を基準として格子化することによって、複数の格子柱21を生成することができる。例えば、コンピューティング装置100は所定の大きさの格子(例:0.1m*0.1m)を含むように格子化されたXY平面を利用して3次元ポイントクラウド形態のライダーセンサデータ20の空間を分割することによって、所定の大きさの格子と同一の大きさおよび形態の底面とZ軸方向に所定の大きさの高さを有する複数の格子柱21を生成することができる。しかし、これに限定されず、コンピューティング装置100は3次元ポイントクラウド形態のライダーセンサデータ20をXZ平面を基準として分割したり、YZ平面を基準として分割するなど、多様な形態で具現され得る。
ここで、一つ以上の指標は自律走行車両10周辺の客体を探知するための目的で使用者から事前に定義されたものであって、ライダーセンサポイントの数(密度)、最大高さ、最小高さおよび平均高さであると説明しているが、これに限定されず、客体探知のための指標であればすべて適用が可能である。
S230段階で、コンピューティング装置100はS220段階を経て算出された指標を利用して第1特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100は複数の格子柱21それぞれに対して算出された指標値をライダーセンサデータ20に対応するマトリックス(Matrix)上に入力して第1特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100は複数の格子柱21のうち、第1行第1列に位置する格子柱21に対する指標をマトリックスの第1行第1列に入力し、第1行第2列に位置する格子柱21に対する指標をマトリックスの第1行第2列に入力することによって第1特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100はライダーセンサポイントの数、最大高さ、最小高さおよび平均高さそれぞれに対応する第1特徴マップを独立的なチャネルとして生成でき、独立的に生成された第1特徴マップをチャネル結合することで、3次元の第1特徴マップを生成することができる。例えば、コンピューティング装置100は図5に図示された通り、ライダーセンサポイントに対応する第1特徴マップ、最大高さに対応する第1特徴マップ、最小高さに対応する第1特徴マップおよび平均高さに対応する第1特徴マップすなわち、算出された指標の個数に応じて総4個の第1特徴マップを生成することができ、4個の第1特徴マップをチャネル結合することで、横および縦の長さがxおよびyであり高さが4である3次元第1特徴マップ30を生成することができる。
ここで、距離および角度を基準として予め生成された第2特徴マップは人工知能モデルがライダーセンサポイントに対する距離および角度を考慮して距離および角度による特徴を導出できるように客体探知領域に対して事前に生成および保存された特徴マップを意味し得る。
一般的に、ライダーセンサデータ20をX、Y空間で表現する場合、距離と角度による特徴を有する。例えば、ライダーセンサデータ20は距離が遠くなるほどライダーセンサポイントの数(密度)が急激に減少することになる特徴を有する。また、ライダーセンサデータ20はX、Y空間上で隠れ(occlusion)が発生する場合に線で表示されるが、原点基準座標の位置により障害物の位置が変わる特徴を有する。
一方、従来の人工知能モデルの場合、位置に対して独立的に動作するため人工知能モデルの学習および推論のための入力特徴マップに複数の格子(pixel)それぞれに対する位置情報が存在しないという点で、前記のような距離および角度に対する特徴を考慮できないという限界がある。
このような点を考慮して、コンピューティング装置100は人工知能モデルがライダーセンサポイントに対する距離および角度を考慮できるように距離および角度に関する第2特徴マップを事前に生成および保存しておいて、リアルタイムで収集されるライダーセンサデータ20を通じて生成される一つ以上の第1特徴マップとチャネル結合すなわち、前記のような距離および角度に対する特徴を考慮できるように距離および角度に対する情報を含む入力特徴マップを生成することができる。以下、図6~8を参照して、コンピューティング装置100により遂行される距離および角度に関する第2特徴マップを生成する方法について説明することにする。
図6を参照すると、S310段階で、コンピューティング装置100はXY平面を基準として予め設定された客体探知領域を格子化して所定の大きさを有する複数の格子を生成することができる。
ここで、客体探知領域はライダーセンサを通じて自律走行車両10を周辺をセンシングする領域であり得、S110段階を経て収集されたライダーセンサデータ20の収集領域と同一の属性(例:大きさ、形態)を有する領域であり得るが、これに限定されない。
また、ここで、所定の大きさはライダーセンサデータ20の空間を分割するために活用されたXY平面(所定の大きさの格子を含むように格子化されたXY平面)に含まれた格子と同一の大きさ(例:0.1m*0.1m)であり得るが、これに限定されない。
S320段階で、コンピューティング装置100はS310段階を経て生成された複数の格子と基準点の間の距離値を算出することができる。
多様な実施例において、コンピューティング装置100は複数の格子それぞれの中心点座標と基準点座標(例:原点座標)間の距離値を算出でき、予め設定された最大距離値を利用して算出された距離値を標準化することができる。例えば、コンピューティング装置100は下記の数学式1を利用して複数の格子それぞれの中心点座標と基準点座標間の標準化された距離値(例:第1距離値)を算出することができる。
すなわち、コンピューティング装置100は基準点座標と複数の格子それぞれの中心点座標間の距離値を算出するものの、算出された距離値を予め設定された最大距離値(例:100m)で割って標準化することによって、基準点座標と複数の格子それぞれの中心点座標間の距離値が0~1範囲の値となるようにすることができる。
多様な実施例において、コンピューティング装置100は複数の格子それぞれの中心点座標と基準点座標(例:原点座標)間の距離値を算出でき、事前に定義されたログ関数を利用して算出された距離値を変換することができる。例えば、コンピューティング装置100は下記の数学式2を利用して複数の格子それぞれの中心点座標と基準点座標間の変換された距離値(例:第2距離値)を算出することができる。
ここで、D2(ij)¬はi行j列に位置した格子と基準点の間の変換された距離値(例:第2距離値)、xijおよびyij i行j列に位置した格子中心点のx座標およびy座標、xrefおよびyrefは基準点のx座標およびy座標であり得る。ここで、基準点は原点であり、基準点座標は(0、0)であり得るが、これに限定されない。
すなわち、コンピューティング装置100は基準点座標と複数の格子それぞれの中心点座標間の距離値を算出するものの、ログ関数を通じて算出された距離値を変換することによって、入力される値の範囲を制限することができる。
S330段階で、コンピューティング装置100はS320段階で算出された距離値を利用して距離に関する第2特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100は前記の方法により算出された距離値(例:標準化された距離値またはログ関数を通じて変換された距離値)を予め設定された客体探知領域に対応するマトリックス上に入力して第2特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100は図8に図示された通り、複数の格子のうち第2行第5列に位置する格子と基準点の間の距離値(D25)(例:第1距離値または第2距離値)をマトリックスの第2行第5列に入力し、第5行第3列に位置する格子と基準点の間の距離値(D53)をマトリックスの第5行第3列に入力することによって、距離に関する第2特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100は前記の方法により算出された第1距離値および第2距離値それぞれに対する第2特徴マップを独立的なチャネルとして生成でき、独立的に生成された第2特徴マップをチャネル結合することで、距離に関する3次元の第2特徴マップ40を生成することができる。
図7は、多様な実施例において、角度に関する第2特徴マップを生成する方法を説明するためのフローチャートである。
図7を参照すると、S410段階で、コンピューティング装置100はXY平面基準で予め設定された客体探知領域を格子化して所定の大きさを有する複数の格子を生成することができる。ここで、コンピューティング装置100により遂行される複数の格子生成動作は図6のS310段階で遂行される複数の格子生成動作と同一の形態で具現され得るが、これに限定されない。
S420段階で、コンピューティング装置100はS410段階を経て生成された複数の格子と基準点の間の角度値を算出することができる。
多様な実施例において、コンピューティング装置100は複数の格子と基準点の間の角度値に対する三角比を第2角度値として算出することができる。例えば、コンピューティング装置100は複数の格子と基準点の間の角度に対するサイン(sin)値およびコサイン(cos)値を算出することができる。すなわち、コンピューティング装置100は角度に関する第2特徴マップを生成するために複数の格子と基準点の間の角度に対するサイン値およびコサイン値を算出することによって、算出される角度値の範囲を-1~1範囲内の値に定形化できるだけでなく、オイラー空間で周期性が有する距離の誤差に対する問題を解消することができる。
S430段階で、コンピューティング装置100はS420段階を経て算出された角度値を利用して角度に関する第2特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100は前記の方法により算出された角度値(例:第1角度値および第2角度値)を予め設定された客体探知領域に対応するマトリックス上に入力して第2特徴マップを生成することができる。例えば、コンピューティング装置100は図8に図示された通り、複数の格子のうち第2行第5列に位置する格子と基準点の間の角度値(θ25)をマトリックスの第2行第5列に入力し、第5行第3列に位置する格子と基準点の間の角度値(θ53)をマトリックスの第5行第3列に入力することによって、角度に関する第2特徴マップを生成することができる。
多様な実施例において、コンピューティング装置100は前記の方法により算出された第1角度値および第2角度値それぞれに対する第2特徴マップを独立的なチャネルとして生成でき、独立的に生成された第2特徴マップをチャネル結合することで、角度に関する3次元の第2特徴マップ40を生成することができる。
すなわち、コンピューティング装置100は距離に関する第2特徴マップと角度に関する第2特徴マップとリアルタイムで収集されるライダーセンサデータを加工して生成された第1特徴マップをチャネル結合して人工知能モデルの入力特徴マップを生成することによって、ライダーセンサデータの距離および角度に関する特徴を考慮できる入力特徴マップを生成することができるという利点がある。
また、コンピューティング装置100は前記の方法(例:図6および7)により客体探知領域を対象に距離に関する第2特徴マップと角度に関する第2特徴マップを事前に生成しておいて、今後予め設定された周期またはリアルタイムで収集されるライダーセンサデータを加工して生成される複数の第1特徴マップに対して同一の第2特徴マップを共通して結合することで、効率的に入力特徴マップを生成できるという利点がある。
以上、添付された図面を参照して本発明の実施例を説明したが、本発明が属する技術分野の通常の技術者は本発明がその技術的思想や必須の特徴を変更することなく他の具体的な形態で実施され得ることが理解できるであろう。したがって、以上で記述した実施例はすべての面で例示的なものであり、制限的ではないものと理解されるべきである。
200:使用者端末
300:外部サーバー
400:ネットワーク
Claims (10)
- コンピューティング装置によって遂行される方法において、
所定の地域に対する3次元ポイントクラウド形態のライダーセンサデータを収集する段階;
予め定義された一つ以上の指標を基準として前記収集されたライダーセンサデータを加工して一つ以上の第1特徴マップを生成する段階;および
前記生成された一つ以上の第1特徴マップと距離および角度を基準として予め生成された第2特徴マップそれぞれを個別的なチャネルとして結合して人工知能モデルの入力特徴マップを生成する段階を含む、ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法。 - 前記一つ以上の第1特徴マップを生成する段階は、
XY平面を基準として前記収集されたライダーセンサデータを格子化して複数の格子柱(pillar)を生成する段階;
前記生成された複数の格子柱それぞれに対して前記予め定義された一つ以上の指標を算出する段階;および
前記算出された一つ以上の指標を前記収集されたライダーセンサデータに対応するマトリックス上に入力して前記一つ以上の第1特徴マップを生成する段階を含む、請求項1に記載のライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法。 - 前記予め定義された一つ以上の指標は、
ライダーセンサポイントの数、最大高さ、最小高さおよび平均高さを含み、
前記一つ以上の第1特徴マップを生成する段階は、
前記ライダーセンサポイントの数、前記最大高さ、前記最小高さおよび前記平均高さそれぞれに対応する第1特徴マップを独立的なチャネルとして生成する段階を含む、請求項2に記載のライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法。 - XY平面基準で予め設定された客体探知領域を格子化して所定の大きさを有する複数の格子を生成する段階;
前記生成された複数の格子と基準点の間の距離に基づいて、距離に関する第2特徴マップを生成する段階;および
前記生成された複数の格子と前記基準点の間の角度に基づいて、角度に関する第2特徴マップを生成する段階をさらに含む、請求項1に記載のライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法。 - 前記距離に関する第2特徴マップを生成する段階は、
前記生成された複数の格子それぞれの中心点座標と前記基準点座標間の距離値を算出する段階;
予め設定された最大距離値を利用して前記算出された距離値を標準化する段階;および
前記予め設定された客体探知領域に対応するマトリックス上に前記標準化された距離値を入力して前記距離に関する第2特徴マップを生成する段階を含む、請求項4に記載のライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法。 - 前記距離に関する第2特徴マップを生成する段階は、
前記生成された複数の格子それぞれの中心点座標と前記基準点座標間の距離値を算出する段階;
事前に定義されたログ関数を利用して前記算出された距離値を変換する段階;および
前記予め設定された客体探知領域に対応するマトリックス上に前記変換された距離値を入力して前記距離に関する第2特徴マップを生成する段階を含む、請求項4に記載のライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法。 - 前記角度に関する第2特徴マップを生成する段階は、
前記生成された複数の格子それぞれの中心点と前記基準点を連結する線とX軸またはY軸の間の角度値を算出する段階;
オイラー角度変換を利用して前記算出された角度値を変換する段階;および
前記変換された角度値を前記予め設定された客体探知領域に対応するマトリックス上に入力して前記角度に関する第2特徴マップを生成する段階を含む、請求項4に記載のライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法。 - 前記角度に関する第2特徴マップを生成する段階は、
前記生成された複数の格子それぞれの中心点と前記基準点を連結する線とX軸またはY軸の間の角度値を算出する段階;
前記算出された角度値に対する三角比を算出する段階;および
前記予め設定された客体探知領域に対応するマトリックス上に前記算出された三角比を入力して前記角度に関する二つの第2特徴マップを生成する段階を含む、請求項4に記載のライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法。 - プロセッサ;
ネットワークインターフェース;
メモリ;および
前記メモリにロード(load)され、前記プロセッサによって実行されるコンピュータプログラムを含むものの、
前記コンピュータプログラムは、
所定の地域に対する3次元ポイントクラウド形態のライダーセンサデータを収集するインストラクション(instruction);
予め定義された一つ以上の指標を基準として前記収集されたライダーセンサデータを加工して一つ以上の第1特徴マップを生成するインストラクション;および
前記生成された一つ以上の第1特徴マップと距離および角度を基準として予め生成された第2特徴マップそれぞれを個別的なチャネルとして結合して人工知能モデルの入力特徴マップを生成するインストラクションを含む、ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成装置。 - コンピューティング装置と結合されて、
所定の地域に対する3次元ポイントクラウド形態のライダーセンサデータを収集する段階;
予め定義された一つ以上の指標を基準として前記収集されたライダーセンサデータを加工して一つ以上の第1特徴マップを生成する段階;および
前記生成された一つ以上の第1特徴マップと距離および角度を基準として予め生成された第2特徴マップそれぞれを個別的なチャネルとして結合して人工知能モデルの入力特徴マップを生成する段階を実行させるためにコンピュータで読み取り可能な記録媒体に保存された、コンピュータで読み取り可能な記録媒体に記録されたコンピュータプログラム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2021-0118205 | 2021-09-06 | ||
| KR1020210118205A KR102382448B1 (ko) | 2021-09-06 | 2021-09-06 | 라이다 기반 객체 탐지를 위한 인공지능 모델의 입력 특징맵 생성방법, 장치 및 컴퓨터프로그램 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023038178A true JP2023038178A (ja) | 2023-03-16 |
| JP7426744B2 JP7426744B2 (ja) | 2024-02-02 |
Family
ID=81182664
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022140888A Active JP7426744B2 (ja) | 2021-09-06 | 2022-09-05 | ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法、装置およびコンピュータプログラム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12474475B2 (ja) |
| EP (1) | EP4145177B1 (ja) |
| JP (1) | JP7426744B2 (ja) |
| KR (1) | KR102382448B1 (ja) |
| CN (1) | CN115775306B (ja) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230074860A1 (en) * | 2021-09-08 | 2023-03-09 | Motional Ad Llc | Machine learning-based point cloud alignment classification |
| KR102548866B1 (ko) * | 2022-06-24 | 2023-06-29 | 주식회사 와따 | 3d 지오펜스를 이용한 위험 발생 감지 방법, 서버 및 컴퓨터프로그램 |
| KR102597288B1 (ko) * | 2022-12-15 | 2023-11-02 | 주식회사 포도 | 라이다 포인트 클라우드 데이터 분류기 경량화를 위한 지식증류 장치 및 방법 |
| KR102646894B1 (ko) * | 2022-12-19 | 2024-03-14 | 주식회사 딥엑스 | 고정된 기기 또는 이동가능한 기기에 장착되고, 인공지능 반도체를 탑재한 전자 장치 |
| KR20250045263A (ko) | 2023-09-25 | 2025-04-01 | 서강대학교산학협력단 | 에너지 기반기술을 이용한 개인 탐색 장치 |
| KR20250127652A (ko) | 2024-02-19 | 2025-08-26 | 주식회사 그로브 | 퍼스널 컬러의 의류 매칭 시스템 및 방법 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017203766A (ja) * | 2016-05-10 | 2017-11-16 | 株式会社デンソー | 立体物検出処理装置 |
| US20200150235A1 (en) * | 2018-11-08 | 2020-05-14 | Aptiv Technologies Limited | Deep learning for object detection using pillars |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10137890B2 (en) * | 2016-06-28 | 2018-11-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Occluded obstacle classification for vehicles |
| US20200047337A1 (en) * | 2016-07-13 | 2020-02-13 | Discovery Robotics | Robotic platform with event based mode change |
| CN107092020B (zh) * | 2017-04-19 | 2019-09-13 | 北京大学 | 融合无人机LiDAR和高分影像的路面平整度监测方法 |
| CN113228043B (zh) * | 2019-01-22 | 2025-05-16 | 深圳市卓驭科技有限公司 | 移动平台基于神经网络的障碍物检测及关联的系统和方法 |
| US12002361B2 (en) * | 2019-07-03 | 2024-06-04 | Cavh Llc | Localized artificial intelligence for intelligent road infrastructure |
| KR102211483B1 (ko) * | 2019-08-01 | 2021-02-02 | 연세대학교 산학협력단 | 레이저 어레이 패턴 분석 기반 물체 정보 추정 장치 및 방법 |
| CN110440811B (zh) * | 2019-08-29 | 2021-05-14 | 湖北三江航天红峰控制有限公司 | 一种通用型自主导航控制方法、装置及设备终端 |
| US11906660B2 (en) * | 2019-08-30 | 2024-02-20 | Nvidia Corporation | Object detection and classification using LiDAR range images for autonomous machine applications |
| GB2591171B (en) * | 2019-11-14 | 2023-09-13 | Motional Ad Llc | Sequential fusion for 3D object detection |
| US11532168B2 (en) * | 2019-11-15 | 2022-12-20 | Nvidia Corporation | Multi-view deep neural network for LiDAR perception |
| CN113065590B (zh) * | 2021-03-26 | 2021-10-08 | 清华大学 | 一种基于注意力机制的视觉与激光雷达多模态数据融合方法 |
-
2021
- 2021-09-06 KR KR1020210118205A patent/KR102382448B1/ko active Active
-
2022
- 2022-09-05 US US17/929,717 patent/US12474475B2/en active Active
- 2022-09-05 EP EP22193977.0A patent/EP4145177B1/en active Active
- 2022-09-05 JP JP2022140888A patent/JP7426744B2/ja active Active
- 2022-09-06 CN CN202211085378.7A patent/CN115775306B/zh active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017203766A (ja) * | 2016-05-10 | 2017-11-16 | 株式会社デンソー | 立体物検出処理装置 |
| US20200150235A1 (en) * | 2018-11-08 | 2020-05-14 | Aptiv Technologies Limited | Deep learning for object detection using pillars |
Non-Patent Citations (2)
| Title |
|---|
| LI, JIONG、他4名: "A Fast Obstacle Detection Method by Fusion of Double-Layer Region Growing Algorithm and Grid-SECOND", IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), IEEE ACCESS, JPN6023031810, 28 December 2019 (2019-12-28), pages 32053 - 32063, ISSN: 0005121155 * |
| TU, JIAYIN、他2名: "PP-RCNN: Point-Pillars Feature Set Abstraction for 3D Real-time Object Detection", INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN), JPN6023031809, 18 July 2021 (2021-07-18), pages 1 - 8, ISSN: 0005121154 * |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7426744B2 (ja) | 2024-02-02 |
| US12474475B2 (en) | 2025-11-18 |
| CN115775306B (zh) | 2025-10-28 |
| US20230072682A1 (en) | 2023-03-09 |
| EP4145177B1 (en) | 2025-01-15 |
| CN115775306A (zh) | 2023-03-10 |
| EP4145177A1 (en) | 2023-03-08 |
| KR102382448B1 (ko) | 2022-04-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2023038178A (ja) | ライダー基盤客体探知のための人工知能モデルの入力特徴マップ生成方法、装置およびコンピュータプログラム | |
| US10705188B2 (en) | Laser point cloud positioning method and system | |
| US20210373161A1 (en) | Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles | |
| KR102735874B1 (ko) | 3차원 포인트 클라우드 데이터로부터 지표면 데이터를 생성하는 방법, 장치 및 컴퓨터프로그램 | |
| US20230056869A1 (en) | Method of generating deep learning model and computing device performing the same | |
| KR102643538B1 (ko) | 자율주행 환경에서 이종 센서 데이터 간 오토 캘리브레이션 방법, 장치 및 컴퓨터프로그램 | |
| KR20230095162A (ko) | 이미지 데이터 및 라이다 센서 데이터를 이용한 객체의 동선 추적방법, 서버 및 컴퓨터프로그램 | |
| KR102606630B1 (ko) | 차량 인근의 장애물 예측 및 주행계획 수립을 위한 인공지능 모델을 이용한 점유 격자 지도 생성 방법, 장치 및 컴퓨터프로그램 | |
| KR20230095163A (ko) | 라이다 포인트 클라우드 데이터 기반 객체의 동선 추적방법, 서버 및 컴퓨터프로그램 | |
| CN116432690B (zh) | 基于马尔科夫的智能决策方法、装置、设备及存储介质 | |
| KR102481367B1 (ko) | 포인트 클라우드 데이터로부터 지표면 데이터를 생성하기 위한 인공지능 모델의 학습 방법, 장치 및 컴퓨터프로그램 | |
| KR102606632B1 (ko) | 인공지능 기반 자율주행 차량의 주행 경로 보정방법, 장치 및 컴퓨터프로그램 | |
| US12330666B2 (en) | Method, apparatus, and computer program for modeling driving route for automatic driving of vehicle | |
| JP7483236B2 (ja) | ライダポイントクラウド基盤の3dジオフェンスを利用した物流管理ソリューション提供方法、装置およびコンピュータプログラム | |
| KR102581969B1 (ko) | 객체 인식률 향상을 위한 라이다 포인트 클라우드의 보간 방법, 장치 및 컴퓨터프로그램 | |
| CN116302364B (zh) | 自动驾驶可靠性测试方法、装置、设备、介质和程序产品 | |
| CN119394287A (zh) | 一种地图轨迹优化方法、装置、计算机设备及存储介质 | |
| CN115376086A (zh) | 车道线生成方法、装置、计算机设备和存储介质 | |
| KR102507906B1 (ko) | 저용량 ndt 지도를 이용한 자율주행 차량의 측위 방법, 장치 및 컴퓨터프로그램 | |
| KR102826565B1 (ko) | 차량의 로깅 데이터 기반 차량의 동역학적 특성을 나타내는 차량 모델 추정방법, 장치 및 컴퓨터프로그램 | |
| CN113989188A (zh) | 一种物体检测方法及其相关设备 | |
| KR102866679B1 (ko) | 기상 데이터를 기반으로 학습된 인공지능 모델을 통해, 수소 충전소의 수요 예측량을 산출하는 전자 장치, 제어 방법, 및 컴퓨터 프로그램 | |
| KR102671815B1 (ko) | 자율주행을 위한 객체 인지 방법, 장치 및 컴퓨터프로그램 | |
| KR102839276B1 (ko) | 딥러닝 기반의 측위에서 액세스 포인트의 기여도 평가 방법 및 분석 장치 | |
| US12455173B2 (en) | Training machine learning models based on movement and timing data |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220905 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230719 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230802 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240115 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240116 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7426744 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |