[go: up one dir, main page]

JP2019149142A - 対象物標識のためのシステムおよび方法 - Google Patents

対象物標識のためのシステムおよび方法 Download PDF

Info

Publication number
JP2019149142A
JP2019149142A JP2018153246A JP2018153246A JP2019149142A JP 2019149142 A JP2019149142 A JP 2019149142A JP 2018153246 A JP2018153246 A JP 2018153246A JP 2018153246 A JP2018153246 A JP 2018153246A JP 2019149142 A JP2019149142 A JP 2019149142A
Authority
JP
Japan
Prior art keywords
object labeling
module
result
labeling
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018153246A
Other languages
English (en)
Other versions
JP6686080B2 (ja
Inventor
為博 粘
Wei-Po Nien
為博 粘
宗賢 楊
Chung-Hsien Yang
宗賢 楊
淳富 莊
Chun-Fu Chuang
淳富 莊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2019149142A publication Critical patent/JP2019149142A/ja
Application granted granted Critical
Publication of JP6686080B2 publication Critical patent/JP6686080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】対象物標識のためのシステム及び方法を提供する。
【解決手段】対象物標識システム1aは、第1の対象物標識モジュール、第2の対象物標識モジュール、標識統合モジュール、およびフレーム間追跡モジュールを含む。第1の対象物標識モジュールは、2Dビデオのフレームの1つである第1の2D画像に従って第1の対象物標識結果を生成するように構成される。第2の対象物標識モジュールは、3D情報に従って第2の2D画像を生成し、3D情報および第2の2D画像に従って第2の対象物標識結果を生成するように構成される。標識統合モジュールは、第1の対象物標識結果および第2の対象物標識結果に従って第3の対象物標識結果を生成するように構成される。フレーム間追跡モジュールは、第3の対象物標識結果に従ってフレーム間対象物標識プロセスを実行して、第4の対象物標識結果を生成するように構成される。
【選択図】図1A

Description

本開示は、対象物標識(object labeling)のためのシステムおよび方法に関する。
対象物検出の技術は、自走、衛星画像解析、車両リアルタイムモニタリングなど、多くの分野で広く応用されている。自動対象物検出システムを構築する過程において、標識の精度を向上させるために、自己学習のための対象物標識モデルのために多大な量のトレーニングデータが提供される必要がある。しかしながら、従来技術では、トレーニングデータの大部分は、手動標識、または半手動標識(すなわち、低レベルの人工知能によって標識されて、その後、手動で標識または調節される)に依存する。したがって、多大な量のトレーニングデータを提供するためには、多大な人的資源を消費する必要がある。
一方、トレーニングデータを提供するのにあまりにも多くの人的資源を費やさないと決定され、対象物標識に低レベルの人工知能のみが使用される場合、標識結果の正確さの要件を満たすことが困難な場合がある。
特許文献1では、ポータブルデバイス上の画像アノテーションが開示されている。特許文献1は、画像およびビデオの自動アノテーションのためのシステムを開示しており、モバイルデバイスは、対象物のアノテーション付きで場面の画像を表示するために、建造物または景観などの関心のある対象物に向けられる。アノテーションには、名称、歴史的情報、ならびに画像、ビデオ、およびオーディオファイルのデータベースへのリンクが含まれ得る。アノテーションの位置的な配置を決定するために様々な技法を使用することができ、複数の技法を使用することにより、より正確かつ信頼できる位置決めを行うことができる。アノテーション情報の詳細レベルは、使用される技術の精度に応じて調節することができる。アノテーションの精度と、通信コスト、遅延および/または電力消費との間のトレードオフを考慮に入れることができる。アノテーションデータベースは、自己組織化の方法で更新することができる。Web上で公開されている公開情報は、アノテーションデータに変換することができる。
米国特許出願公開第2012/0300089号明細書
本開示は、対象物を標識するためのシステムおよび方法を提供することを目的とする。
本開示の実施形態は、第1の対象物標識モジュール(object labeling module)、第2の対象物標識モジュール、標識統合モジュール(label integrating module)、およびフレーム間追跡モジュール(inter-frame tracking module)を含む対象物標識システム(object labeling system)を開示する。第1の対象物標識モジュールは、2Dビデオのフレームの1つである第1の2D画像に従って第1の対象物標識結果(object labeling result)を生成するように構成される。第2の対象物標識モジュールは、3D情報に従って第2の2D画像を生成し、3D情報および第2の2D画像に従って第2の対象物標識結果を生成するように構成される。標識統合モジュールは、第1の対象物標識結果および第2の対象物標識結果に従って第3の対象物標識結果を生成するように構成される。フレーム間追跡モジュールは、第3の対象物標識結果に従ってフレーム間対象物標識プロセス(inter-frame object labeling process)を実行して、第4の対象物標識結果を生成するように構成される。
本開示の実施形態は、対象物標識方法(object labeling method)を開示し、対象物標識方法が、第1の対象物標識モジュールにより、2Dビデオの画像フレームの1つである第1の2D画像に従って第1の対象物標識結果を生成することと;第2の対象物標識モジュールにより、3D情報に従って第2の2D画像を生成し、3D情報および第2の2D画像に従って第2の対象物標識結果を生成することと;標識統合モジュールにより、第1の対象物標識結果および第2の対象物標識結果に従って第3の対象物標識結果を生成することと;フレーム間追跡モジュールにより、第3の対象物標識結果に従ってフレーム間対象物標識プロセスを実行して、第4の対象物標識結果を取得することとを含む。
本発明の上記および他の態様は、好ましいが非限定的な(1つまたは複数の)実施形態の以下の詳細な説明に関して、よりよく理解される。以下の説明は、添付図面を参照してなされる。
本開示の一実施形態による対象物標識のためのシステムのブロック図である。 本開示の別の実施形態による対象物標識のためのシステムのブロック図である。 本開示の一実施形態による対象物標識のための方法のフローチャートである。 本開示の別の実施形態による対象物標識のための方法のフローチャートである。 対象物標識のための方法を実行する工程の概略図である。 対象物標識のための方法を実行する工程の概略図である。 対象物標識のための方法を実行する工程の概略図である。 対象物標識のための方法を実行する工程の概略図である。 フレーム間対象物標識プロセスを実行する工程の概略図である。 フレーム間対象物標識プロセスを実行する工程の概略図である。 フレーム間対象物標識プロセスを実行する工程の概略図である。 フレーム間対象物標識プロセスを実行する工程の概略図である。
図1Aを参照すると、図1Aは、本開示の一実施形態による対象物標識(object labeling)のためのシステムのブロック図を示す。また、理解のために、図2Aに示される対象物標識のための方法や、図3A〜3Cに示される概略図も参照されたい。対象物標識システム(object labeling system)1aは、画像またはビデオ内の対象物を検出し、認識し、標識(label)するように構成され得る。対象物は、画像またはビデオにおける歩行者、自動二輪車、車、またはそれらの組み合わせを含み得る。対象物標識システム1aは、第1の対象物標識モジュール(object labeling module)12と、第2の対象物標識モジュール14と、標識統合モジュール(label integrating module)16と、フレーム間追跡モジュール(inter-frame tracking module)19とを含む。一実施形態では、対象物標識システム1aは、トレーニングデータ生成モジュール(training data generating module)18をさらに含んでいてもよい。別の実施形態では、トレーニングデータ生成モジュール18は、対象物標識システム1aに結合された外部装置(図示せず)内に構成される。すなわち、トレーニングデータ生成モジュール18は、対象物標識システム1aに選択的に含まれる。
第1の対象物標識モジュール12は、第1の二次元(2D)画像2Dimg1を受け取るように構成される。一実施形態では、第1の2D画像2Dimg1は、2Dカメラによって取得されたリアルタイム画像である。別の実施形態では、第1の2D画像2Dimg1は、コンピュータ可読記憶装置に格納された2D画像である。第1の2D画像2Dimg1は、個々の2D画像、写真、または2Dビデオの画像フレームの1つであってもよい。本明細書で説明する「画像フレーム(image frame)」は、ビデオのフレームを指す。たとえば、フレームレートが25fpsのビデオは、1秒あたり25枚の画像フレームを有する。
第1の対象物標識モジュール12は、第1の2D画像2Dimg1に従って、第1の対象物標識結果(object labeling result)LABEL1を生成する(ステップS202)。一実施形態では、第1の対象物標識モジュール12は、自己学習(self-learning)(たとえば、深層学習(deep learning))の機能を有する、1つまたは複数のコンピュータ可読媒体に格納されたアプリケーション、コンピュータ可読命令、プログラムまたはプロセスである。第1の対象物標識モジュール12が1つまたは複数のプロセッサによって実行されるとき、第1の対象物標識結果LABEL1を生成するために、第1の2D画像2Dimg1内の(1つまたは複数の)対象物を認識して、標識することが実行され得る(たとえば、1つまたは複数の対象物が、歩行者、自動二輪車、車などの対象物タイプ(object type)により、フレーム化され、標識され得る)。たとえば、(1つまたは複数の)対象物を標識するとき、第1の対象物標識モジュール12は、最初に、1つまたは複数のフィルタを使用することによって、対象物認識に影響を及ぼすノイズまたは他の情報をフィルタリングしてもよい。次に、第1の対象物標識モジュール12は、(1つまたは複数の)対象物である可能性のある(1つまたは複数の)輪郭(contour)を見つけ出し、その(1つまたは複数の)輪郭に従って、(1つまたは複数の)輪郭が(1つまたは複数の)対象物であるかどうかを判定する。輪郭が対象物として判定される場合、第1の対象物標識モジュール12は、対象物の対象物タイプをさらに判定する。第1の対象物標識モジュール12は、認識された全ての対象物を対象物フレーム(object frame)によってフレーム化し、対象物タイプをそれぞれ標識して、第1の対象物標識結果LABEL1を生成する。別の実施形態では、第1の対象物標識モジュール12は、Faster R−CNN、SSD、およびYOLOv2などの既存の対象物標識モジュールを使用することができる。
たとえば、図3Aに示されるように、第1の対象物標識モジュール12によって生成された第1の対象物標識結果LABEL1は、それぞれ車、車および歩行者の対象物タイプを有する対象物フレーム301、302、303によってフレーム化された対象物を含んでいる。
第2の対象物標識モジュール14は、第1の対象物標識モジュール12に結合され、三次元(3D)情報3Dinfoを受け取るように構成される。一実施形態では、3D情報3Dinfoは、3Dカメラまたは空間センサ(たとえば、LIDAR)によって取得または感知されたリアルタイム3D画像またはリアルタイム情報である。別の実施形態では、3D情報は、コンピュータ可読記憶装置に格納された画像またはデータである。さらに別の実施形態では、3D情報3Dinfoおよび第1の2D画像2Dimg1は、多数の異種センサを含む1つまたは複数の装置によって、実質的に同じ角度および同じ時間に同じ領域を撮影または感知することによって取得される。異種とは、たとえば、2Dセンサおよび3Dセンサを意味し、2つのセンサが、2つのセンサによって感知され得る次元が異なり、基本的に異なることを意味する。3D情報3Dinfoは、撮影もしくは感知領域におけるそれぞれのポイントの位置(たとえば、3D座標)、色情報(たとえば、RGB値)、(1つもしくは複数の)対象物の奥行き、(1つもしくは複数の)対象物に光が照射されることによって生成される反射光の強度、またはこれらの組み合わせを表す点群(point cloud)を含み得る。
第2の対象物標識モジュール14は、3D情報3Dinfoに従って、第2の2D画像を生成し、3D情報3Dinfoおよび第2の2D画像に従って、第2の対象物標識結果LABEL2を生成することができる(ステップS204)。一実施形態では、第2の対象物標識モジュール14は、1つまたは複数のコンピュータ可読媒体に格納されたアプリケーション、コンピュータ可読命令、プログラムまたはプロセスである。第2の対象物標識モジュール14が1つまたは複数のプロセッサによって実行されるとき、以下のステップ、すなわち、当業者に周知の変換ロジックまたは変換アルゴリズムを使用して3D情報を第2の2D画像に変換することと、3D情報3Dinfoに基づいて1つまたは複数の対象物の位置、サイズ、輪郭などを導き出すことと、(1つまたは複数の)対象物フレームを用いることにより第2の2D画像内の導き出された(1つまたは複数の)対象物をフレーム化して、第2の対象物標識結果LABEL2を生成することとが実行され得る。
たとえば、図3Bに示されるように、第2の対象物標識モジュール14によって生成された第2の対象物標識結果LABEL2は、それぞれ車、歩行者および歩行者の対象物タイプを有する対象物フレーム301、303、304によってフレーム化された対象物を含んでいる。なお、第2の2D画像は、3D情報3Dinfoに基づいて生成されるため、第2の2D画像は、第1の2D画像2Dimg1と異なり得る。図3A〜3Cは、説明の目的のみのためであり、本開示を限定するものではない。
標識統合モジュール16は、第1の対象物標識モジュール12および第2の対象物標識モジュール14に結合される。標識統合モジュール16は、第1の対象物標識結果LABEL1および第2の対象物標識結果LABEL2に従って、第3の対象物標識結果LABEL3を生成することができる(ステップS206)。一実施形態では、標識統合モジュール16は、1つまたは複数のコンピュータ可読媒体に格納されたアプリケーション、コンピュータ可読命令、プログラムまたはプロセスである。標識統合モジュール16が1つまたは複数のプロセッサによって実行されるとき、以下のステップ、すなわち、第1の対象物標識結果LABEL1および第2の対象物標識結果LABEL2に従って第3の対象物標識結果LABEL3を生成することが実行され得る。一実施形態では、標識統合モジュール16は、第1の対象物標識結果LABEL1と第2の対象物標識結果LABEL2との和集合(union)を第3の対象物標識結果LABEL3として導出する。すなわち、第3の対象物標識結果LABEL3で標識された(1つまたは複数の)対象物は、第1の対象物標識結果LABEL1で標識された(1つまたは複数の)対象物と、第2の対象物標識結果LABEL2で標識された(1つまたは複数の)対象物とを含んでいてもよい。たとえば、図3Cに示されるように、第3の対象物標識結果LABEL3は、それぞれ車、車、歩行者および歩行者の対象物タイプを有する対象物フレーム301、302、303、304によってフレーム化された対象物を含む。
フレーム間追跡モジュール19は、標識統合モジュール16に結合される。一実施形態では、フレーム間追跡モジュール19は、1つまたは複数のコンピュータ可読媒体に格納されたアプリケーション、コンピュータ可読命令、プログラムまたはプロセスである。フレーム間追跡モジュール19が1つまたは複数のプロセッサによって実行されるとき、以下のプロセス、すなわち、第3の対象物標識結果LABEL3に従ってフレーム間対象物標識プロセス(inter-frame object labeling process)を実行して、第4の対象物標識結果LABEL4を生成することを実行し得る(ステップS207)。
フレーム間対象物標識処理を明確に示すために、図2Bに示されるフレーム間対象物標識処理のフローチャート、および図4A〜4Dに示されるフレーム間対象物標識処理の概略図を参照されたい。
フレーム間対象物標識処理は、ステップS2071およびS2073を含む。ステップS2071において、フレーム間追跡モジュール19は、第3の対象物標識結果LABEL3内で少なくとも1つの第1の対象物フレーム(たとえば、図4Aの601、605)を見つける。ステップS2073において、フレーム間追跡モジュール19は、アルゴリズムに従って、以前の画像フレームまたは後続の画像フレーム内(または、第1の2D画像2Dimg1の以前の画像フレームもしくは後続のフレームに従って生成された第3の対象物標識結果)の少なくとも1つの第1の対象物フレームのそれぞれに対応する位置で、第1の対象物フレームに対して特定のサイズを有する第2の対象物フレームを標識して、第4の対象物標識結果LABEL4を生成する(たとえば、図4B〜4Dの602、603、604)。
一実施形態では、図4A〜4Dは、図4Dが最初にタイムライン上に現れ、図4C、図4Bおよび図4Aがその後に続く、2Dビデオの4つの画像フレームであってもよい。場合によっては、図4Dの対象物である自動二輪車Oだけでなく、図4Cおよび図4Bの画像フレームの対象物も、第1の対象物標識モジュール12および第2の対象物標識モジュール14によって認識され、標識されるのに十分な大きさではないので、図4Aの画像フレームになってやっと、対象物である自動二輪車Oが正常に標識される。つまり、フレーム間対象物追跡処理を実行する前には、対象物フレーム601以外に対象物フレーム602、603、604は存在しない。フレーム間対象物追跡処理を実行するとき、フレーム間追跡モジュール19は、たとえばオプティカルフローアルゴリズム(optical flow algorithm)に従って、対象物である自動二輪車Oの速度および移動方向を導出でき、対象物である自動二輪車Oが近づいているという結果を得ることができる。次に、フレーム間追跡モジュール19は、ビデオ内の以前の画像フレーム(すなわち図4B)内の対象物フレーム601に対応する位置を見つけ、対象物である自動二輪車Oの導出された速度に従って対象物フレーム602のサイズを導出し、対象物である自動二輪車Oに標識するために、以前の画像フレーム上の対象物フレーム602にマークを付ける。フレーム間追跡モジュール19は、上述した動作を繰り返して、第4の対象物標識結果LABEL4として対象物フレーム603、604を標識する。一実施形態では、第4の対象物標識結果LABEL4は、トレーニングデータ生成モジュール18に入力されてもよい。
別の実施形態では、図4A〜4Dは、図4Aが最初にタイムライン上に現れ、図4B、図4Cおよび図4Dがその後に続く、2Dビデオの4つの画像フレームであってもよい。この実施形態と前の実施形態との間の相違点は、フレーム間追跡モジュール19が、対象物である自動二輪車Oを標識するために、ビデオ内の後続の画像フレーム内で、対象物フレーム601に対応する位置を見つけることができることである。
一実施形態では、対象物標識システム1aは、第3の対象物標識結果LABEL3、第4の対象物標識結果LABEL4またはそれらの組み合わせを格納するように構成されたレジスタ(register)(図示せず)をさらに含んでいてもよい。フレーム間追跡モジュール19によってフレーム間対象物標識処理が実行されるとき、以前の1つ(または複数)の画像フレームに従って生成された(1つまたは複数の)第3の対象物標識結果LABEL3がレジスタから抽出されてもよい。
一実施形態では、フレーム間追跡モジュール19は、対象物フレーム602を、対象物フレーム601の特定の比率、たとえば0.5のサイズで標識することができるが、本開示はこれに限定されない。
また、図4A〜4Dに示されるように、対象物フレーム605によって標識された対象物は静的な対象物であるので、対象物フレーム605は、常に図4A〜4Dに存在し、サイズは変化しない。
トレーニングデータ生成モジュール18は、フレーム間追跡モジュール19に結合される。トレーニングデータ生成モジュール18は、第4の対象物標識結果LABEL4に従って(または第3の対象物標識結果LABEL3および第4の対象物標識結果LABEL4に従って)トレーニングデータ(training data)Tdataを生成することができ、トレーニングデータTdataを第1の対象物標識モジュール12に提供することができる(ステップS208)。なお、ステップS208は、選択的に実行されてもよい。たとえば、トレーニングデータ生成モジュール18が対象物標識システム1aに含まれる場合に、ステップS208が実行されてもよく、トレーニングデータ生成モジュール18が対象物標識システム1aの外部に配置されている(すなわち、トレーニングデータ生成モジュール18が対象物標識システム1aに含まれていない)場合、ステップS208はこのプロセスに含まれなくてもよく、他のプロセスで実行されてもよい。一実施形態では、トレーニングデータ生成モジュール18は、1つまたは複数のコンピュータ可読媒体に格納されたアプリケーション、コンピュータ可読命令、プログラムまたはプロセスである。トレーニングデータ生成モジュール18が1つまたは複数のプロセッサによって実行されるとき、第4の対象物標識結果LABEL4に基づいてトレーニングデータTdataを生成し、トレーニングデータTdataを第1の対象物標識モジュール12に提供することができる。
一実施形態では、トレーニングデータ生成モジュール18は、第4の対象物標識結果LABEL4に従って(または第3の対象物標識結果LABEL3および第4の対象物標識結果LABEL4に従って)テキストファイル(たとえば、txtファイル)を生成してもよい。テキストファイルの内容は、第4の対象物標識結果LABEL4で標識された(1つまたは複数の)対象物の対象物タイプ、位置およびサイズを記録する。すなわち、テキストファイルは、第4の対象物標識結果LABEL4で標識された(1つまたは複数の)対象物の記述であり、または、テキストファイルは、第4の対象物標識結果LABEL4で標識された(1つまたは複数の)対象物を記述するために使用される。トレーニングデータ生成モジュール18は、第4の対象物標識結果LABEL4を、トレーニングデータTdataとしてテキストファイルに関連付けることができ、トレーニングデータTdataを第1の対象物標識モジュール12に提供することができる。一実施形態では、トレーニングデータ生成モジュール18によってトレーニングデータTdataが生成された後、トレーニングデータ生成モジュール18は、トレーニングデータTdataをデータベースに格納することができる。第1の対象物標識モジュール12は、標識の精度を向上させるために、データベースに格納されたデータを読み取ることによって自己学習を実行してもよい。
一実施形態では、トレーニングデータTdataは、第1のグラウンドトゥルース(ground truth)として第1の対象物標識モジュール12によって使用される。第1の対象物標識モジュール12は、第1の対象物標識結果LABEL1とトレーニングデータTdata(すなわち、第1のグラウンドトゥルース)とを比較し、両者の差異または類似度(similarity)を計算することができる。たとえば、第1の対象物標識モジュール12は、第1の信頼度(confidence)を得るために、第1の対象物標識結果LABEL1とトレーニングデータTdataとの間の共通部分/和集合(IOU)(intersection over union (IOU))を計算する。ここで、IOUは、たとえば、両者で標識された対象物の共通部分の数を、両者で標識された対象物の和集合の数で割ることにより計算されてもよい。たとえば、図3Aおよび3Cを参照すると、第4の対象物標識結果LABEL4と第3の対象物標識結果LABEL3とが同一であり、対応するテキストファイルがトレーニングデータとして使用されるとすると、第1の対象物標識結果LABEL1と第4の対象物標識結果LABEL4との間のIOUは75%である。第1の対象物標識結果LABEL1とトレーニングデータTdataとの差が小さい(またはIOUが大きい)ほど、第1の信頼度が高くなる。すなわち、第1の対象物標識モジュール12が第1のグラウンドトゥルースに近づく。第1の対象物標識モジュール12の精度が高くなると考えられる。逆に、第1の対象物標識結果LABEL1とトレーニングデータTdataとの差が大きい(またはIOUが小さい)ほど、第1の信頼度は低くなる。さらに、第1の対象物標識モジュール12は、トレーニングデータTdataに従って第1の対象物標識モジュール12の1つまたは複数のパラメータを調節してもよい。複数の調節および修正の後、第1の対象物標識モジュール12によって生成された第1の対象物標識結果LABEL1は、トレーニングデータTdataにますます類似し得る、すなわち、精度がより高くなり得る。
一実施形態では、第2の対象物標識モジュール14は、第2のグラウンドトゥルースおよび第2の対象物標識結果LABEL2に従って第2の信頼度を計算してもよい。第2のグラウンドトゥルースは、第2の2D画像内の対象物を標識するためのユーザの入力を受け取ることによって生成されてもよいし、(以前の第4の対象物標識結果LABEL4または以前のトレーニングデータTdataに従って)ニューラルネットワークによる計算によって生成されてもよい。第2の対象物標識モジュール14は、第2の信頼度を得るために、第2の対象物標識結果LABEL2と第2のグラウンドトゥルースとの間の差異または類似度(たとえば、IOU)を計算する。第2の信頼度が高いほど、第2の対象物標識結果LABEL2が第2のグラウンドトゥルースに近づき、精度が高くなる。
一実施形態では、標識統合モジュール16は、第1の信頼度および第2の信頼度に従って重み付け比(weight ratio)を決定してもよい。標識統合モジュール16は、重み付け比に従って、使用される第1の対象物標識結果LABEL1と第2の対象物標識結果LABEL2との比を決定してもよい。たとえば、より低い明度の環境では、第1の対象物標識モジュール12は、より低い第1の信頼度を有し、第2の対象物標識モジュール14は、より高い第2の信頼度を有していてもよい。この場合、標識統合モジュール16は、重み付け比が第2の対象物標識モジュール14に偏っていると判定することができる。すなわち、標識統合モジュール16は、第1の対象物標識結果LABEL1と第2の対象物標識結果LABEL2とを統合することにより、第2の対象物標識結果LABEL2で標識された対象物をより多く使用し、第1の対象物標識結果LABEL1で標識された対象物をより少なく使用する。
一実施形態では、トレーニングデータ生成モジュール18は、第4の対象物標識結果LABEL4および第3のグラウンドトゥルースに従って、第3の信頼度を計算することができ、第3のグラウンドトゥルースは、たとえば以前の標識結果または以前のトレーニングデータに従って、ニューラルネットワークにより計算することができる。トレーニングデータ生成モジュール18は、第3の信頼度に従って手動支援標識プロセス(manual assisted labeling process)を可能にするか否かを決定することができる。たとえば、第3の信頼度が閾値よりも低い場合、トレーニングデータ生成モジュール18は、手動支援標識プロセスを可能にすることを決定してもよい。手動支援標識プロセスが可能である場合、トレーニングデータ生成モジュール18は、たとえばユーザインターフェースを介して、ユーザからの(1つまたは複数の)入力を受け取り、第3の対象物標識結果LABEL3、トレーニングデータTdata、またはそれらの組み合わせを調節または修正し、たとえば、誤って標識された(1つまたは複数の)対象物を取り除き、標識された対象物の対象物タイプを変更し、標識されていない対象物を標識し、または、それらの組み合わせを行うことができる。一実施形態では、第1の対象物標識モジュール12および第2の対象物標識モジュール14が、1つまたは複数の対象物が対象であるかどうかを判定する際に相違がある場合、トレーニングデータ生成モジュール18は、手動支援標識プロセスを可能にすることができる。たとえば、図3Aにおいて、第1の対象物標識モジュール12は、対象物フレーム302が車の対象物タイプで対象物を標識していると判定している。図3Bにおいて、第2の対象物標識モジュール14は、対象物フレーム302に対応する位置が対象ではないと判定している。この場合、トレーニングデータ生成モジュール18は、手動支援標識プロセスを可能にすることができる。たとえば、第1の対象物標識モジュール12により標識された対象物および対象物標識302を表示するウィンドウが、対象物フレーム302が実際に対象物を標識するかどうかをユーザが選択するために、ユーザインターフェース上に突然現れる。
一実施形態では、第1の信頼度、第2の信頼度および第3の信頼度が低すぎる場合(たとえば、第1の信頼度、第2の信頼度および第3の信頼度が閾値より低い場合)、トレーニングデータ生成モジュール18は、手動支援標識プロセスを可能にする。手動支援標識プロセスでは、対象物候補(object candidate)のそれぞれが実際に対象物であるかどうかをユーザが選択するために、1つまたは複数の対象物候補をユーザインターフェース上に表示することができる。そして、トレーニングデータ生成モジュール18は、ユーザの(1つまたは複数の)選択に従ってトレーニングデータTdataを生成することができる。
図1Bを参照すると、図1Bは、本開示の別の実施形態による対象物標識のためのシステムのブロック図を示す。理解するために、図3Dも参照されたい。対象物標識システム1bは、対象物標識システム1aと類似している。対象物標識システム1aと対象物標識システム1bとの違いは、トレーニングデータ生成モジュール18である。
この実施形態では、トレーニングデータ生成モジュール18は、対象物トリミングプロセス(object cropping process)182、手動支援標識プロセス(manual assisted labeling process)184、およびトレーニングデータ変換プロセス(training data transforming process)186を含み、手動支援標識プロセス184の可能化および詳細は上記の説明と同様である。
トレーニングデータ生成モジュール18は、対象物トリミングプロセス182が実行されるとき、(図3Dに示されるように、第4の対象物標識結果LABEL4が第3の対象物標識結果LABEL3と同一であると仮定すると)第4の対象物標識結果LABEL4で標識された(1つまたは複数の)対象物をトリミングし、(1つまたは複数の)対象物タイプに従って、トリミングされた(1つまたは複数の)対象物を分類することができる。トレーニングデータ変換プロセスが実行されるとき、トレーニングデータ生成モジュール18は、対象物フレーム301〜304によって標識された、トリミングされた対象物を解析のためにニューラルネットワークに送信して、同じ対象物タイプを有する対象物の共通の特性(characteristic)、輪郭(contour)、パラメータ(parameter)、またはその組み合わせを取得し、対象物標識システム1aとは異なるトレーニングデータTdataを生成する。第1の信頼度を計算するとき、第1の対象物標識モジュール12は、トレーニングデータTdataにおける各対象物タイプの対象物の特性、輪郭、パラメータ、またはそれらの組み合わせと、対象物を認識するために第1の対象物標識モジュール12によって使用されたものとの間の差異を計算することができる。自己学習を実行する場合、第1の対象物標識モジュール12は、トレーニングデータTdataに従って各対象物タイプの対象物を認識するために使用される特性、輪郭、パラメータ、またはそれらの組み合わせを調節または修正することができる。
なお、一実施形態では、第1の対象物標識モジュール12、第2の対象物標識モジュール14、標識統合モジュール16およびフレーム間追跡モジュール19(ならびに選択的に含まれるトレーニングデータ生成モジュール18)は、1つの装置(たとえば、監視センターのメインコンピュータまたは自走車のモバイルコンピュータ)に一体化されてもよく、外部に接続された2Dカメラおよび3Dカメラによって提供される第1の2D画像2Dimg1および3D情報3Dinfoを使用することにより本方法を実行してもよい。別の実施形態では、第1の対象物標識モジュール12は、2Dカメラに一体化されてもよく、第2の対象物標識モジュール14は、3Dカメラに一体化されてもよく、標識統合モジュール16およびフレーム間追跡モジュール19(ならびに選択的に含まれるトレーニングデータ生成モジュール18)は、サーバ内に構成されてもよい。この場合、第1の対象物標識モジュール12(すなわち、2Dカメラ)は、それ自身により取得した第1の2D画像2Dimgに従って、第1の対象物標識結果LABEL1を生成し、第1の対象物標識結果LABEL1をサーバに転送する。第2の対象物標識モジュール14(すなわち、3Dカメラ)は、それ自身により取得した3D情報3Dinfoに従って、第2の対象物標識結果LABEL2を生成し、第2の対象物標識結果LABEL2をサーバに転送する。サーバにおいて、標識統合モジュール16は、第1の対象物標識結果LABEL1と第2の対象物標識結果LABEL2とを第3の対象物標識結果LABEL3に統合し、フレーム間追跡モジュール19は、第3の対象物標識結果LABEL3に従って第4の対象物標識結果LABEL4を生成し、トレーニングデータ生成モジュール18は、第4の対象物標識結果LABEL4に従って(または第3の対象物標識結果LABEL3および第4の対象物標識結果LABEL4の両方に従って)トレーニングデータTdataを生成する。換言すれば、上述したモジュールは、ソフトウェアだけでなく、ハードウェアまたはファームウェアによって実装されてもよい。
上記の実施形態によれば、対象物標識システムおよび対象物標識方法は、第1の対象物標識モジュール12および第2の対象物標識モジュール14の入力として、異なる次元を有する第1の2D画像2Dimg1および3D情報3Dinfoをそれぞれ使用して、第1の対象物標識結果LABEL1および第2の対象物標識結果を取得することができ、第1の対象物標識結果LABEL1および第2の対象物標識結果LABEL2とを統合して、第3の対象物標識結果LABEL3を取得する。フレーム間追跡モジュール19は、第3の対象物標識結果LABEL3に従って第4の対象物標識結果LABEL4を生成し、トレーニングデータ生成モジュール18は、第4の対象物標識結果LABEL4に基づいてトレーニングデータTdataを生成して、学習のために第1の対象物標識モジュール12に提供する。第1の2D画像2Dimg1および3D情報3Dinfoは異なる情報を提供することができるので、第1の対象物標識モジュール12および第2の対象物標識モジュール14はそれぞれ、認識に優れた、または認識に優れていない環境または対象物を有する。両者によって提供される対象物標識結果を組み合わせることによって、互いに補完する効果を達成することができる。標識の自動化の程度を高め、手動標識の割合を減らすことができるだけでなく、対象物標識の精度を高めることができる。さらに、ビデオ内の動的対象物は、フレーム間追跡モジュール19およびフレーム間対象物標識プロセスによって追跡され、標識される。フレーム間追跡モジュール19およびフレーム間対象物標識プロセスを使用することにより、第1の対象物標識モジュール12および第2の対象物標識モジュール14によって標識されていない対象物を追跡および標識することができるので、対象物標識の精度がさらに改善され、手動支援標識の必要性がさらに低減され得る。
本発明は、例として、および好ましい(1つまたは複数の)実施形態の観点から記載されているが、本発明はそれに限定されないことが理解さるべきである。それどころか、様々な修正ならびに同様の配置および手順を網羅することを意図しており、したがって、添付の特許請求の範囲は、そのような修正ならびに同様の配置および手順をすべて網羅するように最も広い解釈を与えられるべきである。
1a、1b 対象物標識システム
12 第1の対象物標識モジュール
14 第2の対象物標識モジュール
16 標識統合モジュール
18 トレーニングデータ生成モジュール
182 対象物トリミングプロセス
184 手動支援標識プロセス
186 トレーニングデータ変換プロセス
19 フレーム間追跡モジュール
301、302、303、304 対象物フレーム
601、602、603、604、605 対象物フレーム
2Dimg1 第1の2D画像
3Dinfo 3D情報
LABEL1 第1の対象物標識結果
LABEL2 第2の対象物標識結果
LABEL3 第3の対象物標識結果
LABEL4 第4の対象物標識結果
O 自動二輪車
Tdata トレーニングデータ

Claims (14)

  1. 2Dビデオの画像フレームの1つである第1の2D画像に従って第1の対象物標識結果を生成するように構成される第1の対象物標識モジュールと、
    3D情報に従って第2の2D画像を生成するように構成され、前記3D情報および前記第2の2D画像に従って第2の対象物標識結果を生成するように構成される第2の対象物標識モジュールと、
    前記第1の対象物標識結果および前記第2の対象物標識結果に従って第3の対象物標識結果を生成するように構成される標識統合モジュールと、
    前記第3の対象物標識結果に従ってフレーム間対象物標識プロセスを実行し、第4の対象物標識結果を取得するように構成されるフレーム間追跡モジュールと
    を備える対象物標識システム。
  2. 前記第3の対象物標識結果および前記第4の対象物標識結果に従ってトレーニングデータを生成するように構成され、前記トレーニングデータを前記第1の対象物標識モジュールに転送するように構成されるトレーニングデータ生成モジュールをさらに備える請求項1記載の対象物標識システム。
  3. 前記フレーム間対象物標識プロセスが、
    前記第3の対象物標識結果において少なくとも1つの第1の対象物フレームを見つけることと、
    アルゴリズムに従って前記2Dビデオの以前の画像フレームまたは後続の画像フレームの前記少なくとも1つの第1の対象物フレームのそれぞれに対応する位置において前記第1の対象物フレームの特定の比率のサイズを有する第2の対象物フレームを標識することと
    を含む、請求項1記載の対象物標識システム。
  4. 前記第1の対象物標識モジュールがさらに、前記第1の対象物標識結果および第1のグラウンドトゥルースに従って第1の信頼度を算出し、前記第2の対象物標識モジュールがさらに、前記第2の対象物標識結果および第2のグラウンドトゥルースに従って第2の信頼度を算出し、前記標識統合モジュールが、前記第1の信頼度および前記第2の信頼度に従って重み付け比を決定し、前記重み付け比にさらに従って前記第3の対象物標識結果を生成する、請求項1記載の対象物標識システム。
  5. 前記第3の対象物標識結果が、前記第1の対象物標識結果および前記第2の対象物標識結果の和集合である、請求項1記載の対象物標識システム。
  6. 前記トレーニングデータ生成モジュールが、前記第4の対象物標識結果および第3の信頼度に従って手動支援標識プロセスを可能にするか否かを決定する、請求項2記載の対象物標識システム。
  7. 前記トレーニングデータ生成モジュールが、前記第4の対象物標識結果を記述するためのテキストファイルを生成し、前記第4の対象物標識結果と前記テキストファイルとを前記トレーニングデータとして接続する、または、
    前記トレーニングデータ生成モジュールが、1つまたは複数の対象物フレームにより標識された1つまたは複数の対象物を前記トレーニングデータとして切り取り、分類する、請求項2記載の対象物標識システム。
  8. 第1の対象物標識モジュールにより、2Dビデオの画像フレームの1つである第1の2D画像に従って第1の対象物標識結果を生成することと、
    第2の対象物標識モジュールにより、3D情報に従って第2の2D画像を生成し、前記3D情報および前記第2の2D画像に従って第2の対象物標識結果を生成することと、
    標識統合モジュールにより、前記第1の対象物標識結果および前記第2の対象物標識結果に従って第3の対象物標識結果を生成することと、
    フレーム間追跡モジュールにより、前記第3の対象物標識結果に従ってフレーム間対象物標識プロセスを実行し、第4の対象物標識結果を取得することと
    を含む対象物標識方法。
  9. トレーニングデータ生成モジュールにより、前記第3の対象物標識結果および前記第4の対象物標識結果に従ってトレーニングデータを生成することと、
    前記トレーニングデータ生成モジュールにより、前記トレーニングデータを前記第1の対象物標識モジュールに転送することと
    をさらに含む請求項8記載の対象物標識方法。
  10. 前記フレーム間対象物標識プロセスが、
    前記第3の対象物標識結果において少なくとも1つの第1の対象物フレームを見つけることと、
    アルゴリズムに従って前記2Dビデオの以前の画像フレームまたは後続の画像フレームの前記少なくとも1つの第1の対象物フレームのそれぞれに対応する位置において前記第1の対象物フレームの特定の比率のサイズを有する第2の対象物フレームを標識することと
    を含む、請求項8記載の対象物標識方法。
  11. 前記第1の対象物標識モジュールがさらに、前記第1の対象物標識結果および第1のグラウンドトゥルースに従って第1の信頼度を算出し、前記第2の対象物標識モジュールがさらに、前記第2の対象物標識結果および第2のグラウンドトゥルースに従って第2の信頼度を算出し、前記標識統合モジュールが、前記第1の信頼度および前記第2の信頼度に従って重み付け比を決定し、前記重み付け比にさらに従って前記第3の対象物標識結果を生成する、請求項8記載の対象物標識方法。
  12. 前記第3の対象物標識結果が、前記第1の対象物標識結果および前記第2の対象物標識結果の和集合である、請求項8記載の対象物標識方法。
  13. 前記トレーニングデータ生成モジュールが、前記第4の対象物標識結果および第3の信頼度に従って手動支援標識プロセスを可能にするか否かを決定する、請求項9記載の対象物標識方法。
  14. 前記トレーニングデータ生成モジュールが、前記第4の対象物標識結果を記述するためのテキストファイルを生成し、前記第4の対象物標識結果と前記テキストファイルとを前記トレーニングデータとして接続する、または、
    前記トレーニングデータ生成モジュールが、1つまたは複数の対象物フレームにより標識された1つまたは複数の対象物を前記トレーニングデータとして切り取り、分類する、請求項9記載の対象物標識方法。
JP2018153246A 2018-02-26 2018-08-16 対象物標識のためのシステムおよび方法 Active JP6686080B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW107106279A TWI666595B (zh) 2018-02-26 2018-02-26 物件標示系統及方法
TW107106279 2018-02-26

Publications (2)

Publication Number Publication Date
JP2019149142A true JP2019149142A (ja) 2019-09-05
JP6686080B2 JP6686080B2 (ja) 2020-04-22

Family

ID=67684570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018153246A Active JP6686080B2 (ja) 2018-02-26 2018-08-16 対象物標識のためのシステムおよび方法

Country Status (4)

Country Link
US (1) US10685263B2 (ja)
JP (1) JP6686080B2 (ja)
CN (1) CN110197106A (ja)
TW (1) TWI666595B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022032505A (ja) * 2020-08-12 2022-02-25 東芝テック株式会社 残留物検出システム、残留物検出装置及び残留物検出方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11430312B2 (en) * 2018-07-05 2022-08-30 Movidius Limited Video surveillance with neural networks
US10635938B1 (en) * 2019-01-30 2020-04-28 StradVision, Inc. Learning method and learning device for allowing CNN having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same
US11100702B2 (en) 2019-12-27 2021-08-24 Industrial Technology Research Institute 3D image labeling method based on labeling information of 2D image and 3D image labeling device
CN111179318B (zh) * 2019-12-31 2022-07-12 浙江大学 基于双流法的复杂背景运动小目标检测方法
US11610412B2 (en) * 2020-09-18 2023-03-21 Ford Global Technologies, Llc Vehicle neural network training
TWI783572B (zh) * 2021-07-14 2022-11-11 信驊科技股份有限公司 物件追蹤方法及物件追蹤裝置
TWI782806B (zh) * 2021-12-02 2022-11-01 財團法人國家實驗研究院 點雲算圖方法
WO2023150468A1 (en) * 2022-02-03 2023-08-10 The Regents Of The University Of California Multi-module velocity selective labeling with improved stability and accuracy in imaging applications
US12374134B2 (en) 2022-12-22 2025-07-29 Industrial Technology Research Institute Objects automatic labeling method and system applying the same
TWI830549B (zh) * 2022-12-22 2024-01-21 財團法人工業技術研究院 物件自動化標記方法及其系統
CN117156221B (zh) * 2023-10-31 2024-02-06 北京头条易科技有限公司 一种短视频内容理解标注方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232839A (ja) * 2001-01-20 2002-08-16 Samsung Electronics Co Ltd ビデオシーケンスのラベルオブジェクト映像生成装置及びその方法
JP2015142181A (ja) * 2014-01-27 2015-08-03 キヤノン株式会社 制御装置、制御方法
WO2016031523A1 (ja) * 2014-08-26 2016-03-03 日立オートモティブシステムズ株式会社 物体認識装置及び車両制御システム
JP2017146957A (ja) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7610191B2 (en) 2004-10-06 2009-10-27 Nuance Communications, Inc. Method for fast semi-automatic semantic annotation
TWI302879B (en) 2006-05-12 2008-11-11 Univ Nat Chiao Tung Real-time nighttime vehicle detection and recognition system based on computer vision
CN101431665B (zh) * 2007-11-08 2010-09-15 财团法人工业技术研究院 物件侦测与追踪的方法与系统
WO2009111498A2 (en) * 2008-03-03 2009-09-11 Videoiq, Inc. Object matching for tracking, indexing, and search
WO2010026170A1 (en) 2008-09-02 2010-03-11 Ecole Polytechnique Federale De Lausanne (Epfl) Image annotation on portable devices
US9488492B2 (en) 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
TWI497449B (zh) 2012-12-26 2015-08-21 Ind Tech Res Inst 非監督式調適方法與應用其之影像自動分類方法
US9384213B2 (en) 2013-08-14 2016-07-05 Google Inc. Searching and annotating within images
CN103559237B (zh) 2013-10-25 2017-02-15 南京大学 基于目标跟踪的半自动图像标注样本生成方法
CN104735296B (zh) * 2013-12-19 2018-04-24 财团法人资讯工业策进会 行人侦测系统与方法
US9158971B2 (en) * 2014-03-03 2015-10-13 Xerox Corporation Self-learning object detectors for unlabeled videos using multi-task learning
US9195912B1 (en) * 2014-07-24 2015-11-24 National Taipei University Of Technology Face annotation method and a face annotation system
CN104317912B (zh) 2014-10-28 2017-07-25 华中师范大学 基于邻域与距离度量学习的图像语义自动标注方法
WO2016181550A1 (ja) * 2015-05-14 2016-11-17 オリンパス株式会社 画像処理装置
CN105631479B (zh) 2015-12-30 2019-05-17 中国科学院自动化研究所 基于非平衡学习的深度卷积网络图像标注方法及装置
EP3408848A4 (en) * 2016-01-29 2019-08-28 Pointivo Inc. SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION
WO2018077401A1 (en) * 2016-10-26 2018-05-03 Swiss Reinsurance Company Ltd. Data extraction engine for structured, semi-structured and unstructured data with automated labeling and classification of data patterns or data elements therein, and corresponding method thereof
CN107133569B (zh) * 2017-04-06 2020-06-16 同济大学 基于泛化多标记学习的监控视频多粒度标注方法
CN107463918B (zh) * 2017-08-17 2020-04-24 武汉大学 基于激光点云与影像数据融合的车道线提取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232839A (ja) * 2001-01-20 2002-08-16 Samsung Electronics Co Ltd ビデオシーケンスのラベルオブジェクト映像生成装置及びその方法
JP2015142181A (ja) * 2014-01-27 2015-08-03 キヤノン株式会社 制御装置、制御方法
WO2016031523A1 (ja) * 2014-08-26 2016-03-03 日立オートモティブシステムズ株式会社 物体認識装置及び車両制御システム
JP2017146957A (ja) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022032505A (ja) * 2020-08-12 2022-02-25 東芝テック株式会社 残留物検出システム、残留物検出装置及び残留物検出方法
JP7516160B2 (ja) 2020-08-12 2024-07-16 東芝テック株式会社 残留物検出システム、残留物検出装置及び残留物検出方法

Also Published As

Publication number Publication date
CN110197106A (zh) 2019-09-03
US10685263B2 (en) 2020-06-16
US20190266439A1 (en) 2019-08-29
JP6686080B2 (ja) 2020-04-22
TWI666595B (zh) 2019-07-21
TW201937405A (zh) 2019-09-16

Similar Documents

Publication Publication Date Title
JP6686080B2 (ja) 対象物標識のためのシステムおよび方法
Wang et al. Multitask attention network for lane detection and fitting
Deng et al. MVF-Net: A multi-view fusion network for event-based object classification
CN113408584B (zh) Rgb-d多模态特征融合3d目标检测方法
CN110738673A (zh) 基于实例分割的视觉slam方法
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
US20210183083A1 (en) Self-supervised depth estimation method and system
CN108898063B (zh) 一种基于全卷积神经网络的人体姿态识别装置及方法
Tapu et al. A smartphone-based obstacle detection and classification system for assisting visually impaired people
CN108388882B (zh) 基于全局-局部rgb-d多模态的手势识别方法
CN115082855A (zh) 基于改进yolox算法的行人遮挡检测方法
JP5070213B2 (ja) ネットワーク基盤知能型サービスロボットのビジョン処理装置及びその処理方法並びにこれを用いたシステム
Gosala et al. Skyeye: Self-supervised bird's-eye-view semantic mapping using monocular frontal view images
CN111563415A (zh) 一种基于双目视觉的三维目标检测系统及方法
US10706576B2 (en) Urban environment labelling
CN110781744A (zh) 一种基于多层次特征融合的小尺度行人检测方法
Bi et al. Lane detection for autonomous driving: Comprehensive reviews, current challenges, and future predictions
CN116703996A (zh) 基于实例级自适应深度估计的单目三维目标检测算法
Nagiub et al. 3D object detection for autonomous driving: A comprehensive review
Agrawal et al. Semi-automatic annotation of 3d radar and camera for smart infrastructure-based perception
CN119672305A (zh) 一种基于双目视觉和开放词汇的3d目标检测方法及系统
CN112818965A (zh) 多尺度影像目标检测方法、系统、电子设备及存储介质
Dubey et al. Guidance system for visually impaired persons using deep learning and optical flow
US12223745B1 (en) Pavement element annotation method for point cloud data with fusion of height, device for constructing and pre-annotation point cloud data with fusion of height, electronic device and computer-readable storage medium
Obi-Obuoha et al. Real-time traffic objectdetection using detectron 2 with faster R-CNN

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200401

R150 Certificate of patent or registration of utility model

Ref document number: 6686080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250