[go: up one dir, main page]

JP2018116553A - Sign recognition system - Google Patents

Sign recognition system Download PDF

Info

Publication number
JP2018116553A
JP2018116553A JP2017007619A JP2017007619A JP2018116553A JP 2018116553 A JP2018116553 A JP 2018116553A JP 2017007619 A JP2017007619 A JP 2017007619A JP 2017007619 A JP2017007619 A JP 2017007619A JP 2018116553 A JP2018116553 A JP 2018116553A
Authority
JP
Japan
Prior art keywords
sign
word
unit
vehicle
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017007619A
Other languages
Japanese (ja)
Other versions
JP6711289B2 (en
Inventor
佑介 可児
Yusuke Kaji
佑介 可児
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017007619A priority Critical patent/JP6711289B2/en
Publication of JP2018116553A publication Critical patent/JP2018116553A/en
Application granted granted Critical
Publication of JP6711289B2 publication Critical patent/JP6711289B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sign recognition system capable of highly precisely recognizing words written in an auxiliary sign.SOLUTION: A sign recognition system includes an image acquisition unit, a major sign recognition unit, an auxiliary sign recognition unit, a first database, a second database, a third database, a first probability calculation unit, a second probability calculation unit, a first word estimation unit, a second word estimation unit, a meaning extraction unit, a situation data acquisition unit, and a vehicle identification unit. The first word estimation unit estimates words, which may exist in a portion of an auxiliary sign, on the basis of a probability of existence of a word in the portion of the auxiliary sign which is calculated for each of plural words. If a portion which cannot be estimated by the first word estimation unit is left, the second word estimation unit uses the second database and the words which can be estimated by the first word estimation unit to estimate the words in the portion which cannot be estimated by the first word estimation unit.SELECTED DRAWING: Figure 2

Description

本開示は標識認識装置に関する。   The present disclosure relates to a sign recognition device.

特許文献1には、標識認識装置が開示されている。この標識認識装置は、補助標識を、パターン認識方法によって可能な限り分類する。パターン認識方法による分類ができなかった場合、テキスト認識方法によって、補助標識中のテキストを読み取る。   Patent Document 1 discloses a sign recognition device. This sign recognition device classifies auxiliary signs as much as possible by the pattern recognition method. If classification by the pattern recognition method cannot be performed, the text in the auxiliary sign is read by the text recognition method.

特表2014−522049号公報Special table 2014-52049 gazette

従来の標識認識装置では、補助標識に記載された単語を高精度に認識することは困難であった。本開示の一局面は、補助標識に記載された単語を高精度に認識できる標識認識装置を提供することを目的とする。   In the conventional sign recognition device, it is difficult to recognize the word written on the auxiliary sign with high accuracy. An object of one aspect of the present disclosure is to provide a sign recognition device that can recognize a word written on an auxiliary sign with high accuracy.

本開示の一態様は、車両の周辺を表す画像を取得する画像取得ユニットと、前記画像において本標識の種別を認識する本標識認識ユニットと、前記画像において補助標識を認識する補助標識認識ユニットと、補助標識に記載されうる単語と本標識の種別との関連度を、前記単語と前記本標識の種別との組み合わせごとに記憶した第1のデータベースと、前記単語間の関連度を前記単語の組み合わせごとに記憶した第2のデータベースと、前記単語または前記単語の組み合わせの意味を記憶した第3のデータベースと、前記画像のうち、前記補助標識認識ユニットが認識した補助標識の部分において前記単語を探索し、その探索結果に基づき、前記補助標識の部分に前記単語が存在する確率を算出する第1の確率算出ユニットと、前記第1の確率算出ユニットが算出した前記補助標識の部分に前記単語が存在する確率と、前記第1のデータベースに記憶されている前記単語と本標識の種別との関連度とに基づき、前記本標識認識ユニットで認識した本標識の種別が存在するときに、前記補助標識の部分に前記単語が存在する確率を算出する第2の確率算出ユニットと、複数の前記単語についてそれぞれ算出した前記補助標識の部分に前記単語が存在する確率に基づき、前記補助標識の部分に存在する前記単語を推定する第1の単語推定ニットと、前記補助標識の部分に、前記第1の単語推定ユニットで推定できない部分が残った場合は、前記第2のデータベースと、前記第1の単語推定ユニットで推定できた前記単語とを用いて、前記第1の単語推定ユニットで推定できない部分に存在する前記単語を推定する第2の単語推定ユニットと、前記第1の単語推定ユニット及び前記第2の単語推定ユニットの推定結果と、前記第3のデータベースとに基づき、前記補助標識認識ユニットが認識した補助標識の意味を抽出する意味抽出ユニットと、前記車両の状況を表す状況データを取得する状況データ取得ユニットと、前記意味抽出ユニットが抽出した前記意味と、前記状況データとを対比して、前記車両が前記本標識認識ユニットで認識した本標識の種別の対象であるか否かを判断する車両判断ユニットと、を備える標識認識装置である。   One aspect of the present disclosure includes an image acquisition unit that acquires an image representing the periphery of a vehicle, a main sign recognition unit that recognizes a type of the main sign in the image, and an auxiliary sign recognition unit that recognizes an auxiliary sign in the image. A first database that stores the degree of association between a word that can be described in the auxiliary sign and the type of the main sign for each combination of the word and the type of the main sign; and the degree of association between the words A second database stored for each combination; a third database storing the meaning of the word or the combination of words; and the word in the portion of the auxiliary sign recognized by the auxiliary sign recognition unit in the image. A first probability calculating unit for searching and calculating a probability that the word is present in the auxiliary sign portion based on the search result; Based on the probability that the word is present in the portion of the auxiliary sign calculated by the calculation unit and the degree of association between the word and the type of the sign stored in the first database, the sign recognition unit A second probability calculating unit for calculating a probability that the word is present in the auxiliary sign portion when the recognized type of the main sign is present; and the auxiliary sign portion calculated for each of the plurality of words. Based on the probability that a word exists, a first word estimation unit that estimates the word existing in the auxiliary sign part and a part that cannot be estimated by the first word estimation unit remain in the auxiliary sign part In this case, the second database and the word that can be estimated by the first word estimation unit are used for the portion that cannot be estimated by the first word estimation unit. The auxiliary sign recognition unit recognizes based on the second word estimation unit for estimating the word to be performed, the estimation results of the first word estimation unit and the second word estimation unit, and the third database. The meaning extraction unit for extracting the meaning of the auxiliary sign, the situation data acquisition unit for acquiring the situation data representing the situation of the vehicle, the meaning extracted by the meaning extraction unit, and the situation data are compared, And a vehicle determination unit that determines whether or not the vehicle is a target of a type of the main sign recognized by the main sign recognition unit.

本開示の一態様である標識認識装置は、前記第1の確率算出ユニットが算出した前記補助標識の部分に前記単語が存在する確率と、前記第1のデータベースに記憶されている前記単語と本標識の種別との関連度とに基づき、補助標識に存在する単語を推定する。前記第1のデータベースに記憶されている前記単語と本標識の種別との関連度は、本標識の種別に対する単語の出現頻度を反映している。そのため、カメラを利用する一般的な文字認識アルゴリズムのみを用いる場合よりも、高精度に単語を推定することができる。   The sign recognition device according to one aspect of the present disclosure includes a probability that the word is present in the portion of the auxiliary sign calculated by the first probability calculation unit, the word stored in the first database, and the book Based on the degree of association with the type of sign, a word existing in the auxiliary sign is estimated. The degree of association between the word and the type of the sign stored in the first database reflects the frequency of appearance of the word with respect to the type of the sign. Therefore, the word can be estimated with higher accuracy than when only a general character recognition algorithm using a camera is used.

そのことにより、補助標識の意味を高精度に抽出することができる。さらに、補助標識の意味を高精度に抽出できるため、車両が本標識の対象であるか否かを高精度に判断することができる。   Thereby, the meaning of the auxiliary sign can be extracted with high accuracy. Furthermore, since the meaning of the auxiliary sign can be extracted with high accuracy, it can be determined with high accuracy whether or not the vehicle is the target of the main sign.

また、本開示の一態様である標識認識装置は、第1の単語推定ユニットで推定できない部分が残った場合でも、第2のデータベースの記憶内容と、第1の単語推定ユニットで推定できた単語とを用いて、第1の単語推定ユニットで推定できない部分の単語を推定することができる。   In addition, the sign recognition device according to one aspect of the present disclosure can store the contents of the second database and the words that can be estimated by the first word estimation unit even when a portion that cannot be estimated by the first word estimation unit remains. Can be used to estimate the portion of the word that cannot be estimated by the first word estimation unit.

標識認識システム1及び標識認識装置3の構成を表すブロック図である。It is a block diagram showing the structure of the sign recognition system 1 and the sign recognition apparatus 3. 制御部7の機能的構成を表すブロック図である。3 is a block diagram illustrating a functional configuration of a control unit 7. FIG. 図3A及び図3Bは、それぞれ、確率P(a|w)を表す説明図である。3A and 3B are explanatory diagrams showing the probability P (a | w), respectively. つながり確率を表す説明図である。It is explanatory drawing showing a connection probability. 標識認識装置3が実行する処理を表すフローチャートである。It is a flowchart showing the process which the label | marker recognition apparatus 3 performs. 本標識69、補助標識71、及び単語存在領域73を表す説明図である。It is explanatory drawing showing this label | marker 69, the auxiliary | assistant label | marker 71, and the word presence area 73. FIG. 単語wを推定する方法を表す説明図である。It is an explanatory view showing a method of estimating the word w i. つながり確率を用いて単語xを推定する方法を表す説明図である。It is explanatory drawing showing the method of estimating the word x using a connection probability.

本開示の実施形態を図面に基づき説明する。
<第1実施形態>
1.標識認識システム1及び標識認識装置3の構成
標識認識システム1及び標識認識装置3の構成を図1〜図4に基づき説明する。図1に示すように、標識認識システム1は、標識認識装置3と、外部サーバ5と、を備える。標識認識装置3は車両に搭載される車載装置である。標識認識装置3を搭載する車両を以下では自車両とする。標識認識装置3は、制御部7と、第1のDB(データベース)9と、第2のDB(データベース)11と、第3のDB(データベース)13と、を備える。
An embodiment of the present disclosure will be described with reference to the drawings.
<First Embodiment>
1. Configurations of the Sign Recognition System 1 and the Sign Recognition Device 3 The configurations of the sign recognition system 1 and the sign recognition device 3 will be described with reference to FIGS. As shown in FIG. 1, the sign recognition system 1 includes a sign recognition device 3 and an external server 5. The sign recognition device 3 is an in-vehicle device mounted on a vehicle. Hereinafter, the vehicle on which the sign recognition device 3 is mounted is referred to as the own vehicle. The sign recognition device 3 includes a control unit 7, a first DB (database) 9, a second DB (database) 11, and a third DB (database) 13.

制御部7は、CPU15と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ17とする)と、を有する周知のマイクロコンピュータを中心に構成される。制御部7の各種機能は、CPU15が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ17が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部7を構成するマイクロコンピュータの数は1つでも複数でもよい。   The control unit 7 is mainly configured by a known microcomputer having a CPU 15 and a semiconductor memory (hereinafter referred to as a memory 17) such as a RAM, a ROM, and a flash memory. Various functions of the control unit 7 are realized by the CPU 15 executing a program stored in a non-transitional physical recording medium. In this example, the memory 17 corresponds to a non-transitional tangible recording medium that stores a program. Also, by executing this program, a method corresponding to the program is executed. The number of microcomputers constituting the control unit 7 may be one or more.

制御部7は、CPU15がプログラムを実行することで実現される機能の構成として、図2に示すように、画像取得ユニット19と、本標識認識ユニット21と、補助標識認識ユニット23と、第1の確率算出ユニット25と、第2の確率算出ユニット27と、第1の単語推定ユニット31と、第2の単語推定ユニット33と、意味抽出ユニット35と、状況データ取得ユニット37と、車両判断ユニット39と、表示ユニット41と、選択ユニット43と、情報出力ユニット45と、更新ユニット47と、運動制御ユニット49と、を備える。   As shown in FIG. 2, the control unit 7 includes, as shown in FIG. 2, an image acquisition unit 19, a main sign recognition unit 21, an auxiliary sign recognition unit 23, and a first function structure realized by the CPU 15 executing a program. Probability calculation unit 25, second probability calculation unit 27, first word estimation unit 31, second word estimation unit 33, meaning extraction unit 35, situation data acquisition unit 37, and vehicle determination unit 39, a display unit 41, a selection unit 43, an information output unit 45, an update unit 47, and a motion control unit 49.

制御部7を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。   The method of realizing these elements constituting the control unit 7 is not limited to software, and some or all of the elements may be realized using one or a plurality of hardware. For example, when the above function is realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit including a large number of logic circuits, an analog circuit, or a combination thereof.

第1のDB9は、補助標識に単語wが存在するときに、その補助標識に対応する本標識の種別として、本標識aが存在する確率P(a|w)を、本標識aと単語wとの組み合わせごとに記憶している。確率P(a|w)は、補助標識に記載されうる単語と本標識の種別との関連度に対応する。   When the word w is present in the auxiliary sign, the first DB 9 uses the probability P (a | w) that the sign a is present as the type of the sign corresponding to the auxiliary sign, and the sign a and the word w. And remember for each combination. The probability P (a | w) corresponds to the degree of association between the word that can be described in the auxiliary sign and the type of the sign.

例えば、図3Aに示すように、補助標識に「自転車」という単語wが存在するときに、その補助標識に対応する本標識として、本標識aが存在する確率P(a|w)を、各種の本標識aと「自転車」(単語w)との組み合わせごとに記憶している。 For example, as shown in FIG. 3A, when the word w 1 of “bicycle” is present in the auxiliary sign, the probability P (a | w 1 ) that the sign a is present as the main sign corresponding to the auxiliary sign is set. , Stored for each combination of various book signs a and “bicycle” (word w 1 ).

また、例えば、図3Bに示すように、補助標識に「停止」という単語wが存在するときに、その補助標識に対応する本標識として、本標識aが存在する確率P(a|w)を、各種の本標識aと「停止」(単語w)との組み合わせごとに記憶している。単語w、wは単語wの一例である。 Further, for example, as shown in FIG. 3B, when the word “w 2 ” “stop” exists in the auxiliary sign, the probability P (a | w 2) that the main sign a exists as the main sign corresponding to the auxiliary sign. ) Is stored for each combination of various main signs a and “stop” (word w 2 ). The words w 1 and w 2 are examples of the word w.

なお、本明細書において単語wとは、必ずしも一般的な意味での単語には限定されず、1又は複数の文字から成るものを広く意味する。文字には、漢字、ひらがな、かたかな、数字、ローマ字、記号等が含まれる。   In the present specification, the word w is not necessarily limited to a word in a general sense, and broadly means a word composed of one or more characters. Characters include kanji, hiragana, katakana, numbers, romaji, symbols, and the like.

第2のDB11は、補助標識に単語w又は単語wの群が存在するときに、その補助標識に単語xが存在する確率(以下ではつながり確率とする)を、単語w又は単語wの群と、単語xとの組み合わせごとに記憶している。単語xは、補助標識において、例えば、単語wの直後に位置してもよいし、単語wの直前に位置してもよいし、単語wから離れた位置にあってもよい。また、単語xは、第1の単語wと、第2の単語wとの間に位置してもよい。つながり確率は、単語間の関連度に対応する。   When the second DB 11 includes a word w or a group of words w in the auxiliary sign, the probability that the word x exists in the auxiliary sign (hereinafter referred to as a connection probability) is determined as a word w or a group of words w. For each combination with the word x. For example, the word x may be located immediately after the word w, may be located immediately before the word w, or may be located away from the word w in the auxiliary sign. In addition, the word x may be located between the first word w and the second word w. The connection probability corresponds to the degree of association between words.

例えば、第2のDB11は、図4に示すように、補助標識に「自転車」という単語wが存在するときに、その補助標識において「自転車」の直後に「を」という単語xが存在するつながり確率(0.4)を記憶している。   For example, as shown in FIG. 4, when the word “bicycle” is present on the auxiliary sign, the second DB 11 is connected to the word “x” immediately after “bicycle” in the auxiliary sign. The probability (0.4) is stored.

また、例えば、第2のDB11は、図4に示すように、補助標識に「自転車」という単語wが存在するときに、その補助標識において「自転車」の直後に「除く」という単語xが存在するつながり確率(0.09)を記憶している。   Further, for example, as shown in FIG. 4, in the second DB 11, when the word w “bicycle” is present in the auxiliary sign, the word x “excluded” is present immediately after “bicycle” in the auxiliary sign. The connection probability (0.09) is stored.

また、第2のDB11は、補助標識における最初の単語の確率も記憶している。例えば、図4に示すように、最初の単語が「自転車」である確率は0.1であり、最初の単語が「1」である確率は0.01である。   The second DB 11 also stores the probability of the first word in the auxiliary sign. For example, as shown in FIG. 4, the probability that the first word is “bicycle” is 0.1, and the probability that the first word is “1” is 0.01.

第3のDB13は、それぞれの単語の意味を記憶している。自車両には、標識認識装置3に加えて、カメラ51、運動制御装置53、表示装置55、通信装置57、及び入力装置59が設けられている。   The third DB 13 stores the meaning of each word. In addition to the sign recognition device 3, the host vehicle is provided with a camera 51, a motion control device 53, a display device 55, a communication device 57, and an input device 59.

カメラ51は、自車両の周辺を撮影し、画像を作成する。その画像は、自車両の周辺を表す画像である。カメラ51は、作成した画像を標識認識装置3に出力する。
運動制御装置53は自車両の運動を制御する。自車両の運動の制御として、例えば、駐車、右左折、速度制御、走行レーンの変更等が挙げられる。
The camera 51 captures the vicinity of the host vehicle and creates an image. The image is an image representing the periphery of the host vehicle. The camera 51 outputs the created image to the sign recognition device 3.
The motion control device 53 controls the motion of the host vehicle. Examples of the control of the movement of the host vehicle include parking, turning left and right, speed control, changing the driving lane, and the like.

表示装置55は、自車両の車室内に設けられているディスプレイである。表示装置55は、標識認識装置3からの信号に応じて画像を表示する。通信装置57は、外部サーバ5と無線通信を行う装置である。入力装置59は、自車両の車室内に設けられ、ドライバの入力操作を受け付ける。ドライバはユーザに対応する。入力装置59は、入力操作に応じた信号を標識認識装置3に出力する。   The display device 55 is a display provided in the passenger compartment of the host vehicle. The display device 55 displays an image according to the signal from the sign recognition device 3. The communication device 57 is a device that performs wireless communication with the external server 5. The input device 59 is provided in the passenger compartment of the host vehicle and accepts an input operation of a driver. The driver corresponds to the user. The input device 59 outputs a signal corresponding to the input operation to the sign recognition device 3.

外部サーバ5は、自車両の外部に固定設置されている。外部サーバ5は、制御部61と、サーバDB63と、通信装置65と、を備える。制御部61は周知のマイクロコンピュータを中心に構成され、後述する処理を実行する。サーバDB63は、第1のDB9及び第2のDB11と同様の内容を記憶している。通信装置65は、標識認識装置3の通信装置57との間で無線通信を行う。   The external server 5 is fixedly installed outside the host vehicle. The external server 5 includes a control unit 61, a server DB 63, and a communication device 65. The control unit 61 is configured around a well-known microcomputer, and executes processing to be described later. The server DB 63 stores the same contents as the first DB 9 and the second DB 11. The communication device 65 performs wireless communication with the communication device 57 of the sign recognition device 3.

2.標識認識装置3が実行する処理
標識認識装置3が所定時間ごとに繰り返し実行する処理を図5〜図8に基づき説明する。図5のステップ1では、更新ユニット47が、通信装置57を用いて外部サーバ5と通信し、サーバDB63の記憶内容を取得して、第1のDB9及び第2のDB11の記憶内容を最新のものに更新する。なお、外部サーバ5は、後述するステップ20で送信された情報を用いて、サーバDB63の記憶内容を最新のものに更新している。
2. Processing Performed by the Sign Recognition Device 3 The processing that the sign recognition device 3 repeatedly executes every predetermined time will be described with reference to FIGS. In step 1 of FIG. 5, the update unit 47 communicates with the external server 5 using the communication device 57, acquires the storage contents of the server DB 63, and updates the storage contents of the first DB 9 and the second DB 11. Update to stuff. The external server 5 updates the stored contents of the server DB 63 to the latest one using the information transmitted in step 20 described later.

ステップ2では、画像取得ユニット19が、カメラ51を用いて、自車両の周辺を表す画像を取得する。
ステップ3では、本標識認識ユニット21が、前記ステップ2で取得した画像において本標識を認識する処理を行い、本標識が存在するか否かを判断する。
In step 2, the image acquisition unit 19 uses the camera 51 to acquire an image representing the periphery of the host vehicle.
In step 3, the sign recognition unit 21 performs processing for recognizing the sign in the image acquired in step 2, and determines whether the sign is present.

本標識を認識する処理としては、例えば、カメラを利用する一般的な標識認識アルゴリズムを用いることができる。標識認識アルゴリズムとして、例えば、パターン認識により標識を認識する手法が挙げられる。パターン認識により標識を認識する手法として、例えば、SVM(support vector machine)等が挙げられる。SVMでは、学習時には学習サンプルとして標識データと標識以外のデータとを用意しておき、高次の特徴空間において、各データ点との距離が最大となる識別平面を求める。識別時にはその識別平面を用いて入力画像に標識が含まれるか否かを判別する。また、本標識を認識する処理は、例えば、画像特徴からルールベースで本標識を認識する方法や、CNN(Convolutional Neural Network)により学習する方法であってもよい。   As a process for recognizing the sign, for example, a general sign recognition algorithm using a camera can be used. As a label recognition algorithm, for example, there is a technique for recognizing a label by pattern recognition. As a technique for recognizing a sign by pattern recognition, for example, SVM (support vector machine) and the like can be mentioned. In SVM, marker data and data other than markers are prepared as learning samples at the time of learning, and an identification plane that maximizes the distance to each data point is obtained in a higher-order feature space. At the time of identification, it is determined whether or not a sign is included in the input image using the identification plane. Further, the process for recognizing the present sign may be, for example, a method for recognizing the present sign on a rule basis from the image feature or a method for learning by CNN (Convolutional Neural Network).

前記ステップ2で取得した画像に本標識が存在すると判断した場合はステップ4に進み、それ以外の場合は本処理を終了する。
ステップ4では、前記ステップ3で存在すると判断した本標識の種別を本標識認識ユニット21が認識する。以下では、認識した種別をaとする。
If it is determined that the sign is present in the image acquired in step 2, the process proceeds to step 4; otherwise, the process is terminated.
In step 4, the sign recognition unit 21 recognizes the type of the sign determined to exist in step 3. Hereinafter, the recognized type is a.

ステップ5では、補助標識認識ユニット23が、前記ステップ2で取得した画像において補助標識を認識する処理を行い、補助標識が存在するか否かを判断する。補助標識の認識においては、補助標識の形状に加えて、本標識と補助標識との位置関係を利用してもよい。例えば、本標識の周辺に限定して、あるいは、本標識の周辺を優先して、補助標識を認識することができる。補助標識の形状を用いて補助標識を認識する方法は、例えば、本標識を認識する方法と同様とすることができる。   In step 5, the auxiliary sign recognition unit 23 performs processing for recognizing the auxiliary sign in the image acquired in step 2, and determines whether or not the auxiliary sign exists. In the recognition of the auxiliary sign, in addition to the shape of the auxiliary sign, the positional relationship between this sign and the auxiliary sign may be used. For example, the auxiliary sign can be recognized limited to the vicinity of the present sign or by giving priority to the vicinity of the present sign. The method for recognizing the auxiliary sign using the shape of the auxiliary sign can be the same as the method for recognizing the present sign, for example.

前記ステップ2で取得した画像に補助標識が存在すると判断した場合はステップ6に進み、それ以外の場合は本処理を終了する。
なお、図6に、前記ステップ2で取得した画像67と、前記ステップ3で認識したと判断した本標識69と、前記ステップ5で認識したと判断した補助標識71と、の例を示す。
If it is determined that an auxiliary sign is present in the image acquired in step 2, the process proceeds to step 6; otherwise, the process ends.
FIG. 6 shows an example of the image 67 acquired in step 2, the main marker 69 determined to be recognized in step 3, and the auxiliary marker 71 determined to be recognized in step 5.

ステップ6では、補助標識認識ユニット23が、前記ステップ2で取得した画像において、単語存在領域を設定する。単語存在領域とは、認識された補助標識の一部の領域であって、一般的に、単語が記載されている領域である。図6に、単語存在領域73の例を示す。   In step 6, the auxiliary sign recognition unit 23 sets a word presence area in the image acquired in step 2. The word presence area is a partial area of the recognized auxiliary sign and is generally an area where a word is described. FIG. 6 shows an example of the word existence area 73.

ステップ7では、変数iを、初期値である1とする。
ステップ8では、第1の確率算出ユニット25が、単語存在領域73において単語wを探索する。単語wは、第1のDB9に記憶されている単語である。
In step 7, the variable i is set to 1 which is an initial value.
In step 8, the first probability calculation unit 25 searches for the word w i in the word existence area 73. The word w i is a word stored in the first DB 9.

ステップ9では、前記ステップ8における探索の結果に基づき、単語存在領域73に単語wが存在する確率P(w)を算出する。例えば、図7に示すように、探索の結果、単語存在領域73の一部である部分Aに、単語wが見つかった場合、その部分Aに単語wが存在する確率P(w)を算出する。確率P(w)の算出は、カメラを利用する一般的な文字認識アルゴリズムにより行うことができる。 In step 9, the probability P (w i ) that the word w i exists in the word existence area 73 is calculated based on the result of the search in step 8. For example, as illustrated in FIG. 7, when a word w i is found in a part A j that is a part of the word existence area 73 as a result of the search, the probability P (w that the word w i exists in the part A j i ) is calculated. The calculation of the probability P (w i ) can be performed by a general character recognition algorithm using a camera.

ステップ10では、補助標識の単語存在領域73に単語wが存在するときに、その補助標識に対応して本標識aが存在する確率P(a|w)を、第1のDB9に基づき、第2の確率算出ユニット27が算出する。 In step 10, when the word w i is present in the word presence area 73 of the auxiliary sign, the probability P (a | w i ) that the sign a is present corresponding to the auxiliary sign is determined based on the first DB 9. The second probability calculation unit 27 calculates.

ステップ11では、第2の確率算出ユニット27が、前記ステップ9で算出した確率P(w)と、前記ステップ10で算出した確率P(a|w)とを乗算して、確率P(w|a)を算出する。確率P(w)と確率P(w|a)とを乗算することは、それらに基づく算出方法に対応する。確率P(w|a)の算出は、以下の式(1)に基づく。本標識aは認識されているので、式(1)においてP(a)は1である。 In step 11, the second probability calculation unit 27 multiplies the probability P (w i ) calculated in step 9 by the probability P (a | w i ) calculated in step 10 to obtain a probability P ( Calculate w i | a). Multiplying the probability P (w i ) and the probability P (w i | a) corresponds to a calculation method based on them. The calculation of the probability P (w i | a) is based on the following equation (1). Since this label a is recognized, P (a) is 1 in the formula (1).

Figure 2018116553
Figure 2018116553

確率P(w|a)は、前記ステップ4で種別を認識した本標識aが存在するときに、単語存在領域73における部分Aに単語wが存在する確率を意味する。
ステップ12では、iがNに等しいか否かを判断する。Nは定数である。Nは、第1のDB9に記憶されている単語wの総数であってもよいし、総数より小さい値であってもよい。Nが単語wの総数より小さい場合、w〜wは、例えば、第1のDB9に記憶されている単語wの中で、本標識aが存在するときに存在する確率が相対的に高い上位N個の単語とすることができる。
The probability P (w i | a) means the probability that the word w i exists in the portion A j in the word existence area 73 when the main marker a whose type is recognized in step 4 is present.
In step 12, it is determined whether i is equal to N or not. N is a constant. N may be the total number of words w stored in the first DB 9 or may be a value smaller than the total number. When N is smaller than the total number of words w, for example, w 1 to w N have a relatively high probability of being present when the present marker a is present in the word w stored in the first DB 9. It can be the top N words.

iがNに等しい場合はステップ14に進み、それ以外の場合はステップ13に進む。
ステップ13では、iの値を1だけ増して、ステップ8に進む。
ステップ14では、前記ステップ6〜13の処理により、複数の単語w(iは1〜N)についてそれぞれ算出した確率P(w|a)に基づき、単語存在領域73に存在する単語wを第1の単語推定ユニット31が推定する。
If i is equal to N, the process proceeds to step 14; otherwise, the process proceeds to step 13.
In step 13, the value of i is incremented by 1, and the process proceeds to step 8.
In step 14, the processing at step 6-13, the probability (the i 1 to N) a plurality of word w i calculated respectively for P | based on (w i a), the words w i which exists in the word existing region 73 Is estimated by the first word estimation unit 31.

例えば、図7に示す例において、部分Aについて算出した確率P(w|a)の中で、確率P(w|a)の値が、他の確率P(w|a)(ここで、iは1〜(y−1)、(y+1)〜N)より大きく、且つ、予め設定した閾値を超えている場合は、部分Aに存在する単語は、単語wであると推定する。yは、1〜Nのいずれかである。 For example, in the example shown in FIG. 7, among the probabilities P (w i | a) calculated for the portion A j , the value of the probability P (w y | a) is the other probability P (w i | a) ( here, i 1~ (y-1), greater than (y + 1) ~N), and, if it exceeds a preset threshold value, the words present in the portion a j is the word w y Presume that there is. y is any one of 1 to N.

また、部分Aについて算出した確率P(w|a)の中に、予め設定した閾値を超えるものが無い場合は、部分Aに存在する単語は、その時点では推定できないとする。この場合、部分Aは、後述する単語推定不可部分となる。 If there is no probability P (w i | a) calculated for the part A j that exceeds a preset threshold, it is assumed that the word existing in the part A j cannot be estimated at that time. In this case, the portion A j is a word estimation impossible portion described later.

ステップ15では、前記ステップ14の処理において、単語存在領域73の中に、単語を推定できない部分(以下では単語推定不可部分とする)が残ったか否かを、第2の単語推定ユニット33が判断する。単語推定不可部分が残った場合はステップ16に進み、単語推定不可部分が残らなかった場合はステップ21に進む。   In step 15, the second word estimation unit 33 determines whether or not a portion where the word cannot be estimated (hereinafter referred to as a word estimation impossible portion) remains in the word existence area 73 in the processing of step 14. To do. When the word unestimable part remains, the process proceeds to step 16, and when the word unestimable part does not remain, the process proceeds to step 21.

ステップ16では、第2の単語推定ユニット33が、第2のDB11と、前記ステップ14で推定できた単語wとを用いて、単語推定不可部分に存在する単語xを推定する。
例えば、図8に示すように、単語存在領域73のうち、部分Aが単語推定不可部分であり、その前後の部分Aj−2、Aj−1、Aj+1、Aj+2では、前記ステップ14で単語を推定できているとする。
In step 16, the second word estimation unit 33 estimates the word x existing in the word unestimable portion using the second DB 11 and the word w i estimated in step 14.
For example, as shown in FIG. 8, in the word existence area 73, the part A j is a part that cannot be estimated, and the preceding and following parts A j−2 , A j−1 , A j + 1 , A j + 2 14, it is assumed that the word can be estimated.

第2の単語推定ユニット33は、部分Aj−2、Aj−1、Aj+1、Aj+2のいずれかで推定されている単語wに、第2のDB11に記憶されているつながり確率を当てはめて、単語推定不可部分に存在する単語xを推定する。 The second word estimation unit 33 adds the connection probability stored in the second DB 11 to the word w i estimated in any of the parts A j−2 , A j−1 , A j + 1 , A j + 2. By applying this, the word x existing in the word estimation impossible part is estimated.

さらに詳しくは、第2の単語推定ユニット33は、単語推定不可部分に存在する確率が相対的に高い、複数の単語xを推定する。例えば、第2の単語推定ユニット33は、単語推定不可部分に存在する確率が最も高い単語x、2番目に高い単語x・・・L番目に高い単語xをそれぞれ推定する。Lは2以上の整数である。   More specifically, the second word estimation unit 33 estimates a plurality of words x having a relatively high probability of being present in the word estimation impossible portion. For example, the second word estimation unit 33 estimates the word x having the highest probability of being present in the word non-estimable portion, the second highest word x... The Lth highest word x, respectively. L is an integer of 2 or more.

ステップ17では、表示ユニット41が、前記ステップ14で推定した単語wを表示装置55に表示するとともに、前記ステップ16で推定した複数の単語xを表示装置55に表示する。なお、ドライバは、その表示を見て、入力装置59を用い、複数の単語xのうちのいずれか1つを選択する処理を行うことができる。 In step 17, the display unit 41, and displays on the display device 55 a word w i estimated at the step 14, displaying a plurality of words x estimated by the step 16 to the display device 55. The driver can see the display and use the input device 59 to perform a process of selecting any one of the plurality of words x.

ステップ18では、ドライバによる入力装置59への入力があったか否かを選択ユニット43が判断する。入力があった場合はステップ19に進み、入力がなかった場合は本処理を終了する。   In step 18, the selection unit 43 determines whether or not there is an input to the input device 59 by the driver. If there is an input, the process proceeds to step 19, and if there is no input, the present process is terminated.

ステップ19では、前記ステップ16で推定した複数の単語xのうち、ドライバの入力により選択された1つの単語xを選択し、その選択された単語xが、単語推定不可部分に存在すると推定する。   In step 19, one word x selected by the driver input is selected from the plurality of words x estimated in step 16, and it is estimated that the selected word x exists in the word unestimable portion.

ステップ20では、前記ステップ19で選択された単語xと、前記ステップ14で推定された、単語推定不可部分以外の部分における他の単語wと、前記ステップ4で認識した本標識aと、を含む情報を、情報出力ユニット45が通信装置57を用いて外部サーバ5に出力する。 In step 20, the word x selected in the step 19, the estimated in step 14, and the other words w i in the portion other than the word predicting invalid portion, and the label a recognized in the step 4, the The information output unit 45 outputs the included information to the external server 5 using the communication device 57.

なお、外部サーバ5は、標識認識装置3から得た情報を用いて、サーバDB63の記憶内容を更新する。すなわち、標識認識装置3から得た情報を用いて、確率P(a|w)を更新する。例えば、標識認識装置3から得た情報の内容が、本標識aと、単語wとを含むものである場合、P(a|w)の値を、その情報の分だけ大きくする。 The external server 5 uses the information obtained from the sign recognition device 3 to update the storage content of the server DB 63. That is, the probability P (a | w) is updated using the information obtained from the sign recognition device 3. For example, when the content of the information obtained from the sign recognition device 3 includes the present sign a and the word w i , the value of P (a | w i ) is increased by the amount of the information.

また、外部サーバ5は、標識認識装置3から得た情報を用いて、つながり確率を更新する。例えば、標識認識装置3から得た情報の内容が、単語wの後に単語xが存在するというものである場合、単語wの後に単語xが存在するつながり確率を、その情報の分だけ大きくする。 Further, the external server 5 updates the connection probability using the information obtained from the sign recognition device 3. For example, the content of the information obtained from the label recognition device 3, if is that word x is present after the word w i, the connection probability of a word x is present after the word w i, by the amount of information increases To do.

ステップ21では、意味抽出ユニット35が、第3のDB13の記憶を用いて、前記ステップ16、19で推定した単語の意味を抽出する。さらに、意味抽出ユニット35は、各単語の意味に基づき、補助標識全体の意味を抽出する。   In step 21, the meaning extraction unit 35 extracts the meaning of the word estimated in steps 16 and 19 using the storage in the third DB 13. Furthermore, the meaning extraction unit 35 extracts the meaning of the entire auxiliary sign based on the meaning of each word.

ステップ22では、状況データ取得ユニット37が、自車両の状況を表す状況データを取得する。自車両の状況とは、時刻、自車両の位置、自車両の種類、自車両の車高、自車両の車重、自車両の車幅、及び自車両の車速である。   In step 22, the situation data acquisition unit 37 acquires situation data representing the situation of the host vehicle. The situation of the host vehicle is the time, the position of the host vehicle, the type of the host vehicle, the vehicle height of the host vehicle, the vehicle weight of the host vehicle, the vehicle width of the host vehicle, and the vehicle speed of the host vehicle.

状況データ取得ユニット37は、図示しない時計から時刻を取得する。状況データ取得ユニット37は、図示しないGPSと地図データとから、自車両の位置を取得する。自車両の車高、自車両の車重、及び自車両の車幅は予めメモリ17に記憶されている。状況データ取得ユニット37は、図示しない車速センサから自車両の車速を取得する。   The status data acquisition unit 37 acquires time from a clock (not shown). The situation data acquisition unit 37 acquires the position of the host vehicle from GPS (not shown) and map data. The vehicle height of the host vehicle, the vehicle weight of the host vehicle, and the vehicle width of the host vehicle are stored in the memory 17 in advance. The situation data acquisition unit 37 acquires the vehicle speed of the host vehicle from a vehicle speed sensor (not shown).

ステップ23では、前記ステップ21で抽出した補助標識の意味と、前記ステップ22で取得した状況データとを対比して、自車両が、前記ステップ4で種別を認識した本標識aの対象であるか否かを、車両判断ユニット39が判断する。   In step 23, the meaning of the auxiliary sign extracted in step 21 is compared with the situation data acquired in step 22, and whether the host vehicle is the target of this sign a whose type is recognized in step 4 or not. The vehicle determination unit 39 determines whether or not.

例えば、補助標識の意味が「9時から12時まで」等の時刻を限定する意味である場合、その補助標識の意味を、自車両の状況の1つである時刻と対比することで、自車両が前記ステップ4で種別を認識した本標識aの対象であるか否かを判断できる。   For example, if the meaning of the auxiliary sign is a meaning that limits the time such as “from 9 o'clock to 12 o'clock”, the meaning of the auxiliary sign is compared with the time that is one of the situations of the own vehicle. It can be determined whether or not the vehicle is the target of the sign a for which the type is recognized in step 4.

また、補助標識の意味が、「XX市内全域」等の位置を限定する意味である場合、その補助標識の意味を、自車両の状況の1つである自車両の位置と対比することで、自車両が前記ステップ4で種別を認識した本標識aの対象であるか否かを判断できる。   In addition, when the meaning of the auxiliary sign is to limit the position such as “the whole area of XX city”, the meaning of the auxiliary sign is compared with the position of the own vehicle which is one of the situations of the own vehicle. It can be determined whether or not the subject vehicle is the target of the sign a for which the type has been recognized in step 4.

また、補助標識の意味が、「軽自動車を除く」等の車両の種類を限定する意味である場合、その補助標識の意味を、自車両の状況の1つである自車両の種類と対比することで、自車両が前記ステップ4で種別を認識した本標識aの対象であるか否かを判断できる。   Further, when the meaning of the auxiliary sign is to limit the type of the vehicle such as “except for a light car”, the meaning of the auxiliary sign is compared with the type of the own vehicle which is one of the situations of the own vehicle. Thus, it can be determined whether or not the own vehicle is the target of the sign a for which the type is recognized in step 4.

また、補助標識の意味が、「2m以下」等、車高を限定する意味である場合、その補助標識の意味を、自車両の状況の1つである自車両の車高と対比することで、自車両が前記ステップ4で種別を認識した本標識aの対象であるか否かを判断できる。   In addition, when the meaning of the auxiliary sign is a meaning that limits the vehicle height, such as “2 m or less”, the meaning of the auxiliary sign is compared with the vehicle height of the own vehicle, which is one of the situations of the own vehicle. It can be determined whether or not the subject vehicle is the target of the sign a for which the type has been recognized in step 4.

また、補助標識の意味が、「2t以下」等の車両の重量を限定する意味である場合、その補助標識の意味を、自車両の状況の1つである自車両の重量と対比することで、自車両が前記ステップ4で種別を認識した本標識aの対象であるか否かを判断できる。   In addition, when the meaning of the auxiliary sign is to limit the weight of the vehicle such as “2 t or less”, the meaning of the auxiliary sign is compared with the weight of the own vehicle, which is one of the situations of the own vehicle. It can be determined whether or not the subject vehicle is the target of the sign a for which the type has been recognized in step 4.

また、補助標識の意味が、「幅2m以下」等の車幅を限定する意味である場合、その補助標識の意味を、自車両の状況の1つである自車両の車幅と対比することで、自車両が前記ステップ4で種別を認識した本標識aの対象であるか否かを判断できる。   If the meaning of the auxiliary sign is to limit the vehicle width such as “width 2 m or less”, the meaning of the auxiliary sign should be compared with the vehicle width of the own vehicle, which is one of the conditions of the own vehicle. Thus, it can be determined whether or not the host vehicle is the target of the sign a for which the type is recognized in step 4.

また、補助標識の意味が、「安全速度30」等の速度を限定する意味である場合、その補助標識の意味を、自車両の状況の1つである自車両の車速と対比することで、自車両が前記ステップ4で種別を認識した本標識aの対象であるか否かを判断できる。   If the meaning of the auxiliary sign is to limit the speed such as “safety speed 30”, the meaning of the auxiliary sign is compared with the vehicle speed of the own vehicle, which is one of the conditions of the own vehicle. It can be determined whether or not the host vehicle is the target of the sign a for which the type is recognized in step 4.

ステップ24では、運動制御ユニット49が、前記ステップ23での判断結果に応じ、運動制御装置53を用いて、自車両の運動を制御する。
前記ステップ23での判断結果に応じた自車両の運動とは、例えば、以下のようなものである。自車両が本標識aの対象であると判断した場合は、本標識の意味に従う運動を行う。例えば、本標識aが駐車禁止を意味する場合、その場所には駐車しない。また、本標識aが右折禁止を意味する場合、右折をしない。一方、自車両が本標識aの対象ではないと判断した場合は、本標識aの意味に制限されない運動を行う。
In step 24, the motion control unit 49 controls the motion of the host vehicle using the motion control device 53 according to the determination result in step 23.
The movement of the host vehicle according to the determination result in step 23 is, for example, as follows. When it is determined that the host vehicle is the target of the sign a, exercise according to the meaning of the sign is performed. For example, when this sign a means that parking is prohibited, parking is not performed at that location. If this sign a means prohibiting a right turn, do not make a right turn. On the other hand, when it is determined that the host vehicle is not the target of the sign a, exercise is not limited to the meaning of the sign a.

また、ステップ24では、前記ステップ23での判断結果に応じ、必要な場合は、表示装置55に表示、警告等を行う。
3.標識認識装置3が奏する効果
(1A)標識認識装置3は、確率P(w|a)に基づき、単語存在領域73に存在する単語wを推定する。確率P(w|a)は、本標識aに対する単語wの出現頻度を反映させた確率である。そのため、カメラを利用する一般的な文字認識アルゴリズムのみを用いる場合よりも、高精度に単語wを推定することができる。
In step 24, according to the determination result in step 23, display, warning, etc. are performed on the display device 55 if necessary.
3. Effects produced by the sign recognition device 3 (1A) The sign recognition device 3 estimates the word w i existing in the word existence region 73 based on the probability P (w i | a). The probability P (w i | a) is a probability reflecting the appearance frequency of the word w i for the sign a. Therefore, the word w i can be estimated with higher accuracy than when only a general character recognition algorithm using a camera is used.

そのことにより、補助標識の意味を高精度に抽出することができる。さらに、補助標識の意味を高精度に抽出できるため、自車両が本標識aの対象であるか否かを高精度に判断することができる。   Thereby, the meaning of the auxiliary sign can be extracted with high accuracy. Furthermore, since the meaning of the auxiliary sign can be extracted with high accuracy, it can be determined with high accuracy whether or not the host vehicle is the target of the main sign a.

(1B)標識認識装置3は、単語推定不可部分が残った場合でも、つながり確率を用いて、単語推定不可部分の単語xを推定することができる。
(1C)標識認識装置3は、補助標識において推定した単語を表示装置55に表示する。そのため、ドライバが補助標識を見落とすことを抑制できる。
(1B) The sign recognition device 3 can estimate the word x of the word non-estimable part using the connection probability even when the word non-estimable part remains.
(1C) The sign recognition device 3 displays the word estimated in the auxiliary sign on the display device 55. Therefore, it can suppress that a driver overlooks an auxiliary sign.

(1D)標識認識装置3は、前記ステップ17において、単語推定不可部分に存在する確率が相対的に高い、複数の推定結果を表示装置55に表示する。そのため、1のみの推定結果を表示する場合に比べて、正しい推定結果を表示できなくなってしまうことを抑制できる。   (1D) In step 17, the sign recognition device 3 displays a plurality of estimation results on the display device 55 that have a relatively high probability of being present in the word estimation impossible portion. Therefore, it is possible to prevent the correct estimation result from being displayed compared to the case where only one estimation result is displayed.

(1E)標識認識装置3は、入力装置59に対するドライバの操作に応じて、前記ステップ17において表示した複数の推定結果のうち、いずれか1つを選択する。そのため、ドライバの選択により、正しい単語を推定できる。   (1E) The sign recognition device 3 selects any one of the plurality of estimation results displayed in step 17 according to the driver's operation on the input device 59. Therefore, the correct word can be estimated by selecting the driver.

(1F)標識認識装置3は、前記ステップ19で選択された単語xと、前記ステップ14で推定された、単語推定不可部分以外の部分における他の単語wと、前記ステップ4で認識した本標識aと、を含む情報を、通信装置57を用いて外部サーバ5に出力する。 (1F) The sign recognizing device 3 recognizes the word x selected in the step 19, the other words w i in the portion other than the word estimation impossible portion estimated in the step 14, and the book recognized in the step 4. Information including the sign a is output to the external server 5 using the communication device 57.

外部サーバ5は、標識認識装置3から得た情報を用いて、サーバDB63の記憶内容を更新することができる。そのため、サーバDB63の記憶内容をより適切なものとすることができる。また、補助標識に新しい単語が登場した場合でも、サーバDB63の記憶内容をその新しい単語に対応させることができる。   The external server 5 can update the storage content of the server DB 63 using the information obtained from the sign recognition device 3. Therefore, the stored contents of the server DB 63 can be made more appropriate. Further, even when a new word appears in the auxiliary sign, the stored contents of the server DB 63 can be made to correspond to the new word.

(1G)標識認識装置3は、第1のDB9及び第2のDB11の記憶内容を、外部サーバ5の記憶内容を用いて更新することができる。そのため、第1のDB9及び第2のDB11の記憶内容をより適切なものとすることができる。また、補助標識に新しい単語が登場した場合でも、第1のDB9及び第2のDB11の記憶内容をその新しい単語に対応させることができる。   (1G) The sign recognition device 3 can update the storage contents of the first DB 9 and the second DB 11 using the storage contents of the external server 5. Therefore, the storage contents of the first DB 9 and the second DB 11 can be made more appropriate. Even when a new word appears in the auxiliary sign, the stored contents of the first DB 9 and the second DB 11 can be made to correspond to the new word.

(1H)標識認識装置3は、車両の状況として、時刻、自車両の位置、自車両の種類、自車両の車高、自車両の車重、自車両の車幅、及び自車両の車速を含む。そのため、自車両が本標識aの対象であるか否かを一層適切に判断することができる。   (1H) The sign recognition device 3 uses the time, the position of the host vehicle, the type of the host vehicle, the vehicle height of the host vehicle, the vehicle weight of the host vehicle, the vehicle width of the host vehicle, and the vehicle speed of the host vehicle as the vehicle status. Including. Therefore, it is possible to more appropriately determine whether or not the host vehicle is the target of the sign a.

(1I)標識認識装置3は、車両判断ユニット39の判断結果に応じて、自車両の運動を制御する。そのため、本標識及び補助標識の意味に対して適切な運動を行うことができる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1I) The sign recognition device 3 controls the movement of the host vehicle according to the determination result of the vehicle determination unit 39. Therefore, it is possible to perform an appropriate exercise with respect to the meaning of the present sign and the auxiliary sign.
<Other embodiments>
As mentioned above, although embodiment of this indication was described, this indication is not limited to the above-mentioned embodiment, and can carry out various modifications.

(1)標識認識装置3は、前記ステップ20で出力する情報を用いて、第1のDB9及び第2のDB11の記憶内容を更新することができる。更新の方法は、サーバDB63を更新する方法と同様である。また、標識認識装置3は、前記ステップ20で情報を出力せず、第1のDB9及び第2のDB11の記憶内容を更新してもよい。   (1) The sign recognition device 3 can update the storage contents of the first DB 9 and the second DB 11 using the information output in step 20. The updating method is the same as the method for updating the server DB 63. Further, the sign recognition device 3 may update the storage contents of the first DB 9 and the second DB 11 without outputting the information in the step 20.

(2)第2のDB11には、自車両情報と、単語xとの関係を格納しておいてもよい。例えば、自車両情報の一例である自車両の位置と、単語xとの関係を格納しておいてもよい。例えば、自車両の位置が、商店街入り口等である場合、「特定許可車両を除く」「9-17」等、車両の種類や時間を限定する単語xの確率を高くすることができる。また、例えば、ナビ地図情報により高架下を通過することが判断できる場合、「2m以下」等の車高を限定する単語wの確率を高くすることができる。 (2) The second DB 11 may store the relationship between the vehicle information and the word x. For example, you may store the relationship between the position of the own vehicle which is an example of the own vehicle information, and the word x. For example, when the position of the host vehicle is a shopping street entrance or the like, it is possible to increase the probability of the word x that limits the type and time of the vehicle, such as “excluding specific permitted vehicles” or “9-17”. In addition, for example, when it is possible to determine that the vehicle passes under the overhead by the navigation map information, the probability of the word w i that limits the vehicle height such as “2 m or less” can be increased.

(3)一定時間あるいは一定空間範囲内で認識した単語xに対するつながり確率を、それ以外の場合よりも高くしてもよい。例えば、「軽自動車を除く」等、車両の種類を限定する単語xを認識した場合、その単語xに対するつながり確率を、それ以外の場合よりも高くしてもよい。   (3) The connection probability for the word x recognized within a certain time or within a certain space range may be set higher than in other cases. For example, when a word x that restricts the type of vehicle such as “excludes a light car” is recognized, the connection probability for the word x may be higher than in other cases.

(4)認識した単語を、補助標識か否かの判定に用いてもよい。例えば、認識した物体の中に、第1のDB9又は第2のDB11に格納されていないような単語が頻出した場合、その物体が補助標識である確率を下げることができる。そのことにより、補助標識でない看板等を、補助標識として認識してしまうことを抑制できる。   (4) The recognized word may be used to determine whether or not it is an auxiliary sign. For example, when a word that is not stored in the first DB 9 or the second DB 11 appears frequently in the recognized object, the probability that the object is an auxiliary sign can be lowered. Thereby, it is possible to suppress a signboard or the like that is not an auxiliary sign from being recognized as an auxiliary sign.

(5)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (5) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

(6)上述した標識認識装置の他、当該標識認識装置を構成要素とするシステム、当該標識認識装置の制御部としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、標識認識方法、車両制御方法、運転支援方法等、種々の形態で本開示を実現することもできる。   (6) In addition to the above-described sign recognition device, a system including the sign recognition device as a constituent element, a program for causing a computer to function as a control unit of the sign recognition device, a non-transitive semiconductor memory or the like in which the program is recorded The present disclosure can also be realized in various forms such as an actual recording medium, a sign recognition method, a vehicle control method, and a driving support method.

1…標識認識システム、3…標識認識装置、5…外部サーバ、7…制御部、9…第1のDB、11…第2のDB、13…第3のDB、15…CPU、17…メモリ、19…画像取得ユニット、21…本標識認識ユニット、23…補助標識認識ユニット、25…第1の確率算出ユニット、27…第2の確率算出ユニット、31…第1の単語推定ユニット、33…第2の単語推定ユニット、35…意味抽出ユニット、37…状況データ取得ユニット、39…車両判断ユニット、41…表示ユニット、43…選択ユニット、45…情報出力ユニット、47…更新ユニット、49…運動制御ユニット、51…カメラ、53…運動制御装置、55…表示装置、57…通信装置、59…入力装置、61…制御部、63…サーバDB、65…通信装置、67…画像、69…本標識、71…補助標識、73…単語存在領域 DESCRIPTION OF SYMBOLS 1 ... Sign recognition system, 3 ... Sign recognition apparatus, 5 ... External server, 7 ... Control part, 9 ... 1st DB, 11 ... 2nd DB, 13 ... 3rd DB, 15 ... CPU, 17 ... Memory , 19 ... Image acquisition unit, 21 ... Main sign recognition unit, 23 ... Auxiliary sign recognition unit, 25 ... First probability calculation unit, 27 ... Second probability calculation unit, 31 ... First word estimation unit, 33 ... Second word estimation unit, 35 ... semantic extraction unit, 37 ... situation data acquisition unit, 39 ... vehicle judgment unit, 41 ... display unit, 43 ... selection unit, 45 ... information output unit, 47 ... update unit, 49 ... exercise Control unit 51 ... Camera 53 ... Motion control device 55 ... Display device 57 ... Communication device 59 ... Input device 61 ... Control unit 63 ... Server DB 65 ... Communication device 67 Image, 69 ... the label, 71 ... auxiliary label, 73 ... word existing region

Claims (8)

車両の周辺を表す画像を取得する画像取得ユニットと、
前記画像において本標識の種別を認識する本標識認識ユニットと、
前記画像において補助標識を認識する補助標識認識ユニットと、
補助標識に記載されうる単語と本標識の種別との関連度を、前記単語と前記本標識の種別との組み合わせごとに記憶した第1のデータベースと、
前記単語間の関連度を前記単語の組み合わせごとに記憶した第2のデータベースと、
前記単語または前記単語の組み合わせの意味を記憶した第3のデータベースと、
前記画像のうち、前記補助標識認識ユニットが認識した補助標識の部分において前記単語を探索し、その探索結果に基づき、前記補助標識の部分に前記単語が存在する確率を算出する第1の確率算出ユニットと、
前記第1の確率算出ユニットが算出した前記補助標識の部分に前記単語が存在する確率と、前記第1のデータベースに記憶されている前記単語と本標識の種別との関連度とに基づき、前記本標識認識ユニットで認識した本標識の種別が存在するときに、前記補助標識の部分に前記単語が存在する確率を算出する第2の確率算出ユニットと、
複数の前記単語についてそれぞれ算出した前記補助標識の部分に前記単語が存在する確率に基づき、前記補助標識の部分に存在する前記単語を推定する第1の単語推定ニットと、
前記補助標識の部分に、前記第1の単語推定ユニットで推定できない部分が残った場合は、前記第2のデータベースと、前記第1の単語推定ユニットで推定できた前記単語とを用いて、前記第1の単語推定ユニットで推定できない部分に存在する前記単語を推定する第2の単語推定ユニットと、
前記第1の単語推定ユニット及び前記第2の単語推定ユニットの推定結果と、前記第3のデータベースとに基づき、前記補助標識認識ユニットが認識した補助標識の意味を抽出する意味抽出ユニットと、
前記車両の状況を表す状況データを取得する状況データ取得ユニットと、
前記意味抽出ユニットが抽出した前記意味と、前記状況データとを対比して、前記車両が前記本標識認識ユニットで認識した本標識の種別の対象であるか否かを判断する車両判断ユニットと、
を備える標識認識装置。
An image acquisition unit for acquiring an image representing the periphery of the vehicle;
A sign recognition unit for recognizing the type of the sign in the image;
An auxiliary sign recognition unit for recognizing an auxiliary sign in the image;
A first database that stores the degree of association between a word that can be described in the auxiliary sign and the type of the main sign for each combination of the word and the type of the main sign;
A second database storing the degree of association between the words for each combination of the words;
A third database storing the meaning of the words or combinations of the words;
First probability calculation for searching for the word in the portion of the auxiliary sign recognized by the auxiliary sign recognition unit in the image and calculating the probability that the word exists in the auxiliary mark portion based on the search result Unit,
Based on the probability that the word is present in the portion of the auxiliary sign calculated by the first probability calculating unit, and the degree of association between the word and the type of the sign stored in the first database, A second probability calculating unit that calculates a probability that the word is present in the auxiliary sign portion when the type of the sign recognized by the sign recognition unit exists;
A first word estimation unit that estimates the word present in the auxiliary sign part based on the probability that the word exists in the auxiliary sign part calculated for each of the plurality of words;
When a portion that cannot be estimated by the first word estimation unit remains in the auxiliary sign portion, the second database and the word that can be estimated by the first word estimation unit are used. A second word estimation unit for estimating the word existing in a portion that cannot be estimated by the first word estimation unit;
A meaning extraction unit that extracts the meaning of the auxiliary sign recognized by the auxiliary sign recognition unit based on the estimation result of the first word estimation unit and the second word estimation unit and the third database;
A situation data acquisition unit for acquiring situation data representing the situation of the vehicle;
A vehicle determination unit that compares the meaning extracted by the meaning extraction unit with the situation data to determine whether or not the vehicle is a target of the type of the main sign recognized by the main sign recognition unit;
A sign recognition device comprising:
請求項1に記載の標識認識装置であって、
前記第1の単語推定ユニット及び前記第2の単語推定ユニットの推定結果を表示する表示ユニットをさらに備える標識認識装置。
The sign recognition device according to claim 1,
A sign recognition device further comprising a display unit for displaying estimation results of the first word estimation unit and the second word estimation unit.
請求項2に記載の標識認識装置であって、
前記表示ユニットは、前記第1の単語推定ユニットで推定できない部分に存在する確率が相対的に高い、前記第2の単語推定ユニットの複数の推定結果を表示するように構成された標識認識装置。
The sign recognition device according to claim 2,
The sign recognition device configured to display a plurality of estimation results of the second word estimation unit, wherein the display unit has a relatively high probability of being present in a portion that cannot be estimated by the first word estimation unit.
請求項3に記載の標識認識装置であって、
ユーザの操作に応じて、前記表示ユニットにより表示された前記複数の推定結果のうちのいずれかを選択する選択ユニットをさらに備える標識認識装置。
The sign recognition device according to claim 3,
A sign recognition device further comprising a selection unit that selects one of the plurality of estimation results displayed by the display unit in accordance with a user operation.
請求項4に記載の標識認識装置であって、
前記選択ユニットにより選択された前記推定結果と、前記補助標識における他の単語と、前記本標識認識ユニットで認識した本標識の種別と、を含む情報を外部に出力する情報出力ユニットをさらに備える標識認識装置。
The sign recognition device according to claim 4,
A sign further comprising an information output unit for outputting information including the estimation result selected by the selection unit, another word in the auxiliary sign, and the type of the sign recognized by the sign recognition unit to the outside Recognition device.
請求項1〜5のいずれか1項に記載の標識認識装置であって、
前記第1のデータベース及び前記第2のデータベースの記憶内容を、外部サーバの記憶内容を用いて更新する更新ユニットをさらに備える標識認識装置。
The sign recognition device according to any one of claims 1 to 5,
The sign recognition apparatus further comprising an update unit that updates the storage contents of the first database and the second database using the storage contents of an external server.
請求項1〜6のいずれか1項に記載の標識認識装置であって、
前記車両の状況は、時刻、前記車両の位置、前記車両の種類、前記車両の車高、前記車両の車重、前記車両の車幅、及び前記車両の車速から成る群から選択される1以上である標識認識装置。
The sign recognition device according to any one of claims 1 to 6,
The vehicle status is one or more selected from the group consisting of time, position of the vehicle, vehicle type, vehicle height, vehicle weight, vehicle width, and vehicle speed. Is a sign recognition device.
請求項1〜7のいずれか1項に記載の標識認識装置であって、
前記車両判断ユニットの判断結果に応じて、前記車両の運動を制御する運動制御ユニットをさらに備える標識認識装置。
The sign recognition device according to any one of claims 1 to 7,
A sign recognition device further comprising a motion control unit that controls motion of the vehicle according to a determination result of the vehicle determination unit.
JP2017007619A 2017-01-19 2017-01-19 Sign recognition device Active JP6711289B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017007619A JP6711289B2 (en) 2017-01-19 2017-01-19 Sign recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017007619A JP6711289B2 (en) 2017-01-19 2017-01-19 Sign recognition device

Publications (2)

Publication Number Publication Date
JP2018116553A true JP2018116553A (en) 2018-07-26
JP6711289B2 JP6711289B2 (en) 2020-06-17

Family

ID=62985289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017007619A Active JP6711289B2 (en) 2017-01-19 2017-01-19 Sign recognition device

Country Status (1)

Country Link
JP (1) JP6711289B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066303A1 (en) * 2018-09-27 2020-04-02 日立オートモティブシステムズ株式会社 Road sign recognition device
WO2020071132A1 (en) * 2018-10-04 2020-04-09 日立オートモティブシステムズ株式会社 Camera device
JP2021056575A (en) * 2019-09-27 2021-04-08 スズキ株式会社 Vehicle drive support system
JP7435683B1 (en) 2022-09-21 2024-02-21 いすゞ自動車株式会社 Electronics, vehicles, and programs
WO2024111105A1 (en) * 2022-11-25 2024-05-30 日本電気株式会社 Warning device, system, method, and computer-readable medium
WO2025177516A1 (en) * 2024-02-22 2025-08-28 日産自動車株式会社 Driving support method, driving support device, and computer-readable recording medium

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7179557B2 (en) 2018-09-27 2022-11-29 日立Astemo株式会社 road sign recognition device
WO2020066303A1 (en) * 2018-09-27 2020-04-02 日立オートモティブシステムズ株式会社 Road sign recognition device
EP3859707A4 (en) * 2018-09-27 2022-07-27 Hitachi Astemo, Ltd. ROAD SIGN RECOGNITION DEVICE
CN112740293A (en) * 2018-09-27 2021-04-30 日立汽车系统株式会社 Road sign recognition device
JP2020052849A (en) * 2018-09-27 2020-04-02 日立オートモティブシステムズ株式会社 Road sign recognition device
WO2020071132A1 (en) * 2018-10-04 2020-04-09 日立オートモティブシステムズ株式会社 Camera device
JPWO2020071132A1 (en) * 2018-10-04 2021-09-24 日立Astemo株式会社 Camera device
JP7058753B2 (en) 2018-10-04 2022-04-22 日立Astemo株式会社 Camera device
JP7327047B2 (en) 2019-09-27 2023-08-16 スズキ株式会社 Vehicle driving support system
JP2021056575A (en) * 2019-09-27 2021-04-08 スズキ株式会社 Vehicle drive support system
JP7435683B1 (en) 2022-09-21 2024-02-21 いすゞ自動車株式会社 Electronics, vehicles, and programs
DE102023121575A1 (en) 2022-09-21 2024-03-21 Isuzu Motors Limited ELECTRONIC DEVICE, VEHICLE AND PROGRAM
JP2024044411A (en) * 2022-09-21 2024-04-02 いすゞ自動車株式会社 Electronic devices, vehicles, and programs
WO2024111105A1 (en) * 2022-11-25 2024-05-30 日本電気株式会社 Warning device, system, method, and computer-readable medium
JPWO2024111105A1 (en) * 2022-11-25 2024-05-30
WO2025177516A1 (en) * 2024-02-22 2025-08-28 日産自動車株式会社 Driving support method, driving support device, and computer-readable recording medium

Also Published As

Publication number Publication date
JP6711289B2 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
JP6711289B2 (en) Sign recognition device
JP6307356B2 (en) Driving context information generator
CN110114810B (en) Information processing system, information processing method, and storage medium
KR101737791B1 (en) Traffic sign recognizing apparatus for vehicle and operating method threrof.
CN107531244B (en) Information processing system, information processing method, and recording medium
JP6196044B2 (en) Traffic signal recognition system and method
EP3269609A1 (en) Driving assistance method, driving assistance device using same, automatic driving control device, vehicle, and driving assistance program
US10336252B2 (en) Long term driving danger prediction system
CN113673281B (en) Speed limit information determining method, device, equipment and storage medium
JP6693321B2 (en) Ability evaluation system
JP2018027776A (en) Personal adaptation of the driver behavior prediction model
EP3324335A1 (en) Image data extraction apparatus and image data extraction method
JP6580437B2 (en) Information processing device
CN108628298A (en) Control type planning for automatic driving vehicle and control system
US9779312B2 (en) Environment recognition system
JP2014238654A (en) Operation assist device and program
JP2020038632A (en) Sign recognition system and sign recognition method
JP2017130155A (en) Object recognition device and object recognition method
JP2012221162A (en) Object detection device and program
JP4670805B2 (en) Driving support device and program
JP2018025898A (en) Display content recognition device and vehicle control device
JP6610341B2 (en) Estimator
JP2018124641A (en) Driving support device
JP4884330B2 (en) Removal target sign recognition device, removal target sign recognition method, and removal target sign recognition program
JP2008234102A (en) Sign object recognition device, sign object recognition method, and sign object recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200511

R151 Written notification of patent or utility model registration

Ref document number: 6711289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250