[go: up one dir, main page]

JP2002074339A - In-vehicle imaging device - Google Patents

In-vehicle imaging device

Info

Publication number
JP2002074339A
JP2002074339A JP2000263733A JP2000263733A JP2002074339A JP 2002074339 A JP2002074339 A JP 2002074339A JP 2000263733 A JP2000263733 A JP 2000263733A JP 2000263733 A JP2000263733 A JP 2000263733A JP 2002074339 A JP2002074339 A JP 2002074339A
Authority
JP
Japan
Prior art keywords
image
vehicle
image pickup
image data
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000263733A
Other languages
Japanese (ja)
Other versions
JP3820342B2 (en
Inventor
Isao Furusawa
勲 古沢
Tatsuhiko Moji
竜彦 門司
Jiro Takezaki
次郎 竹崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000263733A priority Critical patent/JP3820342B2/en
Publication of JP2002074339A publication Critical patent/JP2002074339A/en
Application granted granted Critical
Publication of JP3820342B2 publication Critical patent/JP3820342B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

(57)【要約】 【課題】 撮像光軸や画角などが設計値に対してずれた
場合にも自動的に対応できるようにした車載撮像装置を
提供すること。 【解決手段】 必要な領域より広い領域が撮像できるよ
うにしたカメラ1を用い、その視野内に含まれるように
して設置してある左右2個のマーク3による画像によ
り、カメラ1の光軸や画角のずれ、視野の回転などを検
出し、その検出結果に応じてカメラ1による撮像領域を
調整することにり、カメラ1を動かすことなく、カメラ
1の光軸や画角のずれ、視野の回転などが自動的に補正
されるようにしたもの。
(57) [Problem] To provide an in-vehicle imaging device capable of automatically coping with a case where an imaging optical axis, an angle of view, and the like deviate from design values. SOLUTION: A camera 1 capable of capturing an image of an area larger than a necessary area is used, and an image by two left and right marks 3 installed so as to be included in the field of view is used to determine the optical axis of the camera 1 or the like. By detecting the shift of the angle of view, the rotation of the field of view, and the like, and adjusting the imaging area by the camera 1 according to the detection result, the shift of the optical axis and the angle of view of the camera 1 without moving the camera 1 Automatically compensates for rotation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両の走行環境を
認識するための撮像装置に係り、特に自動車の安全走行
支援用に好適な車載撮像装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus for recognizing a traveling environment of a vehicle, and more particularly to an in-vehicle image pickup apparatus suitable for supporting safe driving of an automobile.

【0002】[0002]

【従来の技術】近年、自動車など車両の走行環境を画像
データにより認識し、車両の安全走行を支援する装置が
注目を集めている。そして、このような装置の一例に、
特開平3−203000号公報に開示されている環境認
識装置がある。
2. Description of the Related Art In recent years, a device which recognizes a running environment of a vehicle such as an automobile by image data and supports safe running of the vehicle has attracted attention. And in one example of such a device,
There is an environment recognition device disclosed in JP-A-3-203000.

【0003】ところで、このような走行環境認識装置で
は、例えばCCD(電荷結合素子)などの撮像デバイスを
用いたビデオカメラから画像データを取込むようになっ
ているが、この場合、画像データの取込みに使用するビ
デオカメラ(撮像手段)の取付位置、取付角度、画角(撮
像範囲)などが変化してしまうと、画像データも変化し
てしまう。
In such a driving environment recognizing apparatus, image data is taken from a video camera using an image pickup device such as a CCD (charge coupled device). If the mounting position, mounting angle, angle of view (imaging range), etc. of the video camera (imaging means) used for the image change, the image data also changes.

【0004】そこで、このような装置では、カメラ(ビ
デオカメラ)の位置調整と画角調整が重要な要素にな
り、これらが常に正しい取付状態に調整され、その状態
が保持されている必要があるが、このとき、従来技術で
は、雲台などカメラの取付機構を手作業により調整する
方法が主として採用されていた。
Therefore, in such an apparatus, position adjustment and angle-of-view adjustment of a camera (video camera) are important factors, and these must always be adjusted to a correct mounting state, and that state must be maintained. However, at this time, in the prior art, a method of manually adjusting a camera mounting mechanism such as a camera platform is mainly adopted.

【0005】従って、従来技術の場合、カメラの取付調
整に煩雑な作業が必要で、多くの作業時間か費やされて
しまう上、取付調整を終了して一旦固定した後でも、振
動などによりカメラの調整が外れてしまう虞れがあるの
で、必ずしも精度が保持されているという保証がなかっ
た。
[0005] Therefore, in the case of the prior art, a complicated operation is required for adjusting the mounting of the camera, which requires a lot of work time. Since there is a possibility that the adjustment of may be lost, there is no guarantee that the accuracy is always maintained.

【0006】そこで、この作業時間を短縮するため、例
えば特開平11−259632号公報では、ステレオカ
メラを用い、その調整のために、各カメラの画像から一
般的な風景の中で3箇所に特徴点を決め、この特徴点を
検出してカメラの光軸を調整する方法について開示して
おり、特開平8−16999号公報では、単眼のカメラ
を対象として、その取付位置のずれの確認と、取付位置
の調整のため、1箇所のマークを使用する方法について
開示している。
In order to shorten the working time, for example, in Japanese Patent Application Laid-Open No. H11-259632, a stereo camera is used. JP-A-8-16999 discloses a method of determining a point, adjusting the optical axis of the camera by detecting this characteristic point, and confirming the displacement of the mounting position of a monocular camera, It discloses a method of using one mark for adjusting the mounting position.

【0007】[0007]

【発明が解決しようとする課題】上記従来技術は、カメ
ラの調整に必要な要件の全てについて配慮がされている
とは言えず、性能の向上を図り、高性能を保持する点に
問題があった。
The prior art described above does not consider all of the requirements necessary for camera adjustment, and has a problem in improving performance and maintaining high performance. Was.

【0008】例えば、一般的な風景の中の2箇所の特徴
点を抽出するようにした従来技術では、特徴点抽出など
の処理工数が多く、多大な処理時間を要する上、微少な
光軸のずれにしか対応できず、光軸が大きくずれた場合
には、左右のカメラの対応点が検索できなくなり、更
に、ステレオカメラに特化されているので、単眼のカメ
ラを用いた装置には簡単に転用できないなどの問題があ
った。
For example, in the prior art in which two feature points in a general scenery are extracted, a large number of processing steps are required for extracting feature points and the like, a great deal of processing time is required, and a minute optical axis has to be extracted. When the optical axis shifts greatly, it is impossible to search for the corresponding points of the left and right cameras, and since it is specialized for stereo cameras, it is easy to use a device using a monocular camera. There was a problem that it could not be diverted to.

【0009】また、1箇所の特徴点を抽出するようにし
た従来技術では、微少な光軸のずれにしか対応できない
ことの他に、回転のずれを検出できないという問題点が
あった。本発明は、上記の問題点に鑑みてなされたもの
で、その目的は、撮像光軸や画角などが設計値に対して
ずれた場合にも自動的に対応できるようにした車載撮像
装置を提供することにある。
In addition, the prior art in which one feature point is extracted has a problem that it cannot cope with only a slight optical axis shift and cannot detect a rotational shift. The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an in-vehicle imaging device that can automatically cope with a case where an imaging optical axis, an angle of view, and the like deviate from design values. To provide.

【0010】[0010]

【課題を解決するための手段】上記目的は、撮像手段か
ら取込んだ画像データにより、車両の走行環境を認識す
る方式の車載撮像装置において、前記画像データの取込
みに必要な撮像視野よりも広い撮像視野を有する撮像手
段を用い、前記車両の一部に、前記撮像手段の視野内に
含まれ、該視野内で水平方向の左右に存在して特徴的な
画像を与える2個の被写体を設け、これら2個の被写体
による画像から、前記撮像手段の光軸と画角及び画像の
回転の何れかの変化を検出し、前記撮像手段の光軸と画
角及び画像の回転の何れかを調整するようにして達成さ
れる。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an in-vehicle image pickup apparatus for recognizing a traveling environment of a vehicle based on image data taken from an image pickup means, which is wider than a field of view required for taking the image data. Using an imaging unit having an imaging field of view, two objects included in the field of view of the imaging unit and present in the left and right sides in the horizontal direction within the field of view and providing characteristic images are provided in a part of the vehicle. Detecting changes in the optical axis, the angle of view, and the rotation of the image of the imaging unit from the images of the two subjects, and adjusting any of the optical axis, the angle of view, and the rotation of the image of the imaging unit; To be achieved.

【0011】同じく上記目的は、撮像手段から取込んだ
画像データにより、車両の走行環境を認識する方式の車
載撮像装置において、前記画像データの取込みに必要な
撮像視野よりも広い撮像視野を有する撮像手段を用い、
前記撮像手段の視野内で水平方向の左右に特徴的な画像
を与えるようにして、前記車両の一部に取付けられてい
る2個の被写体と、これら2個の被写体による画像か
ら、前記撮像手段の光軸と画角及び画像の回転の何れか
の変化を検出する手段と、この変化の検出結果に応じて
補正量を算出する手段と、この補正量に応じて前記撮像
手段による画像データの取得可能領域の中で、画像デー
タの取込みに使用する領域を変更する手段とを設け、前
記撮像手段の光軸と画角及び画像の回転の何れかが調整
されるようにしても達成される。
Another object of the present invention is to provide an in-vehicle image pickup apparatus for recognizing a traveling environment of a vehicle based on image data taken from an image pickup means, wherein the image pickup field has a wider field of view than the field of view required for taking the image data. Using means,
In order to provide a characteristic image to the left and right in the horizontal direction within the field of view of the image pickup means, two objects attached to a part of the vehicle, and an image of these two objects, the image pickup means Means for detecting any change in the optical axis, angle of view, and rotation of the image, means for calculating a correction amount in accordance with the detection result of the change, and image data conversion by the imaging means in accordance with the correction amount. Means for changing an area used for capturing image data in the obtainable area is provided, and any one of the optical axis, the angle of view, and the rotation of the image of the imaging means is adjusted. .

【0012】更に上記目的は、撮像手段から取込んだ画
像データにより、車両の走行環境を認識する方式の車載
撮像装置において、前記画像データの取込みに必要な撮
像視野よりも広い撮像視野を有する撮像手段を用い、前
記撮像手段による画像データの取得可能領域の中で、画
像データの取込みに使用する領域を変更することによ
り、当該撮像手段の撮像視野角が変化できるようにして
も達成される。
It is still another object of the present invention to provide an in-vehicle image pickup apparatus for recognizing a running environment of a vehicle based on image data taken from an image pickup means. The present invention is also achieved by changing a region used for capturing image data in a region where image data can be acquired by the image capturing device by using the device, so that the imaging viewing angle of the image capturing device can be changed.

【0013】このとき、前記撮像手段の撮像視野角の変
化に応じて、前記画像データの画素を間引くことによ
り、当該撮像手段の撮像視野角の変化による前記画像デ
ータの情報量の変化が抑えられるようにしてもよい。
At this time, by thinning out the pixels of the image data in accordance with the change in the imaging viewing angle of the imaging means, the change in the information amount of the image data due to the change in the imaging viewing angle of the imaging means can be suppressed. You may do so.

【0014】なお、ここでは車両の走行環境認識装置を
一例にして説明しているが、本発明は、カメラなどの撮
像手段を用いた一般の環境認識装置にも適用可能なこと
はいうまでもない。
Although the present invention has been described with reference to an example of an apparatus for recognizing a running environment of a vehicle, the present invention can be applied to a general environment recognizing apparatus using image pickup means such as a camera. Absent.

【0015】[0015]

【発明の実施の形態】以下、本発明による車載撮像装置
について、図示の実施の形態により詳細に説明する。は
じめに、本発明によるカメラの光軸と画角及び画像の回
転の何れかを検出し調整するための基本的な考え方につ
いて説明する。まず、本発明では、カメラの光電変換面
の全てを使用して画像データを取込むのではなくて、図
1に示すように、撮像用のレンズ10と撮像デバイス1
1とを備えたカメラにおいて、必要とする画像データが
矢印Aで示す領域(以下、これを使用画像領域A1とい
う)であったとしたとき、図に破線で示してあるよう
に、このカメラでは、領域A1よりも広い撮像領域(以
下、これを取得可能画像領域A0という)が得られるよ
うに、予めレンズ10の焦点距離と撮像デバイス11の
光電変換面の大きさを選らんでおいた上で、光電変換面
で画像データを取込む領域を動かすようにしてある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a vehicle-mounted image pickup device according to the present invention will be described in detail with reference to the illustrated embodiments. First, a basic concept for detecting and adjusting any of the optical axis, the angle of view, and the rotation of an image of the camera according to the present invention will be described. First, in the present invention, instead of using all of the photoelectric conversion surfaces of the camera to capture image data, as shown in FIG. 1, an imaging lens 10 and an imaging device 1 are used.
Assuming that the required image data is an area indicated by an arrow A (hereinafter referred to as a used image area A1) in the camera having The focal length of the lens 10 and the size of the photoelectric conversion surface of the imaging device 11 are selected in advance so that an imaging area wider than the area A1 (hereinafter referred to as an obtainable image area A0) is obtained. The region for taking image data is moved on the photoelectric conversion surface.

【0016】ここで、取得可能画像領域A0とは、この
とき使用されているカメラから画像データの取得が可能
な光電変換面の全ての領域のことで、これは、このカメ
ラが備えているレンズの写角と光電変換面の広さで決ま
り、使用画像領域A1とは、この取得可能画像領域A0
の中で、実際に画像データの取込みに使用する領域のこ
とであり、従って、これらについては、「A0>A1」
の関係が成立するように、レンズ10には広角のレンズ
が用いられ、撮像デバイス11を構成するCCDセンサ
にも大きな光電変換面のものが用いられている。
Here, the retrievable image area A0 is the entire area of the photoelectric conversion surface from which image data can be obtained from the camera used at this time, and this is the lens provided in this camera. Is determined by the angle of view and the width of the photoelectric conversion surface, and the use image area A1 is the obtainable image area A0.
Are the areas that are actually used to capture image data, and therefore, these are referred to as “A0> A1”.
As a result, a wide-angle lens is used as the lens 10, and a CCD sensor having a large photoelectric conversion surface is used as the CCD sensor constituting the imaging device 11.

【0017】このとき、本発明の実施形態では、CCD
などの一般的な撮像デバイスの光電変換面が画素と呼ば
れる複数の光電変換素子で構成されていることを利用
し、これらの画素の中で画像データを取込む画素を部分
的に選択してやれば、撮像デバイス11の光電変換面を
実際に動かすことなく、画像データを取込む領域、つま
り使用画像領域A1が任意に変えられることになり、そ
の選択すべき画素の選び方に応じてカメラの光軸と画角
が変更でき、且つ、画像の回転が得られることになる。
At this time, in the embodiment of the present invention, the CCD
Utilizing the fact that the photoelectric conversion surface of a general imaging device such as such is configured with a plurality of photoelectric conversion elements called pixels, and partially selecting pixels to capture image data among these pixels, Without actually moving the photoelectric conversion surface of the imaging device 11, the area for capturing the image data, that is, the used image area A1 can be changed arbitrarily. The angle of view can be changed, and the image can be rotated.

【0018】図2は、本発明の第1の実施形態で、本発
明による車載撮像装置を走行環境認識装置として用い、
自動車のACC(オートクルージングコントロール)制御
に適用した場合の実施形態で、この図において、Mが自
動車で、カメラ1は、この自動車Mの室内の天井部に、
前方に向けて取付けてある。
FIG. 2 shows a first embodiment of the present invention, wherein an in-vehicle imaging device according to the present invention is used as a traveling environment recognition device,
In the embodiment in which the present invention is applied to ACC (auto cruising control) control of a car, in this figure, M is a car, and a camera 1 is mounted on a ceiling of a room of the car M.
It is installed facing forward.

【0019】AEはカメラ1による撮像視野(エリア)を
表わし、これによる撮像領域が上記した使用画像領域A
1であるが、このとき、自動車MのボンネットMBに
は、この撮像視野AEに入るようにして、左右2箇所に
マーク3が設けられている。
AE represents the visual field (area) of the image picked up by the camera 1, and the image picked up by this is the above-mentioned used image area A
At this time, at this time, marks 3 are provided at two places on the left and right sides of the hood MB of the automobile M so as to enter the imaging field of view AE.

【0020】自動車M内には、ACCコントロールユニ
ット4とディスプレイ装置5、ブレーキ駆動装置6、ス
テアリング駆動装置7、それにスロットル駆動装置8が
設けてある。
In the automobile M, an ACC control unit 4, a display device 5, a brake driving device 6, a steering driving device 7, and a throttle driving device 8 are provided.

【0021】そして、カメラ1はカメラ信号線40によ
りACC制御装置4に接続され、更にACC制御装置4
は、ディスプレイ信号線50によりディスプレイ装置5
に、ブレーキ駆動信号線60によりブレーキ駆動装置6
に、ステアリング駆動信号線70によりステアリング駆
動装置7に、そしてスロットル駆動信号線80によりス
ロットル駆動装置8に、それぞれ接続されている。
The camera 1 is connected to the ACC controller 4 by a camera signal line 40.
Is connected to the display device 5 by the display signal line 50.
In addition, the brake driving device 6
The throttle drive signal line 70 is connected to the steering drive device 7 and the throttle drive signal line 80 is connected to the throttle drive device 8.

【0022】図3はカメラ1の詳細で、図示のように、
画像入力部1Aと、画像演算部1Bに大別されている。
そして、まず、画像入力部1Aは、レンズ10と撮像デ
バイス11、それにCCD出力信号変換処理部12とを
備え、自動車Mの走行方向の主として前方を撮像し、撮
像した画像をディジタル出力する働きをする。
FIG. 3 shows the details of the camera 1 as shown in FIG.
It is roughly divided into an image input unit 1A and an image calculation unit 1B.
First, the image input unit 1A includes a lens 10, an imaging device 11, and a CCD output signal conversion processing unit 12, and functions to capture an image mainly in front of the traveling direction of the automobile M and digitally output the captured image. I do.

【0023】ここで、撮像デバイス11には、100万
画素のCCDセンサが用いられているが、CMOSセン
サを用いてもよい。このとき、図1で説明したように、
使用撮像領域A1よりも広い取得可能画像領域A0に対
応した撮像視野AEが得られるように、レンズ10の焦
点距離と撮像デバイス11の大きさが選ばれている。
Here, a CCD sensor having one million pixels is used for the imaging device 11, but a CMOS sensor may be used. At this time, as described in FIG.
The focal length of the lens 10 and the size of the imaging device 11 are selected so that an imaging field of view AE corresponding to the obtainable image area A0 wider than the used imaging area A1 is obtained.

【0024】次に、画像演算部1Bは、画素単位で画像
データを取込んで記憶する画像メモリ13と画像データ
を変換する画像データ補正部14、外部環境に対する自
車両の相対位置を認識して演算する画像処理部15、画
像入力部1Aの初期設定位置からの位置ずれを検出し判
定するカメラ位置変化判定部16、警報発令とブレー
キ、ステアリング、スロットルの駆動を判断する危険回
避判断部17、それに判断結果を出力し車速などのデー
タを入力するデータ入出力部18で構成されている。
Next, the image calculation section 1B captures and stores image data in pixel units, an image data correction section 14 for converting image data, and recognizes the relative position of the vehicle with respect to the external environment. An image processing unit 15 for calculating; a camera position change determining unit 16 for detecting and determining a positional deviation of the image input unit 1A from an initial setting position; a danger avoidance determining unit 17 for determining an alarm issuance and driving of the brake, steering, and throttle; The data input / output unit 18 outputs a judgment result and inputs data such as a vehicle speed.

【0025】そして、まず、画像処理部15は、先行車
認識部151と車間距離演算部152、自車レーン演算
部153、それに自車レーンとの位置関係演算部154
で構成されており、次に、カメラ位置変化判定部16
は、初期マーク位置記憶部161とマーク抽出部16
2、マーク位置検出部163、それに比較部164で構
成されている。 また、危険回避判断部17は、危険度
判定部171と警報発令判断部172、アクチュエータ
駆動判断部173で構成されている。
First, the image processing unit 15 includes a preceding vehicle recognizing unit 151, an inter-vehicle distance calculating unit 152, an own vehicle lane calculating unit 153, and a positional relationship calculating unit 154 with the own vehicle lane.
Next, the camera position change determination unit 16
Are the initial mark position storage unit 161 and the mark extraction unit 16
2. It comprises a mark position detecting section 163 and a comparing section 164. The danger avoidance determination unit 17 includes a danger degree determination unit 171, an alarm issuance determination unit 172, and an actuator drive determination unit 173.

【0026】次に、この実施形態の動作について説明す
る。まず、自動車のACC制御における走行環境認識装
置としての動作について説明すると、例えば100万画
素のCCDを用いて取得可能画像領域A0が得られるよ
うにしてある撮像デバイス11を用いて撮像した自車両
前方の画像データは、CCD出力信号変換処理部12に
よりディジタルデータに変換され、画像メモリ13に格
納される。
Next, the operation of this embodiment will be described. First, the operation of the driving environment recognition device in the ACC control of the automobile will be described. For example, the front of the own vehicle imaged by using the imaging device 11 configured to obtain an obtainable image area A0 using a 1 million pixel CCD. Are converted into digital data by the CCD output signal conversion processing unit 12 and stored in the image memory 13.

【0027】そして、この画像メモリ13に記憶したデ
ータを画像処理部15に入力し、このデータに基づい
て、まず先行車認識部151で先行車の認識を行ない、
次いで車間距離演算部152では車間距離が演算され
る。また、これと並行して、自車レーン認識部153と
自車とレーンの位置関係演算部154では、自車レーン
の認識と自車とレーンの位置関係が演算される。そし
て、画像処理部15によるこれらの演算結果は危険回避
判断部17に入力される。
Then, the data stored in the image memory 13 is input to the image processing unit 15, and based on the data, the preceding vehicle recognition unit 151 first recognizes the preceding vehicle.
Next, the inter-vehicle distance calculation unit 152 calculates the inter-vehicle distance. In parallel with this, the own vehicle lane recognition unit 153 and the own vehicle and lane positional relationship calculation unit 154 calculate the own vehicle lane recognition and the own vehicle and lane positional relationship. Then, the results of these calculations by the image processing unit 15 are input to the danger avoidance determination unit 17.

【0028】危険回避判断部17では、上記した演算結
果に加え、ACCコントロールユニット4からデータ入
出力部18を介して、自動車Mの車速やステアリング角
度などのデータを入力し、危険度判定部171により、
これら演算結果とデータに基づいて、先行車への接近状
態、自車とレーンの位置状態を判断する。
The danger avoidance determining unit 17 inputs data such as the vehicle speed and the steering angle of the automobile M from the ACC control unit 4 via the data input / output unit 18 in addition to the above-described calculation results. By
Based on these calculation results and data, the approach state to the preceding vehicle and the position states of the own vehicle and the lane are determined.

【0029】そして、自車が先行車に異常接近したり、
自車レーンを逸脱しそうになったときには、警報発令判
断部172により危険状態であると判断し、データ入出
力部18を介してディスプレイ装置5に所定の表示デー
タを送り、運転者に危険状態であることを知らせる内容
の表示を行なわせる。
Then, the own vehicle abnormally approaches the preceding vehicle,
When the vehicle is about to deviate from the vehicle lane, the warning issuance determination unit 172 determines that the vehicle is in a danger state, sends predetermined display data to the display device 5 via the data input / output unit 18, and notifies the driver of the danger state. Display the content that tells you that there is something.

【0030】一方、先行車との車間距離が変わったとき
は、アクチュエータ駆動判断部173により、先行車と
の車間距離を維持するようなスロットル制御又はブレー
キ制御量を計算し、制御データをデータ入出力部18か
らACCコントロールユニット4に送信する。
On the other hand, when the inter-vehicle distance to the preceding vehicle changes, the throttle drive or brake control amount for maintaining the inter-vehicle distance to the preceding vehicle is calculated by the actuator drive determination unit 173, and the control data is input. The signal is transmitted from the output unit 18 to the ACC control unit 4.

【0031】更に、自車が自車レーンの中央付近を外れ
て走行しているときは、アクチュエータ駆動判断部17
3で自車レーン中央付近を走行するのに必要なステアリ
ング制御量を計算し、同じく制御データをデータ入出力
部18を介してACCコントロールユニット4に送信す
る。
Further, when the own vehicle is running off the vicinity of the center of the own vehicle lane, the actuator drive determining unit 17
In 3, a steering control amount required to travel around the center of the vehicle lane is calculated, and control data is transmitted to the ACC control unit 4 via the data input / output unit 18.

【0032】以上は、この実施形態によるACCとして
の一般的な動作であるが、次に、この実施形態の特徴で
あるカメラ位置変化判定部16の動作について、図4と
図5を用いて説明する。図4において、このフローチャ
ートによる処理が開始されたら、まず、ステップS1で
カメラ1の位置について初期設定を行う。
The above is the general operation of the ACC according to this embodiment. Next, the operation of the camera position change judging unit 16 which is a feature of this embodiment will be described with reference to FIGS. I do. In FIG. 4, when the process according to this flowchart is started, first, in step S1, initial setting is performed on the position of the camera 1.

【0033】この初期設定では、カメラ1の取付状態を
調整して、撮像視野AEが正しく得られているように固
定する作業などが行なわれる。図5(a)は、このときの
初期設定の結果で、図示のように、取得可能画像領域A
0の真中に使用画像領域A1が来るように、カメラ1の
撮像視野AEを設定するのである。
In this initial setting, an operation of adjusting the mounting state of the camera 1 and fixing the camera 1 so that the imaging visual field AE is correctly obtained is performed. FIG. 5A shows the result of the initial setting at this time. As shown in FIG.
The imaging field of view AE of the camera 1 is set so that the use image area A1 is located at the center of 0.

【0034】次に、ステップS2では、マーク3の位置
を初期マーク位置記憶部161に記憶し、初期マーク位
置Xとする。この初期マーク位置Xの記憶は、カメラ1
を撮像動作状態にし、画像データを取込んで処理し、図
5(a)に示す使用画像領域A1内でのマーク3を検出
し、これを初期マーク3Aとして、その位置Xを初期マ
ーク位置記憶部161に格納してやればよい。
Next, in step S2, the position of the mark 3 is stored in the initial mark position storage section 161 and is set as the initial mark position X. This initial mark position X is stored in the camera 1
Is set to an imaging operation state, the image data is taken in and processed, a mark 3 in the used image area A1 shown in FIG. 5A is detected, and this is set as an initial mark 3A, and the position X is stored as an initial mark position. What is necessary is just to store it in the part 161.

【0035】ここで、この初期マーク位置Xは、以後、
再設定されるまで、そのまま繰返し使用される。従っ
て、初期マーク位置記憶部161は、この装置全体に対
する電源供給が停止したときでも記憶が保持できるよう
に、書換可能なROM、又はバックアップ電源を持った
RAMが使用されている。
Here, the initial mark position X is
It is used repeatedly until it is reset. Therefore, the initial mark position storage unit 161 uses a rewritable ROM or a RAM having a backup power supply so that the memory can be retained even when the power supply to the entire apparatus is stopped.

【0036】ここで、このステップS2までは、カメラ
1を自動車Mに設置したとき実行される作業処理である
が、これ以降の処理は、上記した通常の走行環境認識装
置としての動作と並行して、例えば所定のマイコンによ
り、所定のプログラムにより実行されるものであり、従
って、ステップS3以降の処理は、自動車Mのアクセサ
リ電源が投入されたとき開始され、以後、電源が落とさ
れるまで、画像メモリ13に1フレーム分の画像データ
が書き込まれる毎に実行される。
Here, the processing up to step S2 is the work processing executed when the camera 1 is installed in the car M, but the subsequent processing is performed in parallel with the above-described operation as the normal traveling environment recognition device. Therefore, for example, the processing is executed by a predetermined microcomputer by a predetermined program. Therefore, the processing after step S3 is started when the accessory power of the vehicle M is turned on, and thereafter, the image processing is performed until the power is turned off. It is executed every time one frame of image data is written in the memory 13.

【0037】まず、ステップS3では、マーク抽出部1
62とマーク位置検出部163により、画像メモリ13
に取込まれた画像データからマーク3の位置を検出し、
これを現マーク3Bとし、その位置を現マーク位置Yと
する処理を実行する。次に、ステップS4では、比較部
164により、現マーク位置Yを、初期マーク位置記憶
部161に格納されているデータ、すなわち初期マーク
位置Xと比較する。
First, in step S3, the mark extracting unit 1
62 and the mark position detector 163, the image memory 13
Detects the position of mark 3 from the image data captured in
This is set as the current mark 3B, and the position is set as the current mark position Y. Next, in step S4, the comparison unit 164 compares the current mark position Y with the data stored in the initial mark position storage unit 161, ie, the initial mark position X.

【0038】そして、まず、検出したマーク3の位置が
初期マーク位置と等しい場合、つまり「X=Y」のとき
はステップS5により、カメラ1の位置変化はないもの
と判断してステップS6に進み、以後、ステップS6か
らステップS8までの処理を実行した後、ステップS3
に戻り、次のフレームの処理に移る。ここで、これらの
ステップS6からステップS8までの処理が、上記した
通常の走行環境認識装置としての動作のための処理であ
る。
If the detected position of the mark 3 is equal to the initial mark position, that is, if "X = Y", it is determined in step S5 that there is no change in the position of the camera 1, and the flow advances to step S6. After that, after executing the processing from step S6 to step S8, step S3
Returns to the processing of the next frame. Here, the processes from step S6 to step S8 are processes for the operation as the above-described normal traveling environment recognition device.

【0039】一方、ステップS5での結果がNo(否定)
になったとき、つまり「X≒Y」のときは、図5(b)、
(c)に示すように、初期マーク3Aと現マーク3Bがず
れていることになる。そこで、このときは、ステップS
9以降の処理に進み、まず、このステップS9では、初
期マーク3Aと現マーク3Bのずれ量が補正可能な範囲
内にあるか否かを判断する。このときの判断、つまり、
ずれ量が補正可能な範囲内にあるか否かの判断は、この
実施形態では、現マーク3Bの位置Yが取得可能画像領
域A0内にあるか否かにより判定するようになってい
る。
On the other hand, if the result in step S5 is No (No)
, That is, when “X ≒ Y”, FIG. 5B,
As shown in (c), the initial mark 3A and the current mark 3B are shifted. Therefore, in this case, step S
Then, in step S9, it is determined whether or not the shift amount between the initial mark 3A and the current mark 3B is within a correctable range. Judgment at this time, that is,
In this embodiment, whether or not the shift amount is within the range that can be corrected is determined based on whether or not the position Y of the current mark 3B is within the obtainable image area A0.

【0040】そして、このステップS9での判定結果が
Yes(肯定)になったときは、まずステップS10で、
ずれの補正に必要な補正量を算出する処理を実行する。
このとき、ずれの状態が図5(b)に示すように、平行な
ずれの場合は、並進補正量の算出処理になり、図5(c)
に示すように、回転ずれの場合は、回転補正量の算出処
理となる。
When the result of the determination in step S9 is Yes (affirmative), first in step S10,
A process for calculating a correction amount necessary for correcting the displacement is executed.
At this time, as shown in FIG. 5B, when the state of the displacement is a parallel displacement, the process of calculating the translation correction amount is performed.
As shown in (1), in the case of a rotational displacement, the process is a process of calculating a rotation correction amount.

【0041】次にステップS11では、画像データ補正
部14により、この算出された補正量に基づいて画像デ
ータを補正する。そして、ステップS11の処理を終え
たらステップS6からステップS8の処理に合流し、こ
のときは、補正された画像データにより、通常の走行環
境認識装置としての処理を実行するのである。一方、ス
テップS9の判定結果がNoになったとき、すなわち、
ずれ量が大きすぎて、必要とする補正量が取得可能画像
領域A0を越えてしまったときは、ステップS12に進
む。
Next, in step S11, the image data correction unit 14 corrects the image data based on the calculated correction amount. Then, when the processing of step S11 is completed, the processing merges with the processing of step S6 to step S8. At this time, the processing as a normal traveling environment recognition device is executed using the corrected image data. On the other hand, when the determination result of step S9 is No, that is,
If the shift amount is too large and the required correction amount exceeds the obtainable image area A0, the process proceeds to step S12.

【0042】この結果、まずステップS12で補正が不
可能であるとし、続くステップS13で、データ入出力
処理部18から補正不可能であることを表わす信号を出
力させる。そこで、このときは、ACCコントロールユ
ニット4からディスプレイ装置5に所定の表示信号が供
給され、この結果、ずれ補正が得られなくなっているこ
とが運転者に報知されることになる。
As a result, first, at step S12, it is determined that the correction is impossible, and then at step S13, a signal indicating that the correction is impossible is output from the data input / output processing unit 18. Therefore, at this time, a predetermined display signal is supplied from the ACC control unit 4 to the display device 5, and as a result, the driver is notified that the deviation correction cannot be obtained.

【0043】従って、この第1の実施形態によれば、逐
次、取込まれてくる画像データの中から、自動車Mのボ
ンネットMBに設けてあるマーク3の位置を検出し、こ
れを初期位置と比較してカメラ1の位置変化を検出して
いるので、走行環境の変化の影響を受けることなく、常
に確実にカメラ1の位置変化を検出することができ、画
像データを的確に補正することができる。
Therefore, according to the first embodiment, the position of the mark 3 provided on the bonnet MB of the automobile M is detected from the sequentially captured image data, and this is defined as the initial position. Since the position change of the camera 1 is detected in comparison, the position change of the camera 1 can always be detected without being affected by the change of the traveling environment, and the image data can be accurately corrected. it can.

【0044】つまり、こ実施形態の場合、一般的な風景
の中からマークとなりうる特徴点を検索するのではな
く、車両に設けてあるマークを検索しているため、走行
環境によらず安定してカメラの軸調整ができるのであ
る。
That is, in the case of this embodiment, a mark provided on the vehicle is searched for instead of searching for a feature point that can be a mark from a general scenery. You can adjust the camera axis.

【0045】また、この第1の実施形態によれば、カメ
ラ1を動かすことなく、逐次、自動的にカメラ1の光軸
修正と画像の回転補正が与えられてゆくことになり、こ
の結果、カメラの製造時や取付時、更には光軸や画角な
どが設計値から経時的にずれた場合にも自動的に対応で
き、常に走行環境を正確に把握することができる。
According to the first embodiment, the optical axis of the camera 1 and the rotation of the image are automatically and sequentially corrected without moving the camera 1. As a result, When the camera is manufactured or mounted, and when the optical axis, the angle of view, and the like deviate from the design values with the passage of time, the camera can automatically cope with the situation.

【0046】そして、この結果、カメラ1を回転させる
ための機構部を必要としないため、重量、コスト、サイ
ズが低減できる。更に、2個のマークを使用しているの
で、並進ずれ(縦横に平行なずれ)だけではなく、回転方
向のずれにも対応できる。しかも、使用範囲よりも大き
な撮像デバイスと広角なレンズを使用することにより、
大きなずれ量にも対応することできる。
As a result, since a mechanism for rotating the camera 1 is not required, weight, cost, and size can be reduced. Further, since two marks are used, it is possible to cope with not only a translational shift (a shift parallel to the vertical and horizontal directions) but also a shift in the rotational direction. Moreover, by using an imaging device and a wide-angle lens that are larger than the range of use,
It is possible to cope with a large deviation amount.

【0047】ところで、この第1の実施形態では、自動
車のボンネットの左右2箇所に設けてあるマークを利用
しているが、これ代えて、ボンネットに取り付けられた
マスコットや、フロントガラスに貼られたシールなど、
自車両に取付けられていて、2箇所のマークとして使用
できるものであれば、同様の効果を得られることは言う
までもない。
In the first embodiment, the marks provided on the left and right portions of the hood of the automobile are used, but instead, the marks are attached to a mascot attached to the hood or a windshield. Such as seals
Needless to say, the same effect can be obtained as long as the mark is attached to the host vehicle and can be used as two marks.

【0048】ところで、上記第1の実施形態では、図4
のステップS5での処理において、実際に撮像した画像
データからマーク抽出部162によりマーク3の位置を
算出し、これを、図3に破線で示してあるように、初期
マーク位置Xとして初期マーク位置記憶部161に記憶
する方法を採用していた。
In the first embodiment, FIG.
In the process in step S5, the position of the mark 3 is calculated by the mark extracting unit 162 from the actually captured image data, and this is set as the initial mark position X as shown by the broken line in FIG. The method of storing in the storage unit 161 has been adopted.

【0049】しかし、この方法に代え、基準モデルとな
るカメラを使用するなどして予め初期マーク位置Xを算
出し、このデータをROMに書込んでおき、このROM
を初期マーク位置記憶部161として用い、これを本発
明の第2の実施形態としてもよい。
However, instead of this method, an initial mark position X is calculated in advance by using a camera serving as a reference model, and this data is written in a ROM.
May be used as the initial mark position storage unit 161, and this may be used as the second embodiment of the present invention.

【0050】そして、この第2の実施形態の場合、図4
におけるステップS2の処理が不要になる外は、上記し
た第1の実施形態の場合と同じ構成と処理でよく、この
第2の実施形態による効果は以下の通りである。
In the case of the second embodiment, FIG.
Except that the process of step S2 in is not necessary, the same configuration and process as in the above-described first embodiment may be used, and the effects of the second embodiment are as follows.

【0051】第1の実施形態の場合、カメラ1を車両に
取付けた後、経時的にずれた場合にしか対応できない
が、この第2の実施形態では、ROMのデータと車両上
のマーク位置を比較することにより、製造時や取付け時
に発生した光軸のずれも併せて調整することができる。
In the first embodiment, it is possible to cope only with the case where the camera 1 is mounted on the vehicle and the camera 1 is shifted with time. However, in the second embodiment, the data of the ROM and the mark position on the vehicle are stored. By making the comparison, the deviation of the optical axis generated at the time of manufacturing or mounting can also be adjusted.

【0052】次に、本発明の第3の実施形態について説
明する。まず、この第3の実施形態の場合、全体の構成
は、図1〜図3で説明した第1の実施形態と同じであ
り、異なっている点は、その処理が、図6に示すように
なっている点にある。但し、この図6でも、ステップS
14とステップS15が付加されている以外は、図4に
示した第1の実施形態の場合と同じ処理になっている。
Next, a third embodiment of the present invention will be described. First, in the case of the third embodiment, the overall configuration is the same as that of the first embodiment described with reference to FIGS. 1 to 3, and the difference is that the processing is performed as shown in FIG. It is in the point. However, in FIG.
The processing is the same as that of the first embodiment shown in FIG. 4 except that steps 14 and S15 are added.

【0053】従って、この第3の実施形態でも、マーク
3による画像の位置が初期位置からずれた場合、このず
れ量に応じて画像データが補正される点は、第1の実施
形態と同じである。しかし、第1の実施形態では、一
旦、カメラ1の光軸がずれると、処理が実行される毎に
ステップS11による画像補正処理が加わるので、処理
時間が多くかかってしまう。
Therefore, also in the third embodiment, when the position of the image by the mark 3 is shifted from the initial position, the image data is corrected in accordance with the shift amount, which is the same as the first embodiment. is there. However, in the first embodiment, once the optical axis of the camera 1 is displaced, the image correction processing in step S11 is added every time the processing is executed, so that a long processing time is required.

【0054】一方、この図6による第3の実施形態で
は、ステップS5でマーク位置が初期位置とずれ、ステ
ップS9で補正可能になり、ステップS10で画像デー
タ補正量を算出した際、その結果が、図7(a)に示すよ
うに、並進ずれだけの場合か否かをステップS14で判
定し、結果がYesの場合は、画像データの補正に代え
て、ステップS15により、図7(b)に示すように、使
用画像領域A1と初期マーク3Aの位置Xを変更するの
である。
On the other hand, in the third embodiment shown in FIG. 6, the mark position deviates from the initial position in step S5, and the mark can be corrected in step S9. When the image data correction amount is calculated in step S10, the result is As shown in FIG. 7 (a), it is determined in step S14 whether or not there is only a translational deviation, and if the result is Yes, instead of the correction of the image data, in step S15, FIG. The position X of the used image area A1 and the initial mark 3A is changed as shown in FIG.

【0055】このときの使用画像領域A1と初期マーク
3Aの位置Xの変更は、既に説明してあるように、撮像
デバイス11の光電変換面における画素の中で、実際に
画像データを取込む画素を部分的に選択することにより
実行すればよい。この結果、次の画像データが取込まれ
たときは、現マーク3Bの位置Yは初期マーク位置Xに
一致し、ステップS5での結果はYesになるので、画
像データの補正は行われず、取り込んだ画像のままでス
テップS6からステップS8までの処理が実行されるこ
とになる。
At this time, the position X of the used image area A1 and the position X of the initial mark 3A are changed, as described above, of the pixels on the photoelectric conversion surface of the imaging device 11 for actually capturing image data. May be executed by partially selecting. As a result, when the next image data is fetched, the position Y of the current mark 3B coincides with the initial mark position X, and the result in step S5 becomes Yes. The processing from step S6 to step S8 is executed while the image remains as it is.

【0056】一方、ずれが並進ずれに限らなかったとき
は、ステップS14での判定結果がNoになるので、図
4の第1の実施形態の場合と同じく、ステップS11に
よる画像データの補正処理が実行されることになる。従
って、この第3の実施形態の場合、第1の実施形態と同
じ効果に加えて、並進成分のみのずれのときは、画像デ
ータの補正は行なわず、使用領域を変更するたけなの
で、計算量を少なくすることができる。
On the other hand, when the shift is not limited to the translational shift, the result of determination in step S14 is No. Therefore, as in the first embodiment of FIG. Will be executed. Therefore, in the case of the third embodiment, in addition to the same effect as in the first embodiment, when only the translation component is shifted, the correction of the image data is not performed and only the used area is changed, so that the calculation amount is small. Can be reduced.

【0057】次に、本発明の第4の実施形態について説
明する。例えば製造や取付に際して、カメラ1の画角が
変わってしまうことがあるが、この第4の実施形態は、
このようなカメラの画角変化に対応し、これによる影響
が抑えられるようにしたものである。
Next, a fourth embodiment of the present invention will be described. For example, at the time of manufacture or mounting, the angle of view of the camera 1 may change.
In response to such a change in the angle of view of the camera, the influence of the change is suppressed.

【0058】まず、この第4の実施形態の場合も、全体
の構成は、図1〜図3で説明した第1の実施形態と同じ
であり、異なっている点は、図4の処理における初期設
定処理、つまりステップS1からステップS3までの処
理に、図8に示すように、ステップS20とステップS
21の処理が付加されている点にある。従って、この第
4の実施形態でも、マーク3による画像の位置が初期位
置からずれた場合、このずれ量に応じて画像データが補
正される点は、第1の実施形態と同じである。
First, also in the case of the fourth embodiment, the overall configuration is the same as that of the first embodiment described with reference to FIGS. The setting process, that is, the process from step S1 to step S3, includes step S20 and step S3 as shown in FIG.
21 is added. Therefore, also in the fourth embodiment, when the position of the image due to the mark 3 is shifted from the initial position, the image data is corrected according to the shift amount, which is the same as in the first embodiment.

【0059】次に、この第4の実施形態の動作について
説明すると、この場合、図8に示すステップS20とス
テップS21が付加された結果、初期設定処理の中で、
まずステップS20により画角検出処理が実行される。
上記したように、カメラ1の画角が変わって、例えば画
角が広がってしまったとすると、図9(a)に示すよう
に、左右にある現マーク3Bの間隔が狭まって、初期マ
ーク3Aの内側にずれてしまう。
Next, the operation of the fourth embodiment will be described. In this case, as a result of adding steps S20 and S21 shown in FIG.
First, an angle-of-view detection process is performed in step S20.
As described above, if the angle of view of the camera 1 changes and, for example, the angle of view widens, as shown in FIG. 9A, the interval between the left and right current marks 3B is reduced, and the initial mark 3A It shifts inward.

【0060】従って、この内側へのずれにより画角が広
がってしまったことが検出でき、ずれの大きさにより、
拡がりの度合いが算出できる。そこで、次のステップS
21で画像データの取り込み範囲を調整し、このとき
は、図9(b)に示すように、使用画像領域A1を狭くす
るのである。
Accordingly, it can be detected that the angle of view has been widened due to the inward shift, and the magnitude of the shift indicates
The degree of spreading can be calculated. Therefore, the next step S
At 21, the capture range of the image data is adjusted. At this time, as shown in FIG. 9B, the used image area A1 is narrowed.

【0061】一方、カメラ1の画角が狭まってしまった
とすると、今度は図9(a)とは反対に、左右にある現マ
ーク3Bの間隔が広がって、初期マーク3Aの外側にず
れてしまう。そこで、このときは、外側へのずれにより
画角が狭まってしまったことが検出でき、同じくずれの
大きさにより、狭まりの度合いが算出できるので、ステ
ップS21では、図9(b)とは反対に、使用画像領域A
1を広くするのである。
On the other hand, if the angle of view of the camera 1 is narrowed, the space between the current marks 3B on the left and right is widened, and is shifted outside the initial mark 3A, contrary to FIG. 9A. . Then, at this time, it can be detected that the angle of view has been narrowed due to the shift to the outside, and the degree of narrowing can be calculated based on the size of the shift. Therefore, in step S21, the opposite of FIG. 9B is performed. And the used image area A
Make 1 wider.

【0062】このときのステップS21による調整処
理、つまり使用画像領域A1を拡げる処理と狭める処理
については、これも既に説明してあるように、撮像デバ
イス11の光電変換面における画素の中で、実際に画像
データを取込む画素を部分的に選択することにより実行
すればよい。
At this time, the adjustment processing in step S 21, that is, the processing of expanding and narrowing the use image area A 1, as described above, includes the actual processing among the pixels on the photoelectric conversion surface of the imaging device 11. May be performed by partially selecting pixels for which image data is to be captured.

【0063】そして、この後、ステップS3に進むの
で、以後は図4の場合と同じ動作になる。従って、この
第4の実施形態によれば、上記した第1の実施形態によ
る効果に加えて、カメラ1の画角の変化にも自動的に対
応することができる。
Then, the process proceeds to step S3, and thereafter, the operation is the same as that of FIG. Therefore, according to the fourth embodiment, in addition to the effects of the first embodiment, it is possible to automatically cope with a change in the angle of view of the camera 1.

【0064】次に、本発明の第5の実施形態について説
明する。ここで、この第5の実施形態は、カメラ1の画
角を切換え、広い視野と狭い視野の2種の画像データを
取込み、車両の走行環境を認識するようにした装置に、
本発明を適用したものである。
Next, a fifth embodiment of the present invention will be described. Here, the fifth embodiment is a device that switches the angle of view of the camera 1, captures two types of image data of a wide field of view and a narrow field of view, and recognizes the traveling environment of the vehicle.
This is an application of the present invention.

【0065】従って、この第5の実施形態の場合、図3
のブロック構成において、画像処理部15が、図10に
示す画像処理部15Aに置き換えてある点を除けば、全
体の構成は、図1〜図3で説明した第1の実施形態と同
じであり、そして、この画像処理部15Aが、画像処理
部15と異なっている点は、隣接レーン認識部155と
隣接車動作演算部156が付加されている点だけであ
る。
Therefore, in the case of the fifth embodiment, FIG.
In the block configuration of, the entire configuration is the same as that of the first embodiment described with reference to FIGS. 1 to 3 except that the image processing unit 15 is replaced with an image processing unit 15A shown in FIG. The image processing unit 15A is different from the image processing unit 15 only in that an adjacent lane recognizing unit 155 and an adjacent vehicle operation calculating unit 156 are added.

【0066】従って、この第5の実施形態でも、マーク
3による画像の位置が初期位置からずれた場合、このず
れ量に応じて画像データが補正される点は、第1の実施
形態と同じであるが、この後、図4のステップS6にお
いて、画像処理部15による処理の実行と共に、隣接レ
ーン認識部155と隣接車動作演算部156による処理
が、図11に示すようにして実行されることになる。
Therefore, also in the fifth embodiment, when the position of the image due to the mark 3 deviates from the initial position, the image data is corrected in accordance with the deviation amount, which is the same as in the first embodiment. However, after that, in step S6 in FIG. 4, the processing by the adjacent lane recognizing unit 155 and the processing by the adjacent vehicle operation calculating unit 156 are performed as shown in FIG. become.

【0067】そこで、以下、この図11による処理につ
いて、図12を併用しながら説明する。まず、ステップ
S61では、隣接レーン認識部155により広角画像取
得処理を実行し、隣接車が認識されるか否かを調べる。
このため、まず、図12(a)に示すように、取得可能画
像領域A0の中に、かなり広い使用画像領域A1(W)を
選択する。
The processing shown in FIG. 11 will be described below with reference to FIG. First, in step S61, a wide-angle image acquisition process is executed by the adjacent lane recognition unit 155, and it is checked whether or not an adjacent vehicle is recognized.
Therefore, first, as shown in FIG. 12A, a considerably wide use image area A1 (W) is selected from the obtainable image area A0.

【0068】そして、画像データ補正部14から与えら
れる1フレーム分の画像データの中から、この広角使用
画像領域A1(W)内にある画像データを取込む。そうす
ると、図12(a)から明らかなように、広角の画像にな
った結果、隣接車線も視野に入り、そこからの情報も取
得できるようになるので、ここで隣接車線の車両、すな
わち隣接車を認識するのである。
Then, the image data in the wide-angle use image area A1 (W) is fetched from the image data for one frame provided from the image data correction section 14. Then, as is clear from FIG. 12 (a), as a result of a wide-angle image, the adjacent lane is also in the field of view, and information from the adjacent lane can be obtained. It recognizes.

【0069】次に、ステップS62では、隣接車動作演
算部156により画像処理を実行させ、隣接車有りの場
合、認識した隣接車の動きを画像処理により解析し、こ
の隣接車が自車両レーンに割込んでくるか否かを判断す
る。次に、ステップS63では、先行車認識部151に
より、今度は狭角画像取得処理を実行し、先行車が認識
されるか否かを調べる。すなわち、今度は、まず、図1
2(b)に示すように、取得可能画像領域A0の中に、比
較的狭い使用画像領域A1(T)を選択する。
Next, in step S62, image processing is executed by the adjacent vehicle operation calculating section 156. If there is an adjacent vehicle, the movement of the recognized adjacent vehicle is analyzed by image processing, and the adjacent vehicle is moved to the own vehicle lane. It is determined whether or not to interrupt. Next, in step S63, the preceding vehicle recognition unit 151 executes a narrow-angle image acquisition process this time to check whether or not the preceding vehicle is recognized. That is, first, FIG.
As shown in FIG. 2 (b), a relatively small use image area A1 (T) is selected from the obtainable image area A0.

【0070】そして、画像データ補正部14から与えら
れる1フレーム分の画像データの中から、この狭角使用
画像領域A1(T)内にある画像データを取込む。そうす
ると、図12(b)から明らかなように、今度は、狭角の
画像になった結果、遠方が拡大され、遠方の画像からで
も詳細な情報が容易に取得できるようになるので、ここ
で自車に先行する車両、すなわち先行車を認識するので
ある。
Then, the image data in the narrow-angle use image area A1 (T) is fetched from the image data for one frame supplied from the image data correction section 14. Then, as is clear from FIG. 12 (b), this time, as a result of the narrow-angle image, the distant area is enlarged, and detailed information can be easily obtained even from the distant image. The vehicle ahead of the own vehicle, that is, the preceding vehicle is recognized.

【0071】次に、ステップS64では、車間距離演算
部152による画像処理を実行し、先行車ありの場合、
この先行車までの距離、つまり車間距離を演算する。な
お、ここでの車間距離の演算には、例えば画像内での先
行車の大きさを、予め想定されている実際の車両の大き
さと比較する方法を用いてやればよい。こうして、ステ
ップS61からステップS64までの処理を終えたら、
ステップS7に進み、処理を終了する。
Next, in step S64, image processing is executed by the following distance calculation unit 152, and if there is a preceding vehicle,
The distance to the preceding vehicle, that is, the inter-vehicle distance is calculated. The calculation of the inter-vehicle distance here may be performed, for example, by using a method of comparing the size of the preceding vehicle in the image with the size of the actual vehicle assumed in advance. Thus, when the processing from step S61 to step S64 is completed,
Proceeding to step S7, the process ends.

【0072】そして、この後は、ステップS7で、危険
回避判断部17により隣接車及び先行車と自車の状況が
調べられ、その結果に応じて警報を発令するか、アクチ
ュエータを動作させるかが判断され、次いでステップS
8で、判断結果がデータ入出力処理部18から出力され
ることになる。
Then, in step S7, the situation of the adjacent vehicle, the preceding vehicle, and the own vehicle is checked by the danger avoidance determination unit 17, and it is determined whether an alarm is issued or the actuator is operated according to the result. Determined, then step S
In step 8, the result of the determination is output from the data input / output processing unit 18.

【0073】従って、この第5の実施形態によれば、カ
メラ1のレンズに交換機構を用いたり、ズームレンズを
用いたりすることなく、広い視野と狭い視野の2種の画
像データの使い分けができることになり、この結果、カ
メラ1の重量とコストの低減が充分に図れることにな
る。
Therefore, according to the fifth embodiment, it is possible to selectively use two types of image data of a wide field of view and a narrow field of view without using an exchange mechanism for the lens of the camera 1 or using a zoom lens. As a result, the weight and cost of the camera 1 can be sufficiently reduced.

【0074】なお、この第5の実施形態では、例えば1
00万画素の撮像デバイス11を使用しているため、狭
角画像の場合でも、標準画素撮像デバイス(例えば25
万画素)を使用しているカメラに比べ、情報量の欠落が
ほとんど無くてすむ。ところで、上記の説明では、広角
画像と狭角画像の2種類の画像を使用した場合の実施形
態について述べたが、本発明は、2種類の画像だけでは
なく、複数の画像にも対応できることは言うまでもな
い。
In the fifth embodiment, for example, 1
Since the imaging device 11 having one million pixels is used, even in the case of a narrow-angle image, a standard pixel imaging device (for example, 25
There is almost no loss of information volume compared to a camera that uses 10,000 pixels). By the way, in the above description, the embodiment in the case of using two types of images, that is, a wide-angle image and a narrow-angle image, has been described. However, the present invention is not limited to the two types of images but can be applied to a plurality of images. Needless to say.

【0075】ところで、以上の第5の実施形態におい
て、広角画像の場合と狭角画像の場合で、撮像デバイス
11の光電変換面から画像データを取込むための画素の
個数が同じになるようにしてもよく、この場合を第6の
実施形態とし、以下、この第6の実施形態について説明
する。
By the way, in the fifth embodiment, the number of pixels for taking in image data from the photoelectric conversion surface of the imaging device 11 is the same in the case of a wide-angle image and in the case of a narrow-angle image. This case may be referred to as a sixth embodiment, and the sixth embodiment will be described below.

【0076】まず、ここで、いま撮像デバイス11の光
電変換面にある画素が、全体では、つまり取得可能画像
領域A0では、図13(a)に模式的に示すようになって
いたとする。そして、この場合、広角使用画像領域A1
(W)のときは、画像データを取込むとき、図13(b)に
示すように、1画素おきに間引いて取込むようにし、狭
角使用画像領域A1(T)のときは、同図(c)に示すよう
に、この領域A1(T)内にある全ての画素から画像デー
タを取込むようにするのである。
First, here, it is assumed that the pixels on the photoelectric conversion surface of the imaging device 11 as a whole, that is, in the obtainable image area A0, are schematically shown in FIG. In this case, the wide-angle use image area A1
In the case of (W), when taking in image data, as shown in FIG. 13B, the image data is taken out every other pixel, and in the case of the narrow-angle use image area A1 (T), As shown in (c), image data is taken in from all the pixels in the area A1 (T).

【0077】ここで、この第6の実施形態の狙いは、広
角画像の場合と狭角画像の場合とで処理すべき画素数が
なるべく同じになるようにする点にあり、その理由は、
何れの場合でも情報量が同等で、処理時間も同等になる
ようにするためである。
Here, the aim of the sixth embodiment is to make the number of pixels to be processed the same for a wide-angle image and a narrow-angle image as much as possible.
In either case, the amount of information is equal and the processing time is equal.

【0078】本発明の実施形態では、例えば100万画
素など、画素数の多い撮像デバイスを使用するのが望ま
しいが、このため、上記のように、1画素おきに間引い
ても狭角画像と同等の情報量を取得することができ、画
素を間引くことにより広角画像にかかる処理時間を狭角
画像と同等のレベルにすることができる。
In the embodiment of the present invention, it is desirable to use an imaging device having a large number of pixels, for example, one million pixels. For this reason, as described above, even if every other pixel is thinned, it is equivalent to a narrow-angle image. Can be obtained, and the processing time required for a wide-angle image can be reduced to the same level as that for a narrow-angle image by thinning out pixels.

【0079】ここで、上記の場合、広角使用画像領域A
1(W)のときは1画素おきに間引いた画像を用いたが、
本発明では、使用画像サイズに応じて間引き数を変更し
てもよく、狭角画像と広角画像の中間の画像でも同等の
効果を得ることができることは言うまでもない。
Here, in the above case, the wide-angle use image area A
In the case of 1 (W), an image thinned out every other pixel was used,
In the present invention, it is needless to say that the number of thinning-outs may be changed according to the used image size, and the same effect can be obtained even in the intermediate image between the narrow-angle image and the wide-angle image.

【0080】[0080]

【発明の効果】本発明によれば、車載撮像装置で使用す
るカメラに広角のレンズと画素数の多い撮像デバイスを
使用するだけで、製造、取付時に発生した光軸や画角の
ずれ、画像の回転の補正は勿論、取付後、経時的に発生
した光軸や画角のずれ、画像の回転の補正についても、
自動的に修正することができる。
According to the present invention, by using a wide-angle lens and an imaging device having a large number of pixels for a camera used in an on-vehicle imaging apparatus, a shift in an optical axis and an angle of view caused during manufacturing and mounting, and an image. Of the optical axis and the angle of view that occurred with time after mounting,
Can be corrected automatically.

【0081】また、本発明によれば、使用画面領域を変
えることもできるので、情報量を変えずに狭角画像から
広角画像まで取得でき、多種多様な画像処理を容易に行
うことができる。
Further, according to the present invention, since the screen area to be used can be changed, it is possible to acquire from a narrow-angle image to a wide-angle image without changing the information amount, and it is possible to easily perform various image processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理を説明するための概略図である。FIG. 1 is a schematic diagram for explaining the principle of the present invention.

【図2】本発明による車載撮像装置を自動車のオートク
ルージング装置に適用した場合の一実施形態を示す全体
構成図である。
FIG. 2 is an overall configuration diagram showing an embodiment in which the on-vehicle imaging device according to the present invention is applied to an auto cruising device of an automobile.

【図3】本発明による車載撮像装置を自動車のオートク
ルージング装置に適用した場合の一実施形態を示すブロ
ック図である。
FIG. 3 is a block diagram showing an embodiment in which the in-vehicle imaging device according to the present invention is applied to an auto cruising device of an automobile.

【図4】本発明の第1の実施形態の動作を説明するため
のフローチャートである。
FIG. 4 is a flowchart for explaining the operation of the first embodiment of the present invention.

【図5】本発明の第1の実施形態の動作を説明するため
の画像ウィンドウ図である。
FIG. 5 is an image window diagram for explaining an operation of the first exemplary embodiment of the present invention.

【図6】本発明の第3の実施形態の動作を説明するため
のフローチャートである。
FIG. 6 is a flowchart for explaining the operation of the third embodiment of the present invention.

【図7】本発明の第3の実施形態の動作を説明するため
画像ウィンドウ図である。
FIG. 7 is an image window diagram for explaining the operation of the third embodiment of the present invention.

【図8】本発明の第4の実施形態の動作を説明するため
のフローチャートである。
FIG. 8 is a flowchart for explaining the operation of the fourth embodiment of the present invention.

【図9】本発明の第4の実施形態の動作を説明するため
の画像ウィンドウ図である。
FIG. 9 is an image window diagram for explaining the operation of the fourth embodiment of the present invention.

【図10】本発明の第5の実施形態における構成の一部
を示すブロック図である。
FIG. 10 is a block diagram showing a part of a configuration according to a fifth embodiment of the present invention.

【図11】本発明の第5の実施形態の動作を説明するた
めのフローチャートである。
FIG. 11 is a flowchart for explaining the operation of the fifth embodiment of the present invention.

【図12】本発明の第5の実施形態の動作を説明するた
めの画像ウィンドウ図である。
FIG. 12 is an image window diagram for explaining the operation of the fifth embodiment of the present invention.

【図13】本発明の第6の実施形態の動作を説明するた
めの撮像デバイスの画素を表わす模式図である。
FIG. 13 is a schematic diagram illustrating pixels of an imaging device for explaining the operation of the sixth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ 3 マーク 3A 現マーク(現マークの画像) 3B 初期マーク(初期マークの画像) 10 レンズ 11 撮像デバイス A0 取得可能画像領域 A1 使用画面領域 DESCRIPTION OF SYMBOLS 1 Camera 3 Mark 3A Current mark (image of current mark) 3B Initial mark (image of initial mark) 10 Lens 11 Imaging device A0 Acquirable image area A1 Used screen area

───────────────────────────────────────────────────── フロントページの続き (72)発明者 竹崎 次郎 茨城県ひたちなか市高場2520番地 株式会 社日立製作所自動車機器グループ内 Fターム(参考) 5B057 AA16 BA02 CA12 CA16 CB12 CB16 CC01 CD03 CH01 5C054 AA02 CA04 CC02 CD03 CE11 CF05 CG02 CH02 EA01 EA05 FC11 FC12 FF02 HA30 5H180 AA01 CC04 CC24 LL01 LL02 LL04 LL08 LL09  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Jiro Takezaki 2520 Takaba, Hitachinaka-shi, Ibaraki F-term in the Automotive Equipment Group, Hitachi, Ltd. (Reference) 5B057 AA16 BA02 CA12 CA16 CB12 CB16 CC01 CD03 CH01 5C054 AA02 CA04 CC02 CD03 CE11 CF05 CG02 CH02 EA01 EA05 FC11 FC12 FF02 HA30 5H180 AA01 CC04 CC24 LL01 LL02 LL04 LL08 LL09

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段から取込んだ画像データによ
り、車両の走行環境を認識する方式の車載撮像装置にお
いて、 前記画像データの取込みに必要な撮像視野よりも広い撮
像視野を有する撮像手段を用い、 前記車両の一部に、前記撮像手段の視野内に含まれ、該
視野内で水平方向の左右に存在して特徴的な画像を与え
る2個の被写体を設け、 これら2個の被写体による画像から、前記撮像手段の光
軸と画角及び画像の回転の何れかの変化を検出し、 前記撮像手段の光軸と画角及び画像の回転の何れかを調
整するように構成したことを特徴とする車載撮像装置。
1. An in-vehicle image pickup apparatus for recognizing a traveling environment of a vehicle based on image data taken from an image pickup means, wherein an image pickup means having an image pickup visual field wider than an image pickup visual field necessary for taking the image data is used. A part of the vehicle is provided with two subjects included in the field of view of the imaging means and presenting a characteristic image on the left and right sides in the horizontal direction in the field of view; And detecting any change in the optical axis, the angle of view, and the rotation of the image of the imaging unit, and adjusting any of the rotation of the optical axis, the angle of view, and the image of the imaging unit. Vehicle-mounted imaging device.
【請求項2】 撮像手段から取込んだ画像データによ
り、車両の走行環境を認識する方式の車載撮像装置にお
いて、 前記画像データの取込みに必要な撮像視野よりも広い撮
像視野を有する撮像手段を用い、 前記撮像手段の視野内で水平方向の左右に特徴的な画像
を与えるようにして、前記車両の一部に取付けられてい
る2個の被写体と、 これら2個の被写体による画像から、前記撮像手段の光
軸と画角及び画像の回転の何れかの変化を検出する手段
と、 この変化の検出結果に応じて補正量を算出する手段と、 この補正量に応じて前記撮像手段による画像データの取
得可能領域の中で、画像データの取込みに使用する領域
を変更する手段とを設け、 前記撮像手段の光軸と画角及び画像の回転の何れかが調
整されるように構成したことを特徴とする車載用撮像装
置。
2. An in-vehicle image pickup apparatus for recognizing a traveling environment of a vehicle based on image data taken from an image pickup means, wherein an image pickup means having an image pickup field wider than an image pickup field required for taking the image data is used. The image pickup device comprises two objects attached to a part of the vehicle in such a manner that characteristic images are given to the left and right in the horizontal direction within the field of view of the image pickup means. Means for detecting any change in the optical axis, angle of view, and rotation of the image of the means; means for calculating a correction amount in accordance with the detection result of the change; image data by the imaging means in accordance with the correction amount Means for changing an area used for capturing image data in the obtainable area of the image forming apparatus, and any one of the optical axis, the angle of view, and the rotation of the image of the imaging means is adjusted. Features and In-vehicle imaging device.
【請求項3】 撮像手段から取込んだ画像データによ
り、車両の走行環境を認識する方式の車載撮像装置にお
いて、 前記画像データの取込みに必要な撮像視野よりも広い撮
像視野を有する撮像手段を用い、 前記撮像手段による画像データの取得可能領域の中で、
画像データの取込みに使用する領域を変更することによ
り、 当該撮像手段の撮像視野角が変化できるように構成した
ことを特徴とする車載要撮像装置。
3. An in-vehicle image pickup apparatus of a type for recognizing a traveling environment of a vehicle based on image data taken from an image pickup means, wherein an image pickup means having an image pickup field wider than an image pickup field necessary for taking the image data is used. In the area where the image data can be obtained by the imaging means,
An in-vehicle image pickup device, wherein an image pickup viewing angle of the image pickup means can be changed by changing an area used for taking image data.
【請求項4】 請求項3の発明において、 前記撮像手段の撮像視野角の変化に応じて、前記画像デ
ータの画素を間引くことにより、当該撮像手段の撮像視
野角の変化による前記画像データの情報量の変化が抑え
られるように構成したことを特徴とする車載要撮像装
置。
4. The image data according to claim 3, wherein pixels of the image data are decimated in accordance with a change in the imaging viewing angle of the imaging unit, thereby changing the imaging viewing angle of the imaging unit. An on-vehicle image pickup device, which is configured to suppress a change in amount.
JP2000263733A 2000-08-31 2000-08-31 In-vehicle imaging device Expired - Lifetime JP3820342B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000263733A JP3820342B2 (en) 2000-08-31 2000-08-31 In-vehicle imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000263733A JP3820342B2 (en) 2000-08-31 2000-08-31 In-vehicle imaging device

Publications (2)

Publication Number Publication Date
JP2002074339A true JP2002074339A (en) 2002-03-15
JP3820342B2 JP3820342B2 (en) 2006-09-13

Family

ID=18751238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000263733A Expired - Lifetime JP3820342B2 (en) 2000-08-31 2000-08-31 In-vehicle imaging device

Country Status (1)

Country Link
JP (1) JP3820342B2 (en)

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002094977A (en) * 2000-09-14 2002-03-29 Fujitsu Ten Ltd Image processing unit
EP1584946A3 (en) * 2004-04-02 2006-03-22 Omron Corporation Method of adjusting monitor axis of optical sensors
US7106421B2 (en) * 2003-04-04 2006-09-12 Omron Corporation Method of adjusting axial direction of monitoring apparatus
JP2006287789A (en) * 2005-04-04 2006-10-19 Toyota Motor Corp In-vehicle camera attitude correction device and in-vehicle camera attitude correction method
JP2007256030A (en) * 2006-03-23 2007-10-04 Clarion Co Ltd Calibration system and calibration method for vehicle-mounted camera
JP2010183294A (en) * 2009-02-04 2010-08-19 Aisin Seiki Co Ltd Image processing apparatus, method of processing image, and program
KR20110064238A (en) * 2009-12-07 2011-06-15 엘지이노텍 주식회사 Mounting position adjusting device and mounting position of camera for black box
JP2012078147A (en) * 2010-09-30 2012-04-19 Honda Motor Co Ltd Optical axis inspection method and optical axis inspection device of on-vehicle camera
JP2012093872A (en) * 2010-10-26 2012-05-17 Fujitsu Ten Ltd Image recognition device and image recognition method
JP2012168845A (en) * 2011-02-16 2012-09-06 Fujitsu Ten Ltd Object detection device and object detection method
EP2523831A4 (en) * 2010-01-13 2013-11-06 Magna Electronics Inc VEHICLE CAMERA AND METHOD FOR PERIODIC CALIBRATION OF VEHICLE CAMERA
WO2014054124A1 (en) * 2012-10-02 2014-04-10 トヨタ自動車株式会社 Road surface markings detection device and road surface markings detection method
JP2014082622A (en) * 2012-10-16 2014-05-08 Denso Corp On-vehicle camera attachment error detection device
US8842176B2 (en) 1996-05-22 2014-09-23 Donnelly Corporation Automatic vehicle exterior light control
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8977008B2 (en) 2004-09-30 2015-03-10 Donnelly Corporation Driver assistance system for vehicle
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
US9014904B2 (en) 2004-12-23 2015-04-21 Magna Electronics Inc. Driver assistance system for vehicle
US9018577B2 (en) 2007-08-17 2015-04-28 Magna Electronics Inc. Vehicular imaging system with camera misalignment correction and capturing image data at different resolution levels dependent on distance to object in field of view
US9041806B2 (en) 2009-09-01 2015-05-26 Magna Electronics Inc. Imaging and display system for vehicle
US9064296B2 (en) 2010-10-22 2015-06-23 Pioneer Corporation Terminal device, image processing method and image processing program executed by a terminal device
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US9191574B2 (en) 2001-07-31 2015-11-17 Magna Electronics Inc. Vehicular vision system
US9205776B2 (en) 2013-05-21 2015-12-08 Magna Electronics Inc. Vehicle vision system using kinematic model of vehicle motion
US9245448B2 (en) 2001-07-31 2016-01-26 Magna Electronics Inc. Driver assistance system for a vehicle
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US9357208B2 (en) 2011-04-25 2016-05-31 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US9440535B2 (en) 2006-08-11 2016-09-13 Magna Electronics Inc. Vision system for vehicle
US9491450B2 (en) 2011-08-01 2016-11-08 Magna Electronic Inc. Vehicle camera alignment system
US9491451B2 (en) 2011-11-15 2016-11-08 Magna Electronics Inc. Calibration system and method for vehicular surround vision system
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
US9563951B2 (en) 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US9688200B2 (en) 2013-03-04 2017-06-27 Magna Electronics Inc. Calibration system and method for multi-camera vision system
US9723272B2 (en) 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
US9762880B2 (en) 2011-12-09 2017-09-12 Magna Electronics Inc. Vehicle vision system with customized display
US9834153B2 (en) 2011-04-25 2017-12-05 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
US9900522B2 (en) 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
US9916660B2 (en) 2015-01-16 2018-03-13 Magna Electronics Inc. Vehicle vision system with calibration algorithm
US10071687B2 (en) 2011-11-28 2018-09-11 Magna Electronics Inc. Vision system for vehicle
JP2018152680A (en) * 2017-03-10 2018-09-27 パナソニックIpマネジメント株式会社 Camera state monitoring device
US10086747B2 (en) 2007-07-12 2018-10-02 Magna Electronics Inc. Driver assistance system for vehicle
US10179543B2 (en) 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
US10235772B2 (en) 2014-04-16 2019-03-19 Denso Corporation Installation error display control apparatus and installation error detection apparatus of onboard camera
US10300859B2 (en) 2016-06-10 2019-05-28 Magna Electronics Inc. Multi-sensor interior mirror device with image adjustment
US10457209B2 (en) 2012-02-22 2019-10-29 Magna Electronics Inc. Vehicle vision system with multi-paned view
JP2019208253A (en) * 2019-07-22 2019-12-05 パイオニア株式会社 Imaging device, control method, program and storage medium
US10793067B2 (en) 2011-07-26 2020-10-06 Magna Electronics Inc. Imaging system for vehicle
US10946799B2 (en) 2015-04-21 2021-03-16 Magna Electronics Inc. Vehicle vision system with overlay calibration
JP2021057012A (en) * 2019-09-30 2021-04-08 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method, device and apparatus for controlling vehicle, and storage medium
US11277558B2 (en) 2016-02-01 2022-03-15 Magna Electronics Inc. Vehicle vision system with master-slave camera configuration
JPWO2023152785A1 (en) * 2022-02-08 2023-08-17
JP2023175488A (en) * 2022-05-30 2023-12-12 株式会社デンソー image correction system
US11877054B2 (en) 2011-09-21 2024-01-16 Magna Electronics Inc. Vehicular vision system using image data transmission and power supply via a coaxial cable
WO2024237340A1 (en) * 2023-05-18 2024-11-21 株式会社タダノ Optical axis deviation angle correction device, crane, and optical axis deviation angle correction method

Cited By (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US8842176B2 (en) 1996-05-22 2014-09-23 Donnelly Corporation Automatic vehicle exterior light control
US9131120B2 (en) 1996-05-22 2015-09-08 Magna Electronics Inc. Multi-camera vision system for a vehicle
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
JP2002094977A (en) * 2000-09-14 2002-03-29 Fujitsu Ten Ltd Image processing unit
US9245448B2 (en) 2001-07-31 2016-01-26 Magna Electronics Inc. Driver assistance system for a vehicle
US10046702B2 (en) 2001-07-31 2018-08-14 Magna Electronics Inc. Control system for vehicle
US9376060B2 (en) 2001-07-31 2016-06-28 Magna Electronics Inc. Driver assist system for vehicle
US10406980B2 (en) 2001-07-31 2019-09-10 Magna Electronics Inc. Vehicular lane change system
US9191574B2 (en) 2001-07-31 2015-11-17 Magna Electronics Inc. Vehicular vision system
US9463744B2 (en) 2001-07-31 2016-10-11 Magna Electronics Inc. Driver assistance system for a vehicle
US10611306B2 (en) 2001-07-31 2020-04-07 Magna Electronics Inc. Video processor module for vehicle
US10099610B2 (en) 2001-07-31 2018-10-16 Magna Electronics Inc. Driver assistance system for a vehicle
US9834142B2 (en) 2001-07-31 2017-12-05 Magna Electronics Inc. Driving assist system for vehicle
US9656608B2 (en) 2001-07-31 2017-05-23 Magna Electronics Inc. Driver assist system for vehicle
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US9834216B2 (en) 2002-05-03 2017-12-05 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9643605B2 (en) 2002-05-03 2017-05-09 Magna Electronics Inc. Vision system for vehicle
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US10351135B2 (en) 2002-05-03 2019-07-16 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US10683008B2 (en) 2002-05-03 2020-06-16 Magna Electronics Inc. Vehicular driving assist system using forward-viewing camera
US11203340B2 (en) 2002-05-03 2021-12-21 Magna Electronics Inc. Vehicular vision system using side-viewing camera
US10118618B2 (en) 2002-05-03 2018-11-06 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US7106421B2 (en) * 2003-04-04 2006-09-12 Omron Corporation Method of adjusting axial direction of monitoring apparatus
EP1584946A3 (en) * 2004-04-02 2006-03-22 Omron Corporation Method of adjusting monitor axis of optical sensors
US7280211B2 (en) * 2004-04-02 2007-10-09 Omron Corporation Method of adjusting monitor axis
US10015452B1 (en) 2004-04-15 2018-07-03 Magna Electronics Inc. Vehicular control system
US10735695B2 (en) 2004-04-15 2020-08-04 Magna Electronics Inc. Vehicular control system with traffic lane detection
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
US9736435B2 (en) 2004-04-15 2017-08-15 Magna Electronics Inc. Vision system for vehicle
US10187615B1 (en) 2004-04-15 2019-01-22 Magna Electronics Inc. Vehicular control system
US11503253B2 (en) 2004-04-15 2022-11-15 Magna Electronics Inc. Vehicular control system with traffic lane detection
US11847836B2 (en) 2004-04-15 2023-12-19 Magna Electronics Inc. Vehicular control system with road curvature determination
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US10306190B1 (en) 2004-04-15 2019-05-28 Magna Electronics Inc. Vehicular control system
US9428192B2 (en) 2004-04-15 2016-08-30 Magna Electronics Inc. Vision system for vehicle
US10462426B2 (en) 2004-04-15 2019-10-29 Magna Electronics Inc. Vehicular control system
US9948904B2 (en) 2004-04-15 2018-04-17 Magna Electronics Inc. Vision system for vehicle
US9609289B2 (en) 2004-04-15 2017-03-28 Magna Electronics Inc. Vision system for vehicle
US10110860B1 (en) 2004-04-15 2018-10-23 Magna Electronics Inc. Vehicular control system
US8977008B2 (en) 2004-09-30 2015-03-10 Donnelly Corporation Driver assistance system for vehicle
US10623704B2 (en) 2004-09-30 2020-04-14 Donnelly Corporation Driver assistance system for vehicle
US10509972B2 (en) 2004-12-23 2019-12-17 Magna Electronics Inc. Vehicular vision system
US9014904B2 (en) 2004-12-23 2015-04-21 Magna Electronics Inc. Driver assistance system for vehicle
US9940528B2 (en) 2004-12-23 2018-04-10 Magna Electronics Inc. Driver assistance system for vehicle
US12118806B2 (en) 2004-12-23 2024-10-15 Magna Electronics Inc. Vehicular imaging system
US9193303B2 (en) 2004-12-23 2015-11-24 Magna Electronics Inc. Driver assistance system for vehicle
US11308720B2 (en) 2004-12-23 2022-04-19 Magna Electronics Inc. Vehicular imaging system
JP2006287789A (en) * 2005-04-04 2006-10-19 Toyota Motor Corp In-vehicle camera attitude correction device and in-vehicle camera attitude correction method
JP2007256030A (en) * 2006-03-23 2007-10-04 Clarion Co Ltd Calibration system and calibration method for vehicle-mounted camera
US10787116B2 (en) 2006-08-11 2020-09-29 Magna Electronics Inc. Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera
US11623559B2 (en) 2006-08-11 2023-04-11 Magna Electronics Inc. Vehicular forward viewing image capture system
US9440535B2 (en) 2006-08-11 2016-09-13 Magna Electronics Inc. Vision system for vehicle
US11396257B2 (en) 2006-08-11 2022-07-26 Magna Electronics Inc. Vehicular forward viewing image capture system
US11148583B2 (en) 2006-08-11 2021-10-19 Magna Electronics Inc. Vehicular forward viewing image capture system
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US11951900B2 (en) 2006-08-11 2024-04-09 Magna Electronics Inc. Vehicular forward viewing image capture system
US10807515B2 (en) 2007-07-12 2020-10-20 Magna Electronics Inc. Vehicular adaptive headlighting system
US10086747B2 (en) 2007-07-12 2018-10-02 Magna Electronics Inc. Driver assistance system for vehicle
US9018577B2 (en) 2007-08-17 2015-04-28 Magna Electronics Inc. Vehicular imaging system with camera misalignment correction and capturing image data at different resolution levels dependent on distance to object in field of view
US9972100B2 (en) 2007-08-17 2018-05-15 Magna Electronics Inc. Vehicular imaging system comprising an imaging device with a single image sensor and image processor for determining a totally blocked state or partially blocked state of the single image sensor as well as an automatic correction for misalignment of the imaging device
US10726578B2 (en) 2007-08-17 2020-07-28 Magna Electronics Inc. Vehicular imaging system with blockage determination and misalignment correction
US11908166B2 (en) 2007-08-17 2024-02-20 Magna Electronics Inc. Vehicular imaging system with misalignment correction of camera
US11328447B2 (en) 2007-08-17 2022-05-10 Magna Electronics Inc. Method of blockage determination and misalignment correction for vehicular vision system
JP2010183294A (en) * 2009-02-04 2010-08-19 Aisin Seiki Co Ltd Image processing apparatus, method of processing image, and program
US11794651B2 (en) 2009-09-01 2023-10-24 Magna Electronics Inc. Vehicular vision system
US11285877B2 (en) 2009-09-01 2022-03-29 Magna Electronics Inc. Vehicular vision system
US9041806B2 (en) 2009-09-01 2015-05-26 Magna Electronics Inc. Imaging and display system for vehicle
US10053012B2 (en) 2009-09-01 2018-08-21 Magna Electronics Inc. Imaging and display system for vehicle
US10300856B2 (en) 2009-09-01 2019-05-28 Magna Electronics Inc. Vehicular display system
US12296750B2 (en) 2009-09-01 2025-05-13 Magna Electronics Inc. Vehicular vision system
US9789821B2 (en) 2009-09-01 2017-10-17 Magna Electronics Inc. Imaging and display system for vehicle
US10875455B2 (en) 2009-09-01 2020-12-29 Magna Electronics Inc. Vehicular vision system
KR101629012B1 (en) * 2009-12-07 2016-06-10 엘지이노텍 주식회사 Position adjusting method and device for blackbox camera
KR20110064238A (en) * 2009-12-07 2011-06-15 엘지이노텍 주식회사 Mounting position adjusting device and mounting position of camera for black box
US9296337B2 (en) 2010-01-13 2016-03-29 Magna Electronics Inc. Method of calibrating a vehicular camera
US9150155B2 (en) 2010-01-13 2015-10-06 Magna Electronics Inc. Vehicular camera and method for periodic calibration of vehicular camera
EP2523831A4 (en) * 2010-01-13 2013-11-06 Magna Electronics Inc VEHICLE CAMERA AND METHOD FOR PERIODIC CALIBRATION OF VEHICLE CAMERA
JP2012078147A (en) * 2010-09-30 2012-04-19 Honda Motor Co Ltd Optical axis inspection method and optical axis inspection device of on-vehicle camera
US9064296B2 (en) 2010-10-22 2015-06-23 Pioneer Corporation Terminal device, image processing method and image processing program executed by a terminal device
JP2012093872A (en) * 2010-10-26 2012-05-17 Fujitsu Ten Ltd Image recognition device and image recognition method
US12244957B2 (en) 2010-12-01 2025-03-04 Magna Electronics Inc. Vehicular vision system with multiple cameras
US9900522B2 (en) 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
US11553140B2 (en) 2010-12-01 2023-01-10 Magna Electronics Inc. Vehicular vision system with multiple cameras
US10868974B2 (en) 2010-12-01 2020-12-15 Magna Electronics Inc. Method for determining alignment of vehicular cameras
US11155211B2 (en) 2010-12-22 2021-10-26 Magna Electronics Inc. Vehicular multi-camera surround view system with video display
US11708026B2 (en) 2010-12-22 2023-07-25 Magna Electronics Inc. Vehicular rear backup system with video display
US11548444B2 (en) 2010-12-22 2023-01-10 Magna Electronics Inc. Vehicular multi-camera surround view system with video display
US10589678B1 (en) 2010-12-22 2020-03-17 Magna Electronics Inc. Vehicular rear backup vision system with video display
US10814785B2 (en) 2010-12-22 2020-10-27 Magna Electronics Inc. Vehicular rear backup vision system with video display
US9598014B2 (en) 2010-12-22 2017-03-21 Magna Electronics Inc. Vision display system for vehicle
US9731653B2 (en) 2010-12-22 2017-08-15 Magna Electronics Inc. Vision display system for vehicle
US12017588B2 (en) 2010-12-22 2024-06-25 Magna Electronics Inc. Vehicular rear backup system with video display
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US10336255B2 (en) 2010-12-22 2019-07-02 Magna Electronics Inc. Vehicular vision system with rear backup video display
US10486597B1 (en) 2010-12-22 2019-11-26 Magna Electronics Inc. Vehicular vision system with rear backup video display
US10144352B2 (en) 2010-12-22 2018-12-04 Magna Electronics Inc. Vision display system for vehicle
US9469250B2 (en) 2010-12-22 2016-10-18 Magna Electronics Inc. Vision display system for vehicle
JP2012168845A (en) * 2011-02-16 2012-09-06 Fujitsu Ten Ltd Object detection device and object detection method
US9357208B2 (en) 2011-04-25 2016-05-31 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
US10202077B2 (en) 2011-04-25 2019-02-12 Magna Electronics Inc. Method for dynamically calibrating vehicular cameras
US10640041B2 (en) 2011-04-25 2020-05-05 Magna Electronics Inc. Method for dynamically calibrating vehicular cameras
US9834153B2 (en) 2011-04-25 2017-12-05 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
US10919458B2 (en) 2011-04-25 2021-02-16 Magna Electronics Inc. Method and system for calibrating vehicular cameras
US11554717B2 (en) 2011-04-25 2023-01-17 Magna Electronics Inc. Vehicular vision system that dynamically calibrates a vehicular camera
US10654423B2 (en) 2011-04-25 2020-05-19 Magna Electronics Inc. Method and system for dynamically ascertaining alignment of vehicular cameras
US11007934B2 (en) 2011-04-25 2021-05-18 Magna Electronics Inc. Method for dynamically calibrating a vehicular camera
US10793067B2 (en) 2011-07-26 2020-10-06 Magna Electronics Inc. Imaging system for vehicle
US11285873B2 (en) 2011-07-26 2022-03-29 Magna Electronics Inc. Method for generating surround view images derived from image data captured by cameras of a vehicular surround view vision system
US9491450B2 (en) 2011-08-01 2016-11-08 Magna Electronic Inc. Vehicle camera alignment system
US11877054B2 (en) 2011-09-21 2024-01-16 Magna Electronics Inc. Vehicular vision system using image data transmission and power supply via a coaxial cable
US12143712B2 (en) 2011-09-21 2024-11-12 Magna Electronics Inc. Vehicular vision system using image data transmission and power supply via a coaxial cable
US9491451B2 (en) 2011-11-15 2016-11-08 Magna Electronics Inc. Calibration system and method for vehicular surround vision system
US10264249B2 (en) 2011-11-15 2019-04-16 Magna Electronics Inc. Calibration system and method for vehicular surround vision system
US10640040B2 (en) 2011-11-28 2020-05-05 Magna Electronics Inc. Vision system for vehicle
US10071687B2 (en) 2011-11-28 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US11634073B2 (en) 2011-11-28 2023-04-25 Magna Electronics Inc. Multi-camera vehicular vision system
US11305691B2 (en) 2011-11-28 2022-04-19 Magna Electronics Inc. Vehicular vision system
US10099614B2 (en) 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
US11787338B2 (en) 2011-11-28 2023-10-17 Magna Electronics Inc. Vehicular vision system
US11142123B2 (en) 2011-11-28 2021-10-12 Magna Electronics Inc. Multi-camera vehicular vision system
US12100166B2 (en) 2011-11-28 2024-09-24 Magna Electronics Inc. Vehicular vision system
US11082678B2 (en) 2011-12-09 2021-08-03 Magna Electronics Inc. Vehicular vision system with customized display
US10129518B2 (en) 2011-12-09 2018-11-13 Magna Electronics Inc. Vehicle vision system with customized display
US9762880B2 (en) 2011-12-09 2017-09-12 Magna Electronics Inc. Vehicle vision system with customized display
US10542244B2 (en) 2011-12-09 2020-01-21 Magna Electronics Inc. Vehicle vision system with customized display
US11689703B2 (en) 2011-12-09 2023-06-27 Magna Electronics Inc. Vehicular vision system with customized display
US11607995B2 (en) 2012-02-22 2023-03-21 Magna Electronics Inc. Vehicular display system with multi-paned image display
US11007937B2 (en) 2012-02-22 2021-05-18 Magna Electronics Inc. Vehicular display system with multi-paned image display
US10457209B2 (en) 2012-02-22 2019-10-29 Magna Electronics Inc. Vehicle vision system with multi-paned view
WO2014054124A1 (en) * 2012-10-02 2014-04-10 トヨタ自動車株式会社 Road surface markings detection device and road surface markings detection method
US10284818B2 (en) 2012-10-05 2019-05-07 Magna Electronics Inc. Multi-camera image stitching calibration system
US10904489B2 (en) 2012-10-05 2021-01-26 Magna Electronics Inc. Multi-camera calibration method for a vehicle moving along a vehicle assembly line
US9723272B2 (en) 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
US11265514B2 (en) 2012-10-05 2022-03-01 Magna Electronics Inc. Multi-camera calibration method for a vehicle moving along a vehicle assembly line
JP2014082622A (en) * 2012-10-16 2014-05-08 Denso Corp On-vehicle camera attachment error detection device
US10321064B2 (en) 2012-11-19 2019-06-11 Magna Electronics Inc. Vehicular vision system with enhanced display functions
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
US10104298B2 (en) 2012-11-19 2018-10-16 Magna Electronics Inc. Vehicle vision system with enhanced display functions
US11572015B2 (en) 2013-02-27 2023-02-07 Magna Electronics Inc. Multi-camera vehicular vision system with graphic overlay
US10179543B2 (en) 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
US10486596B2 (en) 2013-02-27 2019-11-26 Magna Electronics Inc. Multi-camera dynamic top view vision system
US10780827B2 (en) 2013-02-27 2020-09-22 Magna Electronics Inc. Method for stitching images captured by multiple vehicular cameras
US11192500B2 (en) 2013-02-27 2021-12-07 Magna Electronics Inc. Method for stitching image data captured by multiple vehicular cameras
US9688200B2 (en) 2013-03-04 2017-06-27 Magna Electronics Inc. Calibration system and method for multi-camera vision system
US10574885B2 (en) 2013-05-06 2020-02-25 Magna Electronics Inc. Method for displaying video images for a vehicular vision system
US9769381B2 (en) 2013-05-06 2017-09-19 Magna Electronics Inc. Vehicular multi-camera vision system
US11050934B2 (en) 2013-05-06 2021-06-29 Magna Electronics Inc. Method for displaying video images for a vehicular vision system
US10057489B2 (en) 2013-05-06 2018-08-21 Magna Electronics Inc. Vehicular multi-camera vision system
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
US11616910B2 (en) 2013-05-06 2023-03-28 Magna Electronics Inc. Vehicular vision system with video display
US11109018B2 (en) 2013-05-21 2021-08-31 Magna Electronics Inc. Targetless vehicular camera misalignment correction method
US11447070B2 (en) 2013-05-21 2022-09-20 Magna Electronics Inc. Method for determining misalignment of a vehicular camera
US11597319B2 (en) 2013-05-21 2023-03-07 Magna Electronics Inc. Targetless vehicular camera calibration system
US10780826B2 (en) 2013-05-21 2020-09-22 Magna Electronics Inc. Method for determining misalignment of a vehicular camera
US10266115B2 (en) 2013-05-21 2019-04-23 Magna Electronics Inc. Vehicle vision system using kinematic model of vehicle motion
US10567748B2 (en) 2013-05-21 2020-02-18 Magna Electronics Inc. Targetless vehicular camera calibration method
US9979957B2 (en) 2013-05-21 2018-05-22 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US11919449B2 (en) 2013-05-21 2024-03-05 Magna Electronics Inc. Targetless vehicular camera calibration system
US9701246B2 (en) 2013-05-21 2017-07-11 Magna Electronics Inc. Vehicle vision system using kinematic model of vehicle motion
US11794647B2 (en) 2013-05-21 2023-10-24 Magna Electronics Inc. Vehicular vision system having a plurality of cameras
US9563951B2 (en) 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US9205776B2 (en) 2013-05-21 2015-12-08 Magna Electronics Inc. Vehicle vision system using kinematic model of vehicle motion
US10235772B2 (en) 2014-04-16 2019-03-19 Denso Corporation Installation error display control apparatus and installation error detection apparatus of onboard camera
US10235775B2 (en) 2015-01-16 2019-03-19 Magna Electronics Inc. Vehicle vision system with calibration algorithm
US9916660B2 (en) 2015-01-16 2018-03-13 Magna Electronics Inc. Vehicle vision system with calibration algorithm
US11535154B2 (en) 2015-04-21 2022-12-27 Magna Electronics Inc. Method for calibrating a vehicular vision system
US10946799B2 (en) 2015-04-21 2021-03-16 Magna Electronics Inc. Vehicle vision system with overlay calibration
US11277558B2 (en) 2016-02-01 2022-03-15 Magna Electronics Inc. Vehicle vision system with master-slave camera configuration
US10300859B2 (en) 2016-06-10 2019-05-28 Magna Electronics Inc. Multi-sensor interior mirror device with image adjustment
JP2018152680A (en) * 2017-03-10 2018-09-27 パナソニックIpマネジメント株式会社 Camera state monitoring device
JP2021101572A (en) * 2019-07-22 2021-07-08 パイオニア株式会社 Imaging device, control method, program and storage medium
JP2019208253A (en) * 2019-07-22 2019-12-05 パイオニア株式会社 Imaging device, control method, program and storage medium
JP2024120953A (en) * 2019-07-22 2024-09-05 パイオニア株式会社 IMAGING APPARATUS, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2023065494A (en) * 2019-07-22 2023-05-12 パイオニア株式会社 Imaging device, control method, program and storage medium
JP7312728B2 (en) 2019-09-30 2023-07-21 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド Method, device, device and storage medium for controlling vehicle
JP2021057012A (en) * 2019-09-30 2021-04-08 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method, device and apparatus for controlling vehicle, and storage medium
US11628861B2 (en) 2019-09-30 2023-04-18 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for controlling vehicle, device and storage medium
JPWO2023152785A1 (en) * 2022-02-08 2023-08-17
JP2023175488A (en) * 2022-05-30 2023-12-12 株式会社デンソー image correction system
WO2024237340A1 (en) * 2023-05-18 2024-11-21 株式会社タダノ Optical axis deviation angle correction device, crane, and optical axis deviation angle correction method

Also Published As

Publication number Publication date
JP3820342B2 (en) 2006-09-13

Similar Documents

Publication Publication Date Title
JP2002074339A (en) In-vehicle imaging device
JP5421072B2 (en) Approaching object detection system
JP6532229B2 (en) Object detection apparatus, object detection system, object detection method and program
JP4461091B2 (en) Position detection apparatus and correction method thereof
JP6045889B2 (en) In-vehicle control device
US20200039435A1 (en) Onboard camera system for eliminating a-pillar blind areas of a mobile vehicle and image processing method thereof
JP2005300315A (en) Object detection device
JP6032034B2 (en) Object detection device
JP2002197469A (en) Lane detection device
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
JP2007293672A (en) VEHICLE PHOTOGRAPHING APPARATUS AND METHOD FOR DETECTING DIRTY OF VEHICLE PHOTOGRAPHING APPARATUS
JP6065629B2 (en) Object detection device
JP2000293693A (en) Obstacle detecting method and device
WO2016072300A1 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2008064716A (en) Vehicle azimuth correcting system
JP2018136739A (en) Calibration device
JP2002099908A (en) Image processing device that detects approaching vehicles and lane position
JPH08172620A (en) Vehicle image input means
JP2008042759A (en) Image processing device
JP5245471B2 (en) Imaging apparatus, and image processing apparatus and method
JP4224449B2 (en) Image extraction device
CN114103812B (en) Reversing parking guidance system and method
JP2006153768A (en) Position detection apparatus and correction method thereof
JP2007317128A (en) Moving distance detection device and moving distance detection method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060407

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060619

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3820342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090623

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130623

Year of fee payment: 7

EXPY Cancellation because of completion of term