[go: up one dir, main page]

JP2001213268A - Occupant judging apparatus for vehicular air bag system - Google Patents

Occupant judging apparatus for vehicular air bag system

Info

Publication number
JP2001213268A
JP2001213268A JP2000024781A JP2000024781A JP2001213268A JP 2001213268 A JP2001213268 A JP 2001213268A JP 2000024781 A JP2000024781 A JP 2000024781A JP 2000024781 A JP2000024781 A JP 2000024781A JP 2001213268 A JP2001213268 A JP 2001213268A
Authority
JP
Japan
Prior art keywords
light
image sensor
light emitting
image data
emitting element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000024781A
Other languages
Japanese (ja)
Other versions
JP4144148B2 (en
Inventor
Ikuyasu Katou
育康 加藤
Shinji Houchiyou
伸次 庖丁
Tsutomu Kamizono
勉 神園
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2000024781A priority Critical patent/JP4144148B2/en
Publication of JP2001213268A publication Critical patent/JP2001213268A/en
Application granted granted Critical
Publication of JP4144148B2 publication Critical patent/JP4144148B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Air Bags (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an occupant judging apparatus to judge the detailed seating posture necessary for the fine control of the unfolding of an air bag while enabling the high-speed and detailed distance measurement by paying attention to the fact that an auxiliary light source is essential at night during the measurement by an image sensor in an air bag system for vehicle, and devising the configuration of the auxiliary light source. SOLUTION: An auxiliary light unit 60 irradiates an upper part of the body Ma with the diffuse light from a light emitting element 61, and an irradiation point P on the upper part of the body Ma is irradiated by the beam from a light emitting element 62. The image sensor 50 picks up the image of the upper part of the body Ma under the irradiation by the diffuse light, and picks up the image of the upper part of the body Ma under the irradiation of the diffuse light and the beam, and outputs the image data. A microcomputer 90 extracts the irradiation point P by two kinds of the differential data of the image data, the distance between the upper part of the body Ma and the air bag 20 is calculated by the triangulation method making use of the extracted result to judge the posture of the seated occupant.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両用エアバッグ
システムに採用するに適した乗員判定装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an occupant determination apparatus suitable for use in a vehicle airbag system.

【0002】[0002]

【従来の技術】例えば、車両の助手席用エアバッグシス
テムにおいては、助手席に着座した乗員は、運転席の着
座乗員とは異なり、様々な着座姿勢をとることが多い。
このため、その着座姿勢によっては、本来乗員を保護す
るためのエアバッグが、逆にその展開により乗員に障害
を与えるおそれがある。従って、助手席においては、乗
員の着座姿勢を検知して、この検知着座姿勢に応じてエ
アバッグの展開を制御することが望まれる。
2. Description of the Related Art For example, in an airbag system for a front passenger seat of a vehicle, an occupant seated in a front passenger seat often takes various sitting postures, unlike a seated occupant in a driver seat.
For this reason, depending on the seating posture, the airbag originally intended to protect the occupant may adversely affect the occupant due to its deployment. Therefore, in the passenger seat, it is desired to detect the sitting posture of the occupant and control the deployment of the airbag in accordance with the detected sitting posture.

【0003】そこで、上述のような助手席の着座姿勢の
検知にあたり、広い視野角に亘り多点測距し、この測距
結果に応じてエアバッグの展開の制御に必要な乗員の着
座姿勢の判定を行うようにしたものが開示されている
(特開平9−309402号公報参照)。
In order to detect the seating posture of the passenger seat as described above, multi-point distance measurement is performed over a wide viewing angle, and the occupant's sitting posture necessary for controlling the deployment of the airbag is determined according to the distance measurement result. A system in which a determination is made is disclosed (see Japanese Patent Application Laid-Open No. 9-309402).

【0004】[0004]

【発明が解決しようとする課題】しかし、上記公報のも
のでは、着座乗員の姿勢に対する測定点が一次元状に限
られているため、高速な測距は可能であるとしても、多
様に変化する着座姿勢を詳細に検知するための測距まで
はできず、当該測距結果によっては、エアバッグの展開
のきめ細かな制御に必要な多様な着座姿勢の判定を行う
ことができないという不具合がある。
However, in the above-mentioned publication, since the measurement points for the posture of the seated occupant are limited to one-dimensional shape, even if high-speed distance measurement is possible, various changes occur. There is a problem that it is not possible to perform distance measurement for detecting the sitting posture in detail, and it is not possible to determine various sitting postures necessary for fine control of the deployment of the airbag depending on the result of the distance measurement.

【0005】これに対しては、画像センサを採用し、こ
の画像センサの画像認識でもって乗員の着座姿勢を二次
元的に検出することが考えられる。しかし、単に画像セ
ンサを採用するだけでは、二次元的な詳細な測距は可能
になるものの、測距にあたり立体視を行う必要が生じ、
コストの上昇を招くのは勿論のこと、測距のための演算
に時間がかかり、高速な測距を行うことができないとい
う不具合を招く。
In order to solve this problem, it is conceivable to employ an image sensor and two-dimensionally detect the seated posture of the occupant by image recognition of the image sensor. However, simply adopting an image sensor enables two-dimensional detailed distance measurement, but it is necessary to perform stereoscopic vision for distance measurement.
In addition to the increase in cost, the calculation for distance measurement takes a long time, resulting in a disadvantage that high-speed distance measurement cannot be performed.

【0006】そこで、本発明は、このようなことに対処
するため、車両用エアバッグシステムにおいて、画像セ
ンサによる測定時には夜間において必ず補助光源を必要
とすることに着目し、この補助光源の構成に工夫を凝ら
すことで、高速で詳細な測距を可能としつつエアバッグ
のきめ細かな展開制御に必要な詳細な着座姿勢を判定す
るようにした乗員判定装置を提供することを目的とす
る。
In order to deal with such a problem, the present invention focuses on the fact that an auxiliary light source is always required at night during measurement with an image sensor in a vehicle airbag system. It is an object of the present invention to provide an occupant determination device capable of performing detailed distance measurement at high speed and determining a detailed seating posture necessary for fine deployment control of an airbag by elaborating the device.

【0007】[0007]

【課題を解決するための手段】上記課題の解決にあた
り、請求項1に記載の発明に係る車両用エアバッグシス
テムの乗員判定装置は、車両の衝突時に乗員を保護する
ように作動するエアバッグシステムに車室内の適所に位
置するように装備されて当該車室内の着座乗員を二次元
の画像データとして撮像する画像センサ(50)と、車
室内にて着座乗員の前側に画像センサとは離れて配設さ
れて着座乗員に向け拡散光を照射する第1発光素子(6
1)及び着座乗員の照射ポイントに向けビーム光を照射
する第2発光素子(62)を有する補助光ユニット(6
0)と、画像センサにより、第1発光素子による拡散光
の照射或いは非照射の状態のもと、着座乗員を一枚目の
画像データとして撮像した後第2発光素子によるビーム
光の照射にあわせて着座乗員を二枚目の画像データとし
て撮像するように第1発光素子の選択的駆動、第2発光
素子の駆動及び画像センサの駆動を行う駆動処理手段
(70、80、120、121)と、両画像データの差
分データを算出することで照射ポイントを抽出する抽出
手段(123、124)と、照射ポイント、第2発光素
子及び画像センサの各位置関係に基づき三角測距法によ
り画像センサと照射ポイントとの間の距離を算出する距
離算出手段(124)と、この距離算出手段の算出距離
の長短に応じて着座乗員の姿勢を判定する姿勢判定手段
(126)とを備える。
In order to solve the above-mentioned problems, an occupant determination apparatus for an airbag system for a vehicle according to the present invention is provided with an airbag system that operates to protect an occupant in the event of a vehicle collision. An image sensor (50) which is provided so as to be located at an appropriate position in the vehicle interior and captures a seated occupant in the vehicle interior as two-dimensional image data; and an image sensor in front of the seated occupant in the vehicle interior. The first light emitting element (6) which is disposed and irradiates diffused light to a seated occupant.
1) and an auxiliary light unit (6) having a second light emitting element (62) for irradiating a light beam toward an irradiation point of a seated occupant.
0), the image sensor captures an image of the seated occupant as the first image data in the state of irradiating or not irradiating the diffused light by the first light emitting element, and then adjusts to the light beam irradiation by the second light emitting element. Drive processing means (70, 80, 120, 121) for selectively driving the first light emitting element, driving the second light emitting element, and driving the image sensor so as to capture the seated occupant as the second image data; Extracting means (123, 124) for extracting an irradiation point by calculating difference data between the two image data; and an image sensor by a triangulation method based on each positional relationship between the irradiation point, the second light emitting element and the image sensor. A distance calculating means (124) for calculating a distance from the irradiation point, and a posture determining means (126) for determining the posture of the seated occupant according to the length of the distance calculated by the distance calculating means. .

【0008】このように、画像センサに補助光源として
必要とされる補助光ユニットに、拡散光の出射源である
第1発光素子に加え、ビーム光の出射源である第2発光
素子を設けて、ビーム光を照射しない場合の画像センサ
の出力画像データとビーム光を照射した場合の画像セン
サの出力画像データとの差分データに基づき着座乗員に
対する照射ポイントを抽出し、この照射ポイント、第2
発光素子及び画像センサの各位置関係に基づき三角測距
法により画像センサと照射ポイントとの間の距離を算出
し、この算出距離の長短に応じて着座乗員の姿勢を判定
するようにした。
As described above, the auxiliary light unit required as an auxiliary light source for the image sensor is provided with the second light emitting element as the light source for beam light in addition to the first light emitting element as the light source for diffused light. The irradiation point for the seated occupant is extracted based on the difference data between the output image data of the image sensor when the light beam is not irradiated and the output image data of the image sensor when the light beam is irradiated.
The distance between the image sensor and the irradiation point is calculated by triangulation based on the positional relationship between the light emitting element and the image sensor, and the posture of the seated occupant is determined according to the length of the calculated distance.

【0009】従って、着座乗員の姿勢が種々に変化して
いても、この姿勢の変化が、算出距離の長短に応じて、
エアバッグの展開を乗員に対する加害性をなくするよう
に制御するように的確に判定され得る。また、上述のご
とく、両画像データの差分データを求めて照射ポイント
を抽出し、この照射ポイントと画像センサとの間の距離
を算出するので、二次元の撮像機能を有する画像センサ
を用いても、当該距離の算出が高速にて可能としつつ上
記作用効果を達成できる。
Therefore, even if the posture of the seated occupant changes variously, the change in this posture depends on the length of the calculated distance.
It can be accurately determined to control the deployment of the airbag so as to eliminate harm to the occupant. Further, as described above, since the irradiation point is extracted by calculating the difference data between the two image data and the distance between the irradiation point and the image sensor is calculated, an image sensor having a two-dimensional imaging function may be used. In addition, the above effects can be achieved while calculating the distance at a high speed.

【0010】また、請求項2に記載の発明に係る車両用
エアバッグシステムの乗員判定装置は、車両の衝突時に
乗員を保護するように作動するエアバッグシステムに車
室内の適所に位置するように装備されて当該車室内の着
座乗員を二次元の画像データとして撮像する画像センサ
(50)と、車室内にて着座乗員の前側に画像センサと
は離れて配設されて着座乗員に向け拡散光を照射する第
1発光素子(61)及び着座乗員の互いに異なる照射ポ
イントに向けビーム光をそれぞれ照射する複数の第2発
光素子(62a乃至62d)を有する補助光ユニット
(60A)と、画像センサにより、第1発光素子による
拡散光の照射或いは非照射の状態のもと、着座乗員を一
枚目の画像データとして撮像した後複数の第2発光素子
による各ビーム光の選択的照射毎にこれにあわせて着座
乗員を順次二枚目の画像データとして撮像するように第
1発光素子の選択的駆動、複数の第2発光素子の選択的
駆動及び画像センサの駆動を行う駆動処理手段(70、
80、132、133)と、一枚目の画像データと各二
枚目の画像データとの間の各差分データを算出すること
で各照射ポイントを順次抽出する抽出手段(134)
と、各照射ポイント毎に、照射ポイント及びこれに対応
する第2発光素子及び画像センサの各位置関係に基づき
三角測距法により画像センサと照射ポイントとの間の距
離を順次算出する距離算出手段(135)と、この距離
算出手段の各算出距離の長短に応じて着座乗員の姿勢を
判定する姿勢判定手段(126)とを備える。
According to a second aspect of the present invention, there is provided an occupant determination apparatus for an airbag system for a vehicle, wherein the airbag system operates to protect the occupant in the event of a collision of the vehicle so that the airbag system is located at a proper position in a vehicle compartment. An image sensor (50) that is equipped and captures a seated occupant in the vehicle interior as two-dimensional image data; and a diffused light that is disposed in front of the seated occupant in the vehicle interior away from the image sensor and directed toward the seated occupant. An auxiliary light unit (60A) having a first light emitting element (61) for irradiating light and a plurality of second light emitting elements (62a to 62d) for respectively irradiating light beams to different irradiation points of a seated occupant, and an image sensor. In a state where the first light emitting element emits or does not emit the diffused light, the seated occupant is imaged as the first image data, and then each of the light beams emitted from the plurality of second light emitting elements is captured. The selective driving of the first light emitting element, the selective driving of the plurality of second light emitting elements, and the driving of the image sensor are performed so that the seated occupant is sequentially imaged as the second image data in accordance with the selective irradiation. Drive processing means (70,
80, 132, 133) and extraction means (134) for sequentially extracting each irradiation point by calculating each difference data between the first image data and each second image data.
And a distance calculating means for sequentially calculating the distance between the image sensor and the irradiation point by triangulation based on the irradiation point and the respective positional relationships of the corresponding second light emitting element and the image sensor for each irradiation point. (135), and posture determination means (126) for determining the posture of the seated occupant according to the length of each calculated distance of the distance calculation means.

【0011】このように、画像センサに補助光源として
必要とされる補助光ユニットに、拡散光の出射源である
第1発光素子に加え、着座乗員の互いに異なる照射ポイ
ントに向けビーム光を出射する複数の第2発光素子を設
けて、ビーム光を照射しない場合の画像センサの出力画
像データと各ビーム光を照射した場合の画像センサの各
出力画像データとの各差分データに基づき着座乗員に対
する各照射ポイントを抽出し、これら各照射ポイント毎
に、当該照射ポイント、対応の第2発光素子及び画像セ
ンサの各位置関係に基づき三角測距法により画像センサ
と照射ポイントとの間の距離を順次算出し、これら各算
出距離の長短に応じて着座乗員の姿勢を判定するように
した。
As described above, the auxiliary light unit required as an auxiliary light source for the image sensor emits the beam light to different irradiation points of the seated occupant in addition to the first light emitting element which is the emission source of the diffused light. A plurality of second light-emitting elements are provided, and each of the second light-emitting elements is provided for the seated occupant based on the difference data between the output image data of the image sensor when the light beam is not irradiated and the output image data of the image sensor when each light beam is irradiated. The irradiation points are extracted, and for each of these irradiation points, the distance between the image sensor and the irradiation point is sequentially calculated by triangulation based on the respective positional relationships of the irradiation point, the corresponding second light emitting element, and the image sensor. Then, the posture of the seated occupant is determined according to the length of each of the calculated distances.

【0012】従って、着座乗員の姿勢が種々に変化して
いても、この姿勢の変化が、各算出距離の長短に応じ
て、エアバッグの展開を乗員に対する加害性をなくする
ように制御するようにきめ細かに判定され得る。また、
上述のごとく、各両画像データの差分データを求めて各
照射ポイントを抽出し、これら各照射ポイントと画像セ
ンサとの間の距離を算出するので、二次元の撮像機能を
有する画像センサを用いても、当該各距離の算出が高速
にて可能としつつ上記作用効果を達成できる。
Therefore, even if the posture of the seated occupant changes, the change in the posture controls the deployment of the airbag so as to eliminate harm to the occupant in accordance with the length of each calculated distance. It can be determined finely. Also,
As described above, the difference data between the two image data is obtained, the respective irradiation points are extracted, and the distance between each of the irradiation points and the image sensor is calculated, so that the image sensor having a two-dimensional imaging function is used. In addition, the above-described effects can be achieved while calculating the distances at high speed.

【0013】請求項3に記載の発明に係る車両用エアバ
ッグシステムの乗員判定装置は、車両の衝突時に乗員を
保護するように作動するエアバッグシステムに車室内の
適所に位置するように装備されて当該車室内の着座乗員
を二次元の画像データとして撮像する画像センサ(5
0)と、車室内にて着座乗員の前側に画像センサとは離
れて配設されて着座乗員に向け拡散光を照射する第1発
光素子(61)及び着座乗員の互いに異なる照射ポイン
トに向けビーム光をそれぞれ照射する複数の第2発光素
子(62a乃至62d)を有する補助光ユニット(60
A)と、画像センサにより、第1発光素子による拡散光
の照射或いは非照射の状態のもと、複数の第2発光素子
による各ビーム光の選択的照射毎にこれにあわせて着座
乗員を順次画像データとして撮像するように第1発光素
子の選択的駆動、複数の第2発光素子の選択的駆動及び
画像センサの駆動を行う駆動処理手段(70、80、1
44)と、各画像データのうち先行画像データ及びその
後続画像データの対毎に先行画像データ及びその後続画
像データの間の差を第1差分データとして算出し、この
第1差分データの先行の第1差分データとの間の差を第
2差分分データとして算出することで、各照射ポイント
を順次抽出する抽出手段(145、146)と、各照射
ポイント毎に、照射ポイント及びこれに対応する第2発
光素子及び画像センサの各位置関係に基づき三角測距法
により画像センサと照射ポイントとの間の距離を順次算
出する距離算出手段(147)と、この距離算出手段の
各算出距離の長短に応じて着座乗員の姿勢を判定する姿
勢判定手段(126)とを備える。
According to a third aspect of the present invention, an occupant determination device for an airbag system for a vehicle is provided in an airbag system that operates to protect an occupant in the event of a collision of a vehicle so as to be located at an appropriate position in a vehicle compartment. Image sensor (5) that captures a seated occupant in the vehicle interior as two-dimensional image data.
0), a first light-emitting element (61) disposed in front of the seated occupant in the vehicle compartment away from the image sensor and irradiating diffused light toward the seated occupant, and a beam directed to different irradiation points of the seated occupant. An auxiliary light unit (60) having a plurality of second light emitting elements (62a to 62d) for irradiating light, respectively.
A) and the image sensor sequentially occupies the seated occupant in accordance with the selective irradiation of each light beam by the plurality of second light emitting elements under the state of irradiation or non-irradiation of the diffuse light by the first light emitting element. Drive processing means (70, 80, 1) for selectively driving the first light emitting element, selectively driving the plurality of second light emitting elements, and driving the image sensor so as to capture image data.
44) calculating, as first difference data, a difference between the preceding image data and its subsequent image data for each pair of the preceding image data and its subsequent image data in each image data; By calculating a difference between the first difference data and the second difference data, an extraction unit (145, 146) for sequentially extracting each irradiation point, and for each irradiation point, an irradiation point and a corresponding irradiation point. Distance calculating means (147) for sequentially calculating the distance between the image sensor and the irradiation point by triangulation based on the positional relationship between the second light emitting element and the image sensor; and the length of each calculated distance of the distance calculating means Attitude determination means (126) for determining the attitude of the seated occupant in accordance with the condition.

【0014】このように、請求項2に記載の発明にいう
補助光ユニットを採用し、画像センサの各出力画像デー
タのうち先行画像データ及びその後続画像データの対毎
に先行画像データ及びその後続画像データの間の差を第
1差分データとして算出し、この第1差分データの先行
の第1差分データとの間の差を第2差分分データとして
算出することで、各照射ポイントを順次抽出し、各照射
ポイント毎に、照射ポイント及びこれに対応する第2発
光素子及び画像センサの各位置関係に基づき三角測距法
により画像センサと照射ポイントとの間の距離を順次算
出し、これら各算出距離の長短に応じて着座乗員の姿勢
を判定するようにした。これによっても、請求項3に記
載の発明と実質的に同様の作用効果を達成できる。
As described above, the auxiliary light unit according to the second aspect of the present invention is employed, and the preceding image data and the following image data are output for each pair of the preceding image data and the following image data among the output image data of the image sensor. Each irradiation point is sequentially extracted by calculating the difference between the image data as the first difference data, and calculating the difference between the first difference data and the preceding first difference data as the second difference data. Then, for each irradiation point, the distance between the image sensor and the irradiation point is sequentially calculated by triangulation based on the irradiation point and the respective positional relationships of the second light emitting element and the image sensor corresponding to the irradiation point. The posture of the seated occupant is determined according to the length of the calculated distance. According to this, substantially the same operation and effect as the invention described in claim 3 can be achieved.

【0015】また、請求項4に記載の発明に係る車両用
エアバッグシステムの乗員判定装置は、車両の衝突時に
乗員を保護するように作動するエアバッグシステムに車
室内の適所に位置するように装備されて当該車室内の着
座乗員を二次元の画像データとして撮像する画像センサ
(50)と、車室内にて着座乗員の前側に画像センサと
は離れて配設されて着座乗員に向け拡散光を照射する第
1発光素子(61)及び着座乗員の互いに上下方向に異
なる照射ポイントに向けビーム光をそれぞれ照射する複
数の第2発光素子(63a乃至63c)を有する補助光
ユニット(60B)と、画像センサにより、第1発光素
子による拡散光の照射或いは非照射の状態のもと、着座
乗員を一枚目の画像データとして撮像した後複数の第2
発光素子による各ビーム光の同時照射にあわせて着座乗
員を二枚目の画像データとして撮像するように第1発光
素子の選択的駆動、複数の第2発光素子の同時駆動及び
画像センサの駆動を行う駆動処理手段(70、80、1
51)と、一枚目の画像データと二枚目の画像データと
の間の差分データを算出することで各照射ポイントを抽
出する抽出手段(152)と、各照射ポイント毎に、照
射ポイント及びこれに対応する第2発光素子及び画像セ
ンサの各位置関係に基づき三角測距法により画像センサ
と照射ポイントとの間の距離を順次算出する距離算出手
段(153)と、この距離算出手段の各算出距離の長短
に応じて着座乗員の姿勢を判定する姿勢判定手段(12
6)とを備える。
According to a fourth aspect of the present invention, there is provided an occupant determination device for an airbag system for a vehicle, wherein the airbag system operates to protect the occupant in the event of a collision of the vehicle so that the airbag system is located at a proper position in the vehicle compartment. An image sensor (50) that is equipped and captures a seated occupant in the vehicle interior as two-dimensional image data; and a diffused light that is disposed in front of the seated occupant in the vehicle interior away from the image sensor and directed toward the seated occupant. An auxiliary light unit (60B) having a first light emitting element (61) for irradiating light and a plurality of second light emitting elements (63a to 63c) for respectively irradiating light beams to different irradiation points in a vertical direction of a seated occupant; The image sensor captures a seated occupant as the first image data in a state where the first light emitting element emits or does not emit the diffused light, and a plurality of second images are taken.
Selective driving of the first light emitting element, simultaneous driving of the plurality of second light emitting elements, and driving of the image sensor are performed so that the seated occupant is imaged as the second image data in accordance with the simultaneous irradiation of each light beam by the light emitting element. Drive processing means (70, 80, 1
51) extracting means (152) for extracting each irradiation point by calculating difference data between the first image data and the second image data; and an irradiation point and an irradiation point for each irradiation point. A distance calculating means (153) for sequentially calculating the distance between the image sensor and the irradiation point by triangulation based on the respective positional relationships of the second light emitting element and the image sensor corresponding thereto; Attitude determination means (12) for determining the attitude of the seated occupant according to the length of the calculated distance.
6).

【0016】このように、画像センサに補助光源として
必要とされる補助光ユニットに、拡散光の出射源である
第1発光素子に加え、着座乗員の互いに上下方向に異な
る照射ポイントに向け同時にビーム光を出射する複数の
第2発光素子を設けて、ビーム光を照射しない場合の画
像センサの出力画像データと各ビーム光を同時照射した
場合の画像センサの出力画像データとの差分データに基
づき着座乗員に対する各照射ポイントを抽出し、これら
各照射ポイント毎に、当該照射ポイント、対応の第2発
光素子及び画像センサの各位置関係に基づき三角測距法
により画像センサと照射ポイントとの間の距離を順次算
出し、これら各算出距離の長短に応じて着座乗員の姿勢
を判定するようにした。
As described above, the auxiliary light unit required as an auxiliary light source for the image sensor includes, in addition to the first light emitting element, which is the emission source of diffused light, simultaneously emits beams toward different irradiation points in the vertical direction of the seated occupant. A plurality of second light emitting elements for emitting light are provided, and seated based on difference data between output image data of the image sensor when no light beam is irradiated and output image data of the image sensor when each light beam is irradiated simultaneously. Each irradiation point for the occupant is extracted, and for each of these irradiation points, the distance between the image sensor and the irradiation point by triangulation based on the respective irradiation points, the corresponding second light emitting elements and the respective positional relationships of the image sensor. Are sequentially calculated, and the posture of the seated occupant is determined according to the length of each of the calculated distances.

【0017】従って、着座乗員の姿勢が種々に変化して
いても、この姿勢の変化が、各算出距離の長短に応じ
て、エアバッグの展開を乗員に対する加害性をなくする
ように制御するようにきめ細かに判定され得る。また、
上述のごとく、第2発光素子の同時照射のもと両画像デ
ータの差分データを求めて各照射ポイントを抽出し、こ
れら各照射ポイントと画像センサとの間の距離を算出す
るので、二次元の撮像機能を有する画像センサを用いて
も、当該各距離の算出が高速にて可能としつつ上記作用
効果を達成できる。なお、上記各手段の括弧内の符号
は、後述する実施形態に記載の具体的手段との対応関係
を示すものである。
Therefore, even if the posture of the seated occupant changes in various ways, the change in the posture controls the deployment of the airbag so as to eliminate harm to the occupant in accordance with the length of each calculated distance. It can be determined finely. Also,
As described above, the difference data between the two image data is obtained under the simultaneous irradiation of the second light emitting element to extract each irradiation point and calculate the distance between each irradiation point and the image sensor. Even when an image sensor having an imaging function is used, the above-described effects can be achieved while calculating the respective distances at a high speed. In addition, the code | symbol in the parenthesis of each said means shows the correspondence with the concrete means described in embodiment mentioned later.

【0018】[0018]

【発明の実施の形態】以下、本発明の各実施形態を図面
に基づいて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0019】(第1実施形態)図1乃至図6は、本発明
が適用される自動車用エアバッグシステムの一実施形態
を示している。このエアバッグシステムは、当該自動車
の車室内の助手席10(図2参照)に着座する乗員(以
下、乗員Mという)を保護するために採用されている。
(First Embodiment) FIGS. 1 to 6 show an embodiment of an automobile airbag system to which the present invention is applied. This airbag system is employed to protect an occupant (hereinafter, referred to as an occupant M) sitting on a passenger seat 10 (see FIG. 2) in the cabin of the automobile.

【0020】当該エアバッグシステムは、図1にて示す
ごとく、エアバッグ20を有しており、このエアバッグ
20は、助手席10の前側にて、当該自動車の車室内の
インストルメントパネル30の適所に装備されている。
なお、インストルメントパネル30は、当該自動車のフ
ロントウインドシールド40の下縁から車室内側及び下
方に向けて延出している。
As shown in FIG. 1, the airbag system has an airbag 20. The airbag 20 is provided in front of a passenger seat 10 on an instrument panel 30 in a passenger compartment of the vehicle. Equipped in place.
The instrument panel 30 extends from the lower edge of the front windshield 40 of the vehicle toward the vehicle interior and downward.

【0021】また、当該エアバッグシステムは、図1に
て示すごとく、エアバッグ20を駆動するエアバッグ駆
動回路D及び乗員判定装置Sを備えており、エアバッグ
駆動回路Dは、乗員判定装置Sによる制御を受けてエア
バッグ20を助手席10に向けて展開させる。
As shown in FIG. 1, the airbag system includes an airbag drive circuit D for driving the airbag 20 and an occupant determination device S. The airbag drive circuit D includes an occupant determination device S The airbag 20 is deployed toward the passenger seat 10 under the control of the vehicle.

【0022】乗員判定装置Sは、画像センサ50を備え
ており、この画像センサ50は、エアバッグ20の近傍
のうち、インストルメントパネル30の上壁31のうち
助手席10の背もたれ部11に対向する部分上に設けら
れている。当該画像センサ50は、図6にて示すごと
く、二次元状のCCD素子51と、平凸レンズである受
光レンズ52とを備えており、CCD素子51がその受
光面51aにて受光レンズ52を介し背もたれ部11に
対向している。
The occupant determination device S is provided with an image sensor 50, which faces the backrest 11 of the passenger seat 10 in the upper wall 31 of the instrument panel 30 near the airbag 20. It is provided on the part which does. As shown in FIG. 6, the image sensor 50 includes a two-dimensional CCD element 51 and a light receiving lens 52 that is a plano-convex lens, and the CCD element 51 passes through the light receiving lens 52 on its light receiving surface 51a. It faces the backrest 11.

【0023】受光レンズ52は、助手席10に着座した
乗員Mの上半身Maから後述のように反射される光をC
CD素子51の受光面51a上に結像させる。CCD素
子51は、その受光面51a上の結像光を二次元状の画
像データとして出力する。このことは、画像センサ50
は、乗員Mの上半身Maを画像データとして撮像し画像
データとして出力することを意味する。ここで、画像セ
ンサ50は助手席10の背もたれ部11の前面を含んで
映し出せるように、受光レンズ52により視野角が調整
されている。なお、助手席10はその着座部12にて当
該自動車の車室内てに床面10a上に設けられている。
The light receiving lens 52 transmits light reflected from the upper body Ma of the occupant M seated on the passenger seat 10 as described later.
An image is formed on the light receiving surface 51a of the CD element 51. The CCD element 51 outputs the imaging light on the light receiving surface 51a as two-dimensional image data. This means that the image sensor 50
Means that the upper body Ma of the occupant M is captured as image data and output as image data. Here, the viewing angle of the image sensor 50 is adjusted by the light receiving lens 52 so that the image including the front surface of the backrest 11 of the passenger seat 10 can be projected. The passenger seat 10 is provided on the floor 10a in the passenger compartment of the vehicle at the seat portion 12 thereof.

【0024】また、乗員判定装置Sは、補助光ユニット
60を備えており、この補助光ユニット60は、当該自
動車の車室内前方にてフロントウインドシールド40の
助手席側縁に沿って位置するフロントピラー41の上下
方向中間部位に取り付けられている(図2参照)。補助
光ユニット60は、図1にて示すごとく、図示しないケ
ーシングに収容した両発光素子61、62を備えてお
り、これら両発光素子61、62は、共に、赤外発光ダ
イオードを内蔵して構成されている。
Further, the occupant determination device S includes an auxiliary light unit 60. The auxiliary light unit 60 is located in front of the passenger compartment of the vehicle along a front seat side edge of the front windshield 40. It is attached to a vertical intermediate portion of the pillar 41 (see FIG. 2). As shown in FIG. 1, the auxiliary light unit 60 includes both light-emitting elements 61 and 62 housed in a casing (not shown), and both of the light-emitting elements 61 and 62 have a built-in infrared light-emitting diode. Have been.

【0025】発光素子61は、その内蔵赤外発光ダイオ
ードからのパルス状の拡散光を助手席10の背もたれ部
11の前面を照射するように発光する。一方、発光素子
62は、その内蔵赤外発光ダイオードからのパルス状の
ビーム光を助手席10の背もたれ部11の前面の一部を
照射するように発光する。ここで、発光素子62は、その
発光面の中心部(発光軸上に位置する部分)からビーム
光を発光するようになっている。
The light emitting element 61 emits light such that pulsed diffused light from the built-in infrared light emitting diode irradiates the front surface of the backrest 11 of the passenger seat 10. On the other hand, the light emitting element 62 emits light so as to irradiate a part of the front surface of the backrest 11 of the passenger seat 10 with pulsed beam light from the built-in infrared light emitting diode. Here, the light emitting element 62 emits a light beam from a central portion of the light emitting surface (a portion located on the light emitting axis).

【0026】また、乗員判定装置Sは、画像データ処理
回路70、補助光ユニット駆動回路80及びマイクロコ
ンピュータ90を備えている。画像センサ駆動及びデー
タ処理回路70は、マイクロコンピュータ90により駆
動されて画像センサ50を駆動し、当該画像センサ50
から画像データ出力を入力されて画像処理信号としてマ
イクロコンピュータ90に出力する。
The occupant determination apparatus S includes an image data processing circuit 70, an auxiliary light unit driving circuit 80, and a microcomputer 90. The image sensor drive and data processing circuit 70 is driven by the microcomputer 90 to drive the image sensor 50, and the image sensor 50
And outputs the image data to the microcomputer 90 as an image processing signal.

【0027】補助光ユニット駆動回路80は、マイクロ
コンピュータ90による制御のもと、補助光ユニット6
0の各発光素子61、62をパルス駆動する。このこと
は、発光素子61が拡散光をパルス状に発光し、発光素
子62がビーム光をパルス状に発光することを意味す
る。
The auxiliary light unit driving circuit 80 controls the auxiliary light unit 6 under the control of the microcomputer 90.
Each of the 0 light emitting elements 61 and 62 is pulse-driven. This means that the light emitting element 61 emits diffused light in a pulsed manner, and the light emitting element 62 emits light beam in a pulsed manner.

【0028】マイクロコンピュータ90は、図3及び図
4にて示すフローチャートに従いコンピュータプログラ
ムを実行し、この実行中において、画像センサ駆動及び
データ処理回路70の駆動処理及びその出力の処理、補
助光ユニット駆動回路80の駆動処理、乗員Mの着座姿
勢の判定処理並びにエアバッグ駆動回路Dの駆動処理を
行う。なお、コンピュータプログラムはマイクロコンピ
ュータ90のROMに予め記憶されている。
The microcomputer 90 executes the computer program according to the flowcharts shown in FIGS. 3 and 4, and during this execution, the image sensor driving and driving processing of the data processing circuit 70 and the output processing thereof, the auxiliary light unit driving The driving process of the circuit 80, the determination process of the sitting posture of the occupant M, and the driving process of the airbag driving circuit D are performed. The computer program is stored in the ROM of the microcomputer 90 in advance.

【0029】このように構成した本第1実施形態におい
て、マイクロコンピュータ90が図3及び図4のフロー
チャートに従いコンピュータプログラムの実行を開始す
れば、図3のステップ100において、初期設定の処理
がなされる。
In the first embodiment configured as described above, if the microcomputer 90 starts executing the computer program according to the flowcharts of FIGS. 3 and 4, initialization processing is performed in step 100 of FIG. .

【0030】その後、ステップ101において、画像セン
サ50の作動処理がなされる。このため、画像センサ駆
動及びデータ処理回路70が画像センサ50を作動す
る。これに伴い、画像センサ50は現状の外光のもとに
助手席10の着座乗員Mの上半身Maを二次元的に撮像
し画像データとして画像センサ駆動及びデータ処理回路
70に出力する。すると、この画像センサ駆動及びデー
タ処理回路70は、当該画像データをデータ処理して画
像処理信号をマイクロコンピュータ90に上半身Maを
表す二次元の正画像としてステップ101にて入力す
る。
Thereafter, in step 101, an operation process of the image sensor 50 is performed. Therefore, the image sensor driving and data processing circuit 70 operates the image sensor 50. Accordingly, the image sensor 50 two-dimensionally captures the upper body Ma of the seated occupant M in the passenger seat 10 under the current external light, and outputs the image data to the image sensor drive and data processing circuit 70 as image data. Then, the image sensor driving and data processing circuit 70 performs data processing on the image data and inputs an image processing signal to the microcomputer 90 as a two-dimensional normal image representing the upper body Ma in step 101.

【0031】ついで、ステップ102において、当該正画
像の全画素の輝度平均値が算出される。これに伴い、ス
テップ103において、撮像時間が上記全画素の輝度平
均値の高さ、即ち明るさに応じて算出される。ここで、当
該撮像時間は暗い場合の方が明るい場合に比べて長く算
出される。
Next, in step 102, the average luminance value of all pixels of the normal image is calculated. Accordingly, in step 103, the imaging time is calculated according to the height of the average luminance value of all the pixels, that is, the brightness. Here, the imaging time is calculated to be longer in a dark case than in a bright case.

【0032】その後、ステップ110において、ステップ
103における撮像時間に応じて補助光の要否が判定さ
れる。当該撮像時間が短ければ、明るいために補助光は
不要であることからステップ110における判定はNO
となる。一方、当該撮像時間が長ければ、暗いために補助
光が必要であることからステップ110における判定は
YESとなる。そして、ステップ111において拡散光
発光設定がなされる。
Thereafter, in step 110, it is determined whether or not the auxiliary light is necessary according to the imaging time in step 103. If the imaging time is short, the auxiliary light is unnecessary because it is bright, so the determination in step 110 is NO.
Becomes On the other hand, if the imaging time is long, the auxiliary light is necessary because the image is dark, so the determination in step 110 is YES. Then, in step 111, diffused light emission setting is performed.

【0033】ステップ110におけるNOとの判定後或
いはステップ111の処理後、ステップ120において、
画像センサ50の作動処理がなされ、またステップ11
1にて拡散光発光設定済みの場合には発光素子61の赤
外発光ダイオードのパルス発光駆動処理がなされる。
After the determination of NO in step 110 or the processing of step 111, in step 120
The operation processing of the image sensor 50 is performed.
If the diffused light emission setting is completed in step 1, pulsed light emission drive processing of the infrared light emitting diode of the light emitting element 61 is performed.

【0034】従って、ステップ111の処理がされてい
ない場合には、画像センサ50は、画像センサ駆動及びデ
ータ処理回路70による駆動のもと、上述と同様に、現状
の外光による照射のもとに助手席10の着座乗員Mの上
半身Maを二次元的に撮像し画像データとして画像セン
サ駆動及びデータ処理回路70に出力する。
Therefore, when the processing in step 111 is not performed, the image sensor 50 is driven by the image sensor and the data processing circuit 70, and is irradiated with the current external light in the same manner as described above. Then, the upper body Ma of the seated occupant M in the passenger seat 10 is two-dimensionally imaged and output to the image sensor driving and data processing circuit 70 as image data.

【0035】また、上述のようにステップ111の処理
済みの場合には、発光素子61が、補助光ユニット駆動回
路80によりパルス駆動されて拡散光をパルス状に発光
し、この拡散光により着座乗員Mの上半身Maを照射す
る。従って、画像センサ50は、画像センサ駆動及びデー
タ処理回路70による駆動のもと、発光素子61のパル
ス状の拡散光発光のもとに助手席10の着座乗員Mの上
半身Maを二次元的に撮像し画像データとして画像セン
サ駆動及びデータ処理回路70に出力する。
In the case where the processing in step 111 has been completed as described above, the light emitting element 61 is pulse-driven by the auxiliary light unit driving circuit 80 to emit diffused light in a pulsed manner, and the diffused light causes the seated occupant to emit light. The upper body Ma of M is irradiated. Therefore, the image sensor 50 two-dimensionally moves the upper body Ma of the seated occupant M of the passenger seat 10 under the driving of the image sensor and the driving of the data processing circuit 70 under the pulsed diffused light emission of the light emitting element 61. The image is taken and output to the image sensor drive and data processing circuit 70 as image data.

【0036】すると、この画像センサ駆動及びデータ処
理回路70は、上記画像データをデータ処理して画像処
理信号をマイクロコンピュータ90に上半身Maを表す
二次元の正画像データD1(図5(a)参照)としてス
テップ120にて入力する。
Then, the image sensor driving and data processing circuit 70 performs data processing on the image data and sends an image processing signal to the microcomputer 90 as two-dimensional positive image data D1 representing the upper body Ma (see FIG. 5A). ) Is input in step 120.

【0037】ついで、ステップ121において、画像セン
サ50の作動処理及び発光素子62のパルス発光駆動処
理がなされ、またステップ111にて拡散光発光設定済
みの場合には発光素子61の赤外発光ダイオードのパル
ス発光駆動処理がなされる。
Next, in step 121, the operation processing of the image sensor 50 and the pulse light emission drive processing of the light emitting element 62 are performed. If the diffused light emission is set in step 111, the infrared light emitting diode of the light emitting element 61 Pulse emission drive processing is performed.

【0038】上述のように発光素子62のパルス発光駆
動処理がなされると、この発光素子62は、補助光ユニッ
ト駆動回路80によりパルス駆動されてビーム光をパル
ス状に発光し、このビーム光により着座乗員Mの上半身
Maの一部を照射する。
When the pulse light emission drive processing of the light emitting element 62 is performed as described above, the light emitting element 62 is pulse driven by the auxiliary light unit driving circuit 80 to emit a light beam in a pulsed manner. A part of the upper body Ma of the seated occupant M is irradiated.

【0039】よって、ステップ111の処理がされてい
ない場合には、画像センサ50は、画像センサ駆動及びデ
ータ処理回路70による駆動のもと、現状の外光及び上
記ビーム光による照射のもとに助手席10の着座乗員M
の上半身Maを二次元的に撮像し画像データとして画像
センサ駆動及びデータ処理回路70に出力する。する
と、この画像センサ駆動及びデータ処理回路70は、上記
画像データをデータ処理して画像処理信号をマイクロコ
ンピュータ90に上半身Maを表す二次元の正画像デー
タD2(図5(b)参照)としてステップ121にて入
力する。
Therefore, when the processing in step 111 is not performed, the image sensor 50 is driven by the image sensor and the data processing circuit 70, and is illuminated by the current external light and the irradiation with the beam light. A seated occupant M in the passenger seat 10
Is two-dimensionally imaged and output to the image sensor drive and data processing circuit 70 as image data. Then, the image sensor driving and data processing circuit 70 processes the image data and converts the image processing signal into the microcomputer 90 as two-dimensional normal image data D2 (see FIG. 5B) representing the upper body Ma. Input at 121.

【0040】一方、ステップ111の処理がされている
場合には、画像センサ50は、画像センサ駆動及びデータ
処理回路70による駆動のもと、上記拡散光及びビーム
光による照射のもとに助手席10の着座乗員Mの上半身
Maを二次元的に撮像し画像データとして画像センサ駆
動及びデータ処理回路70に出力する。すると、この画
像センサ駆動及びデータ処理回路70は、上記画像デー
タをデータ処理して画像処理信号をマイクロコンピュー
タ90に上半身Maを表す二次元の正画像データD2と
してステップ121にて入力する。
On the other hand, when the processing of step 111 is performed, the image sensor 50 is driven by the image sensor and the data processing circuit 70, and is illuminated with the diffused light and the light beam. The upper body Ma of the ten seated occupants M is two-dimensionally imaged and output to the image sensor drive and data processing circuit 70 as image data. Then, the image sensor driving and data processing circuit 70 performs data processing on the image data and inputs an image processing signal to the microcomputer 90 as two-dimensional positive image data D2 representing the upper body Ma in step 121.

【0041】ついで、ステップ122において、両正画像
データD1、D2の差分値がデータとして算出され、次の
ステップ123において、当該差分値データに基づき上
半身Maの前面におけるビーム光の照射ポイントPを表
すデータSD(=D2−D1)として抽出される(図5
(c)参照)。そして、ステップ124において、画像セ
ンサ50の受光レンズ52の光心52aと照射ポイント
Pとの間の当該自動車の前後方向に沿う距離Laが次の
数1の式に基づき算出される。
Next, in step 122, a difference value between the two positive image data D1 and D2 is calculated as data. In the next step 123, the irradiation point P of the light beam on the front surface of the upper body Ma is represented based on the difference value data. It is extracted as data SD (= D2-D1) (FIG.
(C)). Then, in step 124, the distance La along the longitudinal direction of the vehicle between the optical center 52a of the light receiving lens 52 of the image sensor 50 and the irradiation point P is calculated based on the following equation (1).

【0042】[0042]

【数1】 La=(D・L・tanα)/(L+da・tanα) この数1の式において、図6にて示すごとく、Dは、発光
素子62の発光面の中心部と画像センサ50の受光レン
ズ52の受光軸との間の間隔である。daは、照射ポイ
ントPで反射されるビーム光が受光レンズ52の光心5
2aを通り結像するCCD素子51の受光面51a上の
結像位置と画像センサ50の受光軸との間の間隔であ
る。Lは、画像センサ50の受光軸(受光レンズ52の
受光軸と同じ)上に沿う当該受光レンズ52の光心とC
CD素子51の受光面51aとの間隔である。αは、発
光素子62の発光軸と当該発光素子62の発光面の中心
部から受光レンズ52の光心52aを含む鉛直面に立て
た法線とがなす角度である。なお、図6では、便宜上、図
2とは異なり、発光素子62の発光面の中心部と受光レ
ンズ52の光心52aとが同一の鉛直面内に位置するよ
うに記載されている。
## EQU1 ## In the equation (1), D is the center of the light emitting surface of the light emitting element 62 and the center of the image sensor 50, as shown in FIG. This is the distance between the light receiving lens 52 and the light receiving axis. da indicates that the light beam reflected at the irradiation point P is
This is the distance between the image forming position on the light receiving surface 51a of the CCD element 51 that forms an image through 2a and the light receiving axis of the image sensor 50. L is the optical center of the light receiving lens 52 along the light receiving axis of the image sensor 50 (same as the light receiving axis of the light receiving lens 52) and C
The distance from the light receiving surface 51a of the CD element 51. α is the angle formed by the light emitting axis of the light emitting element 62 and the normal line to the vertical plane including the optical center 52a of the light receiving lens 52 from the center of the light emitting surface of the light emitting element 62. In FIG. 6, for convenience, unlike FIG. 2, the center of the light emitting surface of the light emitting element 62 and the optical center 52 a of the light receiving lens 52 are described as being located in the same vertical plane.

【0043】ちなみに、数1の式は以下のようにして三
角測距法に基づき導出される。まず、着座乗員Mの上半
身Maが画像センサ50に対し図6にて図示aにて示す
位置にあるとき、画像センサ50の光軸と照射ポイント
Pとの間の間隔をDaとする。また、上半身Maが画像
センサ50に対し図6にて図示bにて示す位置にあると
き、画像センサ50の受光軸上における上半身Maの前
面と受光レンズ52の光心52aとの間の距離をLbと
する。この前提のもと、図6の両三角形の相似形状等に
基づき次ぎの数2乃至数4の式が成立する。
Incidentally, the equation (1) is derived based on the triangulation method as follows. First, when the upper body Ma of the seated occupant M is at the position shown in FIG. 6A with respect to the image sensor 50, the distance between the optical axis of the image sensor 50 and the irradiation point P is defined as Da. When the upper body Ma is at the position shown in FIG. 6B with respect to the image sensor 50, the distance between the front surface of the upper body Ma on the light receiving axis of the image sensor 50 and the optical center 52a of the light receiving lens 52 is determined. Lb. Based on this premise, the following equations 2 to 4 hold based on the similar shapes of the two triangles in FIG.

【0044】[0044]

【数2】La:Da=L:da## EQU2 ## La: Da = L: da

【0045】[0045]

【数3】La:(D+Da)=Lb:D## EQU3 ## La: (D + Da) = Lb: D

【0046】[0046]

【数4】Lb=Dtanα よって、これら数2乃至数4の各式を整理することで数
1の式が導出される。上述のようにステップ125での
処理が終了すると、ステップ125において正画像デー
タD1に基づき画像認識処理がなされる。その後、ステ
ップ126において、助手席状態の判定処理がなされ
る。ここでは、当該画像認識処理及び算出距離Laに応
じて乗員Mの助手席10に対する着座姿勢が判定され
る。例えば、算出距離Laが短ければ、乗員Mは、上半身
Maのうち照射ポイントPに対応する部分を他の部分に
比べてインストルメントパネル30側へ突出させた着座
姿勢をとっていると判定される。一方、算出距離Laが
長ければ、乗員Mは、助手席10に対し正常な着座姿勢を
とっていると判定される。
Lb = Dtanα Equation (1) is derived by rearranging the equations (2) to (4). When the processing in step 125 ends as described above, an image recognition process is performed in step 125 based on the normal image data D1. Thereafter, in step 126, a determination process of the passenger seat state is performed. Here, the sitting posture of the occupant M with respect to the passenger seat 10 is determined according to the image recognition processing and the calculated distance La. For example, if the calculated distance La is short, it is determined that the occupant M is in a sitting posture in which the portion corresponding to the irradiation point P in the upper body Ma is protruded toward the instrument panel 30 compared to other portions. . On the other hand, if the calculated distance La is long, it is determined that the occupant M has a normal sitting posture with respect to the passenger seat 10.

【0047】ついで、ステップ127では、ステップ12
6における判定処理に基づきエアバッグ20の展開判定
処理がなされる。ここでは、当該展開判定処理は、当該自
動車の衝突時にエアバッグ20の展開によって着座乗員
Mが加害されることなく保護されるようになされる。例
えば、上述のように、乗員Mが上半身Maのうち照射ポイ
ントPに対応する部分を他の部分に比べてインストルメ
ントパネル30側へ突出させた着座姿勢をとっている場
合には、エアバッグ20の展開力は弱めるように判定さ
れる。一方、乗員Mが助手席10に対し正常な着座姿勢
をとっている場合には、エアバッグ20の展開力は通常
にするように判定される。
Next, in step 127, step 12
The deployment determination process of the airbag 20 is performed based on the determination process in 6. Here, the deployment determination processing is performed so that the seated occupant M is protected without being harmed by the deployment of the airbag 20 at the time of the collision of the vehicle. For example, as described above, when the occupant M is in the sitting posture in which the portion corresponding to the irradiation point P in the upper body Ma is projected toward the instrument panel 30 compared to the other portions, the airbag 20 Is determined to be weaker. On the other hand, when the occupant M is in a normal sitting posture with respect to the passenger seat 10, it is determined that the deployment force of the airbag 20 is normal.

【0048】このような判定のもと、当該自動車の衝突
が判定されると、ステップ128において、ステップ12
7におけるエアバッグ20の展開判定処理に基づきエア
バッグ20の制御信号がエアバッグ駆動回路Dに出力さ
れる。これに伴い、エアバッグ駆動回路Dは、上記制御信
号、即ちエアバッグ20の展開判定処理に基づく展開力
でもってエアバッグ20を展開させる。
If it is determined that the vehicle has collided based on such a determination, then in step 128, step 12 is executed.
The control signal of the airbag 20 is output to the airbag drive circuit D based on the deployment judgment processing of the airbag 20 in 7. Accordingly, the airbag drive circuit D deploys the airbag 20 with the control signal, that is, the deployment force based on the deployment determination processing of the airbag 20.

【0049】これにより、着座乗員Mは、エアバッグ20
により保護される。この場合、エアバッグ20は着座乗
員Mの着座姿勢に応じた展開力で展開するので、当該エ
アバッグ20がその展開によって着座乗員Mに加害する
ことがない。また、上述のごとく、両正画像データD1、
D2の差分データSDを求めて照射ポイントPを抽出
し、この照射ポイントPと画像センサ50との間の距離
La(即ち、エアバッグ20との間の距離)を算出する
ので、二次元の撮像機能を有する画像センサ50を用い
ても、当該距離Laの算出が高速にてなされ得る。従っ
て、当該自動車の衝突の際に必要な着座乗員Mの着座姿
勢やエアバッグ20の展開の判定も迅速にて行えるの
で、当該自動車の衝突時には着座乗員の着座姿勢に合致
した展開力でエアバッグ20をタイミングよく展開でき
る。 (第2実施形態)図7乃至図9は本発明の第2実施形態
を示している。この第2実施形態では、補助光ユニット
60Aが、上記第1実施形態にて述べた補助光ユニット
60に代えて採用されている(図7参照)。この補助光
ユニット60Aは、上記補助光ユニット60において、発
光素子62に代えて、4つの発光素子62a乃至62d
を採用した構成を有している。
Thus, the seated occupant M can move the airbag 20
Protected by In this case, since the airbag 20 is deployed with a deployment force corresponding to the sitting posture of the seated occupant M, the airbag 20 does not harm the seated occupant M by the deployment. Further, as described above, both the positive image data D1,
Since the irradiation point P is extracted by calculating the difference data SD of D2 and the distance La between the irradiation point P and the image sensor 50 (that is, the distance between the airbag 20) is calculated, two-dimensional imaging is performed. Even when the image sensor 50 having a function is used, the distance La can be calculated at a high speed. Therefore, the seating posture of the seated occupant M and the deployment of the airbag 20 required at the time of the collision of the vehicle can be quickly determined, and the airbag is deployed with a deployment force matching the seating posture of the seated occupant at the time of the vehicle collision. 20 can be developed with good timing. (Second Embodiment) FIGS. 7 to 9 show a second embodiment of the present invention. In the second embodiment, the auxiliary light unit 60A is employed in place of the auxiliary light unit 60 described in the first embodiment (see FIG. 7). The auxiliary light unit 60A is different from the auxiliary light unit 60 in that the light emitting element 62 is replaced with four light emitting elements 62a to 62d.
Is adopted.

【0050】各発光素子62a乃至62dは、上記発光
素子62と同様の構成及び機能を有するもので、両発光
素子62b、62aは左右に隣接して配置され、各発光
素子62c、62dは、それぞれ、各発光素子62a、
62bの直下に配置されている。発光素子62aは、そ
の発光軸に沿いパルス状のビーム光を発光し、このビー
ム光により着座乗員Mの上半身Maのうち頭部を除く前
面の右側上部上の照射ポイントP1を照射する。発光素
子62bは、その発光軸に沿いパルス状のビーム光を発
光し、このビーム光により着座乗員Mの上半身Maのう
ち頭部を除く前面の左側上部上の照射ポイントP2を照
射する。発光素子62cは、その発光軸に沿いパルス状
のビーム光を発光し、このビーム光により着座乗員Mの
上半身Maのうち頭部を除く前面の右側下部上の照射ポ
イントP3を照射する。発光素子62dは、その発光軸
に沿いパルス状のビーム光を発光し、このビーム光によ
り着座乗員Mの上半身Maのうち頭部を除く前面の左側
下部上の照射ポイントP4を照射する。なお、本第2実
施形態では、上記第1実施形態にて述べた補助光ユニッ
ト駆動回路80は、上記第1実施形態にて述べた発光素
子61、62のうち発光素子62に代え各発光素子62
a乃至62dを選択的にパルス駆動するようになってい
る。また、図7にて示す上半身Maは、乗員Mの上半身
(頭部を除く)をその前面の凹凸を上下左右に4分割し
て模式的に描いたものである。
Each of the light-emitting elements 62a to 62d has the same configuration and function as the light-emitting element 62. Both light-emitting elements 62b and 62a are disposed adjacent to each other on the left and right, and each of the light-emitting elements 62c and 62d is , Each light emitting element 62a,
It is arranged immediately below 62b. The light-emitting element 62a emits a pulsed beam light along the light-emitting axis, and irradiates the upper body Ma of the seated occupant M with the light beam at an irradiation point P1 on the upper right side of the front surface excluding the head. The light-emitting element 62b emits a pulsed beam light along the light-emitting axis, and irradiates the irradiation point P2 on the upper left portion of the front surface excluding the head of the upper body Ma of the seated occupant M with the light beam. The light emitting element 62c emits a pulsed beam light along the light emission axis, and irradiates the irradiation point P3 on the lower right side of the front surface excluding the head in the upper body Ma of the seated occupant M with the light beam. The light emitting element 62d emits a pulsed beam light along the light emission axis, and irradiates the irradiation point P4 on the lower left portion of the front surface excluding the head in the upper body Ma of the seated occupant M with the light beam. In the second embodiment, the auxiliary light unit driving circuit 80 described in the first embodiment is replaced with the light emitting element 62 of the light emitting elements 61 and 62 described in the first embodiment. 62
a to 62d are selectively pulse-driven. Further, the upper body Ma shown in FIG. 7 is a schematic drawing of the upper body (excluding the head) of the occupant M by dividing the front and rear surfaces of the occupant M into four parts vertically and horizontally.

【0051】また、本第2実施形態では、上記第1実施形
態にて述べたフローチャートのうち両ステップ110、
111とステップ125との間のフローチャート部分が
図8にて示すように変更されている。その他の構成は上
記第1実施形態と同様である。
In the second embodiment, both steps 110 and 110 of the flowchart described in the first embodiment are used.
The part of the flowchart between 111 and 125 is modified as shown in FIG. Other configurations are the same as those of the first embodiment.

【0052】このように構成した本第2実施形態におい
て、マイクロコンピュータ90が上記第1実施形態にて
述べたと同様にステップ110におけるNO又はステッ
プ111の処理を終了すると、コンピュータプログラム
はステップ130(図8参照)に進む。すると、このス
テップ130において、変数NがN=0とリセットされ
る。ついで、ステップ131において、変数NがN=N+
1=1と加算更新される。なお、N=1は発光素子62
aに対応し、N=2は発光素子62bに対応し、N=3は
発光素子62cに対応し、N=4は発光素子62dに対
応するものとする。
In the second embodiment configured as described above, when the microcomputer 90 terminates the processing in step 110 or NO in step 110 in the same manner as described in the first embodiment, the computer program executes step 130 (FIG. 8). Then, in step 130, the variable N is reset to N = 0. Next, in step 131, the variable N is set to N = N +
1 = 1 is added and updated. Note that N = 1 indicates the light emitting element 62
a, N = 2 corresponds to the light emitting element 62b, N = 3 corresponds to the light emitting element 62c, and N = 4 corresponds to the light emitting element 62d.

【0053】しかして、ステップ132において、上記第
1実施形態にて述べたステップ120における処理と同
様の処理がなされ、画像センサ50が駆動され、データ処
理回路70から一枚目の正画像データがマイクロコンピ
ュータ90に入力される。ついで、ステップ133にお
いて、画像センサ50の駆動処理及びN=1に対応する
発光素子62aのパルス発光駆動処理がなされ、またス
テップ111にて拡散光発光設定済みの場合には発光素
子61の赤外発光ダイオードのパルス発光駆動処理がな
される。
In step 132, the same processing as in step 120 described in the first embodiment is performed, the image sensor 50 is driven, and the first normal image data is output from the data processing circuit 70. The data is input to the microcomputer 90. Next, in step 133, the driving process of the image sensor 50 and the pulse light emission driving process of the light emitting element 62a corresponding to N = 1 are performed. Pulse light emission drive processing of the light emitting diode is performed.

【0054】上述のように発光素子62aのパルス発光
駆動処理がなされると、この発光素子62aは、補助光ユ
ニット駆動回路80によりパルス駆動されてビーム光を
パルス状に発光し、このビーム光により着座乗員Mの上
半身Maの照射ポイントP1を照射する。
When the pulse light emission drive processing of the light emitting element 62a is performed as described above, the light emitting element 62a is pulse driven by the auxiliary light unit driving circuit 80 to emit a light beam in a pulse shape, and the light beam is emitted by the light beam. The irradiation point P1 of the upper body Ma of the seated occupant M is irradiated.

【0055】よって、ステップ111の処理がされてい
ない場合には、画像センサ50は、画像センサ駆動及びデ
ータ処理回路70による駆動のもと、現状の外光及び上
記発光素子62aのビーム光による照射のもとに着座乗
員Mの上半身Maを二次元的に撮像し画像データとして
画像センサ駆動及びデータ処理回路70に出力する。す
ると、この画像センサ駆動及びデータ処理回路70は、上
記画像データをデータ処理して画像処理信号をマイクロ
コンピュータ90に上半身Maを表す二次元の正画像デ
ータ(照射ポイントP1を含む)としてステップ133
にて入力する。
Therefore, when the processing of step 111 is not performed, the image sensor 50 emits the current external light and the light beam of the light emitting element 62a under the driving of the image sensor and the data processing circuit 70. Then, the upper body Ma of the seated occupant M is two-dimensionally imaged and output to the image sensor driving and data processing circuit 70 as image data. Then, the image sensor drive and data processing circuit 70 processes the image data and converts the image processing signal into the microcomputer 90 as two-dimensional normal image data (including the irradiation point P1) representing the upper body Ma at step 133.
Enter with.

【0056】一方、ステップ111の処理がされている
場合には、画像センサ50は、画像センサ駆動及びデータ
処理回路70による駆動のもと、上記拡散光及び発光素
子62aのビーム光による照射のもとに着座乗員Mの上
半身Maを二次元的に撮像し画像データとして画像セン
サ駆動及びデータ処理回路70に出力する。すると、こ
の画像センサ駆動及びデータ処理回路70は、上記画像
データをデータ処理して画像処理信号をマイクロコンピ
ュータ90に上半身Maを表す二次元の正画像データ
(照射ポイントP1を含む)としてステップ133にて
入力する。
On the other hand, when the processing of step 111 has been performed, the image sensor 50 controls the irradiation of the diffused light and the light beam of the light emitting element 62a under the driving of the image sensor and the data processing circuit 70. At this time, the upper body Ma of the seated occupant M is two-dimensionally imaged and output to the image sensor driving and data processing circuit 70 as image data. Then, the image sensor driving and data processing circuit 70 performs data processing on the image data and sends an image processing signal to the microcomputer 90 as two-dimensional positive image data (including the irradiation point P1) representing the upper body Ma in step 133. Enter

【0057】然る後、ステップ134において、上記第1
実施形態にて述べたステップ122、123の処理と同
様にして、両ステップ133及び132の各正画像デー
タの差分値がデータとして算出され、当該差分値データ
に基づき上半身Maの前面におけるビーム光の照射ポイ
ントP1を表すデータとして抽出される(図9参照)。
そして、ステップ135において、記第1実施形態にて述
べたステップ124の処理と同様にして、画像センサ5
0の受光レンズ52の光心52aと照射ポイントP1と
の間の当該自動車の前後方向に沿う距離L(n)=L
(1)が数1の式に基づき算出される。但し、間隔da
n及び距離L(n)が、数1の式において間隔da及び
距離Laに代えて代入されており、現段階ではN=1故、
dan=da1及びL(n)=L(1)とする。なお、
danは、図9にて示すごとく、上半身Maの左右両側部
の境界と照射ポイントPnとの間隔である。なお、現段
階では、n=1故、上半身Maの左右両側部の境界と照射
ポイントP1との間隔da1が採用される。
Thereafter, in step 134, the first
In the same manner as the processing in steps 122 and 123 described in the embodiment, the difference value between the respective positive image data in both steps 133 and 132 is calculated as data, and based on the difference value data, the difference of the light beam in front of the upper body Ma is calculated. It is extracted as data representing the irradiation point P1 (see FIG. 9).
Then, in step 135, the image sensor 5 is executed in the same manner as in step 124 described in the first embodiment.
The distance L (n) = L along the front-rear direction of the vehicle between the optical center 52a of the 0 light receiving lens 52 and the irradiation point P1.
(1) is calculated based on the equation (1). However, the interval da
n and the distance L (n) are substituted for the distance da and the distance La in the equation (1). At this stage, N = 1, so that
Let dan = da1 and L (n) = L (1). In addition,
Dan is an interval between the boundary between the left and right sides of the upper body Ma and the irradiation point Pn, as shown in FIG. At this stage, since n = 1, the distance da1 between the boundary between the left and right sides of the upper body Ma and the irradiation point P1 is adopted.

【0058】ステップ135の処理後、ステップ136
において、N=1故、NOとの判定がなされる。以下、同
様にして、N=2、N=3及びN=4について、ステップ
131乃至135の処理が繰り返される。ここで、ステ
ップ133では、N=2、N=3及びN=4に対応する各
発光素子62b、62c及び62dがステップ132の
処理後毎に順次パルス発光駆動処理され、ステップ13
4では、N=2、N=3及びN=4の各々のときの両ステ
ップ132、133での各正画像データの差分値が算出
されて照射ポイントP2、P3及びP4がステップ13
3の処理後毎に順次抽出され、ステップ135において、
距離L(n)=L(2)、L(3)及びL(4)が数1
の式に基づき上述と実質的に同様にして算出される。な
お、上述のごとく、各発光素子62a乃至62dは互いに
時を異にして発光駆動されるので、照射ポイントが不明
になることなく、各距離L(1)、L(2)、L(3)、L
(4)の算出は正しくなされる。
After the processing of step 135, step 136
In this case, since N = 1, a determination of NO is made. Hereinafter, similarly, the processing of steps 131 to 135 is repeated for N = 2, N = 3, and N = 4. Here, in step 133, the respective light emitting elements 62b, 62c and 62d corresponding to N = 2, N = 3 and N = 4 are sequentially subjected to pulsed light emission driving processing after the processing of step 132, and
In step 4, the difference between the respective positive image data in both steps 132 and 133 when N = 2, N = 3 and N = 4 is calculated, and the irradiation points P2, P3 and P4 are determined in step 13
3 is sequentially extracted after each of the processes of step 3, and in step 135,
Distance L (n) = L (2), L (3) and L (4)
Is calculated substantially in the same manner as described above, based on the following equation. As described above, since the light-emitting elements 62a to 62d are driven to emit light at different times, the distances L (1), L (2), and L (3) can be determined without making the irradiation point unknown. , L
The calculation of (4) is performed correctly.

【0059】その後、ステップ136においてYESと
の判定がなされ上記第1実施形態と同様にステップ12
5の処理がなされる。ついで、ステップ126では、ステ
ップ136での画像認識処理及び各算出距離L(1)、
L(2)、L(3)、L(4)に応じて乗員Mの助手席1
0に対する着座姿勢が判定される。この判定は、算出距
離の数が照射ポイントP1乃至P4との関連での4倍に
なっているので、上記第1実施形態の場合よりもよりき
め細かに行われる。
Thereafter, YES is determined in step 136, and step 12 is executed similarly to the first embodiment.
5 is performed. Next, at step 126, the image recognition processing at step 136 and each calculated distance L (1),
Passenger seat 1 of occupant M according to L (2), L (3), L (4)
The seating posture with respect to 0 is determined. This determination is performed more finely than in the case of the first embodiment, because the number of calculated distances is four times as large as the number of irradiation points P1 to P4.

【0060】従って、次のステップ127でのエアバッ
グの展開判定処理もステップ126でのきめ細かな判定
を根拠にきめ細かに判定される。このような判定のも
と、当該自動車の衝突が判定されると、ステップ128に
おいて、ステップ127におけるエアバッグ20のきめ
細かな展開判定処理に基づきエアバッグ20の制御信号
がエアバッグ駆動回路Dに出力される。これに伴い、エ
アバッグ駆動回路Dは、上記制御信号、即ちエアバッグ2
0のきめ細かな展開判定処理に基づく展開力でもってエ
アバッグ20を展開させる。その結果、上記第1実施形
態の場合よりも乗員の着座姿勢によりきめ細かに合致し
たエアバッグの展開のもと乗員の加害性のない保護が可
能となる。また、上述のごとく、本第2実施形態では、補
助光ユニット60でもってビーム光により照射ポイント
P1乃至P4の4点を照射するようにしているが、Nの
値に対応する照射ポイントPnの位置を用いて距離L
(n)を算出するので、当該距離L(n)の高速な算出
が可能となる。従って、当該自動車の衝突の際に必要な
着座乗員Mの着座姿勢やエアバッグ20の展開のきめ細
かい判定も迅速にて行えるので、当該自動車の衝突時に
は着座乗員の着座姿勢に合致したきめ細かい展開力でエ
アバッグ20をタイミングよく展開できる。 (第3実施形態)図10乃至図12は本発明の第3実施
形態を示している。この第3実施形態では、上記第2実
施形態にて述べたフローチャートのうち両ステップ11
0、111とステップ125との間のフローチャート部
分が図10にて示すように変更されている。その他の構
成は上記第2実施形態と同様である。
Accordingly, the determination process of the deployment of the airbag in the next step 127 is also determined in detail based on the detailed determination in step 126. When the collision of the vehicle is determined based on the above determination, a control signal of the airbag 20 is output to the airbag driving circuit D based on the detailed deployment determination process of the airbag 20 in step 127 in step 128. Is done. In connection with this, the airbag drive circuit D sends the control signal, that is, the airbag 2
The airbag 20 is deployed with a deployment force based on a fine-grained deployment determination process of zero. As a result, it is possible to protect the occupant without harm by deploying the airbag that more closely matches the seating posture of the occupant than in the case of the first embodiment. In addition, as described above, in the second embodiment, the auxiliary light unit 60 irradiates the irradiation points P1 to P4 with the beam light, but the position of the irradiation point Pn corresponding to the value of N is used. Using the distance L
Since (n) is calculated, the distance L (n) can be calculated at high speed. Therefore, a detailed determination of the seating posture of the seated occupant M and the deployment of the airbag 20 required at the time of the collision of the vehicle can be performed quickly, so that at the time of the collision of the vehicle, a fine deployment force that matches the sitting posture of the seated occupant. The airbag 20 can be deployed with good timing. Third Embodiment FIGS. 10 to 12 show a third embodiment of the present invention. In the third embodiment, both steps 11 and 12 of the flowchart described in the second embodiment are performed.
The flowchart part between 0, 111 and step 125 has been changed as shown in FIG. Other configurations are the same as those of the second embodiment.

【0061】このように構成した第3実施形態におい
て、マイクロコンピュータ90が上記第2実施形態にて
述べたと同様にステップ110におけるNO又はステッ
プ111の処理を終了すると、ステップ140において、
両初期設定画像データSD1及びSSD1(11(a)
参照)が設定される。ついで、上記第3実施形態のステ
ップ130と同様に、ステップ141にてN=0とリセ
ットされる。
In the third embodiment configured as described above, when the microcomputer 90 terminates the processing in step 110 or NO in step 110 in the same manner as described in the second embodiment,
Both initial setting image data SD1 and SSD1 (11 (a)
Reference) is set. Next, similarly to step 130 of the third embodiment, in step 141, N = 0 is reset.

【0062】その後、ステップ142において、上記第3
実施形態のステップ132と同様に、画像センサが駆動
され、データ処理回路70から一枚目の正画像データD
1(図11(a)参照)がマイクロコンピュータ90に
入力される。ついで、ステップ143において、上記第3
実施形態のステップ131と同様に、N=N+1=1と
加算更新される。すると、ステップ144において、上記
第3実施形態のステップ133と同様に、画像センサ5
0の作動処理及びN=1に対応する発光素子62のパル
ス駆動処理がなされ、またステップ111にて拡散光発
光設定済みの場合には発光素子61の赤外発光ダイオー
ドのパルス発光駆動処理がなされる。
Thereafter, in step 142, the third
As in step 132 of the embodiment, the image sensor is driven, and the first normal image data D
1 (see FIG. 11A) is input to the microcomputer 90. Next, in step 143, the third
As in step 131 of the embodiment, N = N + 1 = 1 is added and updated. Then, in step 144, similarly to step 133 of the third embodiment, the image sensor 5
An operation process of 0 and a pulse driving process of the light emitting element 62 corresponding to N = 1 are performed, and a pulse light emission driving process of the infrared light emitting diode of the light emitting element 61 is performed when the setting of the diffused light emission is completed in step 111. You.

【0063】上述のように発光素子62aのパルス発光
駆動処理がなされると、この発光素子62aは、補助光ユ
ニット駆動回路80によるパルス駆動のもとパルス状の
ビーム光により着座乗員Mの上半身Maの照射ポイント
P1を照射する。よって、ステップ111の処理がされ
ていない場合には、画像センサ50は、画像センサ駆動及
びデータ処理回路70による駆動のもと、現状の外光及
び上記発光素子62aのビーム光による照射のもとに着
座乗員Mの上半身Maを二次元的に撮像し画像データと
して画像センサ駆動及びデータ処理回路70に出力す
る。すると、この画像センサ駆動及びデータ処理回路7
0は、上記画像データをデータ処理して画像処理信号を
マイクロコンピュータ90に上半身Maを表す二次元の
正画像データD2(図11(b)参照))としてステッ
プ144にて入力する。
When the pulse light emission drive processing of the light emitting element 62a is performed as described above, the light emitting element 62a is driven by the pulse light beam by the auxiliary light unit driving circuit 80 to emit the upper body Ma of the seated occupant M. Irradiation point P1 is irradiated. Therefore, when the processing of step 111 is not performed, the image sensor 50 is driven by the image sensor drive and the data processing circuit 70, and is irradiated with the current external light and the beam light of the light emitting element 62a. The two-dimensional image of the upper body Ma of the seated occupant M is output to the image sensor driving and data processing circuit 70 as image data. Then, the image sensor driving and data processing circuit 7
In step 144, the image data is subjected to data processing and an image processing signal is input to the microcomputer 90 as two-dimensional positive image data D2 (see FIG. 11B) representing the upper body Ma in step 144.

【0064】然る後、ステップ145において、正画像デ
ータD2と初期設定画像データD1との差が差分データ
SD2(=D2−D1)(図11(b)参照)として算
出される。すると、ステップ146において、差分データ
SD2と初期設定画像データSSD1との差が差分デー
タSSD2(=SD2−SSD1)(図11(b)参
照)として算出される。ついで、ステップ147におい
て、差分データSSD2中の照射ポイントP1の位置を
用いて距離L(1)が数1の式に基づき上記第2実施形
態と同様に算出される。
Thereafter, in step 145, the difference between the normal image data D2 and the initial setting image data D1 is calculated as difference data SD2 (= D2-D1) (see FIG. 11B). Then, in step 146, a difference between the difference data SD2 and the initial setting image data SSD1 is calculated as difference data SSD2 (= SD2-SSD1) (see FIG. 11B). Next, in step 147, the distance L (1) is calculated using the position of the irradiation point P1 in the difference data SSD2 based on the equation (1), as in the second embodiment.

【0065】この算出後、現段階では、N=1故、ステッ
プ148にてNOとの判定がなされる。その後、ステッ
プ143でのNの加算更新毎にステップ144乃至ステ
ップ147の処理が同様にして繰り返される。ここで、
ステップ144では、N=2、N=3及びN=4に対応す
る各発光素子62b、62c、62dがステップ143の
処理後毎に順次パルス発光駆動処理されて正画像データ
D3、D4、D5(図11(c)、図12(a)、(b)参
照)が順次入力され、ステップ145では、両正画像デー
タD3、D2の差分データSD3(=D3−D2)、両正
画像データD4、D3の差分データSD4(=D4−D
3)、両正画像データD5、D4の差分データSD5(=
D5−D4)(図11(c)、図12(a)、(b)参
照)がステップ144の処理毎に順次算出され、ステッ
プ146では、両差分データSD3、SD2の差分データ
SSD3、両差分データSD4、SD3の差分データSS
D4、両差分データSD5、SD4の差分データSSD5
がステップ145の処理毎に順次算出される。ついで、
ステップ147では、差分データSSD3中の照射ポイ
ントP2の位置を用いた距離L(2)の数1の式に基づ
く算出、差分データSSD4中の照射ポイントP3の位
置を用いた距離L(3)の数1の式に基づく算出、差分
データSSD5中の照射ポイントP4の位置をを用いた
距離L(4)の数1の式に基づく算出がステップ146
の処理毎に順次なされる。
After this calculation, at the present stage, since N = 1, a determination of NO is made in step 148. Thereafter, the processing of steps 144 to 147 is repeated in the same manner each time N is added and updated in step 143. here,
In step 144, the light emitting elements 62b, 62c, and 62d corresponding to N = 2, N = 3, and N = 4 are sequentially subjected to pulsed light emission driving processing after the processing in step 143, and the normal image data D3, D4, and D5 ( 11 (c), 12 (a) and 12 (b) are sequentially input. In step 145, the difference data SD3 (= D3-D2) between the two positive image data D3 and D2, the two positive image data D4, The difference data SD4 of D3 (= D4-D
3), the difference data SD5 between the two positive image data D5 and D4 (=
D5-D4) (see FIGS. 11 (c), 12 (a), and (b)) are sequentially calculated for each process in step 144. In step 146, the difference data SD3, the difference data SSD3 of SD2, and the difference Difference data SS between data SD4 and SD3
D4, both difference data SD5, difference data SSD5 of SD4
Are sequentially calculated for each process of step 145. Then
In step 147, the distance L (2) using the position of the irradiation point P2 in the difference data SSD3 is calculated based on the equation (1), and the distance L (3) using the position of the irradiation point P3 in the difference data SSD4 is calculated. Step 146 calculates the distance L (4) based on the expression 1 using the position of the irradiation point P4 in the difference data SSD5.
Are performed sequentially for each process.

【0066】その後、ステップ148において、N=4に
基づきYESとの判定がなされ、以下、上記第2実施形態
と同様のステップ125以後の処理がなされる。
Thereafter, in step 148, a determination of YES is made based on N = 4, and thereafter, the same processes as in the second embodiment after step 125 are performed.

【0067】以上のように、本第3実施形態では、両正
画像データDn、Dn−1の差分データSDn及び両差
分データSDn、SDn−1の差分データSSDnを用
いて照射ポイントPnを抽出し、この抽出ポイントPn
の位置との関連で距離L(n)を算出するので、当該距
離の算出を高速にて行いつつ、上記第2実施形態と同様
の作用効果を達成できる。
As described above, in the third embodiment, the irradiation point Pn is extracted by using the difference data SDn between the two positive image data Dn and Dn-1 and the difference data SSDn between the two difference data SDn and SDn-1. , This extraction point Pn
Since the distance L (n) is calculated in relation to the position, the same operation and effect as in the second embodiment can be achieved while calculating the distance at high speed.

【0068】なお、上記第3実施形態において、各発光素
子62a乃至62dの発光順序は、互いに異なる限り、ど
のように変更してもよい。 (第4実施形態)図13乃至図16は本発明の第4実施
形態を示している。この第4実施形態では、補助光ユニ
ット60Bが、上記第1実施形態にて述べた補助光ユニ
ット60に代えて採用されている(図13参照)。この
補助光ユニット60Bは、上記補助光ユニット60にお
いて、発光素子62に代えて、3つの発光素子63a乃至
63cを採用した構成を有している。
In the third embodiment, the order of light emission of the light emitting elements 62a to 62d may be changed as long as they are different from each other. (Fourth Embodiment) FIGS. 13 to 16 show a fourth embodiment of the present invention. In the fourth embodiment, the auxiliary light unit 60B is employed instead of the auxiliary light unit 60 described in the first embodiment (see FIG. 13). The auxiliary light unit 60B has a configuration in which the light emitting element 62 is replaced with three light emitting elements 63a to 63c in the auxiliary light unit 60.

【0069】各発光素子63a乃至63cは、上記発光
素子62と同様の構成及び機能を有するもので、これら
各発光素子63a乃至63cは、発光素子63aから発
光素子63cにかけて鉛直方向に下方へ配列されてい
る。発光素子63aは、その発光軸に沿いパルス状のビ
ーム光を発光し、このビーム光により着座乗員Mの上半
身Maのうち頭部を除く前面の上部上の照射ポイントP
1(図13参照)を照射する。発光素子63bは、その
発光軸に沿いパルス状のビーム光を発光し、このビーム
光により着座乗員Mの上半身Maのうち頭部を除く前面
の中央部上の照射ポイントP2(図13参照)を照射す
る。発光素子63cは、その発光軸に沿いパルス状のビ
ーム光を発光し、このビーム光により着座乗員Mの上半
身Maのうち頭部を除く前面の下部上の照射ポイントP
3(図13参照)を照射する。
Each of the light emitting elements 63a to 63c has the same structure and function as the light emitting element 62. The light emitting elements 63a to 63c are vertically arranged from the light emitting element 63a to the light emitting element 63c. ing. The light-emitting element 63a emits a pulsed beam light along the light-emitting axis, and the beam light is used to irradiate an irradiation point P on the upper part of the upper body Ma of the seated occupant M excluding the head.
1 (see FIG. 13). The light-emitting element 63b emits a pulsed beam light along the light-emitting axis, and the light beam causes an irradiation point P2 (see FIG. 13) on the center of the front surface excluding the head of the upper body Ma of the seated occupant M. Irradiate. The light-emitting element 63c emits a pulsed beam light along the light-emitting axis, and the beam light is used to irradiate an irradiation point P on the lower part of the front surface excluding the head of the upper body Ma of the seated occupant M.
3 (see FIG. 13).

【0070】本第4実施形態では、上記第1実施形態に
て述べた補助光ユニット駆動回路80は、上記第1実施
形態にて述べた発光素子61、62のうち発光素子62
に代え各発光素子63a乃至63cを同時にパルス駆動
するようになっている。また、図13にて示す上半身M
aは、乗員Mの上半身(頭部を除く)をその前面の凹凸
を上下方向に3分割して模式的に描いたものである。
In the fourth embodiment, the auxiliary light unit drive circuit 80 described in the first embodiment is different from the light emitting element 62 in the light emitting elements 61 and 62 described in the first embodiment.
Instead, the light emitting elements 63a to 63c are simultaneously pulse-driven. The upper body M shown in FIG.
a schematically illustrates the upper body (excluding the head) of the occupant M by dividing the unevenness on the front surface into three in the vertical direction.

【0071】また、本第4実施形態では、上記第1実施形
態にて述べたフローチャートのうち両ステップ110、
111とステップ125との間のフローチャート部分が
図14にて示すように変更されている。その他の構成は
上記第1実施形態と同様である。
In the fourth embodiment, both steps 110 and 110 in the flowchart described in the first embodiment are performed.
The part of the flowchart between 111 and 125 is changed as shown in FIG. Other configurations are the same as those of the first embodiment.

【0072】このように構成した本第4実施形態におい
て、マイクロコンピュータ90が上記第1実施形態にて
述べたと同様にステップ110におけるNO又はステッ
プ111の処理を終了すると、ステップ150におい
て、上記第1実施形態にて述べたステップ120におけ
る処理と同様の処理がなされ、画像センサ50が駆動さ
れ、データ処理回路70から一枚目の正画像データD1
(図15(a)参照)がマイクロコンピュータ90に入
力される。
In the fourth embodiment configured as described above, when the microcomputer 90 terminates the process of NO in step 110 or the process of step 111 in the same manner as described in the first embodiment, in step 150, the microcomputer 90 The same processing as the processing in step 120 described in the embodiment is performed, the image sensor 50 is driven, and the first normal image data D1 is output from the data processing circuit 70.
(See FIG. 15A) is input to the microcomputer 90.

【0073】ついで、ステップ151において、画像セ
ンサ50の駆動処理及び各発光素子63a、63b、6
3cの同時パルス発光駆動処理がなされる。これに伴
い、各発光素子63a、63b、63cは、相互に同期
して補助光ユニット駆動回路80によりパルス駆動さ
れ、同時にビーム光をパルス状に発光する。これに伴
い、発光素子63aはそのビーム光により着座乗員Mの
上半身Maの照射ポイントP1を照射し、発光素子63
bはそのビーム光により着座乗員Mの上半身Maの照射
ポイントP2を照射し、発光素子63cはそのビーム光
により着座乗員Mの上半身Maの照射ポイントP3を照
射する。
Next, in step 151, the driving process of the image sensor 50 and the light emitting elements 63a, 63b, 6
The simultaneous pulse emission driving process of 3c is performed. Accordingly, the light emitting elements 63a, 63b, and 63c are pulse-driven by the auxiliary light unit driving circuit 80 in synchronization with each other, and simultaneously emit light beams in pulse form. Accordingly, the light emitting element 63a irradiates the irradiation point P1 of the upper body Ma of the seated occupant M with the light beam, and the light emitting element 63a
b irradiates the irradiation point P2 of the upper body Ma of the seated occupant M with the light beam, and the light emitting element 63c irradiates the irradiation point P3 of the upper body Ma of the seated occupant M with the light beam.

【0074】よって、ステップ111の処理がされてい
ない場合には、画像センサ50は、画像センサ駆動及びデ
ータ処理回路70による駆動のもと、現状の外光及び上
記各発光素子63a乃至63cのビーム光による照射の
もとに着座乗員Mの上半身Maを二次元的に撮像し画像
データとして画像センサ駆動及びデータ処理回路70に
出力する。すると、この画像センサ駆動及びデータ処理
回路70は、上記画像データをデータ処理して画像処理
信号をマイクロコンピュータ90に上半身Maを表す二
次元の正画像データ(各照射ポイントP1、P2、P3
を含む)(図15(b)参照)としてステップ151に
て入力する。
Therefore, when the processing in step 111 is not performed, the image sensor 50 drives the current external light and the beam of each of the light emitting elements 63a to 63c under the driving of the image sensor and the data processing circuit 70. The upper body Ma of the seated occupant M is two-dimensionally imaged under irradiation with light and output to the image sensor driving and data processing circuit 70 as image data. Then, the image sensor driving and data processing circuit 70 performs data processing on the image data and sends an image processing signal to the microcomputer 90 as two-dimensional positive image data (each of the irradiation points P1, P2, P3) representing the upper body Ma.
(See FIG. 15 (b)).

【0075】一方、ステップ111の処理がされている
場合には、画像センサ50は、画像センサ駆動及びデータ
処理回路70による駆動のもと、上記拡散光及び各発光
素子63a乃至63cのビーム光による照射のもとに着
座乗員Mの上半身Maを二次元的に撮像し画像データと
して画像センサ駆動及びデータ処理回路70に出力す
る。すると、この画像センサ駆動及びデータ処理回路7
0は、上記画像データをデータ処理して画像処理信号を
マイクロコンピュータ90に上半身Maを表す二次元の
正画像データ(各照射ポイントP1、P2、P3を含
む)(図15(b)参照)としてステップ151にて入
力する。
On the other hand, when the processing of step 111 is performed, the image sensor 50 is driven by the diffused light and the light beams of the light emitting elements 63a to 63c under the driving of the image sensor and the data processing circuit 70. Under irradiation, the upper body Ma of the seated occupant M is two-dimensionally imaged and output to the image sensor drive and data processing circuit 70 as image data. Then, the image sensor driving and data processing circuit 7
0 denotes two-dimensional positive image data (including each of the irradiation points P1, P2, and P3) representing the upper body Ma by the microcomputer 90 by performing data processing on the image data and referring to the microcomputer 90 (see FIG. 15B). In step 151, input.

【0076】然る後、ステップ152において、上記第1
実施形態にて述べたステップ122、123の処理と同
様にして、各正画像データD1、D2の差分値が差分値
データSD(=D2−D1)として算出され、当該差分
値データSDに基づき上半身Maの前面における各ビー
ム光の照射ポイントP1、P2、P3を表すデータとし
て抽出される(図15(c)参照)。
Thereafter, in step 152, the first
In a manner similar to the processing of steps 122 and 123 described in the embodiment, a difference value between the respective positive image data D1 and D2 is calculated as difference value data SD (= D2−D1), and the upper body is calculated based on the difference value data SD. It is extracted as data representing the irradiation points P1, P2, and P3 of each light beam on the front surface of Ma (see FIG. 15C).

【0077】そして、ステップ153において、記第1実
施形態にて述べたステップ124の処理と同様にして、
画像センサ50の受光レンズ52の光心52aと照射ポ
イントP1との間の当該自動車の前後方向に沿う距離L
(1)、光心52aと照射ポイントP2との間の当該自
動車の前後方向に沿う距離L(2)及び光心52aと照
射ポイントP3との間の当該自動車の前後方向に沿う距
離L(3)が数1の式に基づき順次算出される。但し、
間隔dan(=da1、da2、da3)及び距離L
(n)(=L(1)、L(2)、L(3))が、数1の
式において間隔da及び距離Laに代えて代入されてい
る。
Then, in step 153, similarly to the processing in step 124 described in the first embodiment,
The distance L between the optical center 52a of the light receiving lens 52 of the image sensor 50 and the irradiation point P1 along the front-rear direction of the vehicle.
(1) A distance L (2) between the optical center 52a and the irradiation point P2 along the front-rear direction of the vehicle and a distance L (3) between the light center 52a and the irradiation point P3 along the front-rear direction of the vehicle. ) Are sequentially calculated based on the equation (1). However,
The interval dan (= da1, da2, da3) and the distance L
(N) (= L (1), L (2), L (3)) is substituted for the distance da and the distance La in the equation (1).

【0078】なお、danは、図16にて示すごとく、上
半身Maの左右方向中央と照射ポイントPnとの間隔で
ある。従って、数1の式に基づく距離L(n)の算出に
あたり間隔danが算出される。また、本実施形態で
は、上半身Maの前面においては、照射ポイントP1が
図16にて図示帯状部Q1上に存在し、照射ポイントP
2が図示帯状部Q2上に存在し、かつ照射ポイントP3
が図示帯状部Q3上に存在するようになっていることか
ら、各照射ポイントP1、P2、P3の間の相互の区別
が可能である。従って、距離L(n)の算出は、各発光
素子63a乃至63cを同期してパルス発光しても、正
しくできる。
Incidentally, as shown in FIG. 16, dan is the distance between the center of the upper body Ma in the left-right direction and the irradiation point Pn. Therefore, the interval dan is calculated in calculating the distance L (n) based on the equation (1). Further, in the present embodiment, on the front surface of the upper body Ma, the irradiation point P1 exists on the belt-shaped portion Q1 shown in FIG.
2 is present on the illustrated strip Q2 and the irradiation point P3
Are present on the illustrated strip portion Q3, so that the irradiation points P1, P2, and P3 can be distinguished from each other. Therefore, the calculation of the distance L (n) can be correctly performed even if the light emitting elements 63a to 63c emit pulses in synchronization.

【0079】ステップ153の処理後、上記第1実施形
態と同様にステップ125以後の処理がなされる。ここ
で、ステップ126での助手席状態の判定はステップ1
25での画像認識及び各距離L(1)、L(2)、L
(3)に基づききめ細かに行われる。これに伴い、ステ
ップ127でのエアバッグ20の展開判定処理も同様に
きめ細かに行われる。
After the processing in step 153, the processing after step 125 is performed as in the first embodiment. Here, the determination of the passenger seat state in step 126 is performed in step 1
25 and distances L (1), L (2), L
It is performed finely based on (3). Along with this, the process of determining the deployment of the airbag 20 in step 127 is also performed finely.

【0080】従って、エアバッグ駆動回路Dは、上記制
御信号、即ちエアバッグ20のきめ細かな展開判定処理
に基づく展開力でもってエアバッグ20を展開させる。
その結果、上記第1実施形態の場合よりも乗員の着座姿
勢によりきめ細かに合致したエアバッグの展開のもと乗
員の加害性のない保護が可能となる。
Therefore, the airbag drive circuit D deploys the airbag 20 with the control signal, that is, the deployment force based on the detailed deployment determination process of the airbag 20.
As a result, it is possible to protect the occupant without harm by deploying the airbag that more closely matches the seating posture of the occupant than in the case of the first embodiment.

【0081】また、上述のごとく、本第4実施形態では、
補助光ユニット60Bでもって各ビーム光により照射ポ
イントP1乃至P3の3点を同時照射するようにしてい
るが、これら各照射ポイントP1乃至P3の位置を用い
て距離L(1)、L(2)、L(3)を算出するので、
当該各距離の高速な算出が可能となる。従って、当該自
動車の衝突の際に必要な着座乗員Mの着座姿勢やエアバ
ッグ20の展開のきめ細かい判定も迅速にて行えるの
で、当該自動車の衝突時には着座乗員の着座姿勢に合致
したきめ細かい展開力でエアバッグ20をタイミングよ
く展開できる。
As described above, in the fourth embodiment,
The auxiliary light unit 60B simultaneously irradiates the three irradiation points P1 to P3 with each light beam. The distances L (1) and L (2) are obtained by using the positions of the irradiation points P1 to P3. , L (3).
High-speed calculation of each distance becomes possible. Therefore, a detailed determination of the seating posture of the seated occupant M and the deployment of the airbag 20 required at the time of the collision of the vehicle can be performed quickly, so that at the time of the collision of the vehicle, a fine deployment force that matches the sitting posture of the seated occupant. The airbag 20 can be deployed with good timing.

【0082】なお、本発明の実施にあたっては、補助席
10に限ることなく、当該自動車の運転席や後席に着座
する乗員を保護するためのエアバッグシステムの乗員判
定装置に本発明を適用して実施してもよい。
In practicing the present invention, the present invention is applied not only to the auxiliary seat 10 but also to an occupant determination device of an airbag system for protecting an occupant sitting in a driver's seat or a rear seat of the vehicle. May be implemented.

【0083】また、本発明の実施にあたり、画像センサ
50の配置位置は上記実施形態にて述べた位置に限るこ
となく、着座乗員の上半身を撮像できる位置であれば、
適宜、画像センサ50の位置を変更してもよい。
In implementing the present invention, the arrangement position of the image sensor 50 is not limited to the position described in the above embodiment, but may be any position that can image the upper body of a seated occupant.
The position of the image sensor 50 may be changed as appropriate.

【0084】また、本発明の実施にあたり、上述したフ
ローチャートに代えて、このフローチャートにおける各
ステップを、それぞれ、機能実行手段としてハードロジ
ック構成により実現するようにしてもよい。
In practicing the present invention, instead of the above-described flowchart, each step in the flowchart may be realized by a hardware logic configuration as function executing means.

【0085】また、本発明の実施にあたり、上記エアバ
ッグシステムは、自動車用に限ることなく、バスやトラ
ック等の車両用エアバッグシステムであってもよい。
In practicing the present invention, the airbag system is not limited to an automobile and may be an airbag system for a vehicle such as a bus or a truck.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態を示す概略全体構成図で
ある。
FIG. 1 is a schematic overall configuration diagram showing a first embodiment of the present invention.

【図2】図1のエアバッグ、画像センサ及び補助光ユニ
ットの自動車における配置位置を示す模式的側面図であ
る。
FIG. 2 is a schematic side view showing an arrangement position of an airbag, an image sensor, and an auxiliary light unit in FIG. 1 in an automobile.

【図3】図1のマイクロコンピュータの作用を示すフロ
ーチャートの前段部である。
FIG. 3 is a first part of a flowchart showing the operation of the microcomputer of FIG. 1;

【図4】図1のマイクロコンピュータの作用を示すフロ
ーチャートの後段部である。
FIG. 4 is a latter part of a flowchart showing the operation of the microcomputer of FIG. 1;

【図5】(a)、(b)及び(c)は、それぞれ、一枚
目の正画像データ、二枚目の正画像データ及び差分デー
タを示す図である。
FIGS. 5A, 5B, and 5C are diagrams respectively showing first normal image data, second normal image data, and difference data.

【図6】上記第1実施形態において三角測距法により距
離Laを算出するための説明図である。
FIG. 6 is an explanatory diagram for calculating a distance La by a triangulation method in the first embodiment.

【図7】本発明の第2実施形態を示す要部斜視図であ
る。
FIG. 7 is a perspective view of a main part showing a second embodiment of the present invention.

【図8】上記第2実施形態におけるマイクロコンピュー
タの作用を示すフローチャートの要部である。
FIG. 8 is a main part of a flowchart showing the operation of the microcomputer in the second embodiment.

【図9】上記第2実施形態において照射ポイントPnと
間隔danとの関係を示す図である。
FIG. 9 is a diagram showing a relationship between an irradiation point Pn and an interval dan in the second embodiment.

【図10】本発明の第3実施形態を示すフローチャート
の要部である。
FIG. 10 is a main part of a flowchart showing a third embodiment of the present invention.

【図11】上記第3実施形態において(a)乃至(c)
は、それぞれ、ビーム光による照射なしのときの正画像
データ及び両差分データ、照射ポイントP1への照射の
ときの正画像データ及び両差分データ及び照射ポイント
P2への照射のときの正画像データ及び両差分データを
示す図である。
FIG. 11A to FIG. 11C in the third embodiment.
Are the positive image data and the two difference data without irradiation by the light beam, the positive image data and the two difference data when the irradiation is performed on the irradiation point P1, and the positive image data when the irradiation is performed on the irradiation point P2, respectively. It is a figure showing both difference data.

【図12】上記第3実施形態において(a)、(b)
は、それぞれ、照射ポイントP3への照射のときの正画
像データ及び両差分データ及び照射ポイントP4への照
射のときの正画像データ及び両差分データを示す図であ
る。
FIG. 12 shows (a) and (b) in the third embodiment.
7A and 7B are diagrams respectively showing normal image data and both difference data when irradiating the irradiation point P3 and normal image data and both difference data when irradiating the irradiation point P4.

【図13】本発明の第4実施形態を示す要部斜視図であ
る。
FIG. 13 is a perspective view of a main part showing a fourth embodiment of the present invention.

【図14】上記第4実施形態を示すフローチャートの要
部である。
FIG. 14 is a main part of a flowchart showing the fourth embodiment.

【図15】上記第4実施形態において(a)乃至(c)
は、それぞれ、ビーム光による照射のないときの正画像
データ、照射ポイントP1乃至P3への同時照射のとき
の正画像データ及び当該両正画像データの差分データを
示す図である。
FIG. 15A to FIG. 15C in the fourth embodiment.
7A and 7B are diagrams respectively showing normal image data when there is no irradiation by the light beam, normal image data when simultaneous irradiation is performed on the irradiation points P1 to P3, and difference data between the two normal image data.

【図16】上記第4実施形態において各照射ポイントP
nと間隔danとの関係を示す図である。
FIG. 16 shows irradiation points P in the fourth embodiment.
It is a figure showing the relation between n and interval dan.

【符号の説明】[Explanation of symbols]

D…エアバッグ駆動回路、M…乗員、Ma…上半身、1
0…補助席、20…エアバッグ、30…インストルパネ
ル、50…画像センサ、60、60A、60B…補助光
ユニット、61、62、62a乃至62d、63a乃至
63c…発光素子、70…画像センサ駆動及びデータ処
理回路、80…補助光ユニット駆動回路、90…マイク
ロコンピュータ。
D: airbag drive circuit, M: occupant, Ma: upper body, 1
0: auxiliary seat, 20: air bag, 30: instrument panel, 50: image sensor, 60, 60A, 60B: auxiliary light unit, 61, 62, 62a to 62d, 63a to 63c: light emitting element, 70: image sensor drive And a data processing circuit, 80: an auxiliary light unit driving circuit, 90: a microcomputer.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 庖丁 伸次 愛知県西尾市下羽角町岩谷14番地 株式会 社日本自動車部品総合研究所内 (72)発明者 神園 勉 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 Fターム(参考) 3D054 AA03 EE11 EE29 EE30 FF20 ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Knoji Shinji 14 Iwatani, Shimowakaku-cho, Nishio-shi, Aichi Pref. Japan Automobile Parts Research Institute (72) Inventor Tsutomu Kazunori 1-1-1, Showa-cho, Kariya-shi, Aichi Stock F term in DENSO Corporation (reference) 3D054 AA03 EE11 EE29 EE30 FF20

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 車両の衝突時に乗員を保護するように作
動するエアバッグシステムに車室内の適所に位置するよ
うに装備されて当該車室内の着座乗員を二次元の画像デ
ータとして撮像する画像センサ(50)と、 車室内にて前記着座乗員の前側に前記画像センサとは離
れて配設されて前記着座乗員に向け拡散光を照射する第
1発光素子(61)及び前記着座乗員の照射ポイントに
向けビーム光を照射する第2発光素子(62)を有する
補助光ユニット(60)と、 前記画像センサにより、前記第1発光素子による拡散光
の照射或いは非照射の状態のもと、前記着座乗員を一枚
目の画像データとして撮像した後前記第2発光素子によ
るビーム光の照射にあわせて前記着座乗員を二枚目の画
像データとして撮像するように前記第1発光素子の選択
的駆動、前記第2発光素子の駆動及び前記画像センサの
駆動を行う駆動処理手段(70、80、120、12
1)と、前記両画像データの差分データを算出すること
で前記照射ポイントを抽出する抽出手段(123、12
4)と、 前記照射ポイント、前記第2発光素子及び前記画像セン
サの各位置関係に基づき三角測距法により前記画像セン
サと前記照射ポイントとの間の距離を算出する距離算出
手段(124)と、 この距離算出手段の算出距離の長短に応じて前記着座乗
員の姿勢を判定する姿勢判定手段(126)とを備える
車両用エアバッグシステムのための乗員判定装置。
1. An image sensor which is provided in an airbag system which operates to protect an occupant in the event of a vehicle collision so as to be located at an appropriate position in a vehicle interior and which images a seated occupant in the vehicle interior as two-dimensional image data. (50), a first light emitting element (61) disposed in front of the seated occupant in the vehicle interior away from the image sensor and irradiating diffused light toward the seated occupant, and an irradiation point of the seated occupant An auxiliary light unit (60) having a second light emitting element (62) for irradiating a light beam toward the light source; and the image sensor is configured to irradiate the first light emitting element with diffused light or non-irradiated light. After capturing the occupant as the first image data, selecting the first light emitting element so that the seated occupant is imaged as the second image data in accordance with the irradiation of the light beam by the second light emitting element. Drive, the drive and the drive processing unit that performs driving of the image sensor of the second light emitting element (70,80,120,12
1) and extracting means (123, 12) for calculating the difference data between the two image data to extract the irradiation point.
4) a distance calculating means (124) for calculating a distance between the image sensor and the irradiation point by triangulation based on a positional relationship between the irradiation point, the second light emitting element, and the image sensor; An occupant determination device for a vehicle airbag system, comprising: an attitude determination means (126) for determining the attitude of the seated occupant according to the length of the distance calculated by the distance calculation means.
【請求項2】 車両の衝突時に乗員を保護するように作
動するエアバッグシステムに車室内の適所に位置するよ
うに装備されて当該車室内の着座乗員を二次元の画像デ
ータとして撮像する画像センサ(50)と、 車室内にて前記着座乗員の前側に前記画像センサとは離
れて配設されて前記着座乗員に向け拡散光を照射する第
1発光素子(61)及び前記着座乗員の互いに異なる照
射ポイントに向けビーム光をそれぞれ照射する複数の第
2発光素子(62a乃至62d)を有する補助光ユニッ
ト(60A)と、 前記画像センサにより、前記第1発光素子による拡散光
の照射或いは非照射の状態のもと、前記着座乗員を一枚
目の画像データとして撮像した後前記複数の第2発光素
子による各ビーム光の選択的照射毎にこれにあわせて前
記着座乗員を順次二枚目の画像データとして撮像するよ
うに前記第1発光素子の選択的駆動、前記複数の第2発
光素子の選択的駆動及び前記画像センサの駆動を行う駆
動処理手段(70、80、132、133)と、 前記一枚目の画像データと前記各二枚目の画像データと
の間の各差分データを算出することで前記各照射ポイン
トを順次抽出する抽出手段(134)と、 前記各照射ポイント毎に、前記照射ポイント及びこれに
対応する第2発光素子及び前記画像センサの各位置関係
に基づき三角測距法により前記画像センサと前記照射ポ
イントとの間の距離を順次算出する距離算出手段(13
5)と、 この距離算出手段の各算出距離の長短に応じて前記着座
乗員の姿勢を判定する姿勢判定手段(126)とを備え
る車両用エアバッグシステムのための乗員判定装置。
2. An image sensor which is provided in an airbag system which operates to protect an occupant in the event of a vehicle collision so as to be located at an appropriate position in a vehicle interior and which images a seated occupant in the vehicle interior as two-dimensional image data. (50), a first light emitting element (61) which is disposed in front of the seated occupant in the vehicle interior away from the image sensor and emits diffused light toward the seated occupant; An auxiliary light unit (60A) having a plurality of second light emitting elements (62a to 62d) for respectively irradiating a beam light toward an irradiation point; Under the condition, the seated occupant is imaged as the first image data, and the seated occupant is accordingly adjusted for each selective irradiation of each light beam by the plurality of second light emitting elements. Drive processing means (70, 80, 132) for selectively driving the first light emitting element, selectively driving the plurality of second light emitting elements, and driving the image sensor so as to sequentially capture image data as the second image data. 133), an extracting means (134) for sequentially extracting the irradiation points by calculating respective difference data between the first image data and the second image data, and For each irradiation point, a distance calculation for sequentially calculating the distance between the image sensor and the irradiation point by triangulation based on the irradiation point and the respective positional relationships of the second light emitting element and the image sensor corresponding thereto. Means (13
An occupant determination device for a vehicle airbag system, comprising: (5) an attitude determination means (126) for determining the attitude of the seated occupant according to the length of each of the distances calculated by the distance calculation means.
【請求項3】 車両の衝突時に乗員を保護するように作
動するエアバッグシステムに車室内の適所に位置するよ
うに装備されて当該車室内の着座乗員を二次元の画像デ
ータとして撮像する画像センサ(50)と、 車室内にて前記着座乗員の前側に前記画像センサとは離
れて配設されて前記着座乗員に向け拡散光を照射する第
1発光素子(61)及び前記着座乗員の互いに異なる照
射ポイントに向けビーム光をそれぞれ照射する複数の第
2発光素子(62a乃至62d)を有する補助光ユニッ
ト(60A)と、 前記画像センサにより、前記第1発光素子による拡散光
の照射或いは非照射の状態のもと、前記複数の第2発光
素子による各ビーム光の選択的照射毎にこれにあわせて
前記着座乗員を順次画像データとして撮像するように前
記第1発光素子の選択的駆動、前記複数の第2発光素子
の選択的駆動及び前記画像センサの駆動を行う駆動処理
手段(70、80、144)と、 前記各画像データのうち先行画像データ及びその後続画
像データの対毎に先行画像データ及びその後続画像デー
タの間の差を第1差分データとして算出し、この第1差
分データの先行の第1差分データとの間の差を第2差分
分データとして算出することで、前記各照射ポイントを
順次抽出する抽出手段(145、146)と、 前記各照射ポイント毎に、前記照射ポイント及びこれに
対応する第2発光素子及び前記画像センサの各位置関係
に基づき三角測距法により前記画像センサと前記照射ポ
イントとの間の距離を順次算出する距離算出手段(14
7)と、 この距離算出手段の各算出距離の長短に応じて前記着座
乗員の姿勢を判定する姿勢判定手段(126)とを備え
る車両用エアバッグシステムのための乗員判定装置。
3. An image sensor that is provided in an airbag system that operates to protect an occupant in the event of a vehicle collision so as to be located at an appropriate position in a vehicle interior and captures a seated occupant in the vehicle interior as two-dimensional image data. (50), a first light emitting element (61) which is disposed in front of the seated occupant in the vehicle interior away from the image sensor and emits diffused light toward the seated occupant; An auxiliary light unit (60A) having a plurality of second light emitting elements (62a to 62d) each of which irradiates a beam light toward an irradiation point; In the state, the first light emission is performed such that the seated occupant is sequentially imaged as image data in accordance with each selective irradiation of each light beam by the plurality of second light emitting elements. Drive processing means (70, 80, 144) for selectively driving a child, selectively driving the plurality of second light emitting elements, and driving the image sensor; preceding image data and subsequent images of the respective image data The difference between the preceding image data and the succeeding image data is calculated as the first difference data for each data pair, and the difference between the first difference data and the preceding first difference data is defined as the second difference data. By calculating, the extracting means (145, 146) for sequentially extracting each of the irradiation points, and for each of the irradiation points, the irradiation points and the respective positional relationships of the second light emitting element and the image sensor corresponding thereto. Distance calculating means (14) for sequentially calculating the distance between the image sensor and the irradiation point by triangulation based on the distance
An occupant determination device for a vehicle airbag system, comprising: 7) an attitude determination means (126) for determining the attitude of the seated occupant according to the length of each of the calculated distances of the distance calculation means.
【請求項4】 車両の衝突時に乗員を保護するように作
動するエアバッグシステムに車室内の適所に位置するよ
うに装備されて当該車室内の着座乗員を二次元の画像デ
ータとして撮像する画像センサ(50)と、 車室内にて前記着座乗員の前側に前記画像センサとは離
れて配設されて前記着座乗員に向け拡散光を照射する第
1発光素子(61)及び前記着座乗員の互いに上下方向
に異なる照射ポイントに向けビーム光をそれぞれ照射す
る複数の第2発光素子(63a乃至63c)を有する補
助光ユニット(60B)と、 前記画像センサにより、前記第1発光素子による拡散光
の照射或いは非照射の状態のもと、前記着座乗員を一枚
目の画像データとして撮像した後前記複数の第2発光素
子による各ビーム光の同時照射にあわせて前記着座乗員
を二枚目の画像データとして撮像するように前記第1発
光素子の選択的駆動、前記複数の第2発光素子の同時駆
動及び前記画像センサの駆動を行う駆動処理手段(7
0、80、151)と、 前記一枚目の画像データと前記二枚目の画像データとの
間の差分データを算出することで前記各照射ポイントを
抽出する抽出手段(152)と、 前記各照射ポイント毎に、前記照射ポイント及びこれに
対応する第2発光素子及び前記画像センサの各位置関係
に基づき三角測距法により前記画像センサと前記照射ポ
イントとの間の距離を順次算出する距離算出手段(15
3)と、 この距離算出手段の各算出距離の長短に応じて前記着座
乗員の姿勢を判定する姿勢判定手段(126)とを備え
る車両用エアバッグシステムのための乗員判定装置。
4. An image sensor that is provided in an airbag system that operates to protect an occupant in the event of a vehicle collision so as to be located at an appropriate position in a vehicle interior and captures a seated occupant in the vehicle interior as two-dimensional image data. (50) a first light-emitting element (61) disposed in front of the seated occupant in the vehicle interior, away from the image sensor, and irradiating the seated occupant with diffused light; An auxiliary light unit (60B) having a plurality of second light emitting elements (63a to 63c) for respectively irradiating light beams toward different irradiation points in the directions; and irradiating diffuse light by the first light emitting elements by the image sensor. Under the non-irradiation state, the seated occupant is imaged as the first image data, and then the seated occupant is simultaneously illuminated by the plurality of second light emitting elements with each light beam. Selective driving of the first light emitting element so as to image as handsome image data, driving processing means for driving the simultaneous drive and the image sensor of the plurality of second light-emitting element (7
0, 80, 151), an extracting means (152) for calculating the difference data between the first image data and the second image data to extract each of the irradiation points, For each irradiation point, a distance calculation for sequentially calculating the distance between the image sensor and the irradiation point by triangulation based on the irradiation point and the respective positional relationships of the second light emitting element and the image sensor corresponding thereto. Means (15
An occupant determination device for a vehicle airbag system, comprising: 3); and an attitude determination means (126) for determining the attitude of the seated occupant according to the length of each distance calculated by the distance calculation means.
JP2000024781A 2000-01-28 2000-01-28 Occupant determination device for vehicle airbag system Expired - Lifetime JP4144148B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000024781A JP4144148B2 (en) 2000-01-28 2000-01-28 Occupant determination device for vehicle airbag system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000024781A JP4144148B2 (en) 2000-01-28 2000-01-28 Occupant determination device for vehicle airbag system

Publications (2)

Publication Number Publication Date
JP2001213268A true JP2001213268A (en) 2001-08-07
JP4144148B2 JP4144148B2 (en) 2008-09-03

Family

ID=18550717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000024781A Expired - Lifetime JP4144148B2 (en) 2000-01-28 2000-01-28 Occupant determination device for vehicle airbag system

Country Status (1)

Country Link
JP (1) JP4144148B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005067281A (en) * 2003-08-20 2005-03-17 Toshiba Corp Distance detection device, airbag control device, and distance detection method
JP2008002827A (en) * 2006-06-20 2008-01-10 Honda Motor Co Ltd Occupant detection device
US7350809B2 (en) 2004-05-26 2008-04-01 Kabushiki Kaisha Toshiba Airbag device and occupant classification device
WO2024084674A1 (en) * 2022-10-21 2024-04-25 三菱電機株式会社 Occupant imaging device and method for manufacturing occupant imaging device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005067281A (en) * 2003-08-20 2005-03-17 Toshiba Corp Distance detection device, airbag control device, and distance detection method
US7311326B2 (en) 2003-08-20 2007-12-25 Kabushiki Kaisha Toshiba Distance detecting apparatus, air bag system controlling apparatus, and method of detecting distance
US7350809B2 (en) 2004-05-26 2008-04-01 Kabushiki Kaisha Toshiba Airbag device and occupant classification device
US7469925B2 (en) 2004-05-26 2008-12-30 Kabushiki Kaisha Toshiba Airbag device and occupant classification device
JP2008002827A (en) * 2006-06-20 2008-01-10 Honda Motor Co Ltd Occupant detection device
WO2024084674A1 (en) * 2022-10-21 2024-04-25 三菱電機株式会社 Occupant imaging device and method for manufacturing occupant imaging device

Also Published As

Publication number Publication date
JP4144148B2 (en) 2008-09-03

Similar Documents

Publication Publication Date Title
EP1693254B1 (en) Detection system, informing system, actuation system and vehicle
JP4252938B2 (en) Vehicle cabin lighting system
US6856873B2 (en) Vehicular monitoring systems using image processing
US6772057B2 (en) Vehicular monitoring systems using image processing
US8880296B2 (en) Techniques for improving safe operation of a vehicle
US6507779B2 (en) Vehicle rear seat monitor
US7607509B2 (en) Safety device for a vehicle
US6442465B2 (en) Vehicular component control systems and methods
US6422598B1 (en) Occupant protecting apparatus
JP5453230B2 (en) Occupant detection device
JP2002513358A (en) Passenger type and position detection system
JP2007022401A (en) Occupant information detection system, occupant restraint device and vehicle
JP2006527354A (en) Apparatus and method for calibration of image sensor
JP3943367B2 (en) Vehicle occupant head detection device
JP2010203836A (en) Vehicle interior state recognition device
KR100630842B1 (en) Vehicle posture identification system and its method using stereo image matching
JP2010203837A (en) Vehicle interior state recognition device
US20050151053A1 (en) Infrared proximity sensor for air bag safety
JP3785929B2 (en) Crew protection device
JP4144148B2 (en) Occupant determination device for vehicle airbag system
JP5548111B2 (en) Sheet detection device
JP3855904B2 (en) Occupant detection device
JP5298111B2 (en) Occupant detection device
EP1800964B1 (en) Method of depth estimation from a single camera
JPH10157563A (en) Vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080609

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4144148

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130627

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140627

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term