[go: up one dir, main page]

JP2013041489A - On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system - Google Patents

On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system Download PDF

Info

Publication number
JP2013041489A
JP2013041489A JP2011178786A JP2011178786A JP2013041489A JP 2013041489 A JP2013041489 A JP 2013041489A JP 2011178786 A JP2011178786 A JP 2011178786A JP 2011178786 A JP2011178786 A JP 2011178786A JP 2013041489 A JP2013041489 A JP 2013041489A
Authority
JP
Japan
Prior art keywords
vehicle
infrared image
image data
unit
capturing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011178786A
Other languages
Japanese (ja)
Inventor
Jun Takizawa
順 瀧澤
Takashi Nagate
隆 長手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011178786A priority Critical patent/JP2013041489A/en
Publication of JP2013041489A publication Critical patent/JP2013041489A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

【課題】 車両の走行状況に応じて異なる処理を行うことが可能な車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム等の提供。
【解決手段】 車載カメラ制御装置100は、赤外線画像データを赤外線画像撮像部210から取得する画像取得部110と、赤外線画像データに基づく処理を行う処理部120と、外部機器300との通信処理を行う通信部140と、車両が走行状態か否かを判定する走行状態判定部130と、を含む。そして、処理部120は、車両が走行状態であると判断された場合に、赤外線画像データに基づく画像処理を行う。さらに、通信部140は、車両が非走行状態であると判断された場合に、赤外線画像データ又は赤外線画像データに基づく検出情報を、外部機器300に送信する。
【選択図】図1
PROBLEM TO BE SOLVED: To provide an in-vehicle camera control device, an in-vehicle camera control system, an in-vehicle camera system, and the like capable of performing different processes according to a traveling state of a vehicle.
An in-vehicle camera control device 100 performs communication processing between an image acquisition unit 110 that acquires infrared image data from an infrared image capturing unit 210, a processing unit 120 that performs processing based on infrared image data, and an external device 300. The communication part 140 to perform and the driving | running | working state determination part 130 which determines whether a vehicle is a driving | running | working state are included. Then, the processing unit 120 performs image processing based on the infrared image data when it is determined that the vehicle is in a traveling state. Further, the communication unit 140 transmits infrared image data or detection information based on the infrared image data to the external device 300 when it is determined that the vehicle is in a non-traveling state.
[Selection] Figure 1

Description

本発明は、車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム等に関係する。   The present invention relates to an in-vehicle camera control device, an in-vehicle camera control system, an in-vehicle camera system, and the like.

近年、犯罪の凶悪化、巧妙化に対応するために、防犯対策の強化が望まれており、各種防犯アイテムの充実が望まれている。   In recent years, in order to cope with the worsening and more sophisticated crime, crime prevention measures have been strengthened and various crime prevention items have been desired.

例えば住居の防犯に関して言えば、住居の扉や窓への不審者による不正な開閉が検知された時に、赤外線カメラによる撮像又はブザー等の警報を行い、住居人に報知する特許文献1に記載されているような従来技術がある。   For example, with regard to crime prevention in residences, it is described in Patent Document 1 that, when unauthorized opening / closing by a suspicious person to a door or window of a residence is detected, an alarm such as an imaging by an infrared camera or a buzzer is given to notify the resident. There is such a conventional technology.

しかしながら、単に、防犯アイテムを増加させるのでは、防犯システムの増加に伴い防犯システムに掛かる費用も高くなり、ユーザーの費用負担が増加するという問題がある。   However, simply increasing the number of crime prevention items increases the cost of the crime prevention system as the crime prevention system increases, resulting in an increase in the cost burden on the user.

一方で、車載赤外線カメラにより車体前方の近赤外線画像を撮像して表示するとともに、撮像画像から歩行者を検知して、その検知結果を近赤外線画像に重ね合わせて表示する車載用の暗視装置が実用化されている。このような暗視装置に用いられる歩行者検知技術として、特許文献2に記載される従来技術がある。   On the other hand, a vehicle-mounted night vision device that captures and displays a near-infrared image in front of the vehicle body with an in-vehicle infrared camera, detects a pedestrian from the captured image, and displays the detection result superimposed on the near-infrared image. Has been put to practical use. As a pedestrian detection technique used in such a night vision device, there is a conventional technique described in Patent Document 2.

特許文献2の従来技術では、検知対象物における所定部位の形状と同一形状の部位が、該対象物中に連続して存在するか否かを探索し、同一形状の部位が連続して存在する場合には、該対象物は人工物であると判断して、該対象物を除外した残りの対象物から歩行者を認識する。   In the prior art of Patent Document 2, a search is made as to whether or not a part having the same shape as the shape of the predetermined part in the detection target is continuously present in the target, and the part having the same shape is continuously present. In this case, it is determined that the object is an artificial object, and a pedestrian is recognized from the remaining objects excluding the object.

このような状況の中で、本出願人は、住居の侵入者防止用途と道路走行中の歩行者検知用途に、車載カメラを兼用して使う手法を検討している。   Under such circumstances, the present applicant is examining a method of using a vehicle-mounted camera for both intruder prevention use in a residence and pedestrian detection use on a road.

特開2002−150438号公報JP 2002-150438 A 特開2005−352974号公報JP 2005-352974 A

道路走行中の歩行者検知と住居の侵入者防止との両方の用途に、車載カメラを用いようとする場合、それぞれの用途に対して適切な画像データ処理が異なり、車両が走行中の場合と車両が駐車中の場合に、異なる処理を実行する必要がある。   When using an in-vehicle camera for both pedestrian detection on the road and prevention of intruders in the house, image data processing appropriate for each application is different, and the vehicle is running Different processing needs to be performed when the vehicle is parked.

本発明の幾つかの態様によれば、車両の走行状況に応じて異なる処理を行う車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム等を提供することができる。   According to some aspects of the present invention, it is possible to provide an in-vehicle camera control device, an in-vehicle camera control system, an in-vehicle camera system, and the like that perform different processes depending on the traveling state of the vehicle.

また、本発明の幾つかの態様によれば、消費電力を抑制しつつ、車両の走行状況に応じた対象物の監視をすることが可能な車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム等を提供することができる。   In addition, according to some aspects of the present invention, an in-vehicle camera control device, an in-vehicle camera control system, and an in-vehicle camera system capable of monitoring an object according to the traveling state of the vehicle while suppressing power consumption. Etc. can be provided.

本発明の一態様は、赤外線画像データを赤外線画像撮像部から取得する画像取得部と、前記赤外線画像データに基づく処理を行う処理部と、外部機器との通信処理を行う通信部と、車両が走行状態か非走行状態かを判定する走行状態判定部と、を含み、前記処理部は、前記車両が前記走行状態であると判断された場合に、前記赤外線画像データに基づく画像処理を行い、前記通信部は、前記車両が非走行状態であると判断された場合に、前記赤外線画像データ又は前記赤外線画像データに基づく検出情報を、前記外部機器に送信する車載カメラ制御装置に関係する。   One aspect of the present invention is an image acquisition unit that acquires infrared image data from an infrared image capturing unit, a processing unit that performs processing based on the infrared image data, a communication unit that performs communication processing with an external device, and a vehicle. A traveling state determination unit that determines whether the vehicle is in a traveling state or a non-driving state, and the processing unit performs image processing based on the infrared image data when the vehicle is determined to be in the traveling state, The communication unit relates to an in-vehicle camera control device that transmits the infrared image data or detection information based on the infrared image data to the external device when it is determined that the vehicle is in a non-running state.

本発明の一態様では、車両が走行状態である場合と、車両が非走行状態である場合で、異なる処理を行うことができる。これにより、消費電力を抑制しつつ、車両及び車両の周囲の状況に応じた対象物の監視をすることが可能となる。   In one embodiment of the present invention, different processing can be performed when the vehicle is in a running state and when the vehicle is in a non-running state. Thereby, it becomes possible to monitor the object according to the situation of the vehicle and the surroundings of the vehicle while suppressing power consumption.

また、本発明の一態様では、前記処理部は、前記車両が前記走行状態であると判断された場合に、前記赤外線画像データに基づいて対象物の検出情報を含む表示用画像データを生成する処理を、前記画像処理として行ってもよい。   In one aspect of the present invention, the processing unit generates display image data including detection information of an object based on the infrared image data when the vehicle is determined to be in the traveling state. Processing may be performed as the image processing.

これにより、車両が走行状態であると判断された場合に、例えば、歩行者や先行車の輪郭画像等を、ユーザーに提示して、対象物への注意を促すこと等が可能になる。   Thereby, when it is determined that the vehicle is in a running state, for example, it is possible to present a contour image or the like of a pedestrian or a preceding vehicle to the user to call attention to the object.

また、本発明の一態様では、前記画像取得部は、可視画像データを可視画像撮像部から取得し、前記処理部は、前記表示用画像データとして、前記対象物が存在する位置に対応する前記可視画像上の位置に、アラート画像を重畳した画像データを生成する処理を、前記画像処理として行ってもよい。   In one aspect of the present invention, the image acquisition unit acquires visible image data from a visible image capturing unit, and the processing unit corresponds to the position where the object is present as the display image data. Processing for generating image data in which an alert image is superimposed at a position on a visible image may be performed as the image processing.

これにより、車両が走行状態である時に、ユーザーが実際に見ている景色と合致する可視画像に、アラート画像を重畳させて表示用画像を生成するため、表示用画像を用いた場合にも、ユーザーに違和感を覚えさせずに、対象物への注意を促すこと等が可能となる。   Thereby, when the vehicle is in a running state, the alert image is superimposed on the visible image that matches the scenery that the user actually sees, and the display image is generated. It is possible to call attention to an object without making the user feel uncomfortable.

また、本発明の一態様では、前記処理部は、前記車両が前記非走行状態であると判断された場合に、住居防犯処理を行い、前記住居防犯処理を実行中の場合において、前記走行状態判定部により前記車両が前記非走行状態から前記走行状態になったと判断された場合には、車両防犯処理を行ってもよい。   Further, in one aspect of the present invention, the processing unit performs a residential crime prevention process when the vehicle is determined to be in the non-running state, and the running state when the residential crime prevention process is being performed. When the determination unit determines that the vehicle has changed from the non-traveling state to the traveling state, a vehicle crime prevention process may be performed.

これにより、住居防犯処理を行いつつ、車両が盗難にあった可能性がある時には、車両防犯処理を行うこと等が可能になる。   As a result, it is possible to perform vehicle crime prevention processing or the like when there is a possibility that the vehicle has been stolen while performing residential crime prevention processing.

また、本発明の一態様では、前記処理部は、前記車両が前記非走行状態であると判断された場合において、前記赤外線画像撮像部が前記住居防犯処理用の位置又は方向に設定された場合に、前記赤外線画像データに基づいて前記住居防犯処理を行い、前記通信部は、前記住居防犯処理の結果に基づいて、前記赤外線画像データ又は前記赤外線画像データに基づく前記検出情報を、前記外部機器に送信してもよい。   Moreover, in one aspect of the present invention, when the processing unit is determined that the vehicle is in the non-running state, the infrared image capturing unit is set to a position or direction for the residential crime prevention process. The communication unit performs the residential crime prevention process based on the infrared image data, and the communication unit detects the infrared image data or the detection information based on the infrared image data based on the result of the residential crime prevention process. May be sent to.

これにより、実行する処理を頻繁に切り替えることによる赤外線画像撮像部210や可視画像撮像部220の不必要な起動切り替えを避け、無駄な電力を消費することを避けること等が可能となる。   As a result, it is possible to avoid unnecessary activation switching of the infrared image capturing unit 210 and the visible image capturing unit 220 by frequently switching the processing to be executed, and to avoid wasting unnecessary power.

また、本発明の一態様では、前記赤外線画像データを記憶する記憶部を含み、前記処理部は、前記住居防犯処理として、所与の時間間隔で前記赤外線画像データを前記記憶部に保存し、保存された第1の赤外線画像データと、前記第1の赤外線画像データとは異なるタイミングに取得された第2の赤外線画像データとの比較処理を行い、前記通信部は、前記比較処理において、前記第1の赤外線画像データと前記第2の赤外線画像データとに差異があったと判断された場合に、前記赤外線画像データ又は前記赤外線画像データに基づく前記検出情報を、前記外部機器に送信してもよい。   Moreover, in one aspect of the present invention, the storage unit stores the infrared image data, and the processing unit stores the infrared image data in the storage unit at given time intervals as the residential crime prevention process, Comparing the stored first infrared image data and the second infrared image data acquired at a timing different from the first infrared image data, the communication unit in the comparison process, When it is determined that there is a difference between the first infrared image data and the second infrared image data, the detection information based on the infrared image data or the infrared image data may be transmitted to the external device. Good.

これにより、住居防犯処理を実行中の場合に、赤外線画像データのみを用いて、対象物を検出し、対象物が検出された場合には、ユーザーへ侵入者の存在を通知すること等が可能になる。   As a result, when the home crime prevention process is being executed, it is possible to detect the object using only the infrared image data, and to notify the user of the presence of the intruder when the object is detected. become.

また、本発明の一態様では、前記処理部は、前記赤外線画像撮像部が前記住居防犯処理用の位置又は方向に設定されている場合において、前記車両が前記走行状態であることが検出された場合には、前記車両防犯処理を行ってもよい。   In one aspect of the present invention, the processing unit detects that the vehicle is in the traveling state when the infrared image capturing unit is set to a position or direction for the residential crime prevention process. In such a case, the vehicle crime prevention process may be performed.

これにより、車両が盗難にあったこと、又はユーザーが住居防犯処理を実行していることを忘れて車両を動かしたことを、ユーザーに通知すること等が可能になる。   This makes it possible to notify the user that the vehicle has been stolen or that the user has forgotten that the user is performing the residential crime prevention process and has moved the vehicle.

また、本発明の一態様では、前記処理部は、前記住居防犯処理を行う場合には、可視画像撮像部を動作オフ状態に設定し、前記車両防犯処理を行う場合には、前記可視画像撮像部を動作オン状態に設定してもよい。   Moreover, in one aspect of the present invention, the processing unit sets the visible image capturing unit to an operation-off state when performing the residential security process, and the visible image capturing when performing the vehicle security process. The unit may be set to an operation on state.

これにより、車両防犯処理を実行中の場合に、不要な赤外線画像撮像部を動作オフ状態に設定し、消費電力を抑える一方で、可視画像撮像部を動作オン状態に設定して、ユーザーに現在車両が位置する場所を撮像すること等が可能になる。   As a result, when the vehicle crime prevention process is being executed, the unnecessary infrared image capturing unit is set to the operation-off state to reduce power consumption, while the visible image capturing unit is set to the operation-on state to It is possible to take an image of the location where the vehicle is located.

また、本発明の一態様では、前記画像取得部は、前記車両防犯処理として、可視画像データを前記可視画像撮像部から取得する処理を行い、前記通信部は、前記可視画像データを前記外部機器に送信してもよい。   In the aspect of the invention, the image acquisition unit performs a process of acquiring visible image data from the visible image imaging unit as the vehicle crime prevention process, and the communication unit acquires the visible image data from the external device. May be sent to.

これにより、車両防犯処理を実行中の場合に、ユーザーに現在車両が位置する場所を撮像した可視画像を通知すること等が可能になる。   Thereby, when the vehicle crime prevention process is being executed, it becomes possible to notify the user of a visible image obtained by imaging the location where the vehicle is currently located.

また、本発明の一態様では、前記画像取得部は、可視画像データを可視画像撮像部から取得し、前記処理部は、前記車両が前記走行状態であると判断された場合には、前記赤外線画像撮像部と前記可視画像撮像部と前記通信部のうち、前記赤外線画像撮像部と前記可視画像撮像部とを動作オン状態に設定して、前記車両が前記非走行状態であると判断された場合には、前記赤外線画像撮像部と前記可視画像撮像部と前記通信部のうち、前記赤外線画像撮像部と前記通信部とを動作オン状態に設定してもよい。   In one aspect of the present invention, the image acquisition unit acquires visible image data from a visible image imaging unit, and the processing unit determines that the infrared ray is in the case where the vehicle is determined to be in the traveling state. Of the image capturing unit, the visible image capturing unit, and the communication unit, the infrared image capturing unit and the visible image capturing unit are set to the operation on state, and the vehicle is determined to be in the non-running state. In this case, among the infrared image capturing unit, the visible image capturing unit, and the communication unit, the infrared image capturing unit and the communication unit may be set in an operation on state.

これにより、走行状態であると判断された場合と非走行状態であると判断された場合に、それぞれ必要な機能部のみを駆動させ、消費電力を削減すること等が可能になる。   As a result, when it is determined that the vehicle is in the traveling state and when it is determined that the vehicle is in the non-traveling state, it is possible to drive only the necessary functional units to reduce power consumption.

また、本発明の一態様では、前記処理部は、前記車両が前記非走行状態であると判断された場合に、前記車両が前記走行状態である時のフレームレートに比べて、前記赤外線画像撮像部のフレームレートを低く設定してもよい。   In the aspect of the invention, the processing unit may capture the infrared image when the vehicle is determined to be in the non-traveling state, compared to a frame rate when the vehicle is in the traveling state. The frame rate of the part may be set low.

これにより、赤外線画像撮像部210の駆動及び赤外線画像データの画像処理に用いる電力の消費を抑えること等が可能となる。   Accordingly, it is possible to suppress the consumption of power used for driving the infrared image capturing unit 210 and image processing of infrared image data.

また、本発明の他の態様では、赤外線画像データを赤外線画像撮像部から取得する画像取得部と、前記赤外線画像データに基づく処理を行う処理部と、外部機器との通信処理を行う通信部と、車両が走行状態か非走行状態かを判定する走行状態判定部と、を含み、前記処理部は、前記車両が前記走行状態であると判断された場合に、前記赤外線画像データに基づく画像処理を行い、前記通信部は、前記車両が前記非走行状態であると判断された場合に、前記赤外線画像データ又は前記赤外線画像データに基づく検出情報を、前記外部機器に送信する車載カメラ制御システムに関係する。   In another aspect of the present invention, an image acquisition unit that acquires infrared image data from an infrared image capturing unit, a processing unit that performs processing based on the infrared image data, and a communication unit that performs communication processing with an external device; A traveling state determination unit that determines whether the vehicle is in a traveling state or a non-driving state, and the processing unit performs image processing based on the infrared image data when it is determined that the vehicle is in the traveling state When the vehicle is determined to be in the non-running state, the communication unit transmits the detection information based on the infrared image data or the infrared image data to the in-vehicle camera control system. Involved.

また、本発明の他の態様は、前記車載カメラ制御装置と、前記赤外線画像撮像部とを含む車載カメラシステムに関係する。   Moreover, the other aspect of this invention is related with the vehicle-mounted camera system containing the said vehicle-mounted camera control apparatus and the said infrared image imaging part.

本実施形態のシステム構成図。The system block diagram of this embodiment. 図2(A)は、赤外線画像撮像部及び可視画像撮像部の取付け位置を示す平面図であり、図2(B)は、図2(A)の側面図、図2(C)は外部機器の一例。2A is a plan view showing attachment positions of the infrared image capturing unit and the visible image capturing unit, FIG. 2B is a side view of FIG. 2A, and FIG. 2C is an external device. An example. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment. 図4(A)〜図4(D)は、車両が走行状態である時の処理の説明図。4A to 4D are explanatory diagrams of processing when the vehicle is in a traveling state. 図5(A)、図5(B)は、アラート画像の説明図。FIG. 5A and FIG. 5B are explanatory diagrams of alert images. 図6(A)〜図6(C)は、住居防犯処理の説明図。FIG. 6A to FIG. 6C are explanatory diagrams of residential crime prevention processing. 図7(A)〜図7(C)は、車両防犯処理の説明図。FIG. 7A to FIG. 7C are explanatory diagrams of vehicle crime prevention processing. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment.

以下、本実施形態について説明する。まず、本実施形態のシステム構成例を説明し、次に本実施形態の特徴について説明する。そして最後に、フローチャートを用いて本実施形態の処理の流れについて説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. First, a system configuration example of the present embodiment will be described, and then features of the present embodiment will be described. Finally, the flow of processing of this embodiment will be described using a flowchart. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.システム構成例
まず、図1に本実施形態の車載カメラ制御装置及びこれを含む車載カメラシステムの構成例を示す。
1. System Configuration Example First, FIG. 1 shows a configuration example of an in-vehicle camera control device of this embodiment and an in-vehicle camera system including the same.

車載カメラ制御装置100は、画像取得部110と、処理部120と、走行状態判定部130と、通信部140と、記憶部150と、を含む。また、車載カメラ制御装置100を含む車載カメラシステム200の例としては、赤外線画像撮像部210や、可視画像撮像部220、提示部230、センサー240などを含む車載カメラシステムなどが挙げられる。なお、車載カメラ制御装置100及びこれを含む車載カメラシステム200は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。例えば、車載カメラ制御装置100の一部又は全部の機能を、赤外線画像撮像部210や、可視画像撮像部220により実現してもよい。また、本実施形態の車載カメラ制御装置100の一部又は全部の機能は、通信により接続されたサーバにより実現されてもよい。   The in-vehicle camera control device 100 includes an image acquisition unit 110, a processing unit 120, a traveling state determination unit 130, a communication unit 140, and a storage unit 150. Examples of the in-vehicle camera system 200 including the in-vehicle camera control device 100 include an in-vehicle camera system including an infrared image capturing unit 210, a visible image capturing unit 220, a presentation unit 230, a sensor 240, and the like. The in-vehicle camera control device 100 and the in-vehicle camera system 200 including the same are not limited to the configuration in FIG. 1, and various modifications such as omitting some of these components or adding other components. Implementation is possible. For example, some or all of the functions of the in-vehicle camera control device 100 may be realized by the infrared image capturing unit 210 or the visible image capturing unit 220. Further, some or all of the functions of the in-vehicle camera control device 100 according to the present embodiment may be realized by a server connected by communication.

次に各部で行われる処理について説明する。   Next, processing performed in each unit will be described.

まず、画像取得部110は、赤外線画像撮像部210から赤外線画像を表す赤外線画像データを取得し、可視画像撮像部220から可視画像を表す可視画像データを取得する。   First, the image acquisition unit 110 acquires infrared image data representing an infrared image from the infrared image capturing unit 210 and acquires visible image data representing a visible image from the visible image capturing unit 220.

そして、処理部120は、走行状態判定部130により判定された走行状態に応じて、記憶部150から得られるデータを用いて種々の処理を行う。   Then, the processing unit 120 performs various processes using data obtained from the storage unit 150 in accordance with the traveling state determined by the traveling state determination unit 130.

さらに、走行状態判定部130は、車両が走行状態か否かを判定する。   Furthermore, the traveling state determination unit 130 determines whether or not the vehicle is traveling.

なお、画像取得部110及び、処理部120、走行状態判定部130の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。   Note that the functions of the image acquisition unit 110, the processing unit 120, and the traveling state determination unit 130 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program, and the like.

また、通信部140は、車載カメラ制御装置100と外部機器300間で、情報の送受信を行う。なお、通信部140は、有線により通信を行うものであってもよく、無線により通信を行うものであってもよい。   The communication unit 140 transmits and receives information between the in-vehicle camera control device 100 and the external device 300. Note that the communication unit 140 may perform communication by wire or may perform communication by radio.

また、記憶部150は、データベースを記憶したり、処理部120等のワーク領域となるもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。   The storage unit 150 stores a database and serves as a work area for the processing unit 120 and the like, and its function can be realized by a memory such as a RAM or an HDD (hard disk drive).

そして、赤外線画像撮像部210は、赤外線画像を撮像する。赤外線画像は、遠赤外線画像及び中赤外線画像を含む。赤外線画像撮像部210は、検出対象物に人体を含める場合には、8〜12μmの遠赤外線波長域に感度を有するものであっても良く、より遠距離(およそ200m先)の感度を得る必要がある場合には、赤外線画像撮像部210として焦電型赤外線センサーカメラを用いることが望ましい。焦電型センサーカメラを使うことにより、遠距離から近距離までの熱画像(赤外線画像)を1つのセンサー膜で取得可能であり、人体の体温と他の静止物の境界線が明確に表示可能であるため、人体抽出には最適であり、さらに他の赤外線センサーより大幅にコストが低い。   The infrared image capturing unit 210 captures an infrared image. The infrared image includes a far-infrared image and a mid-infrared image. When the human body is included in the detection target, the infrared imaging unit 210 may be sensitive to a far infrared wavelength region of 8 to 12 μm, and it is necessary to obtain sensitivity at a longer distance (approximately 200 m away). If there is, it is desirable to use a pyroelectric infrared sensor camera as the infrared image capturing unit 210. Using a pyroelectric sensor camera, thermal images (infrared images) from a long distance to a short distance can be acquired with a single sensor film, and the body temperature of the human body and the boundary line of other stationary objects can be clearly displayed. Therefore, it is optimal for human body extraction, and costs are significantly lower than other infrared sensors.

また、本実施形態では、赤外線画像撮像部210は、住居侵入防止等の防犯目的において、使用されるが、この場合には、監視エリアは住居の窓及び扉を含むエリアとなる。したがって、この監視エリアへの侵入者を検知するためには、赤外線画像撮像部210は、前述したように8〜12μmの遠赤外線波長域に感度を有するものあることが望ましい。そのため、同一の赤外線画像撮像部を、走行時と住居防犯時に共用することもできる。さらに、車両の走行途中に歩行者を検知する場合に比べ、住居の防犯時に侵入者を検知する場合には、背景画像が時間的に変化せず、侵入者の有無だけを検知するだけで良いため、走行時に比べて画像処理が非常に簡単である。また、侵入者が撮像エリア内を通過する時間も歩行者に比べ長いため、フレームレートを低く設定して、間引き撮像を行いつつ、侵入者を検出することも可能であり、撮像時の電気消費量を抑えることが可能である。   Further, in the present embodiment, the infrared image capturing unit 210 is used for crime prevention purposes such as prevention of intrusion of a house. In this case, the monitoring area is an area including a window and a door of the house. Therefore, in order to detect an intruder into the monitoring area, it is desirable that the infrared imaging unit 210 has sensitivity in the far infrared wavelength region of 8 to 12 μm as described above. Therefore, the same infrared image pick-up part can also be shared at the time of driving | running | working and a house crime prevention. Furthermore, compared to detecting pedestrians while the vehicle is running, when detecting an intruder during crime prevention in a residence, the background image does not change in time, and only the presence or absence of the intruder needs to be detected. Therefore, image processing is very simple as compared to when traveling. In addition, since the time for the intruder to pass through the imaging area is longer than that for the pedestrian, it is possible to detect the intruder while setting the frame rate low and performing thinning imaging. It is possible to reduce the amount.

一方、可視画像撮像部220は、可視画像を撮像する。可視画像撮像部220は、撮像素子としてCCDやCMOSを用いているカメラであっても良く、また、白黒カメラでもカラーカメラでも良い。白黒カメラを使う場合には、可視画像として濃淡画像が撮像され、カラーカメラを使う場合には、可視画像として色画像が撮像される。   On the other hand, the visible image capturing unit 220 captures a visible image. The visible image capturing unit 220 may be a camera using a CCD or CMOS as an image sensor, and may be a monochrome camera or a color camera. When a monochrome camera is used, a grayscale image is captured as a visible image, and when a color camera is used, a color image is captured as a visible image.

なお、赤外線画像撮像部210及び可視画像撮像部220は、画像処理用等に用いられるデバイス(プロセッサー)を含んでもよい。本実施形態においては、赤外線画像データまたは可視画像データを、そのまま車載カメラ制御装置100に出力するが、これに限定されるものではない。例えば、車載カメラ制御装置100の処理部の一部を、赤外線画像撮像部210又は可視画像撮像部220に持たせてもよい。その場合、赤外線画像又は可視画像に対して、画像処理が施された後の情報が車載カメラ制御装置100に出力されることになる。   The infrared image capturing unit 210 and the visible image capturing unit 220 may include a device (processor) used for image processing or the like. In the present embodiment, infrared image data or visible image data is output as it is to the in-vehicle camera control device 100, but the present invention is not limited to this. For example, a part of the processing unit of the in-vehicle camera control device 100 may be provided in the infrared image capturing unit 210 or the visible image capturing unit 220. In this case, information after image processing is performed on the infrared image or the visible image is output to the in-vehicle camera control device 100.

次に、図2(A)、図2(B)に、赤外線画像撮像部及び可視画像撮像部等の取り付け位置の一例を示す。   Next, FIG. 2A and FIG. 2B show examples of attachment positions of the infrared image capturing unit, the visible image capturing unit, and the like.

赤外線画像撮像部210は、図2(A)、図2(B)に示すように、レンズの光軸の水平成分方向HLL1と車体中心線CL1がなすパン角がPA1となり、レンズの光軸の垂直成分方向PLL1と地上との水平線HL1がなすチルト角がTA1となるように、車体のバンパーまたはグリル内に取り付けられる。ここで、赤外線画像撮像部210は、赤外線画像撮像部210を上下、左右に首振り駆動させる電動モーターを備えていてもよい。この場合には、車体進行方向前方の道路又は道路側面を撮像できるように回転角度を自由に調整できる。   As shown in FIGS. 2A and 2B, the infrared image capturing unit 210 has a pan angle formed by the horizontal component direction HLL1 of the optical axis of the lens and the vehicle body centerline CL1 as PA1, and the optical axis of the lens. It is mounted in the bumper or grill of the vehicle body so that the tilt angle formed by the horizontal line HL1 between the vertical component direction PLL1 and the ground is TA1. Here, the infrared image capturing unit 210 may include an electric motor that swings the infrared image capturing unit 210 vertically and horizontally. In this case, the rotation angle can be freely adjusted so that the road ahead or the side of the road can be imaged.

可視画像撮像部220は、図2(A)、図2(B)に示すように、レンズの光軸の水平成分方向HLL2と車体中心線CL2がなすパン角がPA2となり、レンズの光軸の垂直成分方向PLL2と地上との水平線HL2がなすチルト角がTA2となるように、フロントウィンドウ上部に取り付けられる。ここで、可視画像撮像部220も赤外線画像撮像部210と同様に、可視画像撮像部220を上下、左右に首振り駆動させる電動モーターを備えていてもよい。この場合には、車体進行方向前方の道路又は道路側面を撮像できるように回転角度を自由に調整できる。   As shown in FIGS. 2A and 2B, the visible image capturing unit 220 has PA2 as the pan angle formed by the horizontal component direction HLL2 of the optical axis of the lens and the vehicle body centerline CL2, and the optical axis of the lens. It is attached to the upper part of the front window so that the tilt angle formed by the horizontal line HL2 between the vertical component direction PLL2 and the ground is TA2. Here, similarly to the infrared image capturing unit 210, the visible image capturing unit 220 may include an electric motor that swings the visible image capturing unit 220 up and down and left and right. In this case, the rotation angle can be freely adjusted so that the road ahead or the side of the road can be imaged.

なお、図2(A)では、分かりやすいようにPA1及びPA2は0°以上となっているが、車体進行方向前方を撮像する際には、PA1=PA2=0°、TA1=TA2とすることが望ましい。また、赤外線画像撮像部210及び可視画像撮像部220は、車体の側面に設置してもよいし、それぞれの撮像部を複数設置してもよい。   In FIG. 2A, PA1 and PA2 are 0 ° or more for easy understanding. However, when imaging the front in the vehicle body traveling direction, PA1 = PA2 = 0 ° and TA1 = TA2. Is desirable. Further, the infrared image capturing unit 210 and the visible image capturing unit 220 may be installed on the side surface of the vehicle body, or a plurality of each of the image capturing units may be installed.

さらに、赤外線画像撮像部210及び可視画像撮像部220には、運転者が任意に撮影方向や撮影位置を決定するために、車内にセレクタスイッチが設置されており、セレクタスイッチにより、赤外線画像撮像部210又は可視画像撮像部220の駆動のON/OFFや、赤外線画像撮像部210や可視画像撮像部220の位置や方向を変更することができる。なお、図1及び図2(A)、図2(B)においては、セレクタスイッチは省略されている。   Further, the infrared image capturing unit 210 and the visible image capturing unit 220 are provided with a selector switch in the vehicle so that the driver can arbitrarily determine the shooting direction and the shooting position. 210 or the driving of the visible image capturing unit 220 can be turned ON / OFF, and the positions and directions of the infrared image capturing unit 210 and the visible image capturing unit 220 can be changed. Note that the selector switch is omitted in FIGS. 1, 2A, and 2B.

次に、提示部230は、車載カメラ制御装置100の処理結果をユーザーに示す。提示部230は、警報装置であってもよいし、ディスプレイであってもよい。   Next, the presentation unit 230 shows the processing result of the in-vehicle camera control device 100 to the user. The presentation unit 230 may be an alarm device or a display.

提示部230が警報装置である場合には、警報装置は、処理部120から得られる出力信号に基づいて、歩行者の有無や住居屋の侵入者を検知した場合に警報(音声)を発する。警報装置として車体のクラクション及びフロントライトを用いれば、住居への侵入者を検知した場合に、クラクションを鳴らしたり、フロントライトを点滅させたりすることができ、新たな設備を設ける必要がないという利点がある。   When the presenting unit 230 is an alarm device, the alarm device issues an alarm (voice) based on the output signal obtained from the processing unit 120 when the presence of a pedestrian or an intruder in a residence is detected. If the horn and front light of the vehicle body are used as an alarm device, the horn can be sounded or the front light can be blinked when an intruder is detected in the residence, and there is no need to install new equipment. There is.

さらに、提示部230がディスプレイである場合には、ディスプレイは、処理部120が先行車や歩行者、又は住居への侵入者を検出した場合に、これらの位置を表す画像を表示したり、検出物の輪郭画像等を可視画像に重畳して生成された画像を、処理部120から取得し、これを表示してもよい。   Further, when the presentation unit 230 is a display, the display displays an image indicating these positions when the processing unit 120 detects a preceding vehicle, a pedestrian, or an intruder into the residence, or detects An image generated by superimposing a contour image of an object on a visible image may be acquired from the processing unit 120 and displayed.

また、本実施形態では、センサー240には、ジャイロセンサーを使用する。ジャイロセンサーは、消費電力が少なく、微細な振動をも検知することが可能である。他にも、センサー240は、車両の前輪の回転速度から車速を求める車速センサーであってもよく、加速度センサーやGPSセンサーであってもよい。   In the present embodiment, a gyro sensor is used as the sensor 240. The gyro sensor has low power consumption and can detect minute vibrations. In addition, the sensor 240 may be a vehicle speed sensor that obtains the vehicle speed from the rotational speed of the front wheels of the vehicle, or may be an acceleration sensor or a GPS sensor.

最後に、外部機器300は、図2(C)に示すような携帯電話やPDA(Personal Digital Assistant)、ノート型PCなどの情報端末であり、例えばプロセッサー(CPU)、メモリー、操作パネル、通信装置、或いはディスプレイ(サブディスプレイ)などを備える。なお、外部機器300は、腕時計、或いはポータブルオーディオなどとして兼用される機器であってもよい。   Finally, the external device 300 is an information terminal such as a mobile phone, a PDA (Personal Digital Assistant), or a notebook PC as shown in FIG. 2C. For example, a processor (CPU), a memory, an operation panel, a communication device Or a display (sub-display). The external device 300 may be a device that is also used as a wristwatch or a portable audio device.

また、図3に本実施形態のハードウェア構成図を示す。まず、図1の車載カメラ制御装置100は、図3のCPU450とメモリー470により実現できる。ここで、図1の画像取得部110及び処理部120、走行状態判定部130、通信部140は、図1のCPU470により実現でき、図1の記憶部150は、図3のメモリー470により実現できる。   FIG. 3 shows a hardware configuration diagram of this embodiment. First, the in-vehicle camera control device 100 of FIG. 1 can be realized by the CPU 450 and the memory 470 of FIG. Here, the image acquisition unit 110, the processing unit 120, the traveling state determination unit 130, and the communication unit 140 in FIG. 1 can be realized by the CPU 470 in FIG. 1, and the storage unit 150 in FIG. 1 can be realized by the memory 470 in FIG. .

そして、図1の車載カメラシステム200は、図3の赤外線カメラ410と、CPU450と、メモリー470とを含んでいる。ここで、図1の赤外線画像撮像部210は、図3の赤外線カメラ410により実現され、電動モーター420を備えている。   The in-vehicle camera system 200 in FIG. 1 includes the infrared camera 410, the CPU 450, and the memory 470 in FIG. Here, the infrared image capturing unit 210 in FIG. 1 is realized by the infrared camera 410 in FIG. 3 and includes an electric motor 420.

また、図1の可視画像撮像部220は、図3の可視カメラ430により実現され、電動モーター440を備えている。さらに、図1の提示部230は、図3のディスプレイ490により実現できる。そして、図1のセンサー240は、図3のジャイロセンサー460やGPS480等により実現できる。   Further, the visible image capturing unit 220 in FIG. 1 is realized by the visible camera 430 in FIG. 3 and includes an electric motor 440. Furthermore, the presentation unit 230 in FIG. 1 can be realized by the display 490 in FIG. 3. 1 can be realized by the gyro sensor 460, the GPS 480, or the like shown in FIG.

2.本実施形態の手法
以上の本実施形態では、赤外線画像データを赤外線画像撮像部210から取得する画像取得部110と、赤外線画像データに基づく処理を行う処理部120と、外部機器300との通信処理を行う通信部140と、車両が走行状態か否かを判定する走行状態判定部130と、を含む。そして、処理部120は、車両が走行状態であると判断された場合に、赤外線画像データに基づく画像処理を行う。さらに、通信部140は、車両が非走行状態であると判断された場合に、赤外線画像データ又は赤外線画像データに基づく検出情報を、外部機器300に送信する。
2. In the above embodiment, the image acquisition unit 110 that acquires infrared image data from the infrared image capturing unit 210, the processing unit 120 that performs processing based on the infrared image data, and the communication processing with the external device 300 are performed. The communication part 140 which performs and the driving | running | working state determination part 130 which determines whether a vehicle is a driving | running | working state are included. Then, the processing unit 120 performs image processing based on the infrared image data when it is determined that the vehicle is in a traveling state. Further, the communication unit 140 transmits infrared image data or detection information based on the infrared image data to the external device 300 when it is determined that the vehicle is in a non-traveling state.

これにより、車両が走行状態である場合と、車両が非走行状態である場合で、異なる処理を行うことができる。   Thereby, different processes can be performed when the vehicle is in a traveling state and when the vehicle is in a non-traveling state.

車両の走行状態の判定処理においては、例えば、車体に設けられたセンサー240が、1Hzないし20Hzの周波数の振動を、所定の時間連続して検出した場合に、走行状態であると判定してもよい。その他にも、ユーザーがセレクタスイッチを操作して、赤外線画像撮像部210や可視画像撮像部220の位置等を、走行用の位置等に変更したことをもって、走行状態であると判定する等、様々な方法により判定してもよい。   In the determination process of the running state of the vehicle, for example, when the sensor 240 provided on the vehicle body continuously detects a vibration having a frequency of 1 Hz to 20 Hz for a predetermined time, it is determined that the vehicle is in the traveling state. Good. In addition, the user operates the selector switch to change the position of the infrared image capturing unit 210 or the visible image capturing unit 220 to the position for traveling, etc. It may be determined by any method.

そして、車両が走行状態にあると判定された場合には、対象物が歩行者や先行車となり、これらの監視に最適な処理を行う。一方、車両が非走行状態にあると判定された場合には、対象物が住居等への侵入者となり、これらの監視に最適な処理を行う。すなわち、車両が走行中であるとか駐車中であるなどの車両の状況に応じた対象物の監視をすることが可能となる。   When it is determined that the vehicle is in a running state, the target object is a pedestrian or a preceding vehicle, and optimal processing is performed for monitoring these objects. On the other hand, when it is determined that the vehicle is in a non-running state, the object becomes an intruder into a residence or the like, and optimal processing is performed for these monitoring. That is, it is possible to monitor an object according to the situation of the vehicle such as when the vehicle is traveling or parked.

また、車両が走行状態にあると判定された場合には、赤外線画像データを取得するため、歩行者が多かったり、他の車両が多かったり等の車両の周囲の状況に応じた対象物の監視をすることが可能である。   In addition, when it is determined that the vehicle is in a running state, infrared image data is acquired, so that monitoring of an object in accordance with the situation around the vehicle such as a large number of pedestrians or a large number of other vehicles is performed. It is possible to

例えば、図4(A)に、車両CA1が走行している場合の様子を示す。この時、車両CA1に設けられた赤外線画像撮像部210が、車両の前方を撮像し、先行車CA2や歩行者WP1、自転車に乗っている人WP2などを撮像する。   For example, FIG. 4A shows a state where the vehicle CA1 is traveling. At this time, the infrared image capturing unit 210 provided in the vehicle CA1 captures the front of the vehicle and captures the preceding vehicle CA2, the pedestrian WP1, the person WP2 riding the bicycle, and the like.

ここで、赤外線画像データとは、赤外線画像撮像部210により撮像される赤外線画像(熱画像)を表す情報である。赤外線画像については、前述した通りである。例えば、赤外線画像の一例として、図4(A)の車両CA1に設けられた赤外線画像撮像部210により撮像された赤外線画像IIMを、図4(C)に示す。赤外線画像IIMには、歩行者WP1や先行車CA2、自転車に乗った人WP2などが、温度が高い部分が色濃く映し出されている。赤外線画像は、風景等の識別には向かないが、温度分布等を識別することが容易であり、背景と対象物とを判別する場合に有用である。   Here, the infrared image data is information representing an infrared image (thermal image) captured by the infrared image capturing unit 210. The infrared image is as described above. For example, FIG. 4C illustrates an infrared image IIM captured by the infrared image capturing unit 210 provided in the vehicle CA1 illustrated in FIG. 4A as an example of the infrared image. In the infrared image IIM, a pedestrian WP1, a preceding vehicle CA2, a person WP2 riding a bicycle, and the like are projected darkly at portions where the temperature is high. An infrared image is not suitable for identifying a landscape or the like, but it is easy to identify a temperature distribution or the like, and is useful for distinguishing between a background and an object.

そして、車両が走行状態であると判断された場合には、赤外線画像データに基づく画像処理を行うが、画像処理の詳細については後述する。   When it is determined that the vehicle is in a running state, image processing based on infrared image data is performed. Details of the image processing will be described later.

一方、車両が非走行状態にあると判定された場合には、赤外線画像撮像部210により撮像された赤外線画像の赤外線画像データ又は赤外線画像データに基づく検出情報を、外部機器300に送信する。   On the other hand, if it is determined that the vehicle is in a non-running state, the infrared image data of the infrared image captured by the infrared image capturing unit 210 or detection information based on the infrared image data is transmitted to the external device 300.

ここで、検出情報とは、赤外線画像中に対象物が映っていることを示す情報である。例えば、検出情報の一例としては、赤外線画像中に対象物が映っている場合にONを示すフラグや、住居等への侵入者がいることをユーザーに知らせる文字情報や画像情報、又は外部機器300に警告音を発生させる命令などがある。   Here, the detection information is information indicating that the object is reflected in the infrared image. For example, as an example of detection information, a flag indicating ON when an object is reflected in an infrared image, character information or image information that informs the user that there is an intruder into a residence, or the external device 300 There is a command to generate a warning sound.

この場合には、監視エリア内に侵入者等がいる場合にのみ、外部機器300と通信をすればよい。したがって、非走行状態において、常時、外部機器300と通信が必要な場合に比べて、車載カメラ制御装置100の消費電力の抑制が可能となる。   In this case, it is only necessary to communicate with the external device 300 only when there is an intruder or the like in the monitoring area. Therefore, in the non-running state, the power consumption of the in-vehicle camera control device 100 can be suppressed compared to the case where communication with the external device 300 is always required.

なお、ここで、監視エリアとは、車載カメラシステム200の対象物を検出するために、監視することが必要なエリアのことであり、例えば、赤外線画像撮像部210又は可視画像撮像部220により、撮像される範囲のこという。後述する図6(A)の例で言えば、赤外線画像撮像部210により撮像される住居のドアDRや窓WDを含む範囲のことである。   Here, the monitoring area is an area that needs to be monitored in order to detect an object of the in-vehicle camera system 200. For example, the infrared image capturing unit 210 or the visible image capturing unit 220 The range to be imaged. In the example of FIG. 6A to be described later, this is a range including the door DR and the window WD of the house captured by the infrared image capturing unit 210.

また、検出情報は、対象物が映っていないことを示す情報であってもよい。この場合には、車両が非走行状態にある時に、原則として常時、車載カメラ制御装置100は外部機器300と通信を行い、侵入者等を検出した場合に通信を行わない。そして、外部機器300は検出情報を受信できなくなった時に、監視エリアに異常が発生したと判断して、警告音を発する等して、ユーザーに通知してもよい。この方法は、常時通信を行うため、監視エリア内に侵入者等がいる場合にのみ外部機器300と通信をする方法と比べて、消費電力は大きくなるが、侵入者等により車載カメラ制御装置が破壊された場合でも、ユーザーに異常を通知することが可能な点において有用である。   The detection information may be information indicating that the object is not shown. In this case, when the vehicle is in a non-running state, the in-vehicle camera control device 100 generally communicates with the external device 300 and does not communicate when an intruder or the like is detected. Then, when the external device 300 becomes unable to receive the detection information, the external device 300 may determine that an abnormality has occurred in the monitoring area and issue a warning sound to notify the user. Since this method always communicates, the power consumption is larger than the method of communicating with the external device 300 only when there is an intruder or the like in the monitoring area. Even if it is destroyed, it is useful in that it can notify the user of an abnormality.

さらに、車両の走行状態に関わらず、可視画像撮像部220を駆動させずに、赤外線画像撮像部210のみを駆動させて、車両の進行方向の歩行者や住居への侵入者等の監視を行うため、可視画像撮像部220の駆動や、可視画像撮像部220により得られた可視画像データの画像処理に用いる電力を抑制することが可能となる。すなわち、可視画像撮像部220と赤外線画像撮像部210の両方を駆動させる場合と比較して、消費電力の削減が可能である。   Furthermore, regardless of the running state of the vehicle, the visible image capturing unit 220 is not driven, and only the infrared image capturing unit 210 is driven to monitor pedestrians and intruders in the house in the traveling direction of the vehicle. Therefore, it is possible to suppress power used for driving the visible image capturing unit 220 and image processing of the visible image data obtained by the visible image capturing unit 220. That is, power consumption can be reduced as compared with the case where both the visible image capturing unit 220 and the infrared image capturing unit 210 are driven.

以上のように、車両が走行状態である場合と、車両が非走行状態である場合で、異なる処理を行い、消費電力を抑制しつつ、車両及び車両の周囲の状況に応じた対象物の監視をすることが可能となる。   As described above, when the vehicle is in a running state and when the vehicle is in a non-running state, different processing is performed to suppress power consumption and monitor the object according to the situation of the vehicle and the surroundings of the vehicle. It becomes possible to do.

また、処理部120は、車両が走行状態であると判断された場合に、赤外線画像データに基づいて対象物の検出情報を含む表示用画像データを生成する処理を、画像処理として行ってもよい。   In addition, when it is determined that the vehicle is in a traveling state, the processing unit 120 may perform, as image processing, processing for generating display image data including detection information of an object based on infrared image data. .

なお、前述した例では、車両が非走行状態である場合に、赤外線画像中に対象物が映っていることを示す情報のことを、対象物の検出情報と呼んだが、車両が走行状態である場合にも同様の意味で用いる。この場合には、検出情報は、例えば、車両の前方に歩行者や先行車がいることをユーザーに知らせる文字情報や画像情報等である。   In the above-described example, when the vehicle is in a non-running state, information indicating that the object is reflected in the infrared image is called object detection information, but the vehicle is in the running state. In some cases, the same meaning is used. In this case, the detection information is, for example, character information or image information that informs the user that there is a pedestrian or a preceding vehicle ahead of the vehicle.

ここで、表示用画像データとは、表示用画像を表すデータである。   Here, the display image data is data representing a display image.

また、表示用画像とは、車両が走行状態であると判断された場合に、歩行者や先行車等の対象物の存在をユーザーに伝えるための画像であり、提示部230に表示する画像そのものをいう。例えば、表示用画像は、対象物の輪郭を表す画像や、対象物が近くにいることを通知するための記号等を表す画像、もしくは、赤外線画像に歩行者や先行車等の輪郭画像を重畳して生成した画像などである。また、表示用画像を表示すると同時に、警告音等を発しても良い。なお、表示用画像は、対象物の検出情報そのものであってもよい。また、表示用画像は、対象物の検出情報を一部とする画像であってもよく、この場合には、表示用画像における対象物の検出情報の位置は問わない。   The display image is an image for informing the user of the presence of an object such as a pedestrian or a preceding vehicle when it is determined that the vehicle is in a running state, and the image itself displayed on the presentation unit 230. Say. For example, the display image is an image representing the outline of the object, an image representing a symbol for notifying that the object is nearby, or an outline image such as a pedestrian or a preceding vehicle superimposed on an infrared image. And the like. Further, a warning sound or the like may be emitted simultaneously with displaying the display image. The display image may be the detection information itself of the object. Further, the display image may be an image including a part of the detection information of the object. In this case, the position of the detection information of the object in the display image is not limited.

これにより、車両が走行状態であると判断された場合に、例えば、歩行者や先行車の輪郭画像等を、ユーザーに提示して、対象物への注意を促すこと等が可能になる。   Thereby, when it is determined that the vehicle is in a running state, for example, it is possible to present a contour image or the like of a pedestrian or a preceding vehicle to the user to call attention to the object.

しかし、輪郭画像や赤外線画像に輪郭画像を重畳した画像などの表示用画像は、車両を運転中にユーザーが実際に見ている景色とは、見た目が大きく異なっており、表示用画像から取得した情報を、ユーザーがすぐに車両の運転に反映できない可能性がある。   However, display images such as contour images and images with contour images superimposed on infrared images look very different from the scenery that the user actually sees while driving the vehicle, and were obtained from the display images. Information may not be immediately reflected in driving the vehicle by the user.

そこで、画像取得部110は、可視画像データを可視画像撮像部220から取得してもよい。そして、処理部120は、表示用画像データとして、対象物が存在する位置に対応する可視画像上の位置に、アラート画像を重畳した画像データを生成する処理を、画像処理として行ってもよい。   Therefore, the image acquisition unit 110 may acquire visible image data from the visible image capturing unit 220. And the process part 120 may perform the process which produces | generates the image data which superimposed the alert image on the position on the visible image corresponding to the position where a target object exists as display image data as an image process.

ここで、可視画像データとは、可視画像撮像部220により撮像される可視画像を表す情報である。可視画像については、前述した通りである。例えば、可視画像の一例として、図4(A)の車両CA1に設けられた可視画像撮像部220により撮像された可視画像VIMを、図4(B)に示す。可視画像VIMにも、歩行者WP1や先行車CA2、自転車に乗った人WP2などが映し出されている。可視画像VIMは、ユーザーが見た景色とほとんど相違がないため、一見して風景を含む画像の全体像を把握しやすい。逆に、可視画像のみを用いて、風景と対象物を区別することは困難である。そこで、本実施形態では、前述したような特徴を持つ赤外線画像を用いて、対象物を区別する。   Here, the visible image data is information representing a visible image captured by the visible image capturing unit 220. The visible image is as described above. For example, as an example of the visible image, a visible image VIM captured by the visible image capturing unit 220 provided in the vehicle CA1 illustrated in FIG. 4A is illustrated in FIG. The visible image VIM also shows a pedestrian WP1, a preceding vehicle CA2, a person WP2 riding a bicycle, and the like. Since the visible image VIM has almost no difference from the scenery seen by the user, it is easy to grasp the entire image including the scenery at a glance. Conversely, it is difficult to distinguish a landscape from an object using only a visible image. Therefore, in the present embodiment, the object is distinguished using the infrared image having the characteristics as described above.

さらに、可視画像を用いて生成した表示用画像の具体例を、図4(D)に示す。表示用画像CIMを生成する際には、例えば、図4(C)に示す赤外線画像IIMにより表される温度分布の特徴に基づいて、後述するようなテンプレートマッチング処理を行って、人(WP1とWP2)と人以外(背景や先行車CA2)を区別する。そして、可視画像上において、人が位置する部分を囲うように、後述するアラート画像(ALIM1とALIM2)等を重畳させて、表示用画像CIMを生成する。このような画像を提示することにより、歩行者に注意を払うように、ユーザーに警告する。   Further, a specific example of a display image generated using a visible image is shown in FIG. When generating the display image CIM, for example, based on the characteristics of the temperature distribution represented by the infrared image IIM shown in FIG. WP2) and other than people (background and preceding car CA2) are distinguished. Then, a display image CIM is generated by superimposing alert images (ALIM1 and ALIM2), which will be described later, so as to surround a portion where a person is located on the visible image. By presenting such an image, the user is warned to pay attention to the pedestrian.

ここで、アラート画像とは、ユーザーに対象物の存在を知らせるための画像であり、提示部230に表示する表示用画像の一部となる画像のことをいう。アラート画像の例としては、エクスクラメーション・マ−クや、歩行者や先行車を表す模式図、危険が迫っていることを知らせる強調文字などがある。   Here, the alert image is an image for notifying the user of the presence of the target object, and means an image that is a part of the display image displayed on the presentation unit 230. Examples of the alert image include an exclamation mark, a schematic diagram showing a pedestrian and a preceding vehicle, and an emphasis character indicating that a danger is imminent.

具体的には、図4(D)に示す画像ALIM1やALIM2がアラート画像に該当する。他にも、図5(A)に示す画像CIM1上において、歩行者WP1の頭上に表示したALIM3のようなエクスクラメーション・マ−クや、図5(B)に示す画像CIM2上において、歩行者WP1の輪郭を強調する画像ALIM4や、危険が迫っていることを文字や記号を用いて強調するALIM5のような帯画像などがある。   Specifically, images ALIM1 and ALIM2 shown in FIG. 4D correspond to alert images. In addition, an exclamation mark such as ALIM3 displayed on the head of the pedestrian WP1 on the image CIM1 shown in FIG. 5A, or a walk on the image CIM2 shown in FIG. There are an image ALIM4 for emphasizing the outline of the person WP1, and a band image such as ALIM5 for emphasizing that the danger is imminent using characters and symbols.

これにより、車両が走行状態である時に、ユーザーが実際に見ている景色と合致する可視画像に、アラート画像を重畳させて表示用画像を生成するため、表示用画像を用いた場合にも、ユーザーに違和感を覚えさせずに、対象物への注意を促すこと等が可能となる。さらに、アラート画像を用いることにより、ユーザーが背景と対象物とを簡単に区別すること等が可能となる。   Thereby, when the vehicle is in a running state, the alert image is superimposed on the visible image that matches the scenery that the user actually sees, and the display image is generated. It is possible to call attention to an object without making the user feel uncomfortable. Furthermore, by using the alert image, the user can easily distinguish the background from the object.

ところで、住居等を監視している際中に、車両自体が盗難にあってしまう場合も考えられる。具体的には、住居防犯処理を実行中の場合において、車両が非走行状態から走行状態になった場合には、車両が盗難にあった可能性が高い。   By the way, when monitoring a residence etc., the vehicle itself may be stolen. Specifically, when the house crime prevention process is being executed, if the vehicle is changed from the non-traveling state to the traveling state, there is a high possibility that the vehicle has been stolen.

そこで、処理部120は、車両が非走行状態であると判断された場合に、住居防犯処理を行い、住居防犯処理を実行中の場合において、走行状態判定部130により車両が非走行状態から走行状態になったと判断された場合には、車両防犯処理を行ってもよい。   Therefore, the processing unit 120 performs the residential crime prevention process when it is determined that the vehicle is in the non-running state, and the running state determination unit 130 causes the vehicle to travel from the non-running state when the residential crime prevention process is being executed. When it is determined that the vehicle is in a state, vehicle security processing may be performed.

ここで、住居防犯処理とは、図6(A)に示されるように、車両が非走行状態である場合に、車載カメラ制御装置100によって行われる処理であり、住居や施設等への侵入者等の検出等を目的とする処理のこという。なお、住居防犯処理の詳細及び具体例については、後述する。   Here, the residential crime prevention process is a process performed by the in-vehicle camera control device 100 when the vehicle is in a non-traveling state, as shown in FIG. 6 (A), and an intruder into a residence or facility. This is processing for the purpose of detecting such as. Details and specific examples of the residential crime prevention process will be described later.

一方、車両防犯処理とは、図7(A)に示されるように、車両が走行状態である場合に、車載カメラ制御装置100によって行われる処理であり、車両盗難の検出等を目的とする処理のことをいう。なお、車両防犯処理の詳細及び具体例については、後述する。   On the other hand, the vehicle crime prevention process is a process performed by the in-vehicle camera control device 100 when the vehicle is in a running state, as shown in FIG. 7A, and is a process intended to detect vehicle theft or the like. I mean. The details and specific examples of the vehicle crime prevention process will be described later.

これにより、住居防犯処理を行いつつ、車両が盗難にあった可能性がある時には、車両防犯処理を行うこと等が可能になる。   As a result, it is possible to perform vehicle crime prevention processing or the like when there is a possibility that the vehicle has been stolen while performing residential crime prevention processing.

ところで、住居防犯処理は、車両が非走行状態にある場合に行われるが、住居防犯処理は、車両が駐車場等で駐車状態にある場合に実行されることを想定しており、一時的に交差点等で車両が停車した場合に、実行する必要はない。また、住居防犯処理を行う際には、赤外線画像撮像部210を住居等のドアや窓等に向けられている必要がある。   By the way, the residential crime prevention process is performed when the vehicle is in a non-running state, but it is assumed that the residential crime prevention process is executed when the vehicle is parked in a parking lot or the like. There is no need to execute when the vehicle stops at an intersection or the like. In addition, when performing residential crime prevention processing, the infrared image capturing unit 210 needs to be directed to a door or window of a residence.

そこで、処理部120は、車両が非走行状態であると判断された場合において、赤外線画像撮像部210が住居防犯処理用の位置又は方向に設定された場合に、赤外線画像データに基づいて住居防犯処理を行ってもよい。そして、通信部140は、住居防犯処理の結果に基づいて、赤外線画像データ又は赤外線画像データに基づく検出情報を、外部機器300に送信してもよい。   Therefore, when it is determined that the vehicle is in a non-running state, the processing unit 120 is configured to perform the home crime prevention based on the infrared image data when the infrared image capturing unit 210 is set to the position or direction for the home crime prevention processing. Processing may be performed. And the communication part 140 may transmit the detection information based on infrared image data or infrared image data to the external device 300 based on the result of a house crime prevention process.

ここで、住居防犯処理用の位置又は方向とは、例えば、住居や施設等のドアや窓などユーザーが監視したい場所を撮像することが可能な赤外線画像撮像部210の位置又は方向である。住居防犯処理用の位置又は方向は、あらかじめ記憶部150等に複数の組み合わせが記憶されており、ユーザーがセレクタスイッチ等を操作して特定し、車載カメラ制御装置100の制御によって、自動で赤外線画像撮像部210を移動させてもよい。他にも、ユーザーが手動で赤外線画像撮像部210の位置又は方向を動かして、配置し、車載カメラ制御装置100に、配置が完了したことを入力してもよい。   Here, the position or direction for residential crime prevention processing is, for example, the position or direction of the infrared image capturing unit 210 that can capture a location that the user wants to monitor, such as a door or window of a residence or facility. A plurality of combinations are stored in advance in the storage unit 150 or the like for the position or direction for the home crime prevention processing. The imaging unit 210 may be moved. In addition, the user may manually move and arrange the position or direction of the infrared image capturing unit 210 and input to the in-vehicle camera control device 100 that the arrangement has been completed.

具体例を図6(A)に示す。図6(A)は、車両CAが住居の前の駐車上に駐車されている様子を表すものであり、住居防犯処理を行っている様子を示している。図6(A)では、住居等へ侵入者が侵入する可能性が高いドアDRや窓WDを赤外線画像撮像部210が撮像できるように、赤外線画像撮像部210の位置及び方向が調整されている。本例では、このような位置及び方向に赤外線画像撮像部210が移動されたことをもって、住居防犯処理に移行する。   A specific example is shown in FIG. FIG. 6A shows a state in which the vehicle CA is parked on the parking in front of the residence, and shows a state in which the residential crime prevention process is performed. In FIG. 6A, the position and direction of the infrared image capturing unit 210 are adjusted so that the infrared image capturing unit 210 can capture the door DR and the window WD where an intruder is likely to enter a residence or the like. . In this example, when the infrared image capturing unit 210 is moved to such a position and direction, the process proceeds to the residential crime prevention process.

これにより、車両が非走行状態で、かつ赤外線画像撮像部210が住居防犯処理用の位置又は方向に設定された場合に、住居防犯処理を実行する機会を限定すること等が可能となる。したがって、実行する処理を頻繁に切り替えることによる赤外線画像撮像部210や可視画像撮像部220の不必要な起動切り替えを避け、無駄な電力を消費することを避けること等が可能となる。   Thereby, when the vehicle is in a non-traveling state and the infrared image capturing unit 210 is set to the position or direction for the residential crime prevention process, it is possible to limit the opportunity of executing the residential crime prevention process. Therefore, it is possible to avoid unnecessary activation switching of the infrared image capturing unit 210 and the visible image capturing unit 220 by frequently switching processing to be executed, and to avoid wasting unnecessary power.

また、本実施形態では、赤外線画像データを記憶する記憶部150を含んでもよい。そして、処理部120は、住居防犯処理として、所与の時間間隔で赤外線画像データを記憶部150に保存し、保存された第1の赤外線画像データと、第1の赤外線画像データとは異なるタイミングに取得された第2の赤外線画像データとの比較処理を行ってもよい。さらに、通信部140は、比較処理において、第1の赤外線画像データと第2の赤外線画像データとに差異があったと判断された場合に、赤外線画像データ又は赤外線画像データに基づく検出情報を、外部機器300に送信してもよい。   Moreover, in this embodiment, you may include the memory | storage part 150 which memorize | stores infrared image data. And the process part 120 preserve | saves infrared image data in the memory | storage part 150 at a predetermined time interval as a residential crime prevention process, and the timing from which the preserve | saved 1st infrared image data and 1st infrared image data differ A comparison process with the second infrared image data acquired in step (b) may be performed. Further, when it is determined that there is a difference between the first infrared image data and the second infrared image data in the comparison process, the communication unit 140 transmits the detection information based on the infrared image data or the infrared image data to the external You may transmit to the apparatus 300. FIG.

ここで、第1の赤外線画像データと第2の赤外線画像データは、互いに異なるタイミングにおいて撮像された赤外線画像を表す赤外線画像データのことをいう。例えば、あるタイミング1についての赤外線画像データを取得し、これを第1の赤外線画像データとし、その後の所定周期毎に取得する赤外線画像データを、第2の赤外線画像データとして、比較処理を行っても良い。他にも、第1の赤外線画像データの次のタイミングに取得する赤外線画像データが第2の赤外線画像データであり、第2の赤外線画像データの次のタイミングに取得する赤外線画像データが第1の赤外線画像データであるとして、比較処理を行っても良い。   Here, the first infrared image data and the second infrared image data refer to infrared image data representing infrared images captured at different timings. For example, infrared image data for a certain timing 1 is acquired, this is used as first infrared image data, and infrared image data acquired at every predetermined period thereafter is used as second infrared image data for comparison processing. Also good. In addition, the infrared image data acquired at the timing next to the first infrared image data is the second infrared image data, and the infrared image data acquired at the timing next to the second infrared image data is the first infrared image data. Comparison processing may be performed assuming that the image data is infrared image data.

例えば、図6(A)の例において、あるタイミングtにおいて、赤外線画像撮像部210が撮像した赤外線画像を、図6(B)に示すIIM1とし、タイミング(t+1)に撮像した赤外線画像を図6(C)に示すIIM2とする。この場合には、まず赤外線画像IIM1を示す赤外線画像データを、第1の赤外線画像データとして記憶部に保存しておき、赤外線画像IIM2を示す赤外線画像データを取得した時点で、IIM2の赤外線画像データを第2の赤外線画像データとして、第1の赤外線画像データと比較する。その結果、本例では、赤外線画像IIM1には、対象物が何も映っていないが、赤外線画像IIM2には、侵入者IVらしき姿が確認されたとする。この場合には、図6(A)において、タイミングtでは、監視エリア外の位置P1にいた人物IVが、タイミング(t+1)までの間に、位置P2に移動して監視エリア内に侵入したとして、この人物IVを侵入者として認識する。そして、第1の赤外線画像データと第2の赤外線画像データとに差異があったと判断して、侵入者がいることを通知するメールを、ユーザーの携帯電話等に送信する。   For example, in the example of FIG. 6A, the infrared image captured by the infrared image capturing unit 210 at a certain timing t is IIM1 illustrated in FIG. 6B, and the infrared image captured at timing (t + 1) is illustrated in FIG. It is referred to as IIM2 shown in (C). In this case, first, the infrared image data indicating the infrared image IIM1 is stored in the storage unit as the first infrared image data, and when the infrared image data indicating the infrared image IIM2 is acquired, the infrared image data of the IIM2 is acquired. Is compared with the first infrared image data as the second infrared image data. As a result, in this example, it is assumed that no object is shown in the infrared image IIM1, but a figure that appears to be an intruder IV is confirmed in the infrared image IIM2. In this case, in FIG. 6A, at timing t, it is assumed that the person IV who was at the position P1 outside the monitoring area moved to the position P2 and entered the monitoring area before the timing (t + 1). This person IV is recognized as an intruder. Then, it is determined that there is a difference between the first infrared image data and the second infrared image data, and an email notifying that there is an intruder is transmitted to the user's mobile phone or the like.

これにより、住居防犯処理を実行中の場合に、赤外線画像データのみを用いて、対象物を検出し、対象物が検出された場合には、ユーザーへ侵入者の存在を通知すること等が可能になる。   As a result, when the home crime prevention process is being executed, it is possible to detect the object using only the infrared image data, and to notify the user of the presence of the intruder when the object is detected. become.

また、住居防犯処理を行っている時に、車両の所有者が車両を動かそうとする場合には、通常は住居防犯処理を停止させ、赤外線画像撮像部210の位置を変更してから、車両を走行させると考えられる。したがって、赤外線画像撮像部210の位置を変更せず、車両が走行状態になった場合には、車両が盗難にあったか、もしくは車両の所有者が住居防犯処理を実行していることを忘れている可能性が高い。   In addition, when the owner of the vehicle tries to move the vehicle during the residential crime prevention process, usually the residential crime prevention process is stopped and the position of the infrared image capturing unit 210 is changed before the vehicle is moved. It is considered to run. Therefore, when the vehicle is in a running state without changing the position of the infrared imaging unit 210, the vehicle is stolen or the vehicle owner forgets that the house crime prevention process is being executed. Probability is high.

具体的には、図7(A)に示すような場合である。図7(A)には、本来P1の地点で、車両CAに搭載された車載カメラシステムが、住居防犯処理を行って、住居の周辺を監視していたが、盗難者によって車両CAが盗難され、住居防犯処理を終了させないまま、走り去っていってしまった様子を示している。このような場合には、住居防犯処理を継続する必要はなく、車両盗難への対策を講じる必要がある。   Specifically, this is the case as shown in FIG. In FIG. 7A, the in-vehicle camera system originally mounted on the vehicle CA performed the home crime prevention process and monitored the neighborhood of the residence at the point P1, but the vehicle CA was stolen by the theft. , It shows a situation where he has run away without completing the home crime prevention process. In such a case, it is not necessary to continue the residential crime prevention process, and it is necessary to take measures against vehicle theft.

そこで、処理部120は、赤外線画像撮像部210が住居防犯処理用の位置又は方向に設定されている場合において、車両が走行状態であることが検出された場合には、車両防犯処理を行ってもよい。   Therefore, when the infrared image capturing unit 210 is set to the position or direction for residential security processing, the processing unit 120 performs the vehicle security processing when it is detected that the vehicle is in a running state. Also good.

これにより、車両が盗難にあったこと、又はユーザーが住居防犯処理を実行していることを忘れて車両を動かしたことを、ユーザーに通知すること等が可能になる。   This makes it possible to notify the user that the vehicle has been stolen or that the user has forgotten that the user is performing the residential crime prevention process and has moved the vehicle.

車両が盗難にあった場合には、ユーザー等に車両の現在位置を通知する必要がある。そのためには、一見して場所の判別がつきやすい可視画像の方が、赤外線画像よりも有用である。   When the vehicle is stolen, it is necessary to notify the user or the like of the current position of the vehicle. For this purpose, a visible image that can be easily identified at first glance is more useful than an infrared image.

そこで、処理部120は、住居防犯処理を行う場合には、可視画像撮像部220を動作オフ状態に設定し、車両防犯処理を行う場合には、可視画像撮像部220を動作オン状態に設定してもよい。   Therefore, the processing unit 120 sets the visible image capturing unit 220 to the operation-off state when performing the residential crime prevention process, and sets the visible image capturing unit 220 to the operation-on state when performing the vehicle security process. May be.

これにより、車両防犯処理を実行中の場合に、不要な赤外線画像撮像部を動作オフ状態に設定し、消費電力を抑える一方で、可視画像撮像部220を動作オン状態に設定して、ユーザーに現在車両が位置する場所を撮像すること等が可能になる。   Thereby, when the vehicle crime prevention process is being executed, the unnecessary infrared image capturing unit is set to the operation-off state and the power consumption is reduced, while the visible image capturing unit 220 is set to the operation-on state to It is possible to take an image of the location where the vehicle is currently located.

また、画像取得部110は、車両防犯処理として、可視画像データを可視画像撮像部220から取得する処理を行ってもよい。そして、通信部140は、可視画像データを外部機器300に送信してもよい。   Moreover, the image acquisition part 110 may perform the process which acquires visible image data from the visible image imaging part 220 as a vehicle crime prevention process. Then, the communication unit 140 may transmit the visible image data to the external device 300.

具体的には、図7(A)の例において、まず赤外線画像撮像部210の駆動を停止させて、可視画像撮像部220を駆動させる。そして、可視画像撮像部220により、図7(B)に示すような可視画像VIMを取得する。取得した可視画像VIMに、図7(B)のような看板等が映り込んでいる場合には、車両の現在位置を特定できる可能性がある。そのために、本例では、図7(C)のように、車両が盗難にあった旨を伝えるメッセージPVIFと、図7(B)の可視画像VIMとをユーザーの携帯電話300等に送信する。   Specifically, in the example of FIG. 7A, first, the driving of the infrared image capturing unit 210 is stopped and the visible image capturing unit 220 is driven. Then, a visible image VIM as shown in FIG. When a signboard or the like as shown in FIG. 7B is reflected in the acquired visible image VIM, there is a possibility that the current position of the vehicle can be specified. Therefore, in this example, as shown in FIG. 7C, a message PVIF that informs that the vehicle has been stolen and the visible image VIM of FIG. 7B are transmitted to the user's mobile phone 300 or the like.

これにより、車両防犯処理を実行中の場合に、ユーザーに現在車両が位置する場所を撮像した可視画像を通知すること等が可能になる。   Thereby, when the vehicle crime prevention process is being executed, it becomes possible to notify the user of a visible image obtained by imaging the location where the vehicle is currently located.

また、走行状態にある時と非走行状態にある時で実行する処理が違うため、それぞれの状態において、必要な機能部のみを駆動状態にしておけば、消費電力をさらに削減することが可能となる。   In addition, since the processing to be executed is different between when it is in the running state and when it is in the non-running state, it is possible to further reduce the power consumption if only the necessary functional units are driven in each state. Become.

そこで、画像取得部110は、可視画像データを可視画像撮像部220から取得してもよい。そして、処理部120は、車両が走行状態であると判断された場合には、赤外線画像撮像部210と可視画像撮像部220と通信部140のうち、赤外線画像撮像部210と可視画像撮像部220とを動作オン状態に設定して、車両が非走行状態であると判断された場合には、赤外線画像撮像部210と可視画像撮像部220と通信部140のうち、赤外線画像撮像部210と通信部140とを動作オン状態に設定してもよい。   Therefore, the image acquisition unit 110 may acquire visible image data from the visible image capturing unit 220. When the processing unit 120 determines that the vehicle is in a traveling state, the infrared image capturing unit 210 and the visible image capturing unit 220 among the infrared image capturing unit 210, the visible image capturing unit 220, and the communication unit 140. Are set to the operation on state, and it is determined that the vehicle is in the non-traveling state, and the infrared image capturing unit 210, the visible image capturing unit 220, and the communication unit 140 communicate with the infrared image capturing unit 210. The unit 140 may be set in an operation-on state.

これにより、走行状態であると判断された場合と非走行状態であると判断された場合に、それぞれ必要な機能部のみを駆動させ、消費電力を削減すること等が可能になる。   As a result, when it is determined that the vehicle is in the traveling state and when it is determined that the vehicle is in the non-traveling state, it is possible to drive only the necessary functional units to reduce power consumption.

ところで、住居等への侵入者は、住居の様子を窺うために、一定箇所に留まることが多く、監視エリアの通過時間が歩行者等に対して長いことが分かっている。また、車両が駐車中の場合には、背景画像が時間的に変化しないため、車両が走行状態である場合に比べて画像処理が容易であり、フレームレートを高く設定する必要はない。   By the way, it is known that intruders in a residence or the like often stay in a certain place in order to hear the state of the residence, and the passing time of the monitoring area is longer than that of a pedestrian or the like. In addition, when the vehicle is parked, the background image does not change with time, so image processing is easier than when the vehicle is in a running state, and it is not necessary to set a high frame rate.

そこで、処理部120は、車両が非走行状態であると判断された場合に、車両が走行状態である時のフレームレートに比べて、赤外線画像撮像部210のフレームレートを低く設定してもよい。   Therefore, when it is determined that the vehicle is in the non-traveling state, the processing unit 120 may set the frame rate of the infrared image capturing unit 210 to be lower than the frame rate when the vehicle is in the traveling state. .

これにより、赤外線画像撮像部210の駆動及び赤外線画像データの画像処理に用いる電力の消費を抑えること等が可能となる。   Accordingly, it is possible to suppress the consumption of power used for driving the infrared image capturing unit 210 and image processing of infrared image data.

なお、本実施形態の車載カメラ制御装置等の機能は、プログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の車載カメラ制御装置等の機能が実現される。具体的には情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そしてCPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。   In addition, you may implement | achieve functions, such as a vehicle-mounted camera control apparatus of this embodiment, with a program. In this case, a function such as the in-vehicle camera control device of the present embodiment is realized by a processor such as a CPU executing a program. Specifically, a program stored in the information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes of this embodiment based on a program (data) stored in the information storage medium. That is, the information storage medium includes a program (a program for causing the computer to execute the processing of each unit) for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment. Remembered.

3.処理の流れ
以下では、図3のフローチャートを用いて、本実施形態の処理の流れについて説明する。
3. Processing Flow Hereinafter, the processing flow of this embodiment will be described with reference to the flowchart of FIG.

まず、パラメータの初期設定を行う(S0)。次に、車両の状態を把握するために、車体の振動を検出する(S1)。ステップS1において、振動を検知した場合には、車両が走行中であると判断し、振動が検知できなければ、車両が駐車中または停車中であると判断する。   First, initial parameter settings are performed (S0). Next, in order to grasp the state of the vehicle, the vibration of the vehicle body is detected (S1). If vibration is detected in step S1, it is determined that the vehicle is running, and if vibration is not detected, it is determined that the vehicle is parked or stopped.

車両が走行中であると判断した場合には、赤外線画像撮像部を用いて車体進行方向前方を撮像して、熱画像(赤外線画像)を取得する(S2)。そして、可視画像撮像部により車体進行方向前方を撮像して、可視画像を取得する(S3)。なお、ステップS2及びステップS3の順序は、ステップ間の間隔が短ければ、どちらが先でも構わない。また、場合によっては両方を並列に処理してしまうことも可能である。   If it is determined that the vehicle is traveling, the front of the vehicle body is imaged using the infrared image capturing unit, and a thermal image (infrared image) is acquired (S2). Then, the visible image capturing unit captures the front in the vehicle body traveling direction and acquires a visible image (S3). Note that the order of step S2 and step S3 may be either one as long as the interval between steps is short. In some cases, both may be processed in parallel.

ここで、車両が走行中である場合に、像振れの無い画像を取得するためには、まず車載カメラの振動を検出し、その検出値に応じて像振れ抑制を行う必要がある。一般的に、走行中の車体の振動は、特別な段差がなければ、通常1Hzないし20Hzの周波数を有している。本例では、加速度、角加速度、角速度、角変位等の変化量に基づいて、このような振動を検出する。そして、この検出情報に基づき撮影光軸を偏心させて、像振れ抑制を行う。   Here, in order to acquire an image without image blur when the vehicle is traveling, it is necessary to first detect vibration of the in-vehicle camera and perform image blur suppression according to the detected value. In general, the vibration of the traveling vehicle body usually has a frequency of 1 Hz to 20 Hz unless there is a special step. In this example, such vibration is detected based on the amount of change such as acceleration, angular acceleration, angular velocity, and angular displacement. Then, based on this detection information, the photographing optical axis is decentered to suppress image blur.

次に、ステップS3で得られた熱画像から、所与の温度範囲以上の温度を有する領域を、検出対象物の候補領域として抽出する(S4)。   Next, from the thermal image obtained in step S3, a region having a temperature equal to or higher than a given temperature range is extracted as a candidate region for the detection target (S4).

例えば、検出対象物が先行車又は歩行者(人物)である場合について以下で説明する。まず、検出対象物が先行車である場合には、マフラー領域が100℃程度の高温になることを利用して、所与の温度範囲を80℃以上と設定する。そして、熱画像中から80℃以上の温度を有する領域を探索し、その領域の位置情報と温度情報を検出する。   For example, the case where the detection target is a preceding vehicle or a pedestrian (person) will be described below. First, when the detection target is a preceding vehicle, a given temperature range is set to 80 ° C. or higher by utilizing the fact that the muffler region becomes a high temperature of about 100 ° C. Then, a region having a temperature of 80 ° C. or higher is searched from the thermal image, and position information and temperature information of the region are detected.

一方、検出対象物が歩行者である場合には、露出している顔の表面温度が30℃程度の中温になることを利用して、所与の温度範囲を28℃以上37℃未満と設定する。そして、熱画像中から28℃以上37℃未満の温度を有する領域を探索して、その領域の位置情報と温度情報を検出する。   On the other hand, when the object to be detected is a pedestrian, the given temperature range is set to 28 ° C. or higher and lower than 37 ° C. by utilizing the fact that the surface temperature of the exposed face is about 30 ° C. To do. Then, a region having a temperature of 28 ° C. or higher and lower than 37 ° C. is searched from the thermal image, and position information and temperature information of the region are detected.

ここで、各領域で検出される結果のうち、位置情報は例えば候補領域の重心座標位置としてもよく、温度情報は例えば候補領域の平均温度としてもよい。   Here, among the results detected in each region, the position information may be, for example, the barycentric coordinate position of the candidate region, and the temperature information may be, for example, the average temperature of the candidate region.

なお、検出対象物が先行者及び歩行者以外のものを検出対象物とする場合には、その検出対象物が有すると想定される温度情報に基づいて、所与の温度範囲を設定して、上記のように検出処理を行えばよい。   In addition, when the detection object is a thing other than the preceding person and the pedestrian, the given temperature range is set based on the temperature information that the detection object is assumed to have, and The detection process may be performed as follows.

そして、ステップS4で得られた各候補領域の位置情報と温度情報を対応付けした位置及び温度リストを作成する(S5)。   And the position and temperature list which matched the positional information and temperature information of each candidate area | region obtained by step S4 are produced (S5).

次に、ステップS5で作成したリスト内に、検出対象物に対する候補領域があるかどうかを判定する(S6)。リスト内に検出対象物の候補領域が一つも抽出されていない場合には、今回の赤外線画像撮像部により撮像された熱画像中には、検出対象物である先行車や歩行者が存在しないものと判断して、次回の処理のためにステップS3に戻る。   Next, it is determined whether there is a candidate area for the detection target in the list created in step S5 (S6). When no candidate area of the detection target is extracted from the list, there is no preceding vehicle or pedestrian that is the detection target in the thermal image captured by the current infrared image capturing unit. It returns to step S3 for the next process.

一方、リスト内に検出対象物の候補領域が一つ以上ある場合には、ステップS5で作成したリストに基づいて、可視画像中に各候補領域を重ね合わせる(S7)。   On the other hand, if there are one or more candidate areas for the detection target in the list, the candidate areas are superimposed on the visible image based on the list created in step S5 (S7).

次に、ステップS7で可視画像に重畳した各候補領域について、テンプレートマッチング処理を行い、候補領域が検出対象物を表す領域であるか否かを判断する。   Next, template matching processing is performed for each candidate region superimposed on the visible image in step S7, and it is determined whether or not the candidate region is a region representing a detection target.

テンプレートマッチング処理では、まず、ステップS5で作成したリストの温度情報に基づいて、テンプレートマッチング処理に使用するテンプレートを選択する(S8)。例えば、テンプレートにあらかじめ割り当てられた温度情報と、候補領域の平均温度との差が、所与の閾値(±ΔT)以内であるテンプレートを、使用するテンプレートとして選択する。なお、テンプレートは、検出対象物の温度分布の傾向を表すものであってもよい。   In the template matching process, first, a template to be used for the template matching process is selected based on the temperature information in the list created in step S5 (S8). For example, a template in which the difference between the temperature information pre-assigned to the template and the average temperature of the candidate area is within a given threshold (± ΔT) is selected as the template to be used. Note that the template may represent a tendency of the temperature distribution of the detection target.

具体例として、先行車用テンプレートに、例えば100℃の温度情報が割り当てられており、所与の閾値ΔTが±3℃である場合には、候補領域の平均温度が100±3℃である場合に、先行車用テンプレートが使用するテンプレートとして選択される。   As a specific example, for example, when temperature information of 100 ° C. is assigned to the preceding vehicle template and the given threshold value ΔT is ± 3 ° C., the average temperature of the candidate region is 100 ± 3 ° C. In addition, the preceding vehicle template is selected as a template to be used.

一方、歩行者用テンプレートに、例えば28℃の温度情報が割り当てられており、所与の閾値ΔTが±3℃である場合には、候補領域の平均温度が28±3℃である場合に、歩行者用テンプレートが使用するテンプレートとして選択される。なお、高温部分については、外気温の影響を受けること等を考えると、同一の物体でも所定の範囲で温度が変化することを考慮する必要がある。また、今回の例では中温情報を有する対象物を歩行者としているが、例えば似たような中温情報を有する対象物である動物(犬等)と区別するためには、本ステップで動物のテンプレートも使用するテンプレートとして選択され得る。   On the other hand, for example, temperature information of 28 ° C. is assigned to the template for the pedestrian, and when the given threshold ΔT is ± 3 ° C., when the average temperature of the candidate region is 28 ± 3 ° C., It is selected as a template to be used by the pedestrian template. In addition, regarding the high temperature part, it is necessary to consider that the temperature changes within a predetermined range even for the same object, considering that it is affected by the outside air temperature. In this example, the object having medium temperature information is a pedestrian. For example, in order to distinguish it from an animal (such as a dog) that is a similar object having medium temperature information, an animal template is used in this step. Can also be selected as the template to use.

そして、ステップS8で選択されたテンプレートと、候補領域とを比較して、候補領域が検出対象物を表す領域であるか否かを判断する(S9)。例えば、候補領域がテンプレートと温度分布の傾向が似ている場合や、テンプレートに割り当てられた検出対象物の形状の輪郭と、候補領域の輪郭との誤差が所定の閾値よりも小さい場合等に、候補領域がテンプレートと同一の検出対象物に関するものであると判断し、検出対象物の位置を取得する。   Then, the template selected in step S8 is compared with the candidate area to determine whether the candidate area is an area representing the detection target (S9). For example, when the candidate region has a similar temperature distribution tendency to the template, or when the error between the contour of the shape of the detection target assigned to the template and the contour of the candidate region is smaller than a predetermined threshold, etc. The candidate area is determined to be related to the same detection target as the template, and the position of the detection target is acquired.

また、テンプレートマッチング処理の他の方法として、可視画像に基づいて、可視画像に重畳された候補領域内の濃度値(濃淡値)を求め、選択されたテンプレートの濃度値(濃淡値)との相関演算によって、候補領域が検出対象物を表す領域であるか否かを判断してもよい。また、他にも、テンプレートとしてエッジ画像を準備しておき、候補領域のエッジ情報を検出し、エッジ情報の相関演算を行うことにより、候補領域が検出対象物を表す領域であるか否かを判断してもよい。   As another method of template matching processing, the density value (gray value) in the candidate area superimposed on the visible image is obtained based on the visible image, and the correlation with the density value (gray value) of the selected template is obtained. It may be determined by calculation whether or not the candidate region is a region representing a detection target. In addition, by preparing an edge image as a template, detecting edge information of the candidate area, and performing a correlation calculation of the edge information, it is determined whether or not the candidate area is an area representing the detection target. You may judge.

そして、ステップS5で作成されたリストにある全ての候補領域に対して、テンプレートマッチング処理が行われたか否かを判定する(S10)。リストにある全ての候補領域に対してテンプレートマッチング処理が終了していない場合には、ステップS7に戻る。リストにある全ての候補領域に対してテンプレートマッチング処理が終了している場合には、外部機器に対して検出結果を出力する(S11)。   Then, it is determined whether template matching processing has been performed for all candidate regions in the list created in step S5 (S10). If the template matching process has not been completed for all candidate areas in the list, the process returns to step S7. If the template matching process has been completed for all candidate areas in the list, the detection result is output to the external device (S11).

例えば、検出結果の先行車や歩行者の位置を表示するために、本処理の検出結果を提示部(車内ディスプレイ)に出力してもよい。他にも、歩行者の有無や衝突の危険があることを知らせるために、警報又は画像付きメールにて通報装置に出力してもよい。   For example, in order to display the position of the preceding vehicle or pedestrian as the detection result, the detection result of this process may be output to the presentation unit (in-vehicle display). In addition, in order to notify the presence or absence of a pedestrian or the danger of a collision, it may be output to the notification device by an alarm or an email with an image.

最後に、次回以降の処理を行うためにステップS1へ戻る。   Finally, the process returns to step S1 in order to perform the subsequent processing.

次に、車両が住居に駐車し、住居の防犯のために、本実施形態の車載カメラ制御装置を使用する場合の処理について説明する。   Next, processing when the vehicle is parked in a residence and the vehicle-mounted camera control device of the present embodiment is used for crime prevention of the residence will be described.

ステップS1において、振動が検知されなければ、車両が駐車中または停車中であると判断し、赤外線画像撮像部及び可視画像撮像部の駆動源を停止する(S12)。   If vibration is not detected in step S1, it is determined that the vehicle is parked or stopped, and the drive sources of the infrared image capturing unit and the visible image capturing unit are stopped (S12).

そして、住居防犯のために、車載カメラシステムを使用する場合には、住居の玄関や窓等を含む監視エリアを撮像可能なように、赤外線画像撮像部の撮像方向や撮像位置を変更する(S13)。赤外線画像撮像部の撮像方向や撮像位置の変更は、手動で行っても良いし、車載カメラ制御装置からの制御信号に基づいて、自動で行っても良い。   And when using a vehicle-mounted camera system for house crime prevention, the imaging direction and imaging position of an infrared image imaging part are changed so that the monitoring area including the entrance of a residence, a window, etc. can be imaged (S13). ). The change of the imaging direction and the imaging position of the infrared imaging unit may be performed manually or automatically based on a control signal from the in-vehicle camera control device.

次に、赤外線画像撮像部の位置等を変更してから一定時間が経過するのを待って(S14)、赤外線画像撮像部を駆動させる。なお、ここで一定時間経過後に赤外線画像撮像部を駆動させる理由は、赤外線画像撮像部の位置や方向の調整動作の完了を待つこと及び焦点合わせを行うことだけでなく、設置直後には防犯の必要性が乏しいという理由もある。防犯の必要性が乏しい時間については、車載カメラシステムを稼働させないことにより、消費電力の削減を図っている。   Next, after a predetermined time has elapsed since the position of the infrared image capturing unit is changed (S14), the infrared image capturing unit is driven. Note that the reason for driving the infrared image capturing unit after a certain period of time here is not only waiting for completion of the adjustment operation of the position and direction of the infrared image capturing unit and focusing, but also immediately after installation There is also a reason for the lack of necessity. For times when crime prevention is scarce, power consumption is reduced by not operating the in-vehicle camera system.

そして、一定時間待機後に、赤外線画像撮像部に監視エリアを撮像させ、時間tにおける熱画像を取得する(S15)。この時、カウンターiを初期化しておく。なお、ここで、赤外線画像撮像部の感度は、落としても構わない。車体と対象物(窓・扉)の距離が近く、背景部と侵入者(対象物)の画像の重なりによる、輪郭ボケも少ないためである。   Then, after waiting for a certain time, the infrared image capturing unit is caused to capture the monitoring area, and a thermal image at time t is acquired (S15). At this time, the counter i is initialized. Here, the sensitivity of the infrared image capturing unit may be reduced. This is because the distance between the vehicle body and the object (window / door) is short, and there is little outline blur due to the overlap of the background portion and the image of the intruder (object).

次に、防犯の開始時間を把握するため、及び赤外線画像撮像部が正常に稼動している事を知らせるために、ステップS15において撮像した赤外線画像を、外部機器、例えばユーザーの携帯電話等に送信する(S16)。同時に、ステップS15において撮像した赤外線画像を記憶部にマスター画像(第1の赤外線画像データ)として保存する。   Next, the infrared image captured in step S15 is transmitted to an external device such as a user's mobile phone in order to grasp the start time of crime prevention and to inform that the infrared image capturing unit is operating normally. (S16). At the same time, the infrared image captured in step S15 is stored in the storage unit as a master image (first infrared image data).

そして、所定の時間経過後に、カウンターiを更新して、赤外線画像撮像部により前方を撮像し、新たな熱画像を取得する(S17)。   Then, after elapse of a predetermined time, the counter i is updated, the front is captured by the infrared image capturing unit, and a new thermal image is acquired (S17).

ここで、熱画像取得途中に車体の振動を検知した場合には(S18)、車両防犯処理として、ステップS22以下の処理を行う。ステップS22以下の処理については、後述する。   Here, when the vibration of the vehicle body is detected during the acquisition of the thermal image (S18), the process from step S22 is performed as the vehicle crime prevention process. The process after step S22 will be described later.

一方、熱画像取得途中に車体の振動を検知しなかった場合には(S18)、このまま住居防犯処理を継続するか否かを判断するために、赤外線画像撮像部の撮像位置又は撮像方向が変更されたか否かを判断する(S19)。   On the other hand, when the vibration of the vehicle body is not detected during the thermal image acquisition (S18), the imaging position or the imaging direction of the infrared imaging unit is changed to determine whether or not to continue the house crime prevention process. It is determined whether it has been done (S19).

赤外線画像撮像部の撮像位置又は撮像方向が変更された場合には、例えば、車両の所有者であるユーザーが、車両を走行させるなどの理由で、住居防犯処理を中止したと判断する。そして、S0の処理に戻る。   When the imaging position or imaging direction of the infrared image capturing unit is changed, for example, it is determined that the user who is the owner of the vehicle has stopped the home crime prevention process for the reason of running the vehicle. Then, the process returns to S0.

一方、赤外線画像撮像部の撮像位置又は撮像方向が変更されていない場合には、ステップS15において取得した熱画像(第1の赤外線画像データ)と、ステップS17において取得した熱画像(第2の赤外線画像データ)とを比較する(S20)。この比較処理は、例えば、二つの熱画像の温度特徴量の比較などにより行う。   On the other hand, when the imaging position or imaging direction of the infrared image capturing unit is not changed, the thermal image acquired in step S15 (first infrared image data) and the thermal image acquired in step S17 (second infrared image) The image data is compared (S20). This comparison process is performed, for example, by comparing the temperature feature amounts of two thermal images.

二つの熱画像に差異があると判断する場合には、監視エリア内に侵入者がいる可能性が高いため、ステップS17において取得した熱画像(第2の赤外線画像データ)や、侵入者がいることを知らせる警報情報を、ユーザーの外部機器に送信する(S21)。そして、ステップS17の処理に戻る。   When it is determined that there is a difference between the two thermal images, there is a high possibility that there is an intruder in the monitoring area, so there is a thermal image (second infrared image data) acquired in step S17 or an intruder. The alarm information to notify this is transmitted to the user's external device (S21). Then, the process returns to step S17.

一方、二つの熱画像に差異がないと判断する場合には、監視エリア内に侵入者等がなく、異常がないと判断できる。そのため、監視を続けるためにステップS17の処理に戻る。   On the other hand, when it is determined that there is no difference between the two thermal images, it can be determined that there is no intruder or the like in the monitoring area and there is no abnormality. Therefore, the process returns to step S17 to continue monitoring.

また、ステップS18において、熱画像取得途中に車体の振動を検知した場合には、車両防犯処理を実行する。この場合には、赤外線画像撮像部の位置や向きを住居防犯処理用のまま、車両が走行状態になったことを意味している。車両の所有者であれば、通常は住居防犯処理を停止させ、赤外線画像撮像部の位置を変更してから、車両を走行させると考えられる。よって、この場合には、車両が盗難にあったか、もしくは車両の所有者が住居防犯処理を実行していることを忘れているかのどちらかである。   In step S18, if vibration of the vehicle body is detected during the acquisition of the thermal image, vehicle security processing is executed. In this case, it means that the vehicle is in a running state with the position and orientation of the infrared image capturing unit being used for residential crime prevention processing. If it is the owner of the vehicle, it is considered that the vehicle is usually run after stopping the residential crime prevention process and changing the position of the infrared image capturing unit. Therefore, in this case, either the vehicle has been stolen or the vehicle owner has forgotten to perform the residential crime prevention process.

そのため、まず、赤外線画像撮像部の駆動を停止させ、住居防犯処理を停止する(S22)。次に、車両が盗難にあっている場合に、車両の現在位置を知るために、可視画像撮像部を駆動させ、可視画像を取得する(S23)。そして、ユーザーが持つ外部端末に、ステップS23において撮像した可視画像を送信して、異常が発生したことをユーザーに通知する(S24)。また、この際に送信する情報は、可視画像であってもよいし、車載カメラ制御装置が車両防犯処理を開始したことを通知する情報であってもよい。   Therefore, first, driving of the infrared image capturing unit is stopped, and the residential crime prevention process is stopped (S22). Next, when the vehicle is stolen, in order to know the current position of the vehicle, the visible image capturing unit is driven to obtain a visible image (S23). Then, the visible image captured in step S23 is transmitted to the external terminal held by the user to notify the user that an abnormality has occurred (S24). In addition, the information transmitted at this time may be a visible image, or may be information notifying that the in-vehicle camera control device has started the vehicle crime prevention process.

以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステムの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configurations and operations of the in-vehicle camera control device, the in-vehicle camera control system, and the in-vehicle camera system are not limited to those described in the present embodiment, and various modifications can be made.

100 車載カメラ制御装置、110 画像取得部、120 処理部、
130 走行状態判定部、140 通信部、150 記憶部、
200 車載カメラシステム、210 赤外線画像撮像部、220 可視画像撮像部、
230 提示部、240 センサー、300 外部機器、
410 赤外線カメラ、420 電動モーター、430 可視カメラ、
440 電動モーター、450 CPU、460 ジャイロセンサー、
470 メモリー、480 GPS、490 ディスプレイ
100 on-vehicle camera control device, 110 image acquisition unit, 120 processing unit,
130 traveling state determination unit, 140 communication unit, 150 storage unit,
200 vehicle-mounted camera system, 210 infrared image capturing unit, 220 visible image capturing unit,
230 presentation unit, 240 sensor, 300 external device,
410 infrared camera, 420 electric motor, 430 visible camera,
440 electric motor, 450 CPU, 460 gyro sensor,
470 memory, 480 GPS, 490 display

Claims (13)

赤外線画像データを赤外線画像撮像部から取得する画像取得部と、
前記赤外線画像データに基づく処理を行う処理部と、
外部機器との通信処理を行う通信部と、
車両が走行状態か非走行状態かを判定する走行状態判定部と、
を含み、
前記処理部は、
前記車両が前記走行状態であると判断された場合に、前記赤外線画像データに基づく画像処理を行い、
前記通信部は、
前記車両が前記非走行状態であると判断された場合に、前記赤外線画像データ又は前記赤外線画像データに基づく検出情報を、前記外部機器に送信することを特徴とする車載カメラ制御装置。
An image acquisition unit for acquiring infrared image data from the infrared image capturing unit;
A processing unit for performing processing based on the infrared image data;
A communication unit that performs communication processing with an external device;
A traveling state determination unit that determines whether the vehicle is in a traveling state or a non-driving state;
Including
The processor is
When it is determined that the vehicle is in the traveling state, image processing based on the infrared image data is performed,
The communication unit is
An in-vehicle camera control device, wherein when it is determined that the vehicle is in the non-running state, the infrared image data or detection information based on the infrared image data is transmitted to the external device.
請求項1において、
前記処理部は、
前記車両が前記走行状態であると判断された場合に、前記赤外線画像データに基づいて対象物の検出情報を含む表示用画像データを生成する処理を、前記画像処理として行うことを特徴とする車載カメラ制御装置。
In claim 1,
The processor is
When the vehicle is determined to be in the traveling state, a process of generating display image data including detection information of an object based on the infrared image data is performed as the image process. Camera control device.
請求項2において、
前記画像取得部は、
可視画像データを可視画像撮像部から取得し、
前記処理部は、
前記表示用画像データとして、前記対象物が存在する位置に対応する前記可視画像上の位置に、アラート画像を重畳した画像データを生成する処理を、前記画像処理として行うことを特徴とする車載カメラ制御装置。
In claim 2,
The image acquisition unit
Visible image data is acquired from the visible image capturing unit,
The processor is
An in-vehicle camera that performs, as the image processing, processing for generating image data in which an alert image is superimposed at a position on the visible image corresponding to a position where the object is present as the display image data Control device.
請求項1乃至3のいずれかにおいて、
前記処理部は、
前記車両が前記非走行状態であると判断された場合に、住居防犯処理を行い、
前記住居防犯処理を実行中の場合において、前記走行状態判定部により前記車両が前記非走行状態から前記走行状態になったと判断された場合には、車両防犯処理を行うことを特徴とする車載カメラ制御装置。
In any one of Claims 1 thru | or 3,
The processor is
When it is determined that the vehicle is in the non-running state, a residential crime prevention process is performed,
An in-vehicle camera that performs vehicle crime prevention processing when it is determined that the vehicle has changed from the non-running state to the running state when the running state determination unit is executing the residential crime prevention process. Control device.
請求項4において、
前記処理部は、
前記車両が前記非走行状態であると判断された場合において、前記赤外線画像撮像部が前記住居防犯処理用の位置又は方向に設定された場合に、前記赤外線画像データに基づいて前記住居防犯処理を行い、
前記通信部は、
前記住居防犯処理の結果に基づいて、前記赤外線画像データ又は前記赤外線画像データに基づく前記検出情報を、前記外部機器に送信することを特徴とする車載カメラ制御装置。
In claim 4,
The processor is
When it is determined that the vehicle is in the non-running state, when the infrared image capturing unit is set to the position or direction for the residential crime prevention process, the residential crime prevention process is performed based on the infrared image data. Done
The communication unit is
An in-vehicle camera control device that transmits the infrared image data or the detection information based on the infrared image data to the external device based on a result of the residential crime prevention process.
請求項4又は5において、
前記赤外線画像データを記憶する記憶部を含み、
前記処理部は、
前記住居防犯処理として、所与の時間間隔で前記赤外線画像データを前記記憶部に保存し、保存された第1の赤外線画像データと、前記第1の赤外線画像データとは異なるタイミングに取得された第2の赤外線画像データとの比較処理を行い、
前記通信部は、
前記比較処理において、前記第1の赤外線画像データと前記第2の赤外線画像データとに差異があったと判断された場合に、前記赤外線画像データ又は前記赤外線画像データに基づく前記検出情報を、前記外部機器に送信することを特徴とする車載カメラ制御装置。
In claim 4 or 5,
A storage unit for storing the infrared image data;
The processor is
As the residential crime prevention process, the infrared image data is stored in the storage unit at given time intervals, and the stored first infrared image data and the first infrared image data are acquired at different timings. Perform comparison processing with the second infrared image data,
The communication unit is
In the comparison process, when it is determined that there is a difference between the first infrared image data and the second infrared image data, the detection information based on the infrared image data or the infrared image data is used as the external information. An in-vehicle camera control device that transmits to a device.
請求項4乃至6のいずれかにおいて、
前記処理部は、
前記赤外線画像撮像部が前記住居防犯処理用の位置又は方向に設定されている場合において、前記車両が前記走行状態であることが検出された場合には、前記車両防犯処理を行うことを特徴とする車載カメラ制御装置。
In any one of Claims 4 thru | or 6.
The processor is
When the infrared image capturing unit is set at the position or direction for the residential crime prevention process, the vehicle crime prevention process is performed when the vehicle is detected to be in the traveling state. In-vehicle camera control device.
請求項4乃至7のいずれかにおいて、
前記処理部は、
前記住居防犯処理を行う場合には、可視画像撮像部を動作オフ状態に設定し、
前記車両防犯処理を行う場合には、前記可視画像撮像部を動作オン状態に設定することを特徴とする車載カメラ制御装置。
In any of claims 4 to 7,
The processor is
When performing the residential crime prevention process, set the visible image capturing unit in the operation off state,
When performing the vehicle crime prevention process, the vehicle-mounted camera control device is characterized in that the visible image capturing unit is set to an operation-on state.
請求項8において、
前記画像取得部は、
前記車両防犯処理として、可視画像データを前記可視画像撮像部から取得する処理を行い、
前記通信部は、
前記可視画像データを前記外部機器に送信することを特徴とする車載カメラ制御装置。
In claim 8,
The image acquisition unit
As the vehicle crime prevention process, performing a process of obtaining visible image data from the visible image capturing unit,
The communication unit is
An in-vehicle camera control device that transmits the visible image data to the external device.
請求項1乃至9のいずれかにおいて、
前記画像取得部は、
可視画像データを可視画像撮像部から取得し、
前記処理部は、
前記車両が前記走行状態であると判断された場合には、前記赤外線画像撮像部と前記可視画像撮像部と前記通信部のうち、前記赤外線画像撮像部と前記可視画像撮像部とを動作オン状態に設定して、
前記車両が前記非走行状態であると判断された場合には、前記赤外線画像撮像部と前記可視画像撮像部と前記通信部のうち、前記赤外線画像撮像部と前記通信部とを動作オン状態に設定することを特徴とする車載カメラ制御装置。
In any one of Claims 1 thru | or 9,
The image acquisition unit
Visible image data is acquired from the visible image capturing unit,
The processor is
When it is determined that the vehicle is in the traveling state, the infrared image capturing unit and the visible image capturing unit among the infrared image capturing unit, the visible image capturing unit, and the communication unit are in an operation-on state. Set to
When it is determined that the vehicle is in the non-running state, the infrared image capturing unit and the communication unit are turned on among the infrared image capturing unit, the visible image capturing unit, and the communication unit. An in-vehicle camera control device characterized by setting.
請求項1乃至10のいずれかにおいて、
前記処理部は、
前記車両が前記非走行状態であると判断された場合に、前記車両が前記走行状態である時のフレームレートに比べて、前記赤外線画像撮像部のフレームレートを低く設定することを特徴とする車載カメラ制御装置。
In any one of Claims 1 thru | or 10.
The processor is
When the vehicle is determined to be in the non-running state, the vehicle image is configured to set the frame rate of the infrared image capturing unit to be lower than the frame rate when the vehicle is in the running state. Camera control device.
赤外線画像データを赤外線画像撮像部から取得する画像取得部と、
前記赤外線画像データに基づく処理を行う処理部と、
外部機器との通信処理を行う通信部と、
車両が走行状態か非走行状態かを判定する走行状態判定部と、
を含み、
前記処理部は、
前記車両が前記走行状態であると判断された場合に、前記赤外線画像データに基づく画像処理を行い、
前記通信部は、
前記車両が前記非走行状態であると判断された場合に、前記赤外線画像データ又は前記赤外線画像データに基づく検出情報を、前記外部機器に送信することを特徴とする車載カメラ制御システム。
An image acquisition unit for acquiring infrared image data from the infrared image capturing unit;
A processing unit for performing processing based on the infrared image data;
A communication unit that performs communication processing with an external device;
A traveling state determination unit that determines whether the vehicle is in a traveling state or a non-driving state;
Including
The processor is
When it is determined that the vehicle is in the traveling state, image processing based on the infrared image data is performed,
The communication unit is
An in-vehicle camera control system that transmits the infrared image data or detection information based on the infrared image data to the external device when it is determined that the vehicle is in the non-running state.
請求項1乃至11のいずれかに記載の車載カメラ制御装置と、
前記赤外線画像撮像部と、
を含むことを特徴とする車載カメラシステム。
The in-vehicle camera control device according to any one of claims 1 to 11,
The infrared imaging unit;
An in-vehicle camera system characterized by including:
JP2011178786A 2011-08-18 2011-08-18 On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system Withdrawn JP2013041489A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011178786A JP2013041489A (en) 2011-08-18 2011-08-18 On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011178786A JP2013041489A (en) 2011-08-18 2011-08-18 On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system

Publications (1)

Publication Number Publication Date
JP2013041489A true JP2013041489A (en) 2013-02-28

Family

ID=47889805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011178786A Withdrawn JP2013041489A (en) 2011-08-18 2011-08-18 On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system

Country Status (1)

Country Link
JP (1) JP2013041489A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103879379A (en) * 2013-12-31 2014-06-25 莱阳市科盾通信设备有限责任公司 Intelligent vehicle driving assistance system
WO2014188661A1 (en) * 2013-05-24 2014-11-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image transmission device
JP2015218969A (en) * 2014-05-19 2015-12-07 三菱電機株式会社 Water heater remote control and water heater
JP2017502410A (en) * 2013-12-18 2017-01-19 ビステオン グローバル テクノロジーズ インコーポレイテッド In-vehicle camera and alarm system
JP2017200035A (en) * 2016-04-27 2017-11-02 株式会社Jvcケンウッド VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY SYSTEM, VEHICLE DISPLAY CONTROL METHOD, AND PROGRAM
JP2020048105A (en) * 2018-09-20 2020-03-26 東京電力ホールディングス株式会社 Biological detection method
WO2021200681A1 (en) * 2020-03-31 2021-10-07 株式会社デンソー Remote parking system and parking assistant control device used for same
CN115139983A (en) * 2021-03-30 2022-10-04 上海博泰悦臻网络技术服务有限公司 Information prompting method, equipment and storage medium
WO2025191762A1 (en) * 2024-03-13 2025-09-18 パイオニア株式会社 Control device, monitoring system, control method, and program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021037950A (en) * 2013-05-24 2021-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image transmitter
WO2014188661A1 (en) * 2013-05-24 2014-11-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image transmission device
JP2019214365A (en) * 2013-05-24 2019-12-19 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image transmitting device
EP3006277A4 (en) * 2013-05-24 2016-11-09 Panasonic Ip Corp America IMAGE TRANSMISSION DEVICE
US9794553B2 (en) 2013-05-24 2017-10-17 Panasonic Intellectual Property Corporation Of America Image transmitting device to enhance security of parked vehicle
EP3372459A1 (en) * 2013-05-24 2018-09-12 Panasonic Intellectual Property Corporation of America Image transmitting device
JPWO2014188661A1 (en) * 2013-05-24 2017-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image transmission device
EP3575159A1 (en) * 2013-05-24 2019-12-04 Panasonic Intellectual Property Corporation of America Image transmitting device
US10277892B2 (en) 2013-05-24 2019-04-30 Panasonic Intellectual Property Corporation Of America Image transmitting device that captures an image when a braking operation of a vehicle is performed
JP2018111496A (en) * 2013-05-24 2018-07-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image transmission device
JP2017502410A (en) * 2013-12-18 2017-01-19 ビステオン グローバル テクノロジーズ インコーポレイテッド In-vehicle camera and alarm system
CN103879379A (en) * 2013-12-31 2014-06-25 莱阳市科盾通信设备有限责任公司 Intelligent vehicle driving assistance system
CN103879379B (en) * 2013-12-31 2017-02-15 科盾科技股份有限公司 Intelligent vehicle driving assistance system
JP2015218969A (en) * 2014-05-19 2015-12-07 三菱電機株式会社 Water heater remote control and water heater
JP2017200035A (en) * 2016-04-27 2017-11-02 株式会社Jvcケンウッド VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY SYSTEM, VEHICLE DISPLAY CONTROL METHOD, AND PROGRAM
JP2020048105A (en) * 2018-09-20 2020-03-26 東京電力ホールディングス株式会社 Biological detection method
JP7196490B2 (en) 2018-09-20 2022-12-27 東京電力ホールディングス株式会社 Living body detection method
WO2021200681A1 (en) * 2020-03-31 2021-10-07 株式会社デンソー Remote parking system and parking assistant control device used for same
JP2021163114A (en) * 2020-03-31 2021-10-11 株式会社デンソー Remote parking system and parking assistance control device used therefor
JP7347302B2 (en) 2020-03-31 2023-09-20 株式会社デンソー remote parking system
CN115139983A (en) * 2021-03-30 2022-10-04 上海博泰悦臻网络技术服务有限公司 Information prompting method, equipment and storage medium
CN115139983B (en) * 2021-03-30 2024-01-05 上海博泰悦臻网络技术服务有限公司 Information prompting method, equipment and storage medium
WO2025191762A1 (en) * 2024-03-13 2025-09-18 パイオニア株式会社 Control device, monitoring system, control method, and program

Similar Documents

Publication Publication Date Title
JP2013041483A (en) On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system
US11845399B2 (en) Recording video of an operator and a surrounding visual field
JP2013041489A (en) On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system
JP4702598B2 (en) Monitoring system, monitoring apparatus and method, recording medium, and program
JP5872764B2 (en) Image display system
EP3005228B1 (en) Information processing device, approaching object notification method, and program
TWI458653B (en) Blind spot detection system and blind spot detection method thereof
US11265508B2 (en) Recording control device, recording control system, recording control method, and recording control program
CN107848488A (en) Multi-purpose vehicle intelligent monitoring system and method
US20150287326A1 (en) Monitoring System
JP2013042402A (en) On-vehicle camera controller, on-vehicle camera control system, and on-vehicle camera system
JP2010257249A (en) In-vehicle security device
JP2016057839A (en) Facial direction detection device and warning system for vehicle
JP2020149088A (en) Vehicle security device
CN109177876A (en) A kind of moving Object Detection alarm system and method
WO2020151560A1 (en) Vehicle blind spot detection method, apparatus and system
CN115027353B (en) Blind spot monitoring system and method
JP2006338594A (en) Pedestrian recognition device
JP7057074B2 (en) On-board unit and driving support device
JP4984521B2 (en) In-vehicle camera control device
JP2012242993A (en) Moving body monitoring device and moving body monitoring method
JP2005354594A (en) Vehicle vicinity monitoring system
JP2013041488A (en) On-vehicle camera control unit, on-vehicle camera control system and on-vehicle camera system
US12132986B2 (en) Computer vision system used in vehicles
CN107640111B (en) Automobile visual image processing system and method based on hundred-core microprocessor control

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104