JP2010268343A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2010268343A JP2010268343A JP2009119591A JP2009119591A JP2010268343A JP 2010268343 A JP2010268343 A JP 2010268343A JP 2009119591 A JP2009119591 A JP 2009119591A JP 2009119591 A JP2009119591 A JP 2009119591A JP 2010268343 A JP2010268343 A JP 2010268343A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- optical system
- moving image
- imaging optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 90
- 230000003287 optical effect Effects 0.000 claims abstract description 83
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 7
- 230000003595 spectral effect Effects 0.000 claims description 20
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 230000015654 memory Effects 0.000 description 51
- 238000012545 processing Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 21
- 230000001133 acceleration Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 10
- 238000012937 correction Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 208000033748 Device issues Diseases 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 230000005571 horizontal transmission Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000005570 vertical transmission Effects 0.000 description 1
Landscapes
- Studio Devices (AREA)
Abstract
【課題】精度の高い組立てを効率的に行うことが可能で、撮像する画角が大きく歪の少ない、相反する方向の画像を動画撮影可能で、その画像を違和感無く提供するコンパクトな撮影装置を提案すること。
【解決手段】所定の周期で被写体を電気信号に変換する1つの撮像素子と、第1の結像光学系及び第1の結像光学系とは異なる焦点距離の第2の結像光学系でそれぞれ異なる方向からの被写体像を1つの撮像素子上の所定の領域に結像させる結像手段と、撮像素子から出力した電気信号に基づいて第1の動画像を生成する動画像生成手段と、動画像生成手段によって生成された第1の動画像を各領域に対応する部分画像に分割する撮影画像分割手段と、撮影画像分割手段によって分割された部分画像を所定の配置で合成して第2の動画像に生成する画像合成手段と、画像合成手段によって合成された第2の動画像を表示装置に表示させる表示制御手段とを有する。
【選択図】図7A compact photographing apparatus capable of efficiently assembling with high accuracy, capable of photographing a moving image of an opposite direction with a large angle of view and a small distortion, and providing the image without a sense of incongruity. Propose.
One imaging device that converts an object into an electrical signal at a predetermined period and a second imaging optical system having a focal length different from that of the first imaging optical system and the first imaging optical system. Imaging means for forming subject images from different directions in a predetermined region on one image sensor, moving image generation means for generating a first moving image based on an electrical signal output from the image sensor, The captured image dividing means for dividing the first moving image generated by the moving image generating means into partial images corresponding to the respective areas, and the partial images divided by the captured image dividing means are combined in a predetermined arrangement and second. Image synthesizing means for generating the moving image, and display control means for causing the display device to display the second moving image synthesized by the image synthesizing means.
[Selection] Figure 7
Description
本発明は、少なくとも2方向の被写体を単一の撮像素子にて撮像すると共に、撮像する画角が大きく歪の少ない、かつ、コンパクト化しやすい、撮影装置および撮影方法に関するものである。 The present invention relates to an image capturing apparatus and an image capturing method that capture an image of a subject in at least two directions with a single image sensor, have a large angle of view, have little distortion, and are easily compact.
近年、自動車業界ではアクティブセーフティー(予防安全)の取り組みで、各種センシングシステムが提案実施されている。例えば、車間センサーや白線検知、駐車アシスト、バックモニター、よそ見などによる事故を防止する顔向き検知システム、車両の盗難時の犯人を撮影する等々、そこに、多くのカメラが搭載され実現化されている。また、業務用車両などにおいては、ドライブレコーダーなどのカメラシステムなども普及しつつある。 In recent years, various sensing systems have been proposed and implemented by active safety (preventive safety) in the automobile industry. For example, many cameras are installed and realized, such as inter-vehicle sensors, white line detection, parking assistance, back monitor, face orientation detection system to prevent accidents by looking away, photographing the culprit at the time of vehicle theft, etc. Yes. In commercial vehicles, camera systems such as drive recorders are becoming widespread.
また、複数方向を1個の撮像素子に撮像するカメラでは、左右のブラインドコーナーを撮像するシステム(例えば、特許文献1参照。)や、距離計測のために視差を僅かにずらして同一の画像を取得するステレオアダプターなどが提案されている(例えば、特許文献2参照。)。 In addition, in a camera that captures images in a plurality of directions on a single image sensor, a system that captures left and right blind corners (see, for example, Patent Document 1), or the same image with a slight shift in parallax for distance measurement. A stereo adapter to be acquired has been proposed (see, for example, Patent Document 2).
しかしながら、上述のようなシステムはそれぞれが独立して構成されているため、それぞれの有効なシステムを複数実現しようとすると、それぞれの目的で個々にカメラを用意することになり、設置場所の確保、コストアップの点で問題があった。そのため、複合的にそれぞれの機能を利用しきれていないのが現状であった。 However, since the systems as described above are configured independently, when trying to realize each of the effective systems, a camera is individually prepared for each purpose, ensuring the installation location, There was a problem in terms of cost increase. Therefore, the current situation is that each function cannot be used in a complex manner.
また、従来のこの種の撮影光学ユニットは、撮像素子の受光面とレンズとの位置をその構造上短縮するのが困難であり、システムのサイズの小型化が困難であった。
さらに、広画角をカバーする必要から魚眼レンズを使用しているため、必要な画角を切り取り歪補正後の画像の情報を用いており、魚眼レンズ故の視認性の低い画像しか得られず、歪補正を行うとしても周辺の情報不足により実態とはかけ離れた画像が見えていた。また、補正による後段の画像処理の煩雑さを招きかねないという問題もあった。
Further, in this type of conventional optical imaging unit, it is difficult to shorten the position of the light receiving surface of the image sensor and the lens due to its structure, and it is difficult to reduce the size of the system.
Furthermore, since a fisheye lens is used because it is necessary to cover a wide angle of view, the necessary angle of view is cut out and the image information after distortion correction is used, and only images with low visibility due to the fisheye lens can be obtained. Even if correction was performed, an image far from the actual situation was visible due to lack of surrounding information. There is also a problem that the subsequent image processing due to the correction may be complicated.
また、特に車両室内に設けることが通常の白線検知カメラ、車間センサーやドライブレコーダーは、車両の前方を向いており、脇見や居眠り防止、盗難車両の運転者映像の取得カメラなどは、車両室内を向いているため、それぞれのカメラを同一筐体に収めることが困難であった。 In particular, white line detection cameras, inter-vehicle sensors, and drive recorders that are usually installed in the vehicle compartment are facing the front of the vehicle, and a camera that captures driver images of stolen vehicles is used in the vehicle interior. Therefore, it was difficult to fit each camera in the same housing.
本発明は、上述のような実状に鑑みたものであり、構造の簡素化により精度の高い組立てを効率的に行うことが可能で、撮像する画角が大きく歪の少ない、相反する方向の画像を動画撮影可能で、その画像を違和感無く提供するコンパクトな撮影装置を提案することを目的とする。 The present invention has been made in view of the above-described circumstances, and can be efficiently assembled with high accuracy by simplifying the structure. The image in the opposite direction has a large angle of view and a small distortion. It is an object of the present invention to propose a compact photographing apparatus that can take a moving image and provides the image without a sense of incongruity.
本発明は、上記課題を解決するため、下記のような構成を採用した。
すなわち、本発明の一態様によれば、本発明の撮影装置は、所定の周期で被写体を電気信号に変換する1つの撮像素子と、第1の結像光学系及び前記第1の結像光学系とは異なる焦点距離の第2の結像光学系でそれぞれ異なる方向からの被写体像を前記1つの撮像素子上の所定の領域に結像させる結像手段と、前記撮像素子から出力した電気信号に基づいて第1の動画像を生成する動画像生成手段と、前記動画像生成手段によって生成された前記第1の動画像を前記各領域に対応する部分画像に分割する撮影画像分割手段と、前記撮影画像分割手段によって分割された前記部分画像を所定の配置で合成して第2の動画像に生成する画像合成手段と、前記画像合成手段によって合成された前記第2の動画像を表示装置に表示させる表示制御手段とを有することを特徴とする。
The present invention employs the following configuration in order to solve the above problems.
That is, according to one aspect of the present invention, the imaging apparatus of the present invention includes one imaging device that converts a subject into an electrical signal at a predetermined period, the first imaging optical system, and the first imaging optical. An imaging means for forming a subject image from a different direction in a second imaging optical system having a focal length different from that of the system in a predetermined region on the one image sensor, and an electric signal output from the image sensor A moving image generating means for generating a first moving image based on the image, and a captured image dividing means for dividing the first moving image generated by the moving image generating means into partial images corresponding to the respective areas; Image synthesizing means for synthesizing the partial images divided by the photographed image dividing means in a predetermined arrangement to generate a second moving image, and a display device for displaying the second moving image synthesized by the image synthesizing means Display control means to display Characterized in that it has a.
また、本発明の撮影装置は、前記第1の結像光学系及び前記第2の結像光学系が自由曲面プリズムにより構成されていることが望ましい。
また、本発明の撮影装置は、前記撮影装置が車両内の所定位置に配置された場合、前記第1の結像光学系が、前記車両の進行方向の所定距離だけ離れた位置に合焦するように構成され、前記第2の結像光学系が、前記車両の運転者に合焦するように構成されていることが望ましい。
In the photographing apparatus of the present invention, it is preferable that the first imaging optical system and the second imaging optical system are configured by free-form surface prisms.
In the photographing apparatus of the present invention, when the photographing apparatus is disposed at a predetermined position in the vehicle, the first imaging optical system is focused on a position separated by a predetermined distance in the traveling direction of the vehicle. It is desirable that the second imaging optical system is configured to focus on the driver of the vehicle.
また、本発明の撮影装置は、前記第1の結像光学系が可視光領域の光を透過する分光特性である第1の分光フィルターを有し、前記第2の結像光学系が赤外領域の光を透過する分光特性である第2の分光フィルターを有することが望ましい。 In the photographing apparatus of the present invention, the first imaging optical system has a first spectral filter having spectral characteristics that transmit light in a visible light region, and the second imaging optical system is infrared. It is desirable to have a second spectral filter having spectral characteristics that transmit light in the region.
また、本発明の撮影装置は、前記第1の分光フィルター及び前記第2の分光フィルターが前記撮像素子の直前に配置されていることが望ましい。
また、本発明の一態様によれば、本発明の撮影方法は、所定の周期で被写体を電気信号に変換する1つの撮像素子と、第1の結像光学系及び前記第1の結像光学系とは異なる焦点距離の第2の結像光学系でそれぞれ異なる方向からの被写体像を前記1つの撮像素子上の所定の領域に結像させる結像手段とを備える撮影装置を制御する撮影方法であって、前記撮像素子から出力した電気信号に基づいて第1の動画像を生成し、前記生成された前記第1の動画像を前記各領域に対応する部分画像に分割し、前記分割された前記部分画像を所定の配置で合成して第2の動画像に生成し、前記合成された前記第2の動画像を表示装置に表示させることを特徴とする。
In the photographing apparatus of the present invention, it is preferable that the first spectral filter and the second spectral filter are disposed immediately before the image sensor.
According to another aspect of the present invention, the imaging method of the present invention includes a single imaging device that converts a subject into an electrical signal at a predetermined period, a first imaging optical system, and the first imaging optical. An imaging method for controlling an imaging apparatus comprising imaging means for imaging a subject image from a different direction in a second imaging optical system having a focal length different from that of the system in a predetermined region on the one image sensor The first moving image is generated based on the electrical signal output from the image sensor, the generated first moving image is divided into partial images corresponding to the regions, and the divided The partial images are synthesized in a predetermined arrangement to generate a second moving image, and the synthesized second moving image is displayed on a display device.
本発明によれば、撮像する画角が大きく歪の少ない、相反する方向の画像を動画撮影することが可能であり、構造の簡素化により精度の高い組立てを効率的に行うことが可能である。 According to the present invention, it is possible to shoot a moving image of a contradictory direction with a large angle of view and a small distortion, and it is possible to efficiently perform highly accurate assembly by simplifying the structure. .
以下、本発明の実施の形態について図面を参照しながら説明するが、まず本発明の概要を説明する。
本発明は、上述の課題を解決するためになされたものであり、2個の自由曲面プリズムと、これら2個の自由曲面プリズムを介した像を結像する単一の撮像素子とを備えている。これらの2個の自由曲面プリズムのうち1個は比較的焦点距離が長く、他の1個は比較的焦点距離が短いという相違点を備えている一方、物体側から光の透過作用を有する第1面、光の内部反射と透過作用を有する第2面及び光の反射作用を有する第3面の3つの光学面を有し、そのうちの少なくとも反射作用を有する光学面がレンズ機能を兼ね備えている点で共通している。そして、この異なる特性を持つ2個の自由曲面プリズムを、その第1面につきそれぞれ異なる視野へ向けて固定保持したフレームと、このフレームそのものを載置するとともに各自由曲面プリズムより出射された光を撮影視野として相反する方向に結像させる単一の撮像素子を配設したホルダと該ホルダに合わさってフレームを自由曲面プリズムとともにその内側に収納するカバー体とを組み合わせるところに特徴を有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, an outline of the present invention will be described.
The present invention has been made to solve the above-described problems, and includes two free-form surface prisms and a single image sensor that forms an image via the two free-form surface prisms. Yes. One of these two free-form surface prisms has a difference in that the focal length is relatively long and the other one has a relatively short focal length, while the second has a light transmission effect from the object side. There are three optical surfaces, one surface, a second surface having internal reflection and transmission of light, and a third surface having light reflection, and at least one of the optical surfaces having the reflection function has a lens function. In common. A frame in which the two free-form surface prisms having different characteristics are fixedly held for different fields of view on the first surface, and the light itself emitted from each free-form surface prism is placed on the frame itself. It is characterized in that a holder provided with a single image sensor that forms an image in opposite directions as a field of view and a cover body that accommodates the holder and houses the frame together with a free-form curved prism are combined.
上述のような構成の撮影光学ユニットにおいて、自由曲面プリズムは、前方視野を基準にして入射面を前方視野へ指向させた第1の自由曲面プリズムと、この第1の自由曲面プリズムと入射面を相反する方向に配置した第1の自由曲面プリズムと焦点距離、水平・垂直の透過範囲の異なる特性を持つ第2の自由曲面プリズムにて構成される。 In the photographic optical unit configured as described above, the free-form surface prism includes a first free-form surface prism whose entrance surface is directed to the front view with reference to the front field, and the first free-form surface prism and the entrance surface. The first free-form surface prism arranged in the opposite direction and the second free-form surface prism having different characteristics in focal length and horizontal / vertical transmission range.
本発明を構成するのに不可欠な自由曲面プリズムとは、回転対称でない自由形状のレンズ面とプリズムを融合させてレンズ作用を持たせた光学素子を言う。例えば、第1、第2の自由曲面プリズムを用いて単一の撮像素子に映像を取り込んだ場合、第一の自由曲面プリズムで撮像素子の長手方向に車両の前方映像を左に90°回転した像(例えば、750画素×480画素の撮像素子を用いた場合の480画素×480画素分)が撮像素子の左側2/3の位置に結び、第二の自由曲面プリズムで撮像素子の長手方向に運転者の映像を右に90°回転した像(例えば、残り270画素×480画素分)が撮像素子の残り右側1/3の位置に結ぶように構成される。 The free-form surface prism indispensable for constituting the present invention refers to an optical element having a lens function by fusing a free-form lens surface and a prism that are not rotationally symmetric. For example, when images are captured in a single image sensor using the first and second free-form surface prisms, the front image of the vehicle is rotated 90 ° to the left in the longitudinal direction of the image sensor using the first free-form surface prism. An image (for example, 480 pixels × 480 pixels when an image sensor of 750 pixels × 480 pixels is used) is connected to the position 2/3 on the left side of the image sensor, and a second free-form surface prism is used in the longitudinal direction of the image sensor An image obtained by rotating the driver's image 90 ° to the right (for example, the remaining 270 pixels × 480 pixels) is connected to the remaining 1/3 of the right side of the image sensor.
そして、撮像素子に結んだ2つの像をそれぞれ分割生成し、所定の配置に動画像を表示することを特徴とする。例えば、その表示方法については、上記2つの前方映像と運転者の映像を表示するために、2画面を同時に横並びに表示する表示手段を有する。 Then, two images connected to the image sensor are generated separately, and a moving image is displayed in a predetermined arrangement. For example, the display method includes display means for displaying the two screens side by side simultaneously in order to display the two front images and the driver's image.
また、2つの前方映像と運転者の映像うち前方および運転者のいずれかを表示するために、2画面を縮小することなく少なくとも1画面を選択的に拡大して表示する表示手段を有する。 In addition, in order to display either the front image or the driver image of the two front images and the driver image, the display device has display means for selectively enlarging and displaying at least one screen without reducing the two screens.
そして、取得した2つの画像のうち前方映像は、白線検知、ドライブレコーダー、車間センサーなどの機能に使用され、運転者側の画像は居眠り検知、盗難犯罪者の映像撮影に使用される。この機能を実現するため、白線検知演算機能、動画記録メモリ、車間距離演算機能、居眠り検出、警告機能、車両に対して不正行為が行われたときに不正行為を検知する検知手段を有している。なお、表示方法においては、操作者の選択指定による表示形式を固定的に採用する。
(第1の実施の形態)
図1は、本発明を適用した第1の実施の形態における撮影装置の構成例を示す図である。
Of the two acquired images, the front video is used for functions such as white line detection, a drive recorder, and an inter-vehicle sensor, and the driver's image is used for doze detection and video theft of the criminals. In order to realize this function, it has white line detection calculation function, moving image recording memory, inter-vehicle distance calculation function, snooze detection, warning function, and detection means for detecting fraudulent acts when the car is fraudulent. Yes. In the display method, a display format that is selected by the operator is fixedly adopted.
(First embodiment)
FIG. 1 is a diagram illustrating a configuration example of a photographing apparatus according to a first embodiment to which the present invention is applied.
図1において、撮影装置は、共軸系の球面レンズを用いた第1の結像光学系L100、同様に共軸系の球面レンズを用いた第2の結像光学系L101および所定の周期で被写体を電気信号に変換する1つの撮像素子1を備え、相反する2方向の2画面を撮影する。 In FIG. 1, the imaging apparatus includes a first imaging optical system L100 using a coaxial spherical lens, a second imaging optical system L101 using a coaxial spherical lens, and a predetermined period. One imaging device 1 for converting a subject into an electrical signal is provided, and two screens in two opposite directions are photographed.
そして、前記結像光学系L100は、結像レンズL1、L2、L3、L4から構成され、例えば車両の前方の被写体像を撮像素子1に結像するように配置する。また、前記結像光学系L101は、前記結像光学系L100と同じ結像レンズL1、L2、L3、L4の後方に、反射部材L5、L8を設置することにより、光軸を180°(90°×2)反転し、リレー光学系やフィールドレンズを使用したリレーレンズL6、L7を介して、例えば運転者の顔等の画像を撮像素子1に結像している。 The imaging optical system L100 includes imaging lenses L1, L2, L3, and L4. For example, the imaging optical system L100 is arranged so as to form a subject image in front of the vehicle on the image sensor 1. Further, the imaging optical system L101 is provided with reflecting members L5 and L8 behind the same imaging lenses L1, L2, L3, and L4 as the imaging optical system L100, so that the optical axis is 180 ° (90 °). ° × 2) Inverted and forms, for example, an image of the driver's face or the like on the image sensor 1 via relay lenses L6 and L7 using a relay optical system and a field lens.
前記第1の結像光学系L100と前記第2の結像光学系L101とは異なる焦点距離を有しており、それぞれ異なる方向からの被写体像を前記1つの撮像素子1上の所定の領域に結像させる。例えば、結像光学系L100が備える結像レンズL4と撮像素子1との距離に対して、結像光学系L101が備える結像レンズL4と反射部材L5との距離を、短く配置することで、車両の前方を撮像する前記第1の結像光学系L100側の焦点距離を遠くに設置し、運転者を撮像する前記第2の結像光学系L101側の焦点距離を短くかつ広い画角になるよう設置する。
(第2の実施の形態)
図2は、本発明を適用した第2の実施の形態における撮影装置の構成例を示す図であり、図3は、本発明を適用した第2の実施の形態における撮影装置の外観を示す図であり、図4は、自由曲面プリズム2、3のY−Z面を示した図であり、図5は、自由曲面プリズム2、3の外形を表す斜視図であり、図6は、撮像素子1に結像された被写体の例を示す図である。
The first imaging optical system L100 and the second imaging optical system L101 have different focal lengths, and subject images from different directions are placed in predetermined areas on the one image sensor 1. Make an image. For example, by disposing the distance between the imaging lens L4 included in the imaging optical system L101 and the reflecting member L5 to be shorter than the distance between the imaging lens L4 included in the imaging optical system L100 and the imaging element 1, The focal distance on the first imaging optical system L100 side that images the front of the vehicle is set far away, and the focal distance on the second imaging optical system L101 side that images the driver is short and has a wide angle of view. Install to be.
(Second Embodiment)
FIG. 2 is a diagram illustrating a configuration example of a photographing apparatus according to the second embodiment to which the present invention is applied, and FIG. 3 is a diagram illustrating an appearance of the photographing apparatus according to the second embodiment to which the present invention is applied. 4 is a diagram showing the YZ plane of the free-form surface prisms 2 and 3, FIG. 5 is a perspective view showing the outer shape of the free-form surface prisms 2 and 3, and FIG. 2 is a diagram illustrating an example of a subject imaged in FIG.
自由曲面プリズム2(以下、第1の光学素子ということもある。)は、前方視野を真正面やや下方から下方に向けて角度θ1=40度の範囲で撮影を可能とした自由曲面のプリズムである(図2参照)。第1の光学素子2は、図4並びに図5の(A)および(B)にその形状を具体的に示すように、光の透過作用を有する第1面(入射面)2a、光の内部反射と透過作用を有する第2面(出射面)2b及び光の反射作用を有する第3面2cの3つの光学面を有し、そのうちの第2面2b、第3面2cがレンズ機能を兼ね備えている。 The free-form surface prism 2 (hereinafter also referred to as a first optical element) is a free-form surface prism that enables photographing within a range of an angle θ 1 = 40 degrees with the front visual field facing slightly in front to the bottom. Yes (see FIG. 2). The first optical element 2 has a first surface (incident surface) 2a having a light transmitting action, as shown in FIGS. 4A and 4B and FIGS. There are three optical surfaces, a second surface (outgoing surface) 2b having a reflection and transmission action and a third surface 2c having a light reflection action, and the second surface 2b and the third surface 2c have a lens function. ing.
自由曲面プリズム3(以下、第2の光学素子ということもある。)は、第1の光学素子2との大きさ並びに第2面および第3面の曲率の違いを除き、外観形状が略同様の自由曲面のプリズムである(図4、図5参照)。この第2の光学素子3は、入射面である第1面を第1の光学素子2とは逆方向を向くように、第1の光学素子2を図4の撮像素子1の撮像面の軸の回りに180度回転させて配置されるものであり、後方の視野をほぼ真後ろから下方に向かって角度θ2=60度の範囲で撮影することが可能になっている。 The free-form surface prism 3 (hereinafter sometimes referred to as a second optical element) has substantially the same external shape except for the size of the first optical element 2 and the difference in curvature between the second surface and the third surface. (See FIGS. 4 and 5). The second optical element 3 is configured such that the first optical element 2 is the axis of the imaging surface of the imaging element 1 in FIG. 4 so that the first surface, which is the incident surface, faces in the opposite direction to the first optical element 2. The rear visual field can be photographed in an angle range of θ 2 = 60 degrees from the rear to the lower side.
本第2の実施の形態で用いる第1、第2の光学素子2、3は、同一媒質の自由曲面プリズムであって、屈折率が1.31倍より大きい媒質にて構成されており、何れの光学面もY−Z面を唯一の対称面とする自由曲面からなり、光束にパワーを与えかつ偏心により発生する収差を補正する回転非対称な面形状を有するように構成され、かつ、3面の中の第1面、第3面が回転非対称面になっているものを適用することができる。ここに、Y−Z面とは図4に示したような面(ここでは全てのプリズム光学素子の向きを同じにして表示してある)であり、第1、第2のプリズム光学素子2、3を用いることで撮像レンズの如きは不要となり広画角で、高精細な画像の撮影が可能となる。なお、図4中l1が軸上主光線であり、0が絞りの中心である。 The first and second optical elements 2 and 3 used in the second embodiment are free-form surface prisms of the same medium, and are composed of a medium having a refractive index larger than 1.31 times. The optical surface is also composed of a free-form surface having the YZ plane as the only symmetry plane, and is configured to have a rotationally asymmetric surface shape that gives power to the light beam and corrects aberrations caused by decentration, and has three surfaces. Among them, the first surface and the third surface may be rotationally asymmetric surfaces. Here, the YZ plane is a plane as shown in FIG. 4 (here, the directions of all the prism optical elements are the same), and the first and second prism optical elements 2, By using 3, an imaging lens or the like is unnecessary, and a high-definition image can be taken with a wide angle of view. In FIG. 4, l 1 is the axial principal ray, and 0 is the center of the stop.
上記のような構成の撮影ユニットにおいては、第1の光学素子2により集束された前方40度の視野の光像が撮像素子1において結像し、第2の光学素子3を通して集束された後方60度の視野の光像が撮像素子1において前方視野の光像に並列に結像される。すなわち、単一の撮像素子1において前後2つの視野が並列に結像される(図6参照)。 In the photographing unit configured as described above, a light image with a visual field of 40 degrees forward focused by the first optical element 2 is formed on the image sensor 1 and is focused on the rear 60 through the second optical element 3. A light image having a field of view of 2 degrees is formed in parallel with the light image of the front field of view in the image sensor 1. That is, two front and rear visual fields are imaged in parallel in the single image sensor 1 (see FIG. 6).
一般的なカメラなどの通常の撮像素子1では、画面のアスペスト比が4対3であり、画面サイズの長い4の方向が水平方向、短い3の方向が垂直方向に被写体を正対する。ところが、本発明の第2の実施の形態では、図6に示されるように2分割された画像の垂直方向が画面サイズの長い4の方向に配置し、短い3の方向が2分割された画面の水平方向を撮像するよう構成されている。すなわち、図6に示した画像51aは、第1の光学素子2による車両前方方向の撮像された画像であり、画像51bは、第2の光学素子3による運転者方向の撮像された画像である。 In a normal imaging device 1 such as a general camera, the aspect ratio of the screen is 4 to 3, and the long 4 direction of the screen size faces the subject in the horizontal direction, and the short 3 direction faces the subject in the vertical direction. However, in the second embodiment of the present invention, as shown in FIG. 6, the vertical direction of the image divided into two is arranged in the direction of 4 with the long screen size and the short direction of 3 is divided into two. It is comprised so that the horizontal direction of may be imaged. That is, the image 51a illustrated in FIG. 6 is an image captured in the vehicle front direction by the first optical element 2, and the image 51b is an image captured in the driver direction by the second optical element 3. .
例えば、図6に示した画像は、750画素×480画素の撮像素子1を用いた場合の480画素×480画素分が撮像素子1の左側2/3の位置に結像され、第2の光学素子3で撮像素子1の長手方向に運転者の画像を右に90°回転した像の残り270画素×480画素分が撮像素子1の残り右側1/3の位置に結像した例を示している。なお、この第1および第2の光学素子2、3の画素比率は、固定するものではない。 For example, in the image shown in FIG. 6, when 750 pixels × 480 pixels of the image sensor 1 is used, an image of 480 pixels × 480 pixels is formed at the position 2/3 on the left side of the image sensor 1, and the second optical An example is shown in which the remaining 270 pixels × 480 pixels of the image obtained by rotating the driver's image 90 ° to the right in the longitudinal direction of the image sensor 1 is formed at the position of the remaining right third of the image sensor 1 by the element 3. Yes. The pixel ratio of the first and second optical elements 2 and 3 is not fixed.
図3に示した近赤外発光LED4は、詳しくは後述するが夜間の輝度不足を補うために輝度演算の閾値に応じて点灯する。
前方(道路側)の撮影においては、近赤外領域の光が入射しないように可視光領域のみを透過する分光フィルター24を設置した構造にしている。また、後方(運転者側)の撮影においては、前述の夜間の撮影を可能にするため近赤外発行LED4の発光領域までの光の入射を可能にする分光フィルター25を設置した構造にしている。
As will be described in detail later, the near-infrared light emitting LED 4 shown in FIG. 3 lights up according to a threshold value for luminance calculation in order to compensate for a lack of luminance at night.
In the front (road side) shooting, a spectral filter 24 that transmits only the visible light region is provided so that light in the near infrared region is not incident. Further, in the rear (driver's side) photographing, the spectral filter 25 that allows the light to enter the light emitting region of the near-infrared LED 4 is installed in order to enable the above-described night photographing. .
なお、図1においては、分光フィルター24を撮像素子1と第1の光学素子2との間に設置し、分光フィルター25を撮像素子1と第2の光学素子3との間に設置した構造を示している。 In FIG. 1, the spectral filter 24 is installed between the image sensor 1 and the first optical element 2, and the spectral filter 25 is installed between the image sensor 1 and the second optical element 3. Show.
また、光学素子1の前面に取り付けたカバー26および27に、その分光フィルター24および25の役割を持たせることも可能としている。
なお、本第2の実施の形態では、前方40度、後方60度の視野を結像させる撮影ユニットを例として説明したが、撮影可能な視野の範囲は使用する自由曲面プリズム2、3そのものの形状や材料、組合せによって適宜変更することができるものであり、自由曲面プリズム2の視野が40度、自由曲面プリズム3の視野が60度の範囲に限定されるものではない。
The covers 26 and 27 attached to the front surface of the optical element 1 can also serve as the spectral filters 24 and 25.
In the second embodiment, the imaging unit that forms an image of the field of view 40 degrees forward and 60 degrees backward has been described as an example. However, the range of the field of view that can be photographed is that of the free-form curved prisms 2 and 3 themselves. The field of view of the free-form surface prism 2 is not limited to 40 degrees and the field of view of the free-form surface prism 3 is not limited to 60 degrees.
図7は、本発明を適用した第2の実施の形態のカメラシステムの構成を示す図である。
図7において、カメラシステムは、撮像装置であるカメラユニット52、カメラコントローラ71、ドライビングコントローラ72を備えている。
FIG. 7 is a diagram showing a configuration of a camera system according to the second embodiment to which the present invention is applied.
In FIG. 7, the camera system includes a camera unit 52 that is an imaging device, a camera controller 71, and a driving controller 72.
前記カメラユニット52は、前述の自由曲面プリズム2、3、撮像素子1の他、TG/SSG部60、CDS/AGC/A/D部61、デジタル信号処理部62、シリアル(Serial)I/F63、通信I/F74、LEDドライバー70、近赤外発光LED4を備えている。 The camera unit 52 includes a TG / SSG unit 60, a CDS / AGC / A / D unit 61, a digital signal processing unit 62, and a serial I / F 63 in addition to the free-form curved prisms 2 and 3 and the image sensor 1. , A communication I / F 74, an LED driver 70, and a near-infrared light emitting LED 4.
前記カメラコントローラ71は、CPU53、操作入力部54、画像処理MPU57、メモリ58、通信I/F75、通信I/F77、第1の警報装置73を備えている。
また、前記ドライビングコントローラ72は、ディスプレー55、ディスプレーコントローラ56、第2の警報装置64、第1の加速度センサー65、第2の加速度センサー66、ドライバーモニターシステム67、外部メモリ68、GPS/ナビ69、通信I/F78が、バス79を介して接続されている。
The camera controller 71 includes a CPU 53, an operation input unit 54, an image processing MPU 57, a memory 58, a communication I / F 75, a communication I / F 77, and a first alarm device 73.
The driving controller 72 includes a display 55, a display controller 56, a second alarm device 64, a first acceleration sensor 65, a second acceleration sensor 66, a driver monitor system 67, an external memory 68, a GPS / navigation 69, A communication I / F 78 is connected via a bus 79.
なお、撮影画像のホワイトバランスや露出補正、シャッタースピードなどの設定については、一般的な車載カメラなどと同等であり、詳細は省略する。
カメラユニット52は、動画と静止画を撮像可能であり、このカメラユニット52に対してカメラコントローラ71のCPU53及び画像処理MPU57が、通信I/F74、75を介して接続されている。画像処理MPU57は、画像の反転、回転、鏡像、縮小、拡大、歪補正、画像張り合わせ等の処理を行う。そして、その画像処理MPU57で処理された画像を、通信I/F77、78、およびディスプレーコントローラ56を介して、モニタ装置として使用されるディスプレー55に出力する。
Note that settings such as white balance, exposure correction, and shutter speed of the captured image are the same as those of a general on-vehicle camera, and details thereof are omitted.
The camera unit 52 can capture moving images and still images, and the CPU 53 of the camera controller 71 and the image processing MPU 57 are connected to the camera unit 52 via communication I / Fs 74 and 75. The image processing MPU 57 performs processing such as image inversion, rotation, mirror image, reduction, enlargement, distortion correction, and image pasting. Then, the image processed by the image processing MPU 57 is output to the display 55 used as a monitor device via the communication I / Fs 77 and 78 and the display controller 56.
このようなカメラユニット52により、撮像素子1が出力した信号から図6に示したような撮影画像が生成され、カメラコントローラ71が撮影画像から表示用の画像を生成する。カメラコントローラ71で生成された表示画像は、ドライビングコントローラ72のディスプレー55に出力される。 The camera unit 52 generates a captured image as shown in FIG. 6 from the signal output from the image sensor 1, and the camera controller 71 generates a display image from the captured image. The display image generated by the camera controller 71 is output to the display 55 of the driving controller 72.
カメラユニット52のTG/SSG部60は、撮影タイミングパルスを発生し撮像素子1を駆動する。カメラユニット52のCDS/AGC/AD61は、撮像素子1が出力した画像信号を相関二重サンプリングし、信号量に応じて利得を調整し、A/D変換して、デジタル信号処理部62に出力する。そして、デジタル信号処理部62では、入力したデジタル画像信号にカラー信号補間、カラー補正、ホワイトバランスなどの処理を行ない撮影画像データとして生成したカラー画像データをカメラコントローラ71に出力する。 The TG / SSG unit 60 of the camera unit 52 generates an imaging timing pulse and drives the image sensor 1. The CDS / AGC / AD 61 of the camera unit 52 performs correlated double sampling on the image signal output from the image sensor 1, adjusts the gain according to the signal amount, performs A / D conversion, and outputs it to the digital signal processing unit 62. To do. The digital signal processing unit 62 performs processing such as color signal interpolation, color correction, and white balance on the input digital image signal, and outputs color image data generated as captured image data to the camera controller 71.
シリアルI/F63は、CPU53からの露出設定や利得調整などのコマンドに従って、カメラユニット52の各部分の制御を行う。
カメラコントローラ71に入力した撮影画像データは、CPU53からの画像表示方法の指示に基づき、後述する画像の処理を行い、ディスプレーコントローラ56を介してディスプレー55にて表示される。
The serial I / F 63 controls each part of the camera unit 52 in accordance with commands such as exposure setting and gain adjustment from the CPU 53.
The photographed image data input to the camera controller 71 is displayed on the display 55 via the display controller 56 after performing image processing to be described later based on an image display method instruction from the CPU 53.
ディスプレーコントローラ56への画像データ転送は、この図7では車内LANを使用する例となっている。
ここで、車内LANに接続されている各デバイスについて説明する。
The image data transfer to the display controller 56 is an example using an in-vehicle LAN in FIG.
Here, each device connected to the in-vehicle LAN will be described.
GPS/ナビ69は、GPS測位情報に基づくカーナビゲーションのシステムで車内LANを通じて、CPU53に取り込んだ地図情報を、画像の表示形式に従って画像処理MPU57で加工し、その画像をディスプレー55に表示する。 The GPS / navigator 69 processes the map information captured by the CPU 53 through the in-vehicle LAN in the car navigation system based on the GPS positioning information by the image processing MPU 57 according to the image display format, and displays the image on the display 55.
ドライバーモニターシステム67は、運転者の頭の向いている方向を検知し居眠りやよそ見の検知をするものとして近年使用されてきているが、本第2の実施の形態においては、第2の光学素子3を通して撮像素子1に結像された運転者の頭の方向情報を入手し、その頭の向きに応じて、第1の警報装置73および第2の警報装置64から運転者への何らかの(ハンドル、シートを震わせる/警告音を発する/ブレーキをかける/スピードを落す等)情報を発信するとともに、画像の表示形式に従って画像処理MPU57で加工した画像をディスプレー55に表示する。 The driver monitor system 67 has recently been used to detect the direction in which the driver's head is facing and to detect dozing or looking away. In the second embodiment, the second optical element is used. 3, information on the direction of the driver's head imaged on the image sensor 1 is obtained, and depending on the direction of the head, any (handle) from the first alarm device 73 and the second alarm device 64 to the driver is obtained. The information is transmitted, and the image processed by the image processing MPU 57 is displayed on the display 55 in accordance with the image display format.
ここで、カメラユニット52が備えるLEDドライバー70及び近赤外発光LED4の動作について説明する。
第2の光学素子3を通して撮像素子1に結像された運転者の撮影画像を信号処理し、得られた平均輝度を演算することにより、運転者周辺の明るさが、画像認識に必要な輝度であるか否かをCPU60が判断する。そして、必要に応じてLEDドライバー70を駆動して近赤外発光LED4を点灯させ、運転者を照明する。
Here, operations of the LED driver 70 and the near-infrared light emitting LED 4 provided in the camera unit 52 will be described.
The driver's photographed image formed on the image sensor 1 through the second optical element 3 is signal-processed, and the average brightness obtained is calculated, so that the brightness around the driver is the brightness necessary for image recognition. The CPU 60 determines whether or not. Then, if necessary, the LED driver 70 is driven to turn on the near-infrared light emitting LED 4 to illuminate the driver.
近年、ドライブレコーダーと称する運転者の視点(視野)から自車と周辺状況の記録を行うシステムが業務車両を中心として活用されるようになってきている。事故や急ブレーキ、急ハンドルなどの衝撃を受けると、衝撃前と衝撃後の数秒間の映像を外部メモリ68に保存する。 In recent years, a system called a drive recorder that records the vehicle and the surrounding situation from the viewpoint (view) of the driver has been utilized mainly for business vehicles. When receiving an impact such as an accident, sudden braking, or sudden steering wheel, images for several seconds before and after the impact are stored in the external memory 68.
本第2の実施の形態では、第1の加速度センサー65は、衝突や大きな振動が加わったことを検知すると、異常信号を検知したことを、CPU60へ出力する。そして、CPU60にて、その異常信号から衝撃の閾値を判断し、衝撃が加わった瞬間から前後任意の数秒間の、第1の光学素子2を通して撮像素子1に結像された運転者の視点(視野)から自車と周辺状況の記録画像を、メモリ56に記録保持する。 In the second embodiment, when the first acceleration sensor 65 detects that a collision or a large vibration has been applied, it outputs to the CPU 60 that an abnormal signal has been detected. Then, the CPU 60 determines the threshold of the impact from the abnormal signal, and the viewpoint of the driver imaged on the image sensor 1 through the first optical element 2 for a few seconds before and after the moment when the impact is applied ( The recorded images of the vehicle and the surrounding situation are recorded and held in the memory 56 from the field of view.
第2の加速度センサー66は、窓ガラスの衝突や大きな振動が加わったことを検知可能な位置に配置し、異常信号を検知したことを、CPU60へ出力する。そして、CPU60にて、その異常信号から衝撃の閾値を判断し、衝撃が加わった瞬間から任意の数秒間の、第2の光学素子3を通して撮像素子1に結像された運転者と運転者周辺の撮影画像を、メモリ56に記録保存する。 The second acceleration sensor 66 is disposed at a position where it can be detected that a window glass has collided or a large vibration has been applied, and outputs to the CPU 60 that an abnormal signal has been detected. Then, the CPU 60 judges the threshold of impact from the abnormal signal, and the driver and the driver's surroundings imaged on the image sensor 1 through the second optical element 3 for an arbitrary several seconds from the moment the impact is applied. Are recorded and stored in the memory 56.
また、前述の第1の加速度センサー65を利用すれば、車両全体の傾きの検出が可能となる。車両の盗難時の傾きを検知して、その異常信号から衝撃の閾値を判断し、衝撃が加わった瞬間から任意の数秒間第1および第2の光学素子2、3を通じて撮像素子1に結像した、運転者の視点(視野)から自車と周辺の状況と運転者と運転者周辺の撮影画像を、外部メモリ68に記録保持する。 In addition, if the first acceleration sensor 65 described above is used, the inclination of the entire vehicle can be detected. An inclination at the time of theft of the vehicle is detected, an impact threshold is determined from the abnormal signal, and an image is formed on the image sensor 1 through the first and second optical elements 2 and 3 for an arbitrary number of seconds from the moment the impact is applied. In addition, from the viewpoint (field of view) of the driver, the situation of the vehicle and the surroundings, and the captured images of the driver and the surroundings of the driver are recorded and held in the external memory 68.
ここで、第1の加速度センサー65および第2の加速度センサー66による衝撃の検出から画像の記録までの流れについて説明する。
図8は、第1の加速度センサー65が実行する処理の流れを示すフローチャートであり、図9は、第2の実施の形態のカメラシステムの機能ブロックを示す図である。
Here, the flow from the detection of impact by the first acceleration sensor 65 and the second acceleration sensor 66 to the image recording will be described.
FIG. 8 is a flowchart showing a flow of processing executed by the first acceleration sensor 65, and FIG. 9 is a diagram showing functional blocks of the camera system according to the second embodiment.
まず、ステップS901において、カメラ動画撮影が実施されているとき、第2のフレームメモリ707から所定のアドレス値(車の前方方向)に従って画像を読み出し、画像フォーマット部920が、所定の画像フォーマット(例えばJPEGやTIFFなど静止画像の連続撮影画像や,Motion−JPEGなどの動画像)で、外部メモリ930へ記録する。この記録は、所定期間の画像を外部メモリ930へ上書きする処理を繰り返し実行する。 First, in step S901, when camera moving image shooting is being performed, an image is read from the second frame memory 707 according to a predetermined address value (forward direction of the car), and the image format unit 920 reads a predetermined image format (for example, A still image such as JPEG or TIFF, or a moving image such as Motion-JPEG) is recorded in the external memory 930. In this recording, a process of overwriting an image of a predetermined period in the external memory 930 is repeatedly executed.
次に、ステップS902において、第1の加速度センサー65が、衝撃の検出を行い、ステップS903において、その衝撃(a)が所定の閾値(G)以上であったか否かを判定する。 Next, in step S902, the first acceleration sensor 65 detects an impact, and in step S903, it is determined whether the impact (a) is equal to or greater than a predetermined threshold (G).
そして、ステップS904において、ステップS902で検出された衝撃信号がある一定の閾値(G)以上であった場合(ステップS903:YES)、新しい記録をすることなく、ステップS904において、撮像画像を保存する。 In step S904, if the impact signal detected in step S902 is greater than or equal to a certain threshold (G) (step S903: YES), the captured image is stored in step S904 without performing new recording. .
すなわち、第1の加速度センサー900が作動し、閾値検出部910で閾値を超えたと判断した場合、衝撃が加わった瞬間から任意の数秒間を保存し、新しい映像を上書きしない。 That is, when the first acceleration sensor 900 is activated and the threshold detection unit 910 determines that the threshold is exceeded, an arbitrary number of seconds are stored from the moment the impact is applied, and a new video is not overwritten.
図10は、第2の加速度センサー66が実行する処理の流れを示すフローチャートである。
第2の加速度センサー970は、駐車時には通常カメラは動作していないことから、ステップS1101において、第2の加速度センサー970が、衝撃の検出を行い、閾値検出部910の閾値を超えた場合、カメラの撮影を開始する。そして、第2のフレームメモリ707から所定のアドレス値(運転者側)に従って画像を読み出し、画像フォーマット部920が、所定の画像フォーマット(jpg,tifなど)で行フォーマット変換を実行し、外部メモリ930へ記録する。この記録は、外部メモリ930の記録容量が可能な限り映像を記録保存する。
FIG. 10 is a flowchart showing a flow of processing executed by the second acceleration sensor 66.
Since the second acceleration sensor 970 does not normally operate during parking, the second acceleration sensor 970 detects an impact in step S1101, and if the second acceleration sensor 970 exceeds the threshold of the threshold detection unit 910, the camera Start shooting. Then, an image is read out from the second frame memory 707 according to a predetermined address value (driver side), and the image format unit 920 performs row format conversion with a predetermined image format (jpg, tif, etc.), and the external memory 930 To record. In this recording, video is recorded and stored as much as possible in the recording capacity of the external memory 930.
すなわち、ステップS1101で検出された衝撃信号が、次のステップS1102で、ある一定の閾値(G)を超えた場合、次のステップS1103に移動し、電源投入後にカメラの撮影を開始する。 In other words, if the impact signal detected in step S1101 exceeds a certain threshold (G) in the next step S1102, the process moves to the next step S1103, and the camera starts shooting after the power is turned on.
そして、ステップS1104において、撮影被写体の露出量を算出し、適正な光量が得られるように、ステップS1105で判断し、光量が足りない場合は、次のステップS1106で近赤外発光LED4を点灯させ、光量の不足分を補う。 Then, in step S1104, the exposure amount of the photographic subject is calculated and determined in step S1105 so that an appropriate amount of light can be obtained. If the amount of light is insufficient, the near infrared light emitting LED 4 is turned on in the next step S1106. Make up for the lack of light.
そして、ステップS1107において、外部メモリ930の記録容量が可能な限り映像を記録保存する。
図7の説明に戻る。
In step S1107, the video is recorded and stored as much as possible in the recording capacity of the external memory 930.
Returning to the description of FIG.
GPS/ナビ69は、カーナビゲーションのシステムで、このシステムから位置・地図情報をディスプレーコントローラ56に送り、画像の表示形式に従って画像処理MPU57で加工した画像とともに、ディスプレー55に表示する。 The GPS / navigator 69 is a car navigation system, sends position / map information from this system to the display controller 56, and displays it on the display 55 together with the image processed by the image processing MPU 57 in accordance with the image display format.
次に、取得した画像をディスプレー55に表示するための画像処理・加工について説明する。
前出の図6は、第1および第2の光学素子2、3を介して撮像素子1に結像された像を表しているが、撮像素子1を750画素×480画素で想定すると、図6に示したように、480画素×480画素と270画素×480画素に2分割される。
Next, image processing / processing for displaying the acquired image on the display 55 will be described.
FIG. 6 described above represents an image formed on the image sensor 1 through the first and second optical elements 2 and 3. If the image sensor 1 is assumed to be 750 pixels × 480 pixels, FIG. As shown in FIG. 6, the image is divided into two parts of 480 pixels × 480 pixels and 270 pixels × 480 pixels.
一方、この2分割された画面は、このまま縦270画素、横480画素、および、縦480画素、横480画素をディスプレー55に表示すると、縦は問題ないが、横に960画素必要となり、現在車載用として主流であるWVGA(横750画素×縦480画素)のサイズのディスプレー55では2画面が並ばない。 On the other hand, when the screen divided into two is displayed on the display 55 with 270 pixels in the vertical direction, 480 pixels in the horizontal direction, and 480 pixels in the vertical direction, there is no problem in the vertical direction, but 960 pixels are required in the horizontal direction. For example, two screens are not lined up on the display 55 having a size of WVGA (750 horizontal pixels × 480 vertical pixels) which is the mainstream.
そこで、画像処理MPU57では、ディスプレー55に、後述する各種表示方法に応じた画像の画素間引き、縮小、拡大、カットなどを行う機能を持たせている。
次に、画像取り込み、画像処理、および画像処理後の画像表示までの流れを説明する。
Therefore, in the image processing MPU 57, the display 55 has a function of performing pixel thinning, reduction, enlargement, and cut of an image according to various display methods described later.
Next, the flow from image capture, image processing, and image display after image processing will be described.
図11は、第2の実施の形態におけるカメラ制御処理の流れを示すフローチャートであり、図12は、第1のフレームメモリの構成を示す図であり、図13は、第2のフレームメモリの構成を示す図である。 FIG. 11 is a flowchart showing the flow of camera control processing in the second embodiment, FIG. 12 is a diagram showing the configuration of the first frame memory, and FIG. 13 is the configuration of the second frame memory. FIG.
まず、ステップS701において、図9の撮像部701が画像を撮像し、次のステップS702において、撮像して得られた画像信号が、ADC(A/Dコンバータ)702によってデジタル画像信号に変換される。そして、ステップS703において、画像生成部703によって、デジタル画像信号にカラー信号補間、カラー補正、ホワイトバランス、ガンマ補正等の処理が付された後、次のステップS704において、第1のフレームメモリ704にカラーの撮影画像データとして格納される。 First, in step S701, the imaging unit 701 in FIG. 9 captures an image, and in the next step S702, an image signal obtained by imaging is converted into a digital image signal by an ADC (A / D converter) 702. . In step S703, the digital image signal is subjected to processing such as color signal interpolation, color correction, white balance, and gamma correction by the image generation unit 703, and then in the next step S704, the first frame memory 704 is stored. Stored as color photographed image data.
この際、第1のフレームメモリ704に格納される画像は、撮像素子1に結像した像と同じカラー画像データが格納される。
なお、カメラユニット52は、一般のビデオカメラ、デジタルスティルカメラなどと同様に、露出検出部717と露出コントローラ718とを適宜備え、撮像素子1からの輝度情報により算出された露出値に応じて撮影露出の自動調整を行っている。
At this time, the image stored in the first frame memory 704 stores the same color image data as the image formed on the image sensor 1.
The camera unit 52 includes an exposure detection unit 717 and an exposure controller 718 as appropriate, similar to a general video camera, a digital still camera, and the like, and shoots according to the exposure value calculated from the luminance information from the image sensor 1. The exposure is adjusted automatically.
次に、ステップS705において、第1のフレームメモリ704に格納された撮影画像データは、読出/書込コントローラ705によって、アドレスメモリ706に記憶されたアドレス変換テーブルを参照して読み出され、ステップS706において、第2のフレームメモリ707に格納される。図12及び図13に示した例では、第1のフレームメモリ704のアドレス(1、1)から(750、1)まで、すなわち図12の1Aに対応するアドレス(1、1)から(480、1)、1Bに対応するアドレス(481、1)から(750、1)の順番に読み出された画像データは、それぞれ第2のフレームメモリ707のアドレス(1、1)から(1、480)に書き込まれ、続いてアドレス(481、1)から(481、211)に書き込まれる。すなわち、図12の1Aラインは図13の1Aに書き込まれ、図12の1Bラインは図13の1Bラインに書き込まれる。このような処理を第1のフレームメモリ704に格納された撮影画像データ全体に実行する。 In step S705, the captured image data stored in the first frame memory 704 is read by the read / write controller 705 with reference to the address conversion table stored in the address memory 706, and in step S706. Are stored in the second frame memory 707. In the example shown in FIGS. 12 and 13, the addresses (1, 1) to (750, 1) of the first frame memory 704, that is, the addresses (1, 1) to (480, 1) The image data read in the order of addresses (481, 1) to (750, 1) corresponding to 1B are the addresses (1, 1) to (1, 480) of the second frame memory 707, respectively. , And then from addresses (481, 1) to (481, 211). That is, the 1A line of FIG. 12 is written to 1A of FIG. 13, and the 1B line of FIG. 12 is written to the 1B line of FIG. Such processing is performed on the entire captured image data stored in the first frame memory 704.
そして、ステップS707の「表示設定処理」のサブルーチンが実行される。本第2の実施の形態では、画像をディスプレー55に、前述したように少なくとも2つ以上の形式で表示することができる。 Then, the “display setting process” subroutine of step S707 is executed. In the second embodiment, an image can be displayed on the display 55 in at least two formats as described above.
図14は、カメラ制御処理のサブルーチン「表示設定処理」の流れを示すフローチャートであり、図15は、表示例を示す図であり、
(A)は、画面の左側3分の2に車両の前方の画像を表示し右側3分の1の下方に運転者の画像を表示しその上方に地図情報を表示している例であり、(B)は、(A)の地図情報の代わりに警告情報を表示している例であり、(C)は、運転者の画像を中央に表示している例であり、(D)は、車両の前方の画像を中央に表示している例であり、(E)は、車両の前方の画像を横方向に拡大して中央に表示している例であり、(F)は、地図情報を表示している例である。
FIG. 14 is a flowchart showing the flow of a subroutine “display setting process” of the camera control process, and FIG. 15 is a view showing a display example.
(A) is an example in which an image in front of the vehicle is displayed on the left third of the screen, a driver image is displayed below the right third, and map information is displayed above it. (B) is an example in which warning information is displayed instead of the map information in (A), (C) is an example in which the driver's image is displayed in the center, and (D) is FIG. 5E is an example in which an image ahead of the vehicle is displayed in the center, FIG. 5E is an example in which an image ahead of the vehicle is enlarged in the horizontal direction and displayed in the center, and FIG. Is an example of displaying.
まず、ステップS710において、ユーザーによるモニタ表示形式の設定を確認する。すなわち、表示モードスイッチ714(図9参照)で切り替えの指示があるか否かを検出する。 First, in step S710, the setting of the monitor display format by the user is confirmed. That is, it is detected whether or not there is a switching instruction with the display mode switch 714 (see FIG. 9).
モニタ表示形式の設定に変更があれば(ステップS710:YES)は、ステップS711に進み、表示パターンを参照して対応するアドレスパターンを設定する。他方、モニタ表示形式の設定に変更がなければ(ステップS710:NO)、変更前の表示バターンのままで、次のステップS712に進む。 If there is a change in the setting of the monitor display format (step S710: YES), the process proceeds to step S711, and the corresponding address pattern is set with reference to the display pattern. On the other hand, if there is no change in the setting of the monitor display format (step S710: NO), the process proceeds to the next step S712 while keeping the display pattern before the change.
そして、ステップS712において、表示パターンが単画面表示か否かを判断する。ここで、単画面表示の場合は、表示する画像を縮小することになり、単画面表示でない場合は、縮小せずに画素そのままとする。 In step S712, it is determined whether the display pattern is single-screen display. Here, in the case of single screen display, the image to be displayed is reduced, and in the case of non-single screen display, the pixel is left as it is without reduction.
表示パターンが単画面表示である場合(ステップS712:YES)、ステップS714において、アドレスメモリ706を参照して、縮小のための演算を実行する。
そして、ステップS715において、第2のフレームメモリ707から読み出し、ステップS716において、補間部709が、読み出した画像を補間する。例えば、ある画素の周囲の4ピクセルを線形あるいは3次元関数を用いて画素を作り、補間を行う方法も開示されている。
When the display pattern is a single screen display (step S712: YES), in step S714, the address memory 706 is referred to and an operation for reduction is executed.
In step S715, the data is read from the second frame memory 707. In step S716, the interpolation unit 709 interpolates the read image. For example, a method is also disclosed in which four pixels around a certain pixel are formed by using a linear or three-dimensional function to perform interpolation.
次に、ステップS717において、補間した画像にディスプレー55への水平スタートアドレス、水平エンドアドレス、垂直スタートアドレス、垂直エンドアドレスの書き込みアドレスを付加し、ステップS718において、第3のフレームメモリ710に格納する。 Next, in step S717, the horizontal start address, horizontal end address, vertical start address, and vertical end address write address to the display 55 are added to the interpolated image, and stored in the third frame memory 710 in step S718. .
そして、ステップS719において、全画面の書き込みが完了したか否かを判断し、完了していなければ(ステップS719:NO)、ステップS714に戻ってそれ以降を繰り返し、完了していれば(ステップS719:YES)、ステップS720において、表示コントローラ711により表示の更新処理が行われ、図15の(A)や(B)に示したような画面を表示パネル712へ表示する。 In step S719, it is determined whether or not writing of the entire screen has been completed. If not completed (step S719: NO), the process returns to step S714 and the subsequent steps are repeated, and if completed (step S719). In step S720, display update processing is performed by the display controller 711, and a screen as shown in FIGS. 15A and 15B is displayed on the display panel 712.
他方、図14のステップS712で、表示パターンが単画面表示でないと判断された場合(ステップS712:NO)は、表示する画像を縮小せず、画素そのままを表示する。
すなわち、表示パターンが単画面表示でない場合(ステップS712:NO)、例えば、図15の(C)や(D)に示したような画面を表示する場合、ステップS722において、アドレスメモリ706を参照して、表示のための演算を実行し、ステップS723において、第2のフレームメモリ707から所定のアドレスを読み出す。
On the other hand, if it is determined in step S712 of FIG. 14 that the display pattern is not a single screen display (step S712: NO), the image is displayed as it is without reducing the image to be displayed.
That is, when the display pattern is not a single screen display (step S712: NO), for example, when a screen as shown in (C) or (D) of FIG. 15 is displayed, the address memory 706 is referred to in step S722. In step S723, a predetermined address is read from the second frame memory 707.
次に、ステップS724において、表示する画像にディスプレー55への水平スタートアドレス、水平エンドアドレス、垂直スタートアドレス、垂直エンドアドレスの書き込みアドレスを付加し、ステップS725において、第3のフレームメモリ710に格納する。 Next, in step S724, the horizontal start address, horizontal end address, vertical start address, and vertical end address write address to the display 55 are added to the image to be displayed, and the image is stored in the third frame memory 710 in step S725. .
そして、ステップS726において、第3のフレームメモリ710に対する画面の書き込みが完了したか否かを判断し、完了していなければ(ステップS726:NO)、ステップS722に戻ってそれ以降を繰り返し、完了していれば(ステップS726:YES)、ステップS720において、表示コントローラ711により表示の更新処理が行われ、図15の(C)や(D)に示したような画面を表示パネル712へ表示する。 In step S726, it is determined whether or not screen writing to the third frame memory 710 is completed. If not completed (step S726: NO), the process returns to step S722 and the subsequent steps are repeated and completed. If so (step S726: YES), display update processing is performed by the display controller 711 in step S720, and a screen as shown in FIGS. 15C and 15D is displayed on the display panel 712.
また図7の説明に戻る。
CPU53は、画像情報と車両情報を統括する役割を持っており、例えば、カメラユニット52で処理された結果をディスプレー55に表示したり、カメラユニット52で得られた情報から道路の分離帯を読み取って自動で運転を制御するためなどに用いたり、第1の警告装置73および第2の警報装置64に警告を発生させたりすることにより、運転者に安全運転を促すことができるようになっている。
Returning to the description of FIG.
The CPU 53 has a role of supervising image information and vehicle information. For example, the CPU 53 displays the result processed by the camera unit 52 on the display 55, or reads the road separation band from the information obtained by the camera unit 52. Thus, it is possible to prompt the driver to drive safely by using the system to automatically control driving, or by causing the first warning device 73 and the second warning device 64 to issue a warning. Yes.
なお、第1の警告装置73は、音声装置からなり、例えば、音声装置はスピーカ等からの音声にて運転者に警告を発するものである。また、第2の警告装置64は、振動装置からなり、例えば、振動装置は運転席シートの振動により運転者にハンドルやシートを振動させることにより警告を発するものである。 The first warning device 73 is composed of a voice device. For example, the voice device issues a warning to the driver by voice from a speaker or the like. The second warning device 64 is composed of a vibration device. For example, the vibration device issues a warning by vibrating the handle or the seat to the driver by the vibration of the driver seat.
次に、図9に示した第2の実施の形態のカメラシステムの機能ブロック図を用いて、画像検出から警告発生までの処理の流れを説明する。
図16は、画像検出から警告発生までの処理の流れを示すフローチャートである。
Next, the flow of processing from image detection to warning generation will be described using the functional block diagram of the camera system of the second embodiment shown in FIG.
FIG. 16 is a flowchart showing the flow of processing from image detection to warning generation.
これから説明する、白線の検知、車間距離の検出、眼球、瞼、頭の位置検出などは、既に多数開示された技術であり、本処理もそれら公知の手段を使用するものである。
動画撮影中の画像は、第2のフレームメモリ707から読出しコントローラ708の所定のアドレス値に従って、画像を読み出し、ディスプレー55への水平・垂直スタート・エンドアドレスの書き込みアドレスを付加し、第3のフレームメモリ710に格納される。その後、表示コントローラ711に送られ表示の更新処理が行われている。
White line detection, inter-vehicle distance detection, eyeball, eyelid, head position detection, and the like described below are already disclosed techniques, and this processing also uses these known means.
For the image being shot, the image is read from the second frame memory 707 according to a predetermined address value of the read controller 708, and the write address of the horizontal / vertical start / end address to the display 55 is added to the third frame. Stored in the memory 710. Thereafter, it is sent to the display controller 711 to perform display update processing.
まず、ステップS1701において、上述のようにして第3のフレームメモリ710に格納された画像は、読出しコントローラ800により選択的に車両の前方方向の画像を切り出し、ステップS1702において、2値化部810で2値化を行い、ステップS1703において、車間/白線検出部820で車間および白線の検出を行う。 First, in step S1701, the image stored in the third frame memory 710 as described above is selectively cut out by the reading controller 800 in the forward direction of the vehicle. In step S1702, the binarization unit 810 Binarization is performed, and in step S1703, the inter-vehicle / white line detection unit 820 detects inter-vehicle and white lines.
そして、ステップS1704において、車間演算/白線接近・離脱判定部830で車間距離の演算、白線の接近・離脱を判定し、警報が必要な場合(ステップS1704:YES)には、ステップS1705において、第1の警報装置840へは、音による警報を行い、第2の警報装置880へは、シートやハンドルへの振動を加えることにより運転者へ危険を知らしめる。同時に、ディスプレー55へ危険を表示するため表示コントローラ711に信号を送る。 In step S1704, the inter-vehicle distance calculation / white line approach / leaving determination unit 830 determines the inter-vehicle distance, determines the approach / leaving of the white line, and if an alarm is necessary (step S1704: YES), in step S1705, The first alarm device 840 is alerted by sound, and the second alarm device 880 is informed of the danger to the driver by applying vibration to the seat and the handle. At the same time, a signal is sent to the display controller 711 to display the danger on the display 55.
また、第3のフレームメモリ710に格納された画像は、前記ステップS1701において、読出しコントローラ800により選択的に運転者側の画像を切り出し、前記ステップS1702において、同様に2値化部850で2値化を行い、前記ステップS1703において、眼球/瞼位置/顔向き検出部860で眼球・瞼・顔の検出を行う。 Further, the image stored in the third frame memory 710 is selectively cut out by the read controller 800 in the step S1701, and the binarization unit 850 similarly binarizes the driver side image in the step S1702. In step S1703, the eyeball / eyelid position / face orientation detection unit 860 detects the eyeball / eyelid / face.
そして、前記ステップS1704において、居眠り/よそ見判定部860で居眠り・よそ見を判定し、警報が必要な場合(ステップS1704:YES)には、前記ステップS1705において、第1の警報装置840へは、音による警報を行い、第2の警報装置880へは、シートやハンドルへの振動を加えることにより運転者へ危険を知らしめる。同時に、ディスプレー55へ危険を表示するため表示コントローラ711に信号を送る。 Then, in step S1704, the dozing / looking away determination unit 860 determines dozing / looking away, and if an alarm is required (step S1704: YES), in step S1705, the first alarm device 840 is sounded. The second alarm device 880 is informed of the danger by applying vibration to the seat and the steering wheel. At the same time, a signal is sent to the display controller 711 to display the danger on the display 55.
図17は、本発明による撮像装置を車両に搭載した例を示す図である。
図17に示すように、比較的焦点距離の長い前方及び比較的焦点距離の短い後方を同時に撮影可能とするカメラUを、車両のフロントガラス付近の天井部分に取り付けて、前方及び後方(運転者)のモニタとして使用することができる。
FIG. 17 is a diagram showing an example in which the imaging apparatus according to the present invention is mounted on a vehicle.
As shown in FIG. 17, a camera U capable of simultaneously photographing a front having a relatively long focal length and a rear having a relatively short focal length is attached to a ceiling portion in the vicinity of the windshield of the vehicle. ) Can be used as a monitor.
なお、本第2の実施の形態においては、異なる形状の自由曲面プリズム2および3を使用した、前方視野の上下方向の視野角40度および後方視野の上下方向の視野角60度を撮影するカメラの例を示したが、例えば同じ形状の自由曲面プリズムを使用して、撮像素子1の分光フィルター24または25の直前に絞りを配置して、視野角を制限するようにしてもよい。その場合、撮像素子1で撮影された前方視野および後方視野は、図6のように、撮像素子1全体には結像されず、前方視野と後方視野が撮像素子1の一部分に結像された画像となるので、アドレスメモリ706には、それら前方視野および後方視野に対応する範囲を読み出す読み出しアドレスをアドレス変換テーブルに予め記憶しておく。そして、読出/書込コントローラ705が、そのアドレス変換テーブルを参照して第2のフレームメモリ707に前方視野および後方視野の画像を書き込む。 In the second embodiment, cameras that use free-form surface prisms 2 and 3 having different shapes to capture a vertical viewing angle of 40 degrees in the front view and a vertical viewing angle of 60 degrees in the rear view. However, for example, a free-form surface prism having the same shape may be used, and a stop may be disposed immediately before the spectral filter 24 or 25 of the imaging device 1 to limit the viewing angle. In that case, as shown in FIG. 6, the front field and the rear field captured by the image sensor 1 are not imaged on the entire image sensor 1, but the front field and the rear field are imaged on a part of the image sensor 1. Since it becomes an image, the address memory 706 stores in advance in the address conversion table read addresses for reading the ranges corresponding to the front visual field and the rear visual field. Then, the read / write controller 705 refers to the address conversion table and writes the images of the front visual field and the rear visual field in the second frame memory 707.
また、分光フィルター24または25の直前に絞りを配置せずに、アドレスメモリ706に記憶するアドレス変換テーブルに記憶する読み出しアドレスを画像の所望の視野部分を読み出すように設定することにより、前方視野の視野角および後方視野の視野角を指定するようにしてもよい。 Further, by setting the read address stored in the address conversion table stored in the address memory 706 so as to read out a desired visual field portion of the image without disposing an aperture immediately before the spectral filter 24 or 25, You may make it designate a viewing angle and the viewing angle of a back visual field.
以上、本発明の各実施の形態を、図面を参照しながら説明してきたが、本発明が適用される撮影装置は、その機能が実行されるのであれば、上述の各実施の形態等に限定されることなく、単体の装置であっても、複数の装置からなるシステムあるいは統合装置であっても、LAN等のネットワークを介して処理が行なわれるシステムであってもよいことは言うまでもない。 As described above, the embodiments of the present invention have been described with reference to the drawings. However, the imaging apparatus to which the present invention is applied is limited to the above-described embodiments and the like as long as the function is executed. It goes without saying that a single device, a system composed of a plurality of devices, an integrated device, or a system that performs processing via a network such as a LAN may be used.
また、本発明による撮影装置は、例えば、車外を観察し、前方や後方の走行車両、障害物、白線検知等に用いたり、車内の運転者、搭乗者の顔の位置、向きを検出し、脇見運転や居眠りの検知、エアバック点火時に、大人か子供か、顔の位置方向を判断し、安全にエアバッグを作動させるセンサーとして利用したりすることも可能である。 In addition, the imaging apparatus according to the present invention, for example, observes the outside of the vehicle, is used for front and rear traveling vehicles, obstacles, white line detection, etc., or detects the position and orientation of the driver in the vehicle, the passenger's face, It can also be used as a sensor to safely operate the airbag by judging the position of the face, whether it is an adult or a child, at the time of side-by-side driving, detection of dozing, or ignition of an airbag.
また、本発明による撮影装置は、車載のカメラシステムの他に、ロボット、鉄道、飛行機、船舶、監視カメラ、遠隔会議システム用カメラ等にも応用ができるものである。
また、バスに接続されたCPU、ROMやRAMのメモリ、入力装置、出力装置、外部記録装置、媒体駆動装置、可搬記憶媒体、ネットワーク接続装置で構成されるシステムでも実現できる。すなわち、前述してきた各実施の形態のシステムを実現するソフトウェアのプログラムコードを記録したROMやRAMのメモリ、外部記録装置、可搬記憶媒体を撮影装置に供給し、その撮影装置のコンピュータがプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
Further, the photographing apparatus according to the present invention can be applied to a robot, a railroad, an airplane, a ship, a surveillance camera, a camera for a teleconference system, etc. in addition to the in-vehicle camera system.
It can also be realized by a system comprising a CPU, ROM or RAM memory connected to a bus, an input device, an output device, an external recording device, a medium drive device, a portable storage medium, and a network connection device. That is, a ROM or RAM memory, an external recording device, or a portable storage medium in which a program code of software for realizing the system of each embodiment described above is recorded is supplied to the photographing device, and the computer of the photographing device stores the program code. Needless to say, this can also be achieved by reading and executing.
この場合、可搬記憶媒体等から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記録した可搬記憶媒体等は本発明を構成することになる。 In this case, the program code itself read from the portable storage medium or the like realizes the novel function of the present invention, and the portable storage medium or the like on which the program code is recorded constitutes the present invention. .
プログラムコードを供給するための可搬記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、DVD−RAM、磁気テープ、不揮発性のメモリーカード、ROMカード、電子メールやパソコン通信等のネットワーク接続装置(言い換えれば、通信回線)を介して記録した種々の記憶媒体などを用いることができる。 Examples of portable storage media for supplying the program code include flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, DVD-RAMs, magnetic tapes, and nonvolatile memories. Various storage media recorded through a network connection device (in other words, a communication line) such as a card, a ROM card, electronic mail or personal computer communication can be used.
また、コンピュータがメモリ上に読み出したプログラムコードを実行することによって、前述した各実施の形態の機能が実現される他、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部又は全部を行ない、その処理によっても前述した各実施の形態の機能が実現される。 In addition, the functions of the above-described embodiments are realized by executing the program code read out on the memory by the computer, and the OS running on the computer is actually executed based on the instruction of the program code. The functions of the above-described embodiments are also realized by performing part or all of the process.
さらに、可搬型記憶媒体から読み出されたプログラムコードやプログラム(データ)提供者から提供されたプログラム(データ)が、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行ない、その処理によっても前述した各実施の形態の機能が実現され得る。 Furthermore, a program code read from a portable storage medium or a program (data) provided by a program provider is provided in a function expansion board inserted into a computer or a function expansion unit connected to a computer. The CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are also performed by the processing. Can be realized.
すなわち、本発明は、以上に述べた各実施の形態等に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成又は形状を取ることができる。 That is, the present invention is not limited to the above-described embodiments and the like, and can take various configurations or shapes without departing from the gist of the present invention.
1 撮像素子
2 第1の光学素子(自由曲面プリズム)
2a (第1の光学素子2の)第1面
2b (第1の光学素子2の)第2面
2c (第1の光学素子2の)第3面
3 第2の光学素子(自由曲面プリズム)
3a (第2の光学素子3の)第1面
3b (第2の光学素子3の)第2面
3c (第2の光学素子3の)第3面
4 近赤外発光LED
24、25 分光フィルター
26、27 カバー
51a、51b 画像
52 カメラユニット
53 CPU
54 操作入力部
55 ディスプレー
56 ディスプレーコントローラ
57 画像処理MPU
58 メモリ
60 TG/SSG部
61 CDS/AGC/A/D部
62 デジタル信号処理部
63 シリアルI/F
64 第2の警報装置
65 第1の加速度センサー
66 第2の加速度センサー
67 ドライバーモニターシステム
68 外部メモリ
69 GPS/ナビ
70 LEDドライバー
71 カメラコントローラ
72 ドライビングコントローラ
73 第1の警報装置
74 通信I/F
75 通信I/F
77 通信I/F
78 通信I/F
79 バス
701 撮像部
702 ADC(A/Dコンバータ)
703 画像生成部
704 第1のフレームメモリ
705 読出/書込コントローラ
706 アドレスメモリ
707 第2のフレームメモリ
708 読み出しコントローラ
709 補間部
710 第3のフレームメモリ
711 表示コントローラ
712 表示パネル
714 表示モードスイッチ
717 露出検出部
718 露出コントローラ
800 読出しコントローラ
810 2値化部
820 車間/白線検出部
830 車間演算/白線接近・離脱判定部
840 第1の警報装置
850 2値化部
860 眼球/瞼位置/顔向き検出部
870 居眠り/よそ見判定部
880 第2の警報装置
900 第1の加速度センサー
910 閾値検出部
920 画像フォーマット部
930 外部メモリ
970 第2の加速度センサー
L1、L2、L3、L4 結像レンズ
L5、L8 反射部材
L6、L7 リレーレンズ
L100 第1の結像光学系
L101 第2の結像光学系
U カメラ
DESCRIPTION OF SYMBOLS 1 Image pick-up element 2 1st optical element (free-form surface prism)
2a First surface 2b (of the first optical element 2) 2b Second surface (of the first optical element 2) 2c Third surface (of the first optical element 2) 3 Second optical element (free curved prism)
3a First surface 3b (of the second optical element 3) Second surface 3c (of the second optical element 3) Third surface (of the second optical element 3) 4 Near-infrared light emitting LED
24, 25 Spectral filter 26, 27 Cover 51a, 51b Image 52 Camera unit 53 CPU
54 Operation Input Unit 55 Display 56 Display Controller 57 Image Processing MPU
58 Memory 60 TG / SSG part 61 CDS / AGC / A / D part 62 Digital signal processing part 63 Serial I / F
64 Second alarm device 65 First acceleration sensor 66 Second acceleration sensor 67 Driver monitor system 68 External memory 69 GPS / Navi 70 LED driver 71 Camera controller 72 Driving controller 73 First alarm device 74 Communication I / F
75 Communication I / F
77 Communication I / F
78 Communication I / F
79 Bus 701 Imaging unit 702 ADC (A / D converter)
703 Image generator 704 First frame memory 705 Read / write controller 706 Address memory 707 Second frame memory 708 Read controller 709 Interpolator 710 Third frame memory 711 Display controller 712 Display panel 714 Display mode switch 717 Exposure detection Unit 718 exposure controller 800 reading controller 810 binarization unit 820 inter-vehicle / white line detection unit 830 inter-vehicle calculation / white line approach / leaving determination unit 840 first alarm device 850 binarization unit 860 eyeball / eyelid position / face orientation detection unit 870 Dozing / looking away determination unit 880 Second alarm device 900 First acceleration sensor 910 Threshold detection unit 920 Image format unit 930 External memory 970 Second acceleration sensor L1, L2, L3, L4 Imaging lens 5, L8 reflecting member L6, L7 relay lens L100 first imaging optical system L101 second imaging optical system U camera
Claims (6)
第1の結像光学系及び前記第1の結像光学系とは異なる焦点距離の第2の結像光学系でそれぞれ異なる方向からの被写体像を前記1つの撮像素子上の所定の領域に結像させる結像手段と、
前記撮像素子から出力した電気信号に基づいて第1の動画像を生成する動画像生成手段と、
前記動画像生成手段によって生成された前記第1の動画像を前記各領域に対応する部分画像に分割する撮影画像分割手段と、
前記撮影画像分割手段によって分割された前記部分画像を所定の配置で合成して第2の動画像に生成する画像合成手段と、
前記画像合成手段によって合成された前記第2の動画像を表示装置に表示させる表示制御手段と、
を有することを特徴とする撮影装置。 One image sensor that converts a subject into an electrical signal at a predetermined period;
A subject image from a different direction is connected to a predetermined region on the one image sensor by the first imaging optical system and the second imaging optical system having a focal length different from that of the first imaging optical system. Imaging means for imaging;
A moving image generating means for generating a first moving image based on an electric signal output from the image sensor;
Captured image dividing means for dividing the first moving image generated by the moving image generating means into partial images corresponding to the respective areas;
Image synthesizing means for synthesizing the partial images divided by the photographed image dividing means in a predetermined arrangement to generate a second moving image;
Display control means for causing the display device to display the second moving image synthesized by the image synthesis means;
A photographing apparatus comprising:
ことを特徴とする請求項1に記載の撮影装置。 The first imaging optical system and the second imaging optical system are configured by free-form surface prisms,
The imaging apparatus according to claim 1, wherein:
前記第1の結像光学系は、前記撮影装置を前記車両内の所定位置に配置した場合に前記車両の進行方向の所定距離だけ離れた位置に合焦するように構成され、
前記第2の結像光学系は、前記車両の運転者に合焦するように構成されている、
ことを特徴とする請求項1叉は2に記載の撮影装置。 The photographing device is arranged in a vehicle,
The first imaging optical system is configured to focus on a position separated by a predetermined distance in the traveling direction of the vehicle when the imaging device is disposed at a predetermined position in the vehicle.
The second imaging optical system is configured to focus on a driver of the vehicle.
The photographing apparatus according to claim 1 or 2.
前記第2の結像光学系は赤外領域の光を透過する分光特性である第2の分光フィルターを有する、
ことを特徴とする請求項3に記載の撮影装置。 The first imaging optical system has a first spectral filter having spectral characteristics that transmit light in the visible light region;
The second imaging optical system has a second spectral filter having spectral characteristics that transmit light in the infrared region.
The imaging device according to claim 3.
前記撮像素子から出力した電気信号に基づいて第1の動画像を生成し、
前記生成された前記第1の動画像を前記各領域に対応する部分画像に分割し、
前記分割された前記部分画像を所定の配置で合成して第2の動画像に生成し、
前記合成された前記第2の動画像を表示装置に表示させる、
ことを特徴とする撮影方法。
One image sensor that converts an object into an electrical signal at a predetermined period, a first imaging optical system, and a second imaging optical system having a focal length different from that of the first imaging optical system, respectively, have different directions. An imaging device comprising an imaging means for forming an image of a subject from the image on a predetermined area on the one image sensor,
Generating a first moving image based on the electrical signal output from the image sensor;
Dividing the generated first moving image into partial images corresponding to the respective areas;
Generating the second moving image by combining the divided partial images in a predetermined arrangement;
Displaying the synthesized second moving image on a display device;
An imaging method characterized by the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009119591A JP2010268343A (en) | 2009-05-18 | 2009-05-18 | Imaging apparatus and imaging method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009119591A JP2010268343A (en) | 2009-05-18 | 2009-05-18 | Imaging apparatus and imaging method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010268343A true JP2010268343A (en) | 2010-11-25 |
| JP2010268343A5 JP2010268343A5 (en) | 2012-05-10 |
Family
ID=43364938
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009119591A Pending JP2010268343A (en) | 2009-05-18 | 2009-05-18 | Imaging apparatus and imaging method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010268343A (en) |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011109634A (en) * | 2009-06-17 | 2011-06-02 | Rohm Co Ltd | Vehicle-mounted camera |
| JP2012244614A (en) * | 2011-05-24 | 2012-12-10 | Yupiteru Corp | Camera unit for drive recorder |
| JP2014056343A (en) * | 2012-09-11 | 2014-03-27 | Mega Chips Corp | Mobile terminal device, program, and situation detection method |
| JP2014107664A (en) * | 2012-11-27 | 2014-06-09 | Nikon Corp | Imaging system and imaging program |
| JP2015103894A (en) * | 2013-11-22 | 2015-06-04 | ルネサスエレクトロニクス株式会社 | In-vehicle image processing apparatus and semiconductor device |
| CN105122784A (en) * | 2012-10-24 | 2015-12-02 | 本田技研工业株式会社 | Object recognition in low and high light conditions |
| EP2925566A4 (en) * | 2012-11-29 | 2016-07-20 | Bendix Commercial Vehicle Sys | Driver view adapter for forward looking camera |
| JP2016131367A (en) * | 2015-01-09 | 2016-07-21 | 株式会社リコー | Mobile system |
| JP2017514326A (en) * | 2014-03-27 | 2017-06-01 | インテル・コーポレーション | Camera that captures multiple sub-images for image generation |
| US9747871B2 (en) | 2012-09-11 | 2017-08-29 | Megachips Corporation | Portable terminal device, program, device shake compensation method, and condition detection method |
| WO2020170916A1 (en) * | 2019-02-22 | 2020-08-27 | パナソニックIpマネジメント株式会社 | State detection device and state detection method |
| JP2023131730A (en) * | 2022-03-09 | 2023-09-22 | トヨタ自動車株式会社 | Information processing device, vehicle system, information processing method, and program |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08181894A (en) * | 1994-10-25 | 1996-07-12 | Toshiba Corp | Video camera equipment |
| JP2001165775A (en) * | 1999-12-08 | 2001-06-22 | Hochiki Corp | Spectrum image sensor |
| JP2007164517A (en) * | 2005-12-14 | 2007-06-28 | Denso Corp | Graphic center detection method, ellipse detection method, image recognition device and controller |
| JP2007228455A (en) * | 2006-02-27 | 2007-09-06 | Auto Network Gijutsu Kenkyusho:Kk | Imaging device |
| JP2008042825A (en) * | 2006-08-10 | 2008-02-21 | Matsushita Electric Ind Co Ltd | Solid-state image sensor |
| WO2008041531A1 (en) * | 2006-09-25 | 2008-04-10 | Pioneer Corporation | Information processor, information processing method, information processing program and recording medium |
| WO2008120650A1 (en) * | 2007-04-02 | 2008-10-09 | Olympus Corporation | Optical device |
| JP2010124164A (en) * | 2008-11-19 | 2010-06-03 | Olympus Imaging Corp | Camera system and camera control method |
-
2009
- 2009-05-18 JP JP2009119591A patent/JP2010268343A/en active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08181894A (en) * | 1994-10-25 | 1996-07-12 | Toshiba Corp | Video camera equipment |
| JP2001165775A (en) * | 1999-12-08 | 2001-06-22 | Hochiki Corp | Spectrum image sensor |
| JP2007164517A (en) * | 2005-12-14 | 2007-06-28 | Denso Corp | Graphic center detection method, ellipse detection method, image recognition device and controller |
| JP2007228455A (en) * | 2006-02-27 | 2007-09-06 | Auto Network Gijutsu Kenkyusho:Kk | Imaging device |
| JP2008042825A (en) * | 2006-08-10 | 2008-02-21 | Matsushita Electric Ind Co Ltd | Solid-state image sensor |
| WO2008041531A1 (en) * | 2006-09-25 | 2008-04-10 | Pioneer Corporation | Information processor, information processing method, information processing program and recording medium |
| WO2008120650A1 (en) * | 2007-04-02 | 2008-10-09 | Olympus Corporation | Optical device |
| JP2010124164A (en) * | 2008-11-19 | 2010-06-03 | Olympus Imaging Corp | Camera system and camera control method |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011109634A (en) * | 2009-06-17 | 2011-06-02 | Rohm Co Ltd | Vehicle-mounted camera |
| US8854467B2 (en) | 2009-06-17 | 2014-10-07 | Rohm Co., Ltd. | Vehicle-mounted camera |
| JP2012244614A (en) * | 2011-05-24 | 2012-12-10 | Yupiteru Corp | Camera unit for drive recorder |
| JP2014056343A (en) * | 2012-09-11 | 2014-03-27 | Mega Chips Corp | Mobile terminal device, program, and situation detection method |
| US9747871B2 (en) | 2012-09-11 | 2017-08-29 | Megachips Corporation | Portable terminal device, program, device shake compensation method, and condition detection method |
| US9302621B2 (en) | 2012-10-24 | 2016-04-05 | Honda Motor Co., Ltd. | Object recognition in low-lux and high-lux conditions |
| JP2015535412A (en) * | 2012-10-24 | 2015-12-10 | 本田技研工業株式会社 | Object recognition in low and high lux conditions |
| CN105122784B (en) * | 2012-10-24 | 2018-09-25 | 本田技研工业株式会社 | Object recognition in low and high light conditions |
| CN105122784A (en) * | 2012-10-24 | 2015-12-02 | 本田技研工业株式会社 | Object recognition in low and high light conditions |
| US9852332B2 (en) | 2012-10-24 | 2017-12-26 | Honda Motor Co., Ltd. | Object recognition in low-lux and high-lux conditions |
| US9469251B2 (en) | 2012-10-24 | 2016-10-18 | Honda Motor Co., Ltd. | Object recognition in low-lux and high-lux conditions |
| JP2014107664A (en) * | 2012-11-27 | 2014-06-09 | Nikon Corp | Imaging system and imaging program |
| EP2925566A4 (en) * | 2012-11-29 | 2016-07-20 | Bendix Commercial Vehicle Sys | Driver view adapter for forward looking camera |
| JP2015103894A (en) * | 2013-11-22 | 2015-06-04 | ルネサスエレクトロニクス株式会社 | In-vehicle image processing apparatus and semiconductor device |
| JP2017514326A (en) * | 2014-03-27 | 2017-06-01 | インテル・コーポレーション | Camera that captures multiple sub-images for image generation |
| JP2016131367A (en) * | 2015-01-09 | 2016-07-21 | 株式会社リコー | Mobile system |
| WO2020170916A1 (en) * | 2019-02-22 | 2020-08-27 | パナソニックIpマネジメント株式会社 | State detection device and state detection method |
| JP2023131730A (en) * | 2022-03-09 | 2023-09-22 | トヨタ自動車株式会社 | Information processing device, vehicle system, information processing method, and program |
| JP7632351B2 (en) | 2022-03-09 | 2025-02-19 | トヨタ自動車株式会社 | Information processing device, vehicle system, information processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2010268343A (en) | Imaging apparatus and imaging method | |
| JP6633216B2 (en) | Imaging device and electronic equipment | |
| JP5439890B2 (en) | Image processing method, image processing apparatus, and program | |
| JP5099451B2 (en) | Vehicle periphery confirmation device | |
| JP4935571B2 (en) | Driving assistance device | |
| JP2010268343A5 (en) | ||
| JP2007053448A (en) | Imaging device | |
| CN102934427A (en) | Image processing device, image processing system, and image processing method | |
| WO2010050012A1 (en) | Camera module mounted on a car | |
| JP2000225970A (en) | Image recording system loaded on vehicle | |
| JP7500527B2 (en) | IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM | |
| JP7467402B2 (en) | IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM | |
| CN111273765A (en) | Display control device for vehicle, display control method for vehicle, and storage medium | |
| JP7631275B2 (en) | Mobile body and imaging device installation method | |
| JP7622025B2 (en) | IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM | |
| JP2004194071A (en) | Driving assistance image generation device | |
| JP3945098B2 (en) | Drive recorder | |
| JP2006248374A (en) | Vehicle safety confirmation device and head-up display | |
| WO2019052890A1 (en) | AUTOMOBILE DRIVE RECORDER | |
| JP2003116029A (en) | Imaging device and image recorder using the same | |
| KR20240118670A (en) | Image processing system, movable apparatus, image processing method, and storage medium | |
| WO2024024148A1 (en) | On-vehicle monitoring device, information processing device, and on-vehicle monitoring system | |
| US10605616B2 (en) | Image reproducing device, image reproducing system, and image reproducing method | |
| JP2020150295A (en) | Vehicle security device | |
| WO2013144998A1 (en) | Visual recognition assistance apparatus for vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120319 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120319 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130227 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130305 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130415 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130924 |