[go: up one dir, main page]

JP2008278515A - Image processing camera system and image processing camera control method - Google Patents

Image processing camera system and image processing camera control method Download PDF

Info

Publication number
JP2008278515A
JP2008278515A JP2008144069A JP2008144069A JP2008278515A JP 2008278515 A JP2008278515 A JP 2008278515A JP 2008144069 A JP2008144069 A JP 2008144069A JP 2008144069 A JP2008144069 A JP 2008144069A JP 2008278515 A JP2008278515 A JP 2008278515A
Authority
JP
Japan
Prior art keywords
application
image data
applications
imaging device
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008144069A
Other languages
Japanese (ja)
Other versions
JP4542174B2 (en
JP2008278515A5 (en
Inventor
Shoji Muramatsu
彰二 村松
Yasushi Otsuka
裕史 大塚
Hiroshi Takenaga
寛 武長
Tatsuhiko Moji
竜彦 門司
Jiro Takezaki
次郎 竹崎
Isao Furusawa
勲 古沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008144069A priority Critical patent/JP4542174B2/en
Publication of JP2008278515A publication Critical patent/JP2008278515A/en
Publication of JP2008278515A5 publication Critical patent/JP2008278515A5/ja
Application granted granted Critical
Publication of JP4542174B2 publication Critical patent/JP4542174B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】カメラパラメータを動的に変化させる複数のアプリケーション間で1つの撮像デバイスを信頼性高く共有する。
【解決手段】画像を取得する撮像手段6と、複数のアプリケーション151〜15Nから撮像デバイスを制御する撮像デバイスコントロール部13と、アプリケーションを選択するアプリケーションスケジューリング部14とを具備し、複数のアプリケーション151〜15Nにおける必要な画像データ数と画像データ取込み頻度を記憶する手段17と、画像データ数と画像データ取込み頻度に基き、複数のアプリケーションを選択する手段と、複数のアプリケーションが、1つの撮像デバイスから時間的に重なることなく画像データの取込みのタイミングとインターバルを決定する画像取込みスケジューリング部14とを備える。実行可能なアプリケーションをユーザに明示し、起動を指令する操作部をナビゲーション画面に表示する。
【選択図】図3
One imaging device is reliably shared among a plurality of applications that dynamically change camera parameters.
An imaging means for acquiring an image, an imaging device control unit for controlling an imaging device from a plurality of applications, and an application scheduling unit for selecting an application are provided. Means 17 for storing the required number of image data and image data capture frequency at 15N, means for selecting a plurality of applications based on the number of image data and the frequency of image data capture, and the plurality of applications from one imaging device The image capturing scheduling unit 14 determines the timing and interval of capturing image data without overlapping. An executable application is clearly indicated to the user, and an operation unit for instructing activation is displayed on the navigation screen.
[Selection] Figure 3

Description

本発明は、1つの撮像デバイスを複数の用途で共有する画像処理カメラシステム及びその制御方法に関する。   The present invention relates to an image processing camera system that shares one imaging device for a plurality of uses, and a control method thereof.

画像処理技術は、不審者の侵入や異常を検知する監視システムや、車の安全走行を支援する車載システムに適用され始めている。車載システムのような、屋外の画像処理システムでは、1つの撮像デバイスから複数のアプリケーションに必要な映像を取得するために、外界の状況に合わせたカメラ制御が必要となる。1つのアプリケーションでも見たい場所や使用する時間帯によって、カメラの向きや露光を制御する必要が出てくる。例えば、車線認識のために自動車に搭載されたカメラシステムでは、トンネルの出入り口、西日による太陽光、対向車のヘッドライトなどによって得られる映像の明るさが急激に変化する。このような場合にも、カメラシステムは、前方向に設置された1台のカメラで安定に車線の認識を行わなければならない。アプリケーションが必要としている画像を安定して取得する露光制御の技術としては、例えば、特許文献1や、特許文献2などに開示された技術がある。   Image processing technology has begun to be applied to monitoring systems that detect intrusions and abnormalities of suspicious persons and in-vehicle systems that support safe driving of vehicles. In an outdoor image processing system such as an in-vehicle system, in order to acquire images necessary for a plurality of applications from one imaging device, camera control according to the external environment is required. It is necessary to control the orientation and exposure of the camera depending on the location where the user wants to see and the time zone in which the application is used. For example, in a camera system mounted on an automobile for lane recognition, the brightness of an image obtained by a tunnel entrance / exit, sunlight from a western sun, headlights of an oncoming vehicle, and the like rapidly change. Even in such a case, the camera system must stably recognize the lane with one camera installed in the forward direction. As an exposure control technique for stably acquiring an image required by an application, for example, there are techniques disclosed in Patent Document 1, Patent Document 2, and the like.

これらのシステムへの画像処理技術を普及するためには、画像処理装置の小スペース化、低価格化が求められている。この小スペース、低価格を実現するために、1つの撮像デバイスを複数のアプリケーションに共有する技術がある。例えば、特許文献3に開示されているように、複数のアプリケーションが1つのカメラを効率良く利用できるようにするものである。具体的には、まず、複数のアプリケーションが望むカメラ制御(露光、視野角、カメラ方向)が同一で、共有できる映像が取得できる場合に、複数のアプリケーションで1つのカメラを共有している。また、カメラ制御の前記各パラメータの差が所定の範囲内にあり、複数のアプリケーションでの画像が途切れない微小時間内に設定を切替えて時分割制御が可能な場合に、1つのカメラを共有している。そして、前記各パラメータの差が所定の範囲を逸脱した場合には、該当アプリケーションに対して、撮影不可能であることを知らせ、該当アプリケーション側で、適切な処理を実行する。   In order to spread the image processing technology to these systems, it is required to reduce the space and cost of the image processing apparatus. In order to realize this small space and low price, there is a technology for sharing one imaging device among a plurality of applications. For example, as disclosed in Patent Document 3, a plurality of applications can efficiently use one camera. Specifically, first, when a plurality of applications have the same camera control (exposure, viewing angle, camera direction) and a sharable video can be acquired, a plurality of applications share one camera. Also, if the difference between the parameters for camera control is within a predetermined range and the settings can be switched within a very short time when images in multiple applications are not interrupted, one camera can be shared. ing. When the difference between the parameters deviates from a predetermined range, the corresponding application is notified that photographing is not possible, and appropriate processing is executed on the corresponding application side.

特開平8−240833号公報JP-A-8-240833 特開平9−181962号公報Japanese Patent Laid-Open No. 9-181962 特開平7−46568号公報JP 7-46568 A

ここで、ある決められた周期で画像処理をすることが求められている監視システムや車載システムのアプリケーションを想定する。例えば、車載システムの例として、走行車線を画像処理により認識して車両が走行車線をはみ出したりしないようにステアリングを制御する車線維持システムがある。このシステムでは、画像処理による車線の認識結果を一定時間内(例えば200ms以内)に取得してステアリングの制御をする必要がある。画像処理結果をその後の制御に使用するこのようなシステムでは、画像処理の処理周期は絶対に守らなければならない。この周期が守れない場合は、画像処理による制御ができなくなり、システムが機能しなくなり、誤動作などの原因となるので運用は認められない。このように高い信頼性が要求されるシステムとしては、侵入者検知、人流/交通流計測装置、異常検知装置などの監視システムがあり、車載システムにおいては、安全支援システム、各種警報システムなど多数存在する。これら監視システムや車載システムで使用されるカメラでは、外界を認識する必要があるため、画像処理のために、1つのアプリケーションでもカメラパラメータは時々刻々と変化している。したがって、一時期のカメラパラメータの近似によってカメラを共有することはできない。例えば、前記車線維持システムにおいて、ある一時期、別のアプリケーションと偶然カメラパラメータが近似すると、システムが稼動する。しかし、次の瞬間、カメラパラメータが変化してカメラが共有できなくなり、車線維持システムが停止してしまう。制御に使用するシステムにこのような状況があってはならず、信頼性のあるシステムは得られない。   Here, an application of a monitoring system or an in-vehicle system that is required to perform image processing at a predetermined cycle is assumed. For example, as an example of an in-vehicle system, there is a lane keeping system that recognizes a traveling lane by image processing and controls steering so that the vehicle does not protrude from the traveling lane. In this system, it is necessary to control the steering by acquiring the lane recognition result by image processing within a certain time (for example, within 200 ms). In such a system in which the image processing result is used for subsequent control, the processing cycle of the image processing must be strictly observed. If this period cannot be observed, control by image processing cannot be performed, the system will not function, and malfunctions may be caused. As such systems that require high reliability, there are monitoring systems such as intruder detection, human flow / traffic flow measurement devices, and abnormality detection devices. There are many safety support systems, various alarm systems, etc. in in-vehicle systems. To do. In cameras used in these monitoring systems and in-vehicle systems, it is necessary to recognize the outside world, and therefore camera parameters change every moment even in one application for image processing. Therefore, it is not possible to share a camera by approximating camera parameters for a period of time. For example, in the lane keeping system, when a camera parameter is accidentally approximated to another application for a certain period of time, the system is activated. However, at the next moment, the camera parameters change and the camera cannot be shared, and the lane keeping system stops. The system used for control must not have such a situation, and a reliable system cannot be obtained.

本発明の目的は、1つの撮像デバイスを、複数のアプリケーションで、信頼性高く共有することのできる画像処理カメラシステムを提供することである。   An object of the present invention is to provide an image processing camera system capable of sharing one imaging device with a plurality of applications with high reliability.

本発明の他の目的は、実行できる複数のアプリケーションをユーザに明示し、ユーザが実行するアプリケーションを迷うことなく選ぶことができる、使い勝手に優れた画像処理カメラシステムを提供することである。   Another object of the present invention is to provide an easy-to-use image processing camera system in which a plurality of applications that can be executed are clearly indicated to the user and an application to be executed by the user can be selected without hesitation.

本発明はその一面において、画像を取得する撮像手段と、複数のアプリケーションからの画像取得要求を受付け撮像デバイスを制御する撮像デバイスコントロール部と、実行するアプリケーションを選択するアプリケーションスケジューリング部とを具備し、アプリケーションスケジューリング部は、複数のアプリケーションにおける必要な画像データ数と画像データ取込み頻度を記憶する手段から読み出した画像データ数と画像データ取込み頻度に基き、並行して実行可能な複数のアプリケーションを選択する手段と、実行可能な複数のアプリケーションが、1つの撮像デバイスから時間的に重なることなく画像データの取込みを繰返す画像データ取込みのタイミングとインターバルを決定する画像取込みスケジューリング部を備えたことを特徴とする。   In one aspect, the present invention includes an imaging unit that acquires an image, an imaging device control unit that receives an image acquisition request from a plurality of applications and controls the imaging device, and an application scheduling unit that selects an application to be executed. A means for selecting a plurality of applications that can be executed in parallel based on the number of image data read from the means for storing the number of required image data and the frequency of taking in the image data and the frequency of taking in the image data in the plurality of applications. And a plurality of executable applications have an image capture scheduling unit that determines the timing and interval of image data capture that repeats the capture of image data from one imaging device without overlapping in time And features.

本発明は他の一面において、並行して実行可能な複数のアプリケーションを表示する手段と、この表示された実行可能なアプリケーションの起動をユーザが指示するための操作手段を備えたことを特徴とする。   In another aspect, the present invention is characterized by comprising means for displaying a plurality of applications that can be executed in parallel, and operation means for a user to instruct activation of the displayed executable applications. .

本発明の一面によれば、カメラパラメータを動的に変化させる複数のアプリケーションで1つの撮像デバイスを信頼性高く共有することが可能となる。   According to one aspect of the present invention, it is possible to share one imaging device with high reliability among a plurality of applications that dynamically change camera parameters.

本発明の他の一面によれば、実行できる複数のアプリケーションをユーザに明示し、ユーザが実行するアプリケーションを迷うことなく選べる使い勝手に優れた画像処理カメラシステムを提供することができる。   According to another aspect of the present invention, it is possible to provide a user-friendly image processing camera system that clearly shows a plurality of applications that can be executed to the user and can select applications to be executed without hesitation.

本発明のその他の目的と特徴は以下の実施形態の説明で明らかにする。   Other objects and features of the present invention will become apparent from the following description of embodiments.

図1は、本発明の一実施形態による自動車に搭載した画像処理カメラシステムの概略構成ブロック図と画像処理カメラのハードウェア構成図である。この画像処理カメラシステムは、自動車1の前方向や後方向に設置したカメラ2,3を使用して、後述するような多数のアプリケーションを実現するものである。画像処理カメラ2,3は、ネットワーク4を介してインターフェース手段5と接続されている。自動車1の場合、ネットワーク4は、CAN( Control Area Network )など規格化されたネットワークや、単なる電力線でON/OFFを表現するだけの接続方法などが利用できる。インターフェース手段5は、ナビゲーションシステム、ハンドル、ブレーキなどドライバとの情報のやり取りをするデバイスであったり、エンジンコントロールユニット、GPS、各種センサなど制御装置との情報をやり取りするデバイスである。インターフェース手段5がナビゲーションシステムである場合は、CANなどのネットワーク4を通して多量の情報を伝達する。また、インターフェース手段5がサイドブレーキなどである場合は、必要最小限のON/OFF情報のみを伝達する。   FIG. 1 is a schematic block diagram of an image processing camera system mounted on an automobile according to an embodiment of the present invention and a hardware configuration diagram of the image processing camera. This image processing camera system realizes many applications as will be described later by using cameras 2 and 3 installed in the front direction and the rear direction of the automobile 1. The image processing cameras 2 and 3 are connected to the interface means 5 via the network 4. In the case of the automobile 1, the network 4 can use a standardized network such as CAN (Control Area Network) or a connection method that simply represents ON / OFF with a power line. The interface unit 5 is a device that exchanges information with a driver such as a navigation system, a steering wheel, and a brake, and a device that exchanges information with a control device such as an engine control unit, GPS, and various sensors. When the interface means 5 is a navigation system, a large amount of information is transmitted through the network 4 such as CAN. When the interface means 5 is a side brake or the like, only the necessary minimum ON / OFF information is transmitted.

図1(b)を用いて画像処理カメラ2,3のハードウェア構成の一実施形態を説明する。撮像デバイス6によって取得された画像は、撮像デバイスインターフェース7を介してRAM8に格納される。後述する多数のアプリケーションのプログラムや、撮像デバイス6の制御プログラムなどは、予めROM9に格納されており、必要に応じてCPU10によって実行される。画像処理カメラ2,3の内部では、外部インターフェース手段11が、ネットワーク4を介して外部のデバイスとの仲介を行っている。すなわち、これらの要素7〜11は、マイクロコンピュータ12を構成しており、ROM9には、画像処理カメラ2,3を起動するためのプログラムや実行可能なアプリケーションに関する情報が記憶されている。また、RAM8にはアプリケーションの実行に必要な情報を格納している。アプリケーションの実行に必要な情報としては、後述する環境情報や、図1(a)のインターフェース手段5から得られた情報、及び画像データなどがある。撮像デバイス6は、マイクロコンピュータ12すなわちCPU10が処理するプログラムによって制御され、その制御情報は、撮像デバイスインターフェース7を介して送信される。   An embodiment of the hardware configuration of the image processing cameras 2 and 3 will be described with reference to FIG. An image acquired by the imaging device 6 is stored in the RAM 8 via the imaging device interface 7. A number of application programs, which will be described later, and a control program for the imaging device 6 are stored in the ROM 9 in advance, and are executed by the CPU 10 as necessary. Inside the image processing cameras 2 and 3, the external interface unit 11 mediates with an external device via the network 4. That is, these elements 7 to 11 constitute the microcomputer 12, and the ROM 9 stores a program for starting the image processing cameras 2 and 3 and information about executable applications. The RAM 8 stores information necessary for executing the application. Information necessary for executing the application includes environment information to be described later, information obtained from the interface unit 5 in FIG. 1A, image data, and the like. The imaging device 6 is controlled by a program processed by the microcomputer 12, that is, the CPU 10, and the control information is transmitted via the imaging device interface 7.

図2は、自動車における多数のアプリケーションと、必要画質、レート、カメラ制御及び画像処理機能の説明図である。図2中に示すように、アプリケーション例として、次のようなものが挙げられる。(1)車両周囲のモニタリング、(2)走行時の状況を記録するドライブレコーダ、(3)走行時の周囲映像を記念として記録する映像アルバム、(4)走行レーンをカメラによって認識することにより実現される車線逸脱警報、(5)走行中の障害に対して警報を出す障害物警報、(6)割込み・追越し車両警報、(7)自動的にライトの消灯を制御したりライトの明るさ強度や方向を制御するライト自動制御機能、(8)駐車や車線変更するときの駐車支援・車線変更支援機能、(9)衝突前に衝突被害をできるだけ軽減する衝突軽減・回避機能などである。   FIG. 2 is an explanatory diagram of many applications and required image quality, rate, camera control, and image processing functions in an automobile. As shown in FIG. 2, examples of applications include the following. (1) Monitoring around the vehicle, (2) Drive recorder that records the driving situation, (3) Video album that records the surrounding video during driving, (4) Realized by recognizing the driving lane with the camera Lane departure warnings, (5) Obstacle warnings that issue warnings for running obstacles, (6) Interrupt / passing vehicle warnings, (7) Automatic light turn-off and light intensity Automatic light control function that controls the direction and direction, (8) parking assistance / lane change assistance function when parking or changing lanes, and (9) collision mitigation / avoidance function that reduces collision damage as much as possible before collision.

これらの多数のアプリケーションが必要とする(1)画質、(2)レート、(3)カメラ制御及び(4)画像処理機能について説明する。   The (1) image quality, (2) rate, (3) camera control, and (4) image processing function required by these many applications will be described.

まず、「(1)画質」については、高ければ高いほど望ましいが、解像度が上がればデータ量が増加し、処理に負担がかかってしまい、結果として所定のレートで処理できなくなってしまう場合がある。そのため、アプリケーションに適した画質が存在する。図2では映像アルバムのみ使用する画質を指定しているが、他のアプリケーションでも映像アルバムと同様に適した画質がある。例えば、レーン認識に必要な画質は白線などのレーンマークが判別できれば良く、必要以上に高画質の画像を時間とメモリを消費して取得する必要はない。   First, with regard to “(1) image quality”, it is desirable that the image quality be higher, but if the resolution is increased, the amount of data increases and processing is burdened. As a result, processing at a predetermined rate may not be possible. . Therefore, image quality suitable for the application exists. In FIG. 2, the image quality used only for the video album is specified, but other applications have suitable image quality similar to the video album. For example, the image quality required for lane recognition is only required to be able to distinguish a lane mark such as a white line, and it is not necessary to acquire an image with higher image quality than necessary by consuming time and memory.

次に、「(2)レート」についても画質同様、それぞれのアプリケーションに適したレートが存在する。ここでレートとは処理の頻度のことであり、レートが高いほど処理サイクル数が小さく、短い時間間隔で処理が繰返される。一般的に高画質な映像を取得しようとしたり、安全性に関係する制御をしようとすると短い間隔で画像の取得が必要となりレートは高くなる。例えば、衝突軽減や衝突回避など高い信頼性と高速な応答性を求められるアプリケーションでは、画像処理の回数を増やして信頼性の向上と応答性を改善する必要がある。このように、アプリケーションの中には、1秒間に1回処理できれば機能を満たすものもあれば、16ミリ秒間隔で処理が必要なものもあるため、撮像デバイスを共有するためにはレートを考慮しなければならない。   Next, as for “(2) rate”, there is a rate suitable for each application as in the case of image quality. Here, the rate is the frequency of processing. The higher the rate, the smaller the number of processing cycles, and the processing is repeated at short time intervals. Generally, when trying to acquire a high-quality video or control related to safety, it is necessary to acquire an image at a short interval, and the rate becomes high. For example, in applications that require high reliability and high-speed response such as collision mitigation and collision avoidance, it is necessary to increase the number of times of image processing to improve reliability and response. In this way, some applications can satisfy the function if they can be processed once per second, and some applications require processing at intervals of 16 milliseconds. Therefore, in order to share an imaging device, the rate is considered. Must.

また、「(3)カメラ制御」は、主に人間が映像を見るアプリケーションと計算機が画像を処理するアプリケーションに分かれる。図2中のモニタリング、ドライブレコーダ、映像アルバム機能は見るアプリケーションであり、ライト自動制御以下のアプリケーションは認識処理を行うものである。カメラ制御の内容としては、モニタリング用の制御では、人間の見た目で自然な画像が取得できれば良く、画像処理用の制御では、画像処理する部分が処理できるような画像が取得できるように制御を行う。画像処理用の画像では、画像の暗い部分の処理用に低速シャッターで取得した画像や、明るい部分の処理用に高速シャッターで取得した画像などがある。これらシャッター制御を行った画像は、見た目には暗すぎたり、明るすぎたりしてモニタリング用のカメラ制御とは異なる場合が多い。また、カラー制御も信号を検知するために赤色や黄色を強調した画像を取得したりするため、自然な色を再現するモニタリング用のカメラ制御と異なる。   “(3) Camera control” is mainly divided into an application in which a person views video and an application in which a computer processes an image. The monitoring, drive recorder, and video album functions in FIG. 2 are viewing applications, and applications below automatic light control perform recognition processing. As the contents of camera control, the monitoring control only needs to acquire a natural image with a human appearance, and the image processing control performs control so that an image that can be processed by the image processing portion can be acquired. . The image for image processing includes an image acquired with a low-speed shutter for processing a dark portion of an image, an image acquired with a high-speed shutter for processing a bright portion. An image subjected to the shutter control is often different from the camera control for monitoring because it is too dark or too bright to look. Color control is also different from monitoring camera control for reproducing natural colors because an image in which red or yellow is emphasized is acquired in order to detect a signal.

最後に、図2では、各アプリケーション別に、必要となる「(4)画像処理機能」を示している。基本となる画像処理機能としては、画像圧縮、色補正、レーン認識、車両検知などがあるが、いくつかの機能は複数のアプリケーションで同一の機能が必要とされている。複数のアプリケーションで同一機能が必要とされているのであれば、その機能が必要とするカメラ制御はアプリケーション間で共有できると考えられる。例えば、車線逸脱警報であればレーン認識機能が必要となり、同様にレーン認識機能が必要となる割込み車両警報とレーン認識機能の共有化を実施すれば、それに伴なって撮像デバイスの使用も共有化することができる。   Finally, FIG. 2 shows “(4) Image processing function” required for each application. Basic image processing functions include image compression, color correction, lane recognition, vehicle detection, and the like, but some functions require the same function in a plurality of applications. If the same function is required in a plurality of applications, the camera control required by the function can be shared between the applications. For example, if a lane departure warning is required, a lane recognition function is required. Similarly, if an interrupted vehicle warning that requires a lane recognition function and a lane recognition function are shared, the use of the imaging device is also shared. can do.

以下に、1つのカメラ(撮像デバイス)を共有して、多数のアプリケーションを実現する本発明の一実施形態を説明する。   Hereinafter, an embodiment of the present invention that realizes a large number of applications by sharing one camera (imaging device) will be described.

図3は、本発明による画像処理システムの一実施形態の概要を示す機能ブロック図である。ここに示す殆どの機能は、図1で説明したマイクロコンピュータ12によって実行される。まず、画像を取得する撮像デバイス6を制御する撮像デバイスコントロール部13と、アプリケーションの実行や停止を制御するアプリケーションスケジューリング部14を備える。N個のアプリケーション151〜15Nを備えたシステムであり、各アプリケーションは、基本となる画像処理機能(A〜M)16A〜16Mのうち必要なものを利用して動作する。また、各アプリケーションが処理に使用したり、アプリケーションスケジューリング部14が、アプリケーションの制御に使用する環境情報17を備えている。本実施形態では、通常カメラと呼ばれる撮像デバイス6に加えて、撮像デバイス6を制御する撮像デバイスコントロール部13、各アプリケーションA〜Mを実行する部分を、図1(a)に示す画像処理カメラ2,3部に集約している。そこで、前述したアプリケーションを実現する高度な処理機能まで持ったカメラ(例えば、カメラ2,3)のことを単なる画像を取得するカメラと区別するために画像処理カメラと呼ぶことにする。   FIG. 3 is a functional block diagram showing an outline of an embodiment of the image processing system according to the present invention. Most of the functions shown here are executed by the microcomputer 12 described with reference to FIG. First, an imaging device control unit 13 that controls the imaging device 6 that acquires an image and an application scheduling unit 14 that controls execution and stop of an application are provided. The system includes N applications 151 to 15N, and each application operates using necessary ones of basic image processing functions (A to M) 16A to 16M. Each application includes environment information 17 used for processing and the application scheduling unit 14 used for application control. In the present embodiment, in addition to the imaging device 6 called a normal camera, the imaging device control unit 13 that controls the imaging device 6 and the part that executes each of the applications A to M are the image processing camera 2 shown in FIG. , 3 parts. Therefore, cameras (for example, cameras 2 and 3) having advanced processing functions for realizing the application described above are called image processing cameras in order to distinguish them from cameras that simply acquire images.

まず、図3に示した各アプリケーション1〜Nのうちのひとつ151が、単独で実行する場合について説明する。この単独実行の説明は、従来技術の特許文献1、特許文献2などの動作と同様である。アプリケーション151は、処理に必要な画像を撮像デバイス6から取得するために、周囲の明るさ、画像処理範囲、現在取得している画像の状態などの環境情報17を参照する。これに基き、カメラパラメータ(カメラ向き、絞り値、シャッタースピードなど)を決定し、撮像デバイスコントロール部13に撮像デバイス6の制御を依頼する。撮像デバイスコントロール部13では、撮像デバイス6の露光タイミングなどを考慮して、アプリケーション151が欲するカメラパラメータを設定する。ここで、環境情報17は、地図情報、日時(季節)、車外の照度、天候、注視範囲などがある。   First, a case where one of the applications 151 to N shown in FIG. 3 is executed alone will be described. The description of this single execution is the same as the operations of Patent Document 1 and Patent Document 2 of the prior art. The application 151 refers to environment information 17 such as ambient brightness, an image processing range, and a currently acquired image state in order to acquire an image necessary for processing from the imaging device 6. Based on this, camera parameters (camera orientation, aperture value, shutter speed, etc.) are determined, and the imaging device control unit 13 is requested to control the imaging device 6. The imaging device control unit 13 sets camera parameters desired by the application 151 in consideration of the exposure timing of the imaging device 6 and the like. Here, the environmental information 17 includes map information, date and time (season), illuminance outside the vehicle, weather, and gaze range.

このように、単独のアプリケーションのみ存在した場合は、アプリケーションが欲するカメラパラメータを撮像デバイスコントロール部13が撮像デバイス6に設定するだけの機能で十分である。しかし、図3ではアプリケーションが複数であるため、各アプリケーションから要求されるカメラパラメータを受付け、撮像デバイス6がそれぞれの画像を限られた時間間隔で取得できるように制御する機能が必要となる。本実施例では、アプリケーションスケジューリング部14がその機能を果たしている。つまり、アプリケーションスケジューリング部14は、複数のアプリケーション1〜Nから要求され、撮像デバイス6に対する制御を調整して実行する機能を持つ。   As described above, when only a single application exists, a function for the imaging device control unit 13 to set the camera parameter desired by the application in the imaging device 6 is sufficient. However, since there are a plurality of applications in FIG. 3, it is necessary to have a function of accepting camera parameters required from each application and controlling the imaging device 6 to acquire each image at a limited time interval. In this embodiment, the application scheduling unit 14 performs its function. That is, the application scheduling unit 14 has a function that is requested by the plurality of applications 1 to N and adjusts and executes control on the imaging device 6.

アプリケーションの種類によっては、撮像デバイス6を共有できない場合が発生する。例えば、映像を高画質で録画したいため綺麗な画像を毎フレーム取得したいアプリケーションと、衝突回避のように画像処理に必要な画像をできるだけ短い時間間隔で毎回取得したいというアプリケーションである。この2つのアプリケーションを1つの撮像デバイスを使用して並行して実行することは、2つのアプリケーションのカメラ制御が全く同一でない限り困難である。このため、並行して実行するアプリケーションが限定されることになるが、その制御もアプリケーションスケジューリング部14で行う。アプリケーションスケジューリング部14は、各アプリケーションが必要とする画像制御情報と処理量、及び自動車1の走行状況から実行可能なアプリケーションを判断する。そして、実行できる場合には、画像の取得タイミングと処理タイミングとを調整する。このアプリケーションスケジューリング部14によって、カメラパラメータを動的に変化させる複数のアプリケーションでも、1つの撮像デバイスを効率的に共有することができる。なお、インターフェース手段5は、図1で説明したように、ナビゲーションシステム、ハンドル、ブレーキなどドライバや自動車1の走行制御システムとの仲介役を果している。   Depending on the type of application, the imaging device 6 may not be shared. For example, there are an application that wants to record a beautiful image every frame in order to record video with high image quality, and an application that wants to acquire an image necessary for image processing every time as short as possible, such as collision avoidance. Executing these two applications in parallel using one imaging device is difficult unless the camera control of the two applications is exactly the same. For this reason, applications to be executed in parallel are limited, but the application scheduling unit 14 also controls the applications. The application scheduling unit 14 determines an executable application from the image control information and processing amount required for each application, and the traveling state of the automobile 1. If it can be executed, the image acquisition timing and the processing timing are adjusted. The application scheduling unit 14 can efficiently share one imaging device even in a plurality of applications that dynamically change camera parameters. As described with reference to FIG. 1, the interface unit 5 serves as an intermediary with a driver, such as a navigation system, a steering wheel, and a brake, and a travel control system of the automobile 1.

次に、図4、図5を用いて撮像デバイス1のカメラパラメータの制御について説明する。   Next, control of camera parameters of the imaging device 1 will be described with reference to FIGS.

図4は、撮像デバイスコントロール部13の機能ブロック図である。図に示すように、撮像デバイス6から得られる画像を制御するには、次の5つの制御機能部がある。まず、光量を電気信号に変換するための撮像素子に入射する光量を制御する露光制御部131、光量を電気信号に変換した後に電気信号で明るさを制御するゲイン制御部132及び色情報を制御するカラー制御部133がある。また、データ転送する範囲を限定し高速に画面をスキャンするスキャン範囲制御部134及び映像入力制御部135である。それぞれの制御は、図1(b)で説明したように、マイクロコンピュータ12のプログラム処理によって実行される。制御の対象によって、リアルタイムに変更できる静的パラメータもあれば、装置を機械的に制御して変更する動的パラメータもあり、後者の場合には希望する画像を取得するのに時間を要することもある。   FIG. 4 is a functional block diagram of the imaging device control unit 13. As shown in the figure, there are the following five control function units for controlling an image obtained from the imaging device 6. First, an exposure control unit 131 that controls the amount of light incident on the image sensor for converting the amount of light into an electrical signal, a gain control unit 132 that controls brightness with the electrical signal after converting the amount of light into an electrical signal, and color information control There is a color control unit 133 to perform. The scanning range control unit 134 and the video input control unit 135 scan the screen at a high speed by limiting the data transfer range. Each control is executed by the program processing of the microcomputer 12 as described with reference to FIG. There are static parameters that can be changed in real time depending on the object of control, and dynamic parameters that are changed by mechanically controlling the device. In the latter case, it may take time to obtain the desired image. is there.

図5は、撮像デバイス6のハードウェア構成図である。撮像デバイス6の内部では、信号処理部61によって、カメラパラメータを変更できるゲイン制御及びカラー制御などの静的制御を実行する。一方、レンズ62、絞り63及び撮像素子64などの光学系において、フォーカスやシャッタースピードを動的に制御する光学系制御部65がある。本実施例では、これらの変更に関するスケジューリングに関しても実行し、前述したように、信号処理のパラメータ変更は瞬時に可能であるが、光学系は、瞬時に変更ができない場合が多い。   FIG. 5 is a hardware configuration diagram of the imaging device 6. Inside the imaging device 6, the signal processing unit 61 executes static control such as gain control and color control that can change camera parameters. On the other hand, in an optical system such as the lens 62, the diaphragm 63, and the image pickup device 64, there is an optical system controller 65 that dynamically controls the focus and shutter speed. In the present embodiment, scheduling relating to these changes is also executed, and as described above, the signal processing parameters can be changed instantaneously, but the optical system often cannot be changed instantaneously.

次に、スケジューリングの方法について説明する。前述したように、各アプリケーションは所定のレートで処理する必要がある。例えば、車線逸脱警報において、車線を逸脱してから300[ms]以内に警報を出す必要があれば車線逸脱警報処理の処理サイクルは最長でも300[ms]以下でなければならない。もし、実行中のアプリケーションとの関係で所定のレートを実現できない場合は、この車線逸脱警報処理を起動すべきでない。このため、所定のレートが実現できるようにスケジューリングされて、各アプリケーションを起動しなければならない。以下にスケジューリングについて詳述する。   Next, a scheduling method will be described. As described above, each application needs to be processed at a predetermined rate. For example, in the lane departure warning, if it is necessary to issue an alarm within 300 [ms] after the departure from the lane, the processing cycle of the lane departure warning processing must be 300 [ms] or less at the longest. If the predetermined rate cannot be realized in relation to the running application, the lane departure warning process should not be started. For this reason, each application must be started and scheduled so as to realize a predetermined rate. The scheduling will be described in detail below.

図6は、複数アプリケーションの動作スケジューリングの一例タイムチャートであり、割込み車両警報とドライブレコーダの2つのアプリケーションが1つの撮像デバイスを共有し、並行して実行される場合のスケジューリングを示す。映像フレーム300は、画像が取得できるタイミングを規定しており、それぞれのタイミングをフレームF0〜F5のフレーム番号で表現している。例えば、通常の撮像デバイスでは、1つのフレームは33[ms]もしくは16[ms]である。割込み車両警報301では、図2のカメラ制御の欄に示したように、高速と低速のシャッター制御を行った2枚の画像を用いて割込み車両の認識(車両検知)処理を行っている。このため、画像1,2の2枚の画像を取得して処理する必要がある。この図では、割込み車両警報301の処理サイクル(1周期)を6フレームとしているので、6フレームの期間内で2枚の画像の取得と、それぞれの画像処理を行う。一方、ドライブレコーダ302は、画像を記録する処理であるが、こちらの処理サイクルも6フレームであり、取得する画像は1枚である。図3のアプリケーションスケジューリング部14は、割込み車両警報301のための画像1,2の取得と、処理1,2の処理時間を計算する。そして、割込み車両警報301には6フレーム必要であることから、フレームF0に画像1の取込み、フレームF1〜F2に処理1を割当て、フレームF3に画像2の取込み、フレームF4〜F5に処理2を割当てる。他方、ドライブレコーダ302の処理は画像取得のみであり、割込み車両警報301で撮像デバイス6を使用していないフレームF1に画像3の取込みを割当てている。ここで、両アプリケーションにおいて、画像の取込みタイミングは異なっているため、画像1〜3のカメラパラメータは全く異なる設定が可能であり、これらのアプリケーションに1つの撮像デバイス6を共有することができる。   FIG. 6 is a time chart showing an example of operation scheduling of a plurality of applications, and shows scheduling when two applications of an interrupted vehicle alarm and a drive recorder share one imaging device and are executed in parallel. The video frame 300 defines the timing at which an image can be acquired, and each timing is expressed by the frame numbers of the frames F0 to F5. For example, in a normal imaging device, one frame is 33 [ms] or 16 [ms]. In the interrupt vehicle alarm 301, as shown in the camera control column of FIG. 2, an interrupted vehicle recognition (vehicle detection) process is performed using two images subjected to high-speed and low-speed shutter control. For this reason, it is necessary to acquire and process two images 1 and 2. In this figure, since the processing cycle (one cycle) of the interrupt vehicle warning 301 is 6 frames, acquisition of two images and respective image processing are performed within a period of 6 frames. On the other hand, the drive recorder 302 is a process of recording an image, but this processing cycle is also 6 frames, and one image is acquired. The application scheduling unit 14 of FIG. 3 calculates the acquisition time of the images 1 and 2 for the interrupted vehicle alarm 301 and the processing times of the processing 1 and 2. Since 6 frames are required for the interrupt vehicle alarm 301, the capture of the image 1 is assigned to the frame F0, the process 1 is assigned to the frames F1 to F2, the capture of the image 2 is assigned to the frame F3, and the process 2 is performed to the frames F4 to F5. Assign. On the other hand, the processing of the drive recorder 302 is only image acquisition, and the capture of the image 3 is assigned to the frame F1 that does not use the imaging device 6 in the interrupt vehicle alarm 301. Here, since the capture timing of images is different in both applications, the camera parameters of the images 1 to 3 can be set completely differently, and one imaging device 6 can be shared by these applications.

図7は、本発明の一実施形態におけるアプリケーションのスケジューリングの処理フロー図である。これを用いてスケジューリング処理の周期(サイクル)について説明する。前述した図6では、処理周期(サイクル)は、フレームF0〜F5からなる6フレームであり、この処理周期を繰返している。まず、周期的に繰返される処理周期の最初のステップ71で、実行中の処理スケジュールが更新されているかを確認する。スケジュールが変更になっていない場合は、ステップ72のフレームF0の期間の処理に移る。ステップ72の内部では、まずステップ721で、フレームF0の期間内に取込む画像データの取得コマンドの発行を行う。画像データの取込みは、通常DMA転送と呼ばれるCPUに負荷をかけない転送方法で実現されるため、CPUの処理は次のステップ722に移る。ステップ722では、次に来るフレームF1の期間内に取込むカメラパラメータ例えば、シャッタースピードなどの露光制御の設定を行う。カメラパラメータの設定は、図3の撮像デバイスコントロール部13の機能として、図1(b)に示したマイクロコンピュータ12によって実行する。すなわち、撮像デバイスインターフェース7を介し、撮像デバイス6に適したタイミングで設定する。この処理を終了すると、ステップ723に移行する。ステップ723では、フレームF0の期間で実行するソフト処理を行う。フレームF0期間に実行する処理を全て実行したのち、ステップ73では、次回にはフレームF1での処理を行うように設定し、今回の処理を終了する。その後、フレームF1の時期が来てタイマー割込みにより、再びこの処理が起動されると、今度は同様にしてフレームF1での処理を実行することになる。このようにして、タイマー割込みにより、順次フレームF0〜F5の処理を繰返す。   FIG. 7 is a process flow diagram of application scheduling according to an embodiment of the present invention. The period of the scheduling process will be described using this. In FIG. 6 described above, the processing cycle (cycle) is 6 frames including frames F0 to F5, and this processing cycle is repeated. First, in the first step 71 of the periodically repeated processing cycle, it is confirmed whether the processing schedule being executed is updated. If the schedule has not been changed, the process proceeds to the process of the frame F0 in step 72. In step 72, first, in step 721, an acquisition command for image data to be captured within the period of frame F0 is issued. Since the capture of the image data is realized by a transfer method that does not place a load on the CPU, which is generally called DMA transfer, the processing of the CPU proceeds to the next step 722. In step 722, camera parameters to be captured within the next frame F1, for example, exposure control settings such as shutter speed are set. The setting of camera parameters is executed by the microcomputer 12 shown in FIG. 1B as a function of the imaging device control unit 13 shown in FIG. That is, the setting is made at a timing suitable for the imaging device 6 via the imaging device interface 7. When this process ends, the process proceeds to step 723. In step 723, software processing executed in the period of the frame F0 is performed. After all the processes to be executed in the frame F0 period are executed, in step 73, the next process is set to be executed in the frame F1, and the current process is terminated. Thereafter, when the time of frame F1 comes and this processing is started again by a timer interrupt, the processing in frame F1 is executed in the same manner. In this way, the processing of the frames F0 to F5 is sequentially repeated by the timer interruption.

ステップ71において、スケジュールが更新されている場合も、以降の処理は上記で説明した処理内容と同様になるが、各処理タイミングは、新しいスケジュールに従って必要に応じて初期化される。新しいスケジュールの適用は、ステップ71で実行される。   Even if the schedule is updated in step 71, the subsequent processing is the same as the processing content described above, but each processing timing is initialized as necessary according to the new schedule. Application of the new schedule is performed at step 71.

図8は、複数アプリケーションの動作スケジューリングの他の一例タイムチャートであり、車線逸脱警報310,ライト自動制御311及びドライブレコーダ302の並行動作についての説明図である。車線逸脱警報310は、処理サイクルが6フレームとなっており、必要な画像は高速/低速シャッターの2枚、処理量はそれぞれの画像に対し1フレームで合計2フレームとなっている。ライト自動制御311も、処理サイクルは6サイクルで、高速/低速シャッターで2枚の画像、処理量はそれぞれの画像に対し1フレームとなっている。ドライブレコーダ302は、一定間隔(ここでは6フレーム)毎に1枚の画像を記録すればよい。この場合のアプリケーション実行のスケジューリングを、図8(a)と(b)に示す。同図(a)では、車線逸脱警報310で使用する高速/低速シャッターを適用した画像1,2を、ライト自動制御311で使用する画像と共有できる場合を示している。このとき、車両検知とレーン認識の画像処理機能のカメラ制御が同一であるとする。車線逸脱警報310とライト自動制御311とで同じ画像が使用できるため、画像1に対して、車線逸脱警報310の処理1とライト自動制御311の処理3とを実行し、画像2に対してそれぞれ処理2と処理4を実行する。結果として、同図(a)のようなスケジューリングを図3のアプリケーションスケジューリング部14の機能によって実行し、3つのアプリケーションで1つの撮像デバイス6を共有することができる。   FIG. 8 is another example time chart for operation scheduling of a plurality of applications, and is an explanatory diagram regarding parallel operations of the lane departure warning 310, the automatic light control 311, and the drive recorder 302. The lane departure warning 310 has a processing cycle of 6 frames, the required images are two high-speed / low-speed shutters, and the processing amount is one frame for each image, for a total of two frames. The automatic light control 311 also has six processing cycles, two images with a high-speed / low-speed shutter, and a processing amount of one frame for each image. The drive recorder 302 may record one image at regular intervals (here, 6 frames). The application execution scheduling in this case is shown in FIGS. FIG. 6A shows a case where the images 1 and 2 to which the high-speed / low-speed shutter used in the lane departure warning 310 is applied can be shared with the image used in the automatic light control 311. At this time, it is assumed that the camera control of the image processing functions of vehicle detection and lane recognition is the same. Since the same image can be used for the lane departure warning 310 and the automatic light control 311, the processing 1 of the lane departure warning 310 and the processing 3 of the automatic light control 311 are performed on the image 1, and each of the images 2 is performed. Process 2 and process 4 are executed. As a result, scheduling as shown in FIG. 3A can be executed by the function of the application scheduling unit 14 in FIG. 3, and one imaging device 6 can be shared by three applications.

車線逸脱警報310とライト自動制御311がそれぞれの画像を共有できない場合について、図8(b)を用いて説明する。このとき、それぞれのアプリケーションで使用するカメラパラメータ制御が異なり、必ずしも同一の制御にならない場合を想定している。車線逸脱警報310とライト自動制御311の画像が共有できないため、ライト自動制御311は独自に画像4,5の2枚の画像を取得する必要がある。車線逸脱警報310とドライブレコーダ302が使用していないフレームF2,F5で画像4,5をそれぞれ取得するようにスケジューリングを行っている。また、画像を取得するタイミングに合せてライト自動制御311のための処理3,4をフレームF0,F3にスケジューリングする。これにより、これら3つのアプリケーションで1つの撮像デバイス6を共有しながら、並行して動作させることができる。   A case where the lane departure warning 310 and the automatic light control 311 cannot share each image will be described with reference to FIG. At this time, it is assumed that the camera parameter control used in each application is different and is not necessarily the same control. Since the images of the lane departure warning 310 and the automatic light control 311 cannot be shared, the automatic light control 311 needs to acquire two images 4 and 5 independently. Scheduling is performed so that the images 4 and 5 are acquired in the frames F2 and F5 that are not used by the lane departure warning 310 and the drive recorder 302, respectively. Also, the processes 3 and 4 for the automatic light control 311 are scheduled in the frames F0 and F3 in accordance with the timing of acquiring an image. Thus, these three applications can be operated in parallel while sharing one imaging device 6.

図9は、映像アルバムのアプリケーションを動作させた場合のスケジューリングタイムチャートである。映像アルバムの高画質モード312では、画像を毎フレーム取得して、リアルタイムに圧縮する処理が求められる。画像の取得が毎フレーム行われるため、処理周期(サイクル)は1フレームとなり、図9(a)に示すようになる。一方、映像アルバムの低画質モード313の場合、画像を毎フレーム記録する必要はなく、コマ落ちした映像となる。この時の処理周期(サイクル)を仮に6フレームとすると、同図(b)に示すようなスケジューリングとなる。図から分るように、高画質の映像アルバム機能を実行させた場合、新たに撮像デバイス6を使用するアプリケーションが動作する余地が無く、ドライブレコーダ302など、映像アルバム(高画質)312と完全に画像を共有できるアプリケーションのみ並行して実行可能となる。   FIG. 9 is a scheduling time chart when the video album application is operated. In the high-quality mode 312 of the video album, a process for acquiring an image every frame and compressing it in real time is required. Since image acquisition is performed every frame, the processing period (cycle) is one frame, as shown in FIG. On the other hand, in the low-quality mode 313 of the video album, it is not necessary to record the image every frame, and the video is dropped. If the processing cycle (cycle) at this time is assumed to be 6 frames, scheduling as shown in FIG. As can be seen from the figure, when the high-quality video album function is executed, there is no room for an application that newly uses the imaging device 6 to operate, and the video recorder (high-quality) 312 such as the drive recorder 302 is completely connected. Only applications that can share images can be executed in parallel.

一方で、低画質の映像アルバム機能では、新たに別のカメラパラメータで撮像デバイス6を制御し画像を取得することができるので、様々なアプリケーションを選択して実行することができる。   On the other hand, in the low-quality video album function, the image pickup device 6 can be newly controlled with another camera parameter to acquire an image, so that various applications can be selected and executed.

図10は、アプリケーションを追加起動する手順のスケジューリングタイムチャートであり、低画質の映像アルバム機能313を動作させている状態で、ライト自動制御311を追加起動した場合を説明する図である。同図(a)では、低画質の映像アルバム機能313のみ動作しているため、撮像デバイス6も使用していない期間が多い。ここで、ライト自動制御311を追加する場合、その処理周期(サイクル)は最短4フレーム(画像の取込み2回、処理2回)であるため、映像アルバム機能313の処理サイクルである6フレーム内に収まる。また、サイクル数が4フレーム以上であれば、映像アルバム(低画質)313とライト自動制御311は並行して実行することができる。本実施例では、ライト自動制御311のサイクル数を6フレームとしている。   FIG. 10 is a scheduling time chart of a procedure for additionally starting an application, and is a diagram for explaining a case where the automatic light control 311 is additionally started while the low-quality image album function 313 is operating. In FIG. 9A, since only the low-quality video album function 313 is operating, there are many periods when the imaging device 6 is not used. Here, when the automatic light control 311 is added, the processing cycle (cycle) is a minimum of 4 frames (2 times of image capture and 2 times of processing), and therefore, within 6 frames which are the processing cycle of the video album function 313. It will fit. If the number of cycles is 4 frames or more, the video album (low image quality) 313 and the automatic light control 311 can be executed in parallel. In this embodiment, the number of cycles of the automatic write control 311 is 6 frames.

図10(b)のようなスケジューリングを、図3のアプリケーションスケジューリング部14において実行した結果、映像アルバム機能313とライト自動制御311の2つのアプリケーションを並行して動作させることができる。このとき、追加されたライト自動制御311の処理の開始は、映像アルバムの処理サイクルに合せて始めるようにコントロールされる。また、画像取込みにおいて映像の同期信号に同期して画像取得を行うため、処理のサイクルや開始タイミングは全て映像の同期信号に合せている。   As a result of executing the scheduling as shown in FIG. 10B in the application scheduling unit 14 in FIG. 3, the two applications of the video album function 313 and the automatic light control 311 can be operated in parallel. At this time, the start of the processing of the added automatic light control 311 is controlled so as to start in accordance with the processing cycle of the video album. In addition, since image acquisition is performed in synchronization with a video synchronization signal in image capture, the processing cycle and start timing are all matched to the video synchronization signal.

以上の本発明の実施形態によれば、カメラパラメータを動的に変化させるアプリケーションの間においても、撮像デバイス6を共有することができる。   According to the above-described embodiment of the present invention, the imaging device 6 can be shared among applications that dynamically change camera parameters.

図11は、並行して動作可能なアプリケーションのグループ化の一例図である。動作可能なアプリケーションを予めグルーピングしておき、グループ毎に最適なスケジューリングを行うように制御することができる。予め動作するアプリケーションをグループ化することにより、ユーザが一つひとつのアプリケーションを選択する手間を省け、また、常に最適なスケジューリングができるため撮像デバイス6を効率的に使用することができる。各アプリケーション間における基本の画像処理機能(図2)の一致度合いなどを考慮して、図6,8〜10で説明した画像取込みと処理スケジュールの実行の可否から、グルーピングを決定する。この例では、グループ1〜4に、それぞれ3つ,2つ,5つ及び2つのアプリケーションを含むようにグループ化した場合を示している。   FIG. 11 is an example of grouping of applications that can operate in parallel. The operable applications can be grouped in advance, and control can be performed so as to perform optimum scheduling for each group. By grouping the applications that operate in advance, the user can save the time and effort of selecting each application, and the optimal scheduling can always be performed, so that the imaging device 6 can be used efficiently. In consideration of the degree of coincidence of the basic image processing function (FIG. 2) between the applications, the grouping is determined based on whether or not the image capturing described in FIGS. In this example, groups 1 to 4 are grouped so as to include three, two, five, and two applications, respectively.

次に、本発明の一実施形態におけるユーザインターフェースについて説明する。本発明によれば、1つの撮像デバイス6を共有することで、複数のアプリケーションを切替えたり、並行して処理したりすることができる。そこで、ドライバが、走行中に画像処理カメラ2,3の機能を切替えたり、もしくは新しく始めたりすることができるユーザインターフェースを提供する。   Next, a user interface according to an embodiment of the present invention will be described. According to the present invention, by sharing one imaging device 6, a plurality of applications can be switched or processed in parallel. Therefore, a user interface is provided that allows the driver to switch the functions of the image processing cameras 2 and 3 or start a new one while driving.

図12は、アプリケーションの選択や切替えを行うナビゲーション画面の一例図である。ドライバーが、ナビゲーション画面19上でアプリケーションを選択し、あるいは切替える場合の手順について説明する。図12には、選択できる多数のアプリケーションが画面19上に表示されており、ドライバは、ナビゲーション画面19のアプリケーション表示部にタッチすることで、実行アプリケーションを選択することができる。例えば、映像アルバムの高画質を選択した場合について説明する。なお、図12以降の画面19においては、図2に示した多数のアプリケーションのうちの一部を紙面のスペースの都合で割愛しているが、実際には、全てのアプリケーションが表示される。   FIG. 12 is an example of a navigation screen for selecting and switching applications. A procedure when the driver selects or switches an application on the navigation screen 19 will be described. In FIG. 12, a large number of applications that can be selected are displayed on the screen 19, and the driver can select an execution application by touching the application display section of the navigation screen 19. For example, a case where high image quality of a video album is selected will be described. In FIG. 12 and subsequent screens 19, some of the many applications shown in FIG. 2 are omitted due to space limitations, but in reality, all applications are displayed.

図13は、映像アルバムの高画質を選択した後の画面を示す。まず、高画質の映像アルバム機能312が選ばれ、動作中であるため、画面19上には、太線で図示するように、「映像アルバム(高画質)」が明るく表示されている。映像アルバム(高画質)312が動作中である場合には、図9(a)で説明したように、並行して動作できるアプリケーションは大幅に限定される。ここでは、図11の並行動作可能グループ4に示したように、モニタリング機能303が並行して動作可能であるものとする。したがって、「モニタリング」の表示は、実線で図示したように選択可能であることを示す色や明るさで表示されている。これ以外のアプリケーションの表示は、破線で示したように、全て選択不可の状態表示に切替わっている。   FIG. 13 shows the screen after selecting the high image quality of the video album. First, since the high-quality video album function 312 is selected and operating, “video album (high quality)” is brightly displayed on the screen 19 as shown by a bold line. When the video album (high quality) 312 is in operation, as described with reference to FIG. 9A, applications that can operate in parallel are greatly limited. Here, it is assumed that the monitoring function 303 can be operated in parallel as shown in the group 4 in which parallel operation is possible in FIG. Therefore, the “monitoring” display is displayed in a color or brightness indicating that selection is possible as illustrated by a solid line. The display of other applications is switched to a state display in which selection is not possible, as indicated by broken lines.

ドライバが、映像アルバム(高画質)312を止めたい場合は、「リセット」ボタン部にタッチするか、「映像アルバム(高画質)」表示部に再度タッチするとこのアプリケーションを終了する。アプリケーションの起動や停止は、直ちに撮像デバイスの制御に反映され、撮像デバイスから得られる画像は変化する。このとき、得られる画像自体が露光制御などによって変化する場合と、処理サイクルが変化して出力する画像のタイミングが変化する場合の2種類の変化が発生する。1つの撮像デバイス6を複数のアプリケーションで共有しているため、動作しているアプリケーションが変化すると、撮像デバイスの出力データを変化させる必要がある。   If the driver wants to stop the video album (high image quality) 312, the application is terminated when the “reset” button unit is touched or the “video album (high image quality)” display unit is touched again. The activation or stop of the application is immediately reflected in the control of the imaging device, and the image obtained from the imaging device changes. At this time, two types of changes occur: the obtained image itself changes due to exposure control or the like, and the processing cycle changes and the timing of the output image changes. Since one imaging device 6 is shared by a plurality of applications, it is necessary to change the output data of the imaging device when the operating application changes.

図14は、アプリケーションの追加を行うナビゲーション画面の一例図である。映像アルバム(低画質)が動作中には、映像アルバム(高画質)が動作中の場合よりも、他の多数のアプリケーションが実行可能である。図11の並行動作可能グループ4に示したように、映像アルバム(低画質)313のほかに、ライト自動制御311、割込み車両警報301、車線逸脱警報310及び駐車支援304の処理が可能である。図14(a)のナビゲーション画面19では、映像アルバム(低画質)が動作中であることを明示するとともに、そのほかに上記の4つのアプリケーションが起動可能であることを表示している。ここで、ドライバが、ライト自動制御311を追加起動した場合について説明する。この場合、図14(a)の画面で、「ライト自動制御」の表示部にタッチしたとする。   FIG. 14 is an example of a navigation screen for adding an application. When the video album (low image quality) is in operation, many other applications can be executed than when the video album (high image quality) is in operation. As shown in the group 4 capable of parallel operation in FIG. 11, in addition to the video album (low image quality) 313, automatic light control 311, interrupt vehicle warning 301, lane departure warning 310, and parking assistance 304 can be processed. In the navigation screen 19 in FIG. 14A, it is clearly shown that the video album (low image quality) is operating, and in addition, it is displayed that the above four applications can be activated. Here, a case where the driver additionally activates the automatic light control 311 will be described. In this case, it is assumed that the “light automatic control” display unit is touched on the screen of FIG.

図14(b)は、ライト自動制御311が追加起動された画面である。図示するように、「ライト自動制御」の表示部は動作中であることを示す表示に切換るとともに、このアプリケーションが起動される。   FIG. 14B shows a screen where the automatic light control 311 is additionally activated. As shown in the drawing, the display unit of “light automatic control” is switched to a display indicating that it is in operation, and this application is activated.

さて、ナビゲーション画面19では、アプリケーションの選択や切替えは、ドライバの指示によることを想定しているが、ドライバ以外の情報でアプリケーションの選択や切替えを行うこともできる。例えば、高速で走行中には、駐車することはあり得ないため、駐車支援機能304は選択されることはない。この場合、アプリケーションの選択範囲を車速で限定して駐車支援機能を選択できないようにすることが望ましい。図14(b)では、高速走行中であるため、「駐車支援」の表示部が、選択不可に切換った状態を例示している。また、ドライバが駐車支援を予め選択していたとしても、予定の高速となった場合、同様に、「駐車支援」の表示を消し、選択も不可能とする。高速移動中は、割込み車両警報301や車線逸脱警報310などのアプリケーションが動作可能であり、これら可能なアプリケーションのみを表示し、選択を可能としている。   In the navigation screen 19, it is assumed that the application selection or switching is based on an instruction from the driver, but the application can be selected or switched using information other than the driver. For example, the parking support function 304 is not selected during parking at high speed because parking is impossible. In this case, it is desirable that the selection range of the application is limited by the vehicle speed so that the parking support function cannot be selected. FIG. 14B illustrates a state where the display unit of “parking assistance” is switched to non-selectable because it is traveling at high speed. Also, even if the driver has selected parking assistance in advance, if the planned high speed is reached, similarly, the display of “parking assistance” is turned off and selection is impossible. During high-speed movement, applications such as the interrupt vehicle warning 301 and the lane departure warning 310 can be operated, and only these possible applications are displayed for selection.

また、アプリケーションの切替えの例として、市街地を走行中は、衝突軽減などの安全機能が優先的に動作し、車線逸脱警報や映像アルバム機能よりも優先して動作させることもできる。その反対に、観光地や風光明媚な場所では、映像アルバム機能を優先して動作させ、他の機能を停止させることも可能である。さらに、このように、ドライバの操作以外に、ブレーキ、GPS、車速など各種センサからの情報を下に、周囲環境の変化に応じて動作するアプリケーションの選択を制限したり、アプリケーションの動作自体を切替えたりすることができる。   As an example of application switching, while traveling in an urban area, safety functions such as collision reduction operate preferentially, and can be operated with priority over lane departure warning and video album functions. On the other hand, in a sightseeing spot or a scenic place, the video album function can be operated with priority and other functions can be stopped. Furthermore, in addition to driver operations, information from various sensors, such as brakes, GPS, and vehicle speed, can be used to limit the selection of applications that operate in response to changes in the surrounding environment, and application operations themselves can be switched. Can be.

以上のように、図3のアプリケーションスケジューリング部14によって、アプリケーションの実行、追加起動及び停止などを行えば、ナビゲーション画面からドライバの意志によって動作アプリケーションを切替えることができる。   As described above, if the application scheduling unit 14 in FIG. 3 executes an application, additionally starts and stops the application, the operation application can be switched from the navigation screen according to the driver's will.

図12〜14では、ナビゲーション画面19上でのアプリケーションの切替え手順を説明したが、ナビゲーション画面以外で実行するアプリケーションの選択を行っても良い。例えば、ハンドルにボタンを付けて、レーン維持走行機能を選択しても良い。この場合、ドライバがボタンを押した時点でどのアプリケーションが動作しているか分らない。そのため、スケジューリングの方法としては、レーン維持走行機能を最優先に設定して、レーン維持走行機能と並行して動作しないアプリケーションについて、強制的に終了するよう制御することが考えられる。このような仕組みは、ボタンだけではなく、自動車に搭載されている様々なセンサがその役割を果たしても良い。例えば、障害物を検知する距離センサと接続して、障害物がありそうだとの信号が入力された場合、最優先で障害物回避のアプリケーションが起動するということも可能である。この場合、それまで動作しているアプリケーションを動作させたまま障害物回避アプリケーションが動作するのであれば、動作中のアプリケーションはそのままでよい。また、並行して動作できないのであれば、動作中のアプリケーションを中断し、障害物回避のアプリケーションを即座に起動して安全支援のための機能が作動しはじめるように制御することもできる。これらの機能は図3のアプリケーションスケジューリング部14によって実現される。   In FIGS. 12 to 14, the application switching procedure on the navigation screen 19 has been described. However, an application to be executed on a screen other than the navigation screen may be selected. For example, a button may be attached to the steering wheel to select the lane maintenance traveling function. In this case, it is not known which application is operating when the driver presses the button. Therefore, as a scheduling method, it is conceivable that the lane maintenance traveling function is set to the highest priority, and an application that does not operate in parallel with the lane maintenance traveling function is controlled to be forcibly terminated. In such a mechanism, not only buttons but also various sensors mounted on the automobile may play the role. For example, when a signal indicating that there is an obstacle is input by connecting to a distance sensor that detects an obstacle, the obstacle avoidance application may be activated with the highest priority. In this case, if the obstacle avoidance application operates while the application that has been operating is operating, the operating application may be left as it is. In addition, if it is not possible to operate in parallel, it is possible to control so that the function for safety support begins to operate by interrupting the running application and immediately starting the obstacle avoidance application. These functions are realized by the application scheduling unit 14 shown in FIG.

図15は、本発明の一実施形態によるアプリケーションの追加起動を行う処理フロー図である。例えば、図10及び図14で述べたように、映像アルバム(低画質)313の動作中に、ドライバが、ナビゲーション画面19において、ライト自動制御311を追加起動する場合を想定する。ドライバによって、「ライト自動制御」がタッチパネルにより選択されると、ステップ201において、ナビゲーションからアプリケーション追加のイベントを受け付け、割込み処理でこの処理を起動する。イベントを受け付けた後、プログラムは、ステップ202において、実行中及び追加するアプリケーションの情報を取得する。これらの情報は、図3の環境情報データベース17に格納されており、実行中のスケジュール、現在のフレーム、各アプリケーションの処理サイクル、カメラパラメータを含む画像取得情報である。また、図11で説明したような、どのアプリケーションが並行して実行できるかを調査したグルーピング情報などがある。ステップ203のスケジューリング処理では、選択されたライト自動制御が、動作している映像アルバム(低画質)機能と同じグループにあるかを確認する。グルーピング情報がなくても、選択されたアプリケーションが実行可能なアプリケーションであるか否かを、アプリケーション情報を参照して確認できる。実行可能か否かは、処理のサイクル数、取得画像枚数、必要な画像処理機能の情報を基に、図6〜10で説明したような、処理周期内への必要処理の割振りの可否により判定される。実行可能なアプリケーションと実行不可能なアプリケーションとの区分けを行った後、それらの情報をアプリケーション情報に反映する。実行可能であった場合、環境情報17内のアプリケーション情報やスケジューリング情報を用いてスケジュールを更新する。すなわち、追加起動を要求されたアプリケーションが動作中のアプリケーションとの間で、時間的に重なることなく1つの撮像デバイスから画像データの取込みを繰返すようにスケジュールを更新するのである。ステップ204では、更新した新たなスケジュールで再度、追加可能なアプリケーションを解析し、ドライバに通知したり、次のアプリケーション追加イベントに備えた後、ステップ205で処理を終了する。   FIG. 15 is a process flow diagram for performing additional activation of an application according to an embodiment of the present invention. For example, as described in FIGS. 10 and 14, it is assumed that the driver additionally activates the automatic light control 311 on the navigation screen 19 during the operation of the video album (low image quality) 313. When “light automatic control” is selected by the driver using the touch panel, in step 201, an event for adding an application is accepted from the navigation, and this process is started by an interrupt process. After receiving the event, in step 202, the program acquires information on the application being executed and the application to be added. These pieces of information are stored in the environment information database 17 of FIG. 3 and are image acquisition information including the schedule being executed, the current frame, the processing cycle of each application, and camera parameters. Further, there is grouping information for investigating which applications can be executed in parallel as described in FIG. In the scheduling process of step 203, it is confirmed whether the selected automatic light control is in the same group as the operating video album (low image quality) function. Even if there is no grouping information, whether or not the selected application is an executable application can be confirmed by referring to the application information. Whether or not execution is possible is determined based on whether or not necessary processing can be allocated within the processing cycle as described with reference to FIGS. 6 to 10 based on the number of processing cycles, the number of acquired images, and information on necessary image processing functions. Is done. After the executable application and the non-executable application are classified, the information is reflected in the application information. If it can be executed, the schedule is updated using the application information and scheduling information in the environment information 17. In other words, the schedule is updated so that the application for which additional activation is requested and the application in operation are repeatedly fetched of image data from one imaging device without overlapping in time. In step 204, the application that can be added is analyzed again with the updated new schedule, and the driver is notified or prepared for the next application addition event, and then the process ends in step 205.

このアプリケーションの追加起動の処理は、イベント発生を検知して割込み処理にて実行されるため、図7で説明したフローのどのステップで割込み処理が行われるか分からない。処理中の情報の整合性を確保するために、本実施の形態では、スケジュールの更新は図7のステップ71で行っている。   This additional activation processing of the application is executed by interrupt processing upon detection of an event occurrence, so it is not known at which step of the flow described in FIG. 7 the interrupt processing is performed. In order to ensure the consistency of information being processed, in this embodiment, the schedule is updated in step 71 of FIG.

この実施形態による画像処理カメラシステムを要約すると次の通りである。まず、並行して実行可能な複数のアプリケーションを選択するステップ(202)を備えている。次に、実行可能な複数のアプリケーションが、時間的に重なることなく1つの撮像デバイスから画像データの取込みを繰返す画像データ取込みタイミングとインターバルを決定するスケジューリングステップ(203)を備えている。また、このスケジューリングステップ(203)は、各アプリケーションにおける取込んだ画像データを用いる処理を含めたタイミングを決定するステップを含んでいる。さらに、複数のアプリケーションにおいて必要な画像データの枚数と、必要な取込み頻度とを、これらを記憶した記憶手段(17)から読出すステップを含む。そして、読出した画像データの枚数と取込み頻度とに基いて、実行可能な複数のアプリケーションが、1つの撮像デバイスから画像データの取込みを繰返す画像データ取込みタイミングとインターバルを決定するステップを含んでいる。   The image processing camera system according to this embodiment is summarized as follows. First, a step (202) of selecting a plurality of applications that can be executed in parallel is provided. Next, a plurality of executable applications includes a scheduling step (203) for determining an image data capturing timing and interval for repeatedly capturing image data from one imaging device without overlapping in time. The scheduling step (203) includes a step of determining timing including processing using the captured image data in each application. Further, the method includes a step of reading out the number of image data necessary for a plurality of applications and the necessary capture frequency from the storage means (17) storing them. Then, based on the number of read image data and the capture frequency, a plurality of executable applications includes a step of determining an image data capture timing and interval at which the capture of the image data from one imaging device is repeated.

図16は、新規アプリケーションの追加と既存アプリケーションの削除を実行する画面の一例である。アプリケーションは、処理周期(サイクル)、画像処理機能、使用する画像、処理量など動作に必要な情報を規定して、メニューに追加することができる。これを、従来のアプリケーションと同様に、画面から選択したり、削除したりすることができる。図16では、新たなアプリケーションを追加するために、ダウンロードするタッチパネル部191と、既存のアプリケーションを削除するためのタッチパネル部192を表示している。   FIG. 16 is an example of a screen for executing addition of a new application and deletion of an existing application. The application can specify information necessary for the operation such as a processing cycle (cycle), an image processing function, an image to be used, a processing amount, and add the information to the menu. This can be selected or deleted from the screen as in the conventional application. In FIG. 16, in order to add a new application, a touch panel unit 191 to be downloaded and a touch panel unit 192 to delete an existing application are displayed.

図17は、新規アプリケーションをダウンロードする処理フロー図である。図16の画面を用いてダウンロードする際の説明を行う。新しいアプリケーションは、インターネットやコンパクトフラッシュ(登録商標)などの記録メディアから取得する。ユーザがダウンロードからの新規アプリケーションの選択を選んだ場合、ステップ171から、この処理が起動される。ステップ172では、ダウンロード可能なアプリケーションがユーザにメニューとして提示される。ステップ173において、ユーザは、メニューの中から必要な新規アプリケーションを選択する。この結果の下に、ステップ174で追加する新規アプリケーションの選択が終了すると、ステップ175では、並行して動作可能なアプリケーションの解析を実行する。並行して実行可能なアプリケーションの組合せは、前述した通り、処理のサイクル数,取得画像枚数及び必要な画像処理機能等から判断する。この結果により、図11に示した既存のグルーピングを更新する。ステップ176では、全てのグループでの組合せを確認した後、情報をアプリケーション情報として格納し、ステップ177でダウンロード処理を終了する。   FIG. 17 is a processing flowchart for downloading a new application. The download process will be described using the screen of FIG. New applications are obtained from recording media such as the Internet and CompactFlash (registered trademark). If the user chooses to select a new application from the download, this process is started from step 171. In step 172, the downloadable application is presented as a menu to the user. In step 173, the user selects a required new application from the menu. Under this result, when selection of a new application to be added in step 174 is completed, in step 175, analysis of applications that can operate in parallel is executed. As described above, the combination of applications that can be executed in parallel is determined from the number of processing cycles, the number of acquired images, a necessary image processing function, and the like. Based on this result, the existing grouping shown in FIG. 11 is updated. In step 176, after confirming combinations in all groups, the information is stored as application information. In step 177, the download process is terminated.

図18は、新規アプリケーションを含めた動作スケジューリングの処理フロー図である。このスケジューリング処理は、図15のステップ203のスケジューリングで行っている処理である。まず、ステップ181でスケジューリング処理が起動され、ステップ182で実行中のアプリケーション及び追加されるアプリケーションの情報を取得する。そして、ステップ183で、最短の処理サイクルを持つアプリケーションについて、スケジュール上にマッピングする。このとき、他のアプリケーションが動作可能なように、できるだけ余裕を持たせてマッピングする。例えば、6フレーム以内に処理が完了すればよいアプリケーションを3フレームで処理をするようなマッピングはしない。最短の処理サイクル数を持ったアプリケーションをマッピングした後、ステップ184では、次に短い処理サイクル数を持ったアプリケーションをマッピングする。ここで、マッピングに失敗した場合、つまり、撮像デバイス6が使用できなかったり、ソフト処理の時間が取れなかった場合、1つ前のステップ183のアプリケーションのスケジューリング処理に戻る。そして、撮像デバイス6の使用タイミングやソフト処理のタイミングを変更し、再度、ステップ184の2番目に短い処理サイクル数を持つアプリケーションのマッピングを行う。マッピングができた場合、ステップ185に移行し、逐次、スケジュールにアプリケーションをマッピングする。ステップ186では、最長の処理サイクル数をもつアプリケーションについてスケジュール上にマッピングできることを確認する。途中でスケジュール上にマッピングできないアプリケーションが出現した時点で、要求されたアプリケーションの追加は、並行して実行できるアプリケーションではないと判断して、その旨をユーザに知らせ、追加起動を断念する。   FIG. 18 is a process flow diagram of operation scheduling including a new application. This scheduling process is a process performed in the scheduling of step 203 in FIG. First, in step 181, the scheduling process is activated, and in step 182, information on the application being executed and the application to be added is acquired. In step 183, the application having the shortest processing cycle is mapped on the schedule. At this time, mapping is performed with a margin as much as possible so that other applications can operate. For example, mapping is not performed in which an application that needs to be completed within 6 frames is processed in 3 frames. After mapping the application having the shortest processing cycle number, in step 184, the application having the next shortest processing cycle number is mapped. Here, if the mapping fails, that is, if the imaging device 6 cannot be used or the time for the software process cannot be taken, the process returns to the application scheduling process in the previous step 183. Then, the use timing of the imaging device 6 and the timing of the software processing are changed, and the mapping of the application having the second shortest processing cycle number in step 184 is performed again. When the mapping is completed, the process proceeds to step 185, and the application is sequentially mapped to the schedule. In step 186, it is confirmed that the application having the longest number of processing cycles can be mapped on the schedule. When an application that cannot be mapped on the schedule appears on the way, it is determined that the addition of the requested application is not an application that can be executed in parallel, the user is notified of this, and the additional activation is abandoned.

以上の実施形態においては、画像データを取得する撮像デバイス(6)と、この撮像デバイスから得られた画像データを用いてそれぞれが異なる機能を持つように設定された複数のアプリケーション(151〜15N)を備えている。また、複数のアプリケーションに対応した画像データ取得要求に応じて撮像デバイスを制御する撮像デバイスコントロール部(13)を備えている。さらに、複数のアプリケーションが1つの撮像デバイスからの画像データを取込んで複数のアプリケーションを並行して実行させる制御部(14)を備えた画像処理カメラシステムを前提としている。ここで、複数のアプリケーションにおける必要な画像データ数と画像データ取込み頻度を記憶する手段(17)を備える。また、これら画像データ数と画像データ取込み頻度に基き、並行して実行可能な複数のアプリケーションを選択する手段(14)を備える。次に、実行可能な複数のアプリケーションが、1つの撮像デバイスから時間的に重なることなく画像データの取込みを繰返す画像データ取込みのタイミングとインターバルを決定する画像取込みスケジューリング部(14)を備える。このスケジューリング部(14)は、各アプリケーションにおける取込んだ画像データを用いた処理を含めたタイミングを決定するように構成している。   In the above embodiment, the imaging device (6) that acquires image data and a plurality of applications (151 to 15N) that are set to have different functions using the image data obtained from the imaging device. It has. An imaging device control unit (13) that controls the imaging device in response to image data acquisition requests corresponding to a plurality of applications is provided. Furthermore, it is assumed that the image processing camera system includes a control unit (14) that allows a plurality of applications to capture image data from one imaging device and execute the plurality of applications in parallel. Here, a means (17) is provided for storing the number of required image data and the frequency of capturing image data in a plurality of applications. Further, there is provided means (14) for selecting a plurality of applications that can be executed in parallel based on the number of image data and the frequency of taking in the image data. Next, the plurality of executable applications include an image capture scheduling unit (14) that determines the timing and interval of image data capture that repeats the capture of image data from one imaging device without overlapping in time. The scheduling unit (14) is configured to determine timing including processing using captured image data in each application.

また、1つの撮像デバイスからの画像データを用いて並行して実行する複数のアプリケーションの組合せを記憶するアプリケーショングループ記憶手段(17)を備える。ここで、前記の選択手段は、アプリケーショングループ記憶手段から、並行して実行可能なアプリケーショングループについてのデータを読出している。   Also provided is an application group storage unit (17) for storing a combination of a plurality of applications that are executed in parallel using image data from one imaging device. Here, the selection means reads data on application groups that can be executed in parallel from the application group storage means.

さらに、複数のアプリケーションを実行させるために撮像デバイスを制御する複数の基本画像処理機能部(16A〜16M)を備える。そして、必要とするこれら基本画像処理機能の一致の度合いに基き、1つの撮像デバイスからの画像データを用いて並行して実行する複数のアプリケーションを決定する手段を備えている。   Furthermore, a plurality of basic image processing function units (16A to 16M) for controlling the imaging device to execute a plurality of applications are provided. Based on the required degree of coincidence of these basic image processing functions, a means for determining a plurality of applications to be executed in parallel using image data from one imaging device is provided.

前記の、画像データ数と画像データ取込み頻度に基き、並行して実行可能な複数のアプリケーションを選択する手段(14)は、あるアプリケーションを実行中に、実行中のアプリケーションと同一のアプリケーショングループに属することに基いて、実行可能な他のアプリケーションを選択するようにしている。また、必要とする基本画像処理機能について、実行中のアプリケーションとの一致の度合いに基いて、実行可能な他のアプリケーションを選択する一助としている。さらに、実行中のアプリケーションによる撮像デバイスからの画像データの取込み期間の合間のタイミングで、他のアプリケーションが必要とする撮像デバイスからの画像データ取込みが可能であることに応じて、他のアプリケーションを実行可能なアプリケーションとして選択するようにしている。   The means (14) for selecting a plurality of applications that can be executed in parallel based on the number of image data and the frequency of taking in the image belongs to the same application group as the application that is being executed while the application is being executed. Based on that, the other application that can be executed is selected. In addition, the necessary basic image processing function helps to select another executable application based on the degree of coincidence with the application being executed. In addition, another application is executed at the timing between the image data acquisition period from the imaging device by the application being executed, depending on whether image data acquisition from the imaging device required by the other application is possible I choose it as a possible application.

次に、マンマシンインターフェースについては、実行可能なアプリケーションを表示する手段(19)と、この表示された実行可能なアプリケーションの起動をユーザが指示するための操作手段を備えている。また、実行中のアプリケーション及び追加実行可能なアプリケーションを表示する手段と、追加実行可能なアプリケーションの起動及び実行中のアプリケーションの停止をユーザが指示するための操作手段を備えている。そして、この操作手段による指示入力に基きアプリケーションの起動及び停止を行う制御手段を備えている。   Next, the man-machine interface includes means (19) for displaying an executable application and operation means for the user to instruct activation of the displayed executable application. In addition, there are provided means for displaying a running application and an application that can be additionally executed, and an operation means for the user to instruct the activation of the additionally executable application and the stop of the running application. And the control means which starts and stops an application based on the instruction | indication input by this operation means is provided.

また、周囲環境の変化に応じて追加実行可能なアプリケーションを切替える実行可能アプリケーション選択手段と、この選択手段によって選択された実行可能なアプリケーションを表示する手段を備えている。   Further, an executable application selection unit that switches an application that can be additionally executed according to a change in the surrounding environment, and a unit that displays the executable application selected by the selection unit are provided.

さらに、新たなアプリケーションのダウンロードによる追加を要求する操作手段を備えている。   Further, an operation means for requesting addition by downloading a new application is provided.

これらの特徴により、複数のアプリケーションで1つの撮像デバイスを信頼性高く、かつ効率的に共有することができる。また、実行可能なアプリケーションをユーザが選択でき、ユーザに選択されたアプリケーションを即座に実行することができる。さらに、優先的に実行すべきアプリケーションをシステムの状況によって選択し、実行することができる。   With these features, it is possible to share one imaging device with a plurality of applications with high reliability and efficiency. In addition, the user can select an executable application, and the application selected by the user can be immediately executed. Furthermore, an application to be preferentially executed can be selected and executed according to the system status.

これまで、本発明を、自動車に搭載する画像処理カメラシステムに適用した実施形態について詳細に説明したが、本発明は多種の画像処理カメラシステムに応用することができる。例えば、侵入者監視カメラシステムにも本発明を適用できる。ある特定の機能を実現するカメラを複数台設置するよりも、共有できる画像処理機能がある場合に本発明を適用し、アプリケーションが必要とする機能毎にカメラを信頼性高く共有して、カメラ台数を削減することができる。   So far, the embodiment in which the present invention is applied to an image processing camera system mounted on an automobile has been described in detail. However, the present invention can be applied to various image processing camera systems. For example, the present invention can be applied to an intruder monitoring camera system. Rather than installing multiple cameras that realize a specific function, the present invention is applied when there is an image processing function that can be shared, and the camera is reliably shared for each function required by the application. Can be reduced.

本発明によれば、1つの撮像デバイスを、複数のアプリケーションで、信頼性高く共有することのできる画像処理カメラシステムを提供することができる。   According to the present invention, it is possible to provide an image processing camera system that can share one imaging device with a plurality of applications with high reliability.

また、本発明の実施形態によれば、実行できる複数のアプリケーションをユーザに明示し、ユーザが実行するアプリケーションを迷うことなく選べる使い勝手に優れた画像処理カメラシステムを提供することができる。   Further, according to the embodiment of the present invention, it is possible to provide an image processing camera system excellent in usability in which a plurality of applications that can be executed are clearly indicated to the user and the user can select an application to be executed without hesitation.

本発明を自動車に適用した一実施形態における画像処理カメラシステムのブロック図及び画像処理カメラのハードウェア構成図。The block diagram of the image processing camera system in one Embodiment which applied this invention to the motor vehicle, and the hardware block diagram of an image processing camera. 自動車における多数のアプリケーションが必要とする画質、レート、カメラ制御及び画像処理機能の種別を示す図。The figure which shows the classification of the image quality, rate, camera control, and image processing function which many applications in a motor vehicle require. 本発明の一実施形態における画像処理カメラシステムの機能ブロック図。The functional block diagram of the image processing camera system in one Embodiment of this invention. 撮像デバイスコントロール部の機能ブロック図。The functional block diagram of an imaging device control part. 撮像デバイスのハードウェア構成図。The hardware block diagram of an imaging device. 複数アプリケーションの動作スケジューリングの一例タイムチャート。An example time chart of operation scheduling of multiple applications. 本発明の一実施形態におけるアプリケーションをスケジューリングする処理フロー図。The processing flow figure which schedules the application in one Embodiment of this invention. 複数アプリケーションの動作スケジューリングの他の一例タイムチャート。Another example time chart of operation scheduling of a plurality of applications. 映像アルバムのアプリケーションを動作させた場合のスケジューリングタイムチャート。Scheduling time chart when operating the video album application. アプリケーションを追加起動する手順のスケジューリングタイムチャート。Scheduling time chart of the procedure for starting additional applications. 並行して動作可能なアプリケーションのグルーピングの一例図。FIG. 5 is a diagram illustrating an example of grouping of applications that can operate in parallel. アプリケーションの選択や切替えを行うナビゲーション画面の一例図。An example of a navigation screen for selecting and switching applications. 映像アルバムの高画質を選択した後の画面例。Screen example after selecting high-quality video album. アプリケーションの追加を行う前後のナビゲーション画面の変化の一例を示す図。The figure which shows an example of the change of the navigation screen before and behind adding an application. 本発明の一実施形態によるアプリケーションの追加起動を行う処理フロー図。The processing flow figure which performs additional starting of the application by one Embodiment of this invention. 新規アプリケーションの追加と既存アプリケーションの削除を実行する画面の一例図。An example figure of a screen which performs addition of a new application and deletion of an existing application. 本発明の一実施形態による新規アプリケーションのダウンロード処理フロー図。The download processing flow figure of the new application by one Embodiment of this invention. 新規アプリケーションを含めた複数アプリケーションの動作スケジューリングの処理フロー図。The processing flow figure of operation scheduling of a plurality of applications including a new application.

符号の説明Explanation of symbols

1…自動車、2,3…カメラ、4…ネットワーク、5…インターフェース手段、6…撮像デバイス、7…撮像デバイスインターフェース、8…RAM、9…ROM、10…CPU、11…外部インターフェース手段、12…マイクロコンピュータ、13…撮像デバイスコントロール部、14…アプリケーションスケジューリング部、151〜15N…N個のアプリケーション、16A〜16M…画像処理機能(A〜M)、17…環境情報、18…インターフェース、19…画面。   DESCRIPTION OF SYMBOLS 1 ... Automobile, 2, 3 ... Camera, 4 ... Network, 5 ... Interface means, 6 ... Imaging device, 7 ... Imaging device interface, 8 ... RAM, 9 ... ROM, 10 ... CPU, 11 ... External interface means, 12 ... Microcomputer, 13 ... Imaging device control unit, 14 ... Application scheduling unit, 151-15N ... N applications, 16A-16M ... Image processing function (A-M), 17 ... Environmental information, 18 ... Interface, 19 ... Screen .

Claims (16)

画像データを取得する撮像デバイスと、画像データを用いてそれぞれが異なる機能を持つように設定された複数のアプリケーションと、複数の前記アプリケーションに対応した画像データ取得要求に応じて前記撮像デバイスを制御する撮像デバイスコントロール部と、複数のアプリケーションが1つの撮像デバイスからの画像データを取込んで複数のアプリケーションを並行して実行させる制御部を備えた画像処理カメラシステムにおいて、複数のアプリケーションにおける必要な画像データ数と画像データ取込み頻度を記憶する手段と、これら画像データ数と画像データ取込み頻度に基き、並行して実行可能な複数のアプリケーションを選択する手段と、実行可能な複数のアプリケーションが、1つの撮像デバイスから時間的に重なることなく画像データの取込みを繰返す画像データ取込みのタイミングとインターバルを決定する画像取込みスケジューリング部を備えたことを特徴とする画像処理カメラシステム。   An imaging device that acquires image data, a plurality of applications that are set to have different functions using the image data, and the imaging device is controlled according to image data acquisition requests that correspond to the plurality of applications Image data required for a plurality of applications in an image processing camera system including an imaging device control unit and a control unit that allows a plurality of applications to capture image data from one imaging device and execute the plurality of applications in parallel Means for storing the number and frequency of capturing image data, means for selecting a plurality of applications executable in parallel based on the number of image data and the frequency of capturing image data, and the plurality of executable applications Overlap from device Image processing camera system comprising the image capture scheduling unit that determines the timing and interval of the image data acquisition repeated uptake Ku image data. 各アプリケーションにおける取込んだ画像データを用いた処理を含めたタイミングを決定するスケジューリング部を備えたことを特徴とする請求項1記載の画像処理カメラシステム。   The image processing camera system according to claim 1, further comprising a scheduling unit that determines a timing including processing using the captured image data in each application. 1つの撮像デバイスからの画像データを用いて並行して実行する複数のアプリケーションの組合せを記憶するアプリケーショングループ記憶手段を備え、前記選択手段は、前記アプリケーショングループ記憶手段から、並行して実行可能なアプリケーショングループについてのデータを読出すことを特徴とする請求項1記載の画像処理カメラシステム。   Application group storage means for storing a combination of a plurality of applications to be executed in parallel using image data from one imaging device, wherein the selection means is an application that can be executed in parallel from the application group storage means. 2. The image processing camera system according to claim 1, wherein data about the group is read out. 複数のアプリケーションを実行させるために前記撮像デバイスを制御する複数の基本画像処理機能部と、必要とする前記基本画像処理機能の一致の度合いに基き、1つの撮像デバイスからの画像データを用いて並行して実行する複数のアプリケーションを決定する手段を備えたことを特徴とする請求項1記載の画像処理カメラシステム。   Based on the degree of coincidence between the plurality of basic image processing function units that control the imaging device to execute a plurality of applications and the required basic image processing function, the image data from one imaging device is used in parallel. The image processing camera system according to claim 1, further comprising means for determining a plurality of applications to be executed. あるアプリケーションを実行中に、実行中のアプリケーションと同一のアプリケーショングループに属することに基いて、実行可能な他のアプリケーションを選択する手段を備えたことを特徴とする請求項1記載の画像処理カメラシステム。   2. The image processing camera system according to claim 1, further comprising means for selecting another executable application based on belonging to the same application group as the application being executed during execution of the application. . あるアプリケーションを実行中に、必要とする基本画像処理機能について、実行中のアプリケーションとの一致の度合いに基いて、実行可能な他のアプリケーションを選択する手段を備えたことを特徴とする請求項1記載の画像処理カメラシステム。   2. A means for selecting another executable application based on a degree of coincidence with a running application for a basic image processing function required during execution of an application. The image processing camera system described. あるアプリケーションを実行中に、実行中のアプリケーションによる撮像デバイスからの画像データの取込み期間の合間のタイミングで、他のアプリケーションが必要とする撮像デバイスからの画像データ取込みが可能であることに応じて、前記他のアプリケーションを実行可能なアプリケーションとして選択する手段を備えたことを特徴とする請求項1記載の画像処理カメラシステム。   While executing an application, it is possible to acquire image data from an imaging device required by another application at the timing between image data acquisition periods from the imaging device by the executing application. 2. The image processing camera system according to claim 1, further comprising means for selecting the other application as an executable application. 画像データを用いてそれぞれが異なる機能を持つように設定された複数のアプリケーションと、画像データを取得する撮像デバイスと、複数の前記アプリケーションに対応した画像データ取得要求に応じて前記撮像デバイスを制御する撮像デバイスコントロール部を備えた画像処理カメラシステムにおいて、実行可能なアプリケーションを表示する手段と、この表示された実行可能なアプリケーションの起動をユーザが指示するための操作手段を備えたことを特徴とする画像処理カメラシステム。   A plurality of applications set to have different functions using image data, an imaging device for acquiring image data, and controlling the imaging device in response to an image data acquisition request corresponding to the plurality of applications An image processing camera system including an imaging device control unit includes means for displaying an executable application and operation means for a user to instruct activation of the displayed executable application. Image processing camera system. あるアプリケーションの実行中に、実行中のアプリケーションを表示する手段と、実行中のアプリケーションの停止をユーザが指示するための操作手段と、この操作手段による指示入力に基きアプリケーションの停止を行う制御手段を備えたことを特徴とする請求項8記載の画像処理カメラシステム。   Means for displaying a running application during execution of an application, operating means for a user to stop the running application, and control means for stopping the application based on an instruction input by the operating means 9. The image processing camera system according to claim 8, further comprising: あるアプリケーションの実行中に、実行中のアプリケーション及び追加実行可能なアプリケーションを表示する手段と、追加実行可能なアプリケーションの起動及び実行中のアプリケーションの停止をユーザが指示するための操作手段と、この操作手段による指示入力に基きアプリケーションの起動及び停止を行う制御手段を備えたことを特徴とする請求項8記載の画像処理カメラシステム。   Means for displaying a running application and an application that can be additionally executed during execution of an application, an operation means for the user to instruct to start an additional executable application and stop the running application, and this operation 9. The image processing camera system according to claim 8, further comprising control means for starting and stopping an application based on an instruction input by the means. 周囲環境の変化に応じて追加実行可能なアプリケーションを切替える実行可能アプリケーション選択手段と、この選択手段によって選択された実行可能なアプリケーションを表示する手段を備えたことを特徴とする請求項8記載の画像処理カメラシステム。   9. The image according to claim 8, further comprising: an executable application selection unit that switches an application that can be additionally executed according to a change in the surrounding environment; and a unit that displays the executable application selected by the selection unit. Processing camera system. 新たなアプリケーションの追加を要求する操作手段を備えたことを特徴とする請求項8記載の画像処理カメラシステム。   9. The image processing camera system according to claim 8, further comprising operation means for requesting addition of a new application. 新たなアプリケーションのダウンロードによる追加を要求する操作手段を備えたことを特徴とする請求項8記載の画像処理カメラシステム。   9. The image processing camera system according to claim 8, further comprising operation means for requesting addition by downloading a new application. 画像データを取得する撮像デバイスと、この撮像デバイスからの画像データを用いてそれぞれ異なる機能を持つ複数のアプリケーションと、これら複数のアプリケーションに対応した画像データ取得要求に応じて前記撮像デバイスを制御する撮像デバイスコントロール部と、複数のアプリケーションが1つの撮像デバイスから画像データを取込んで複数のアプリケーションを並行して実行させる制御部を備えた画像処理カメラシステムにおいて、並行して実行可能な複数のアプリケーションを選択するステップと、実行可能な複数のアプリケーションが、時間的に重なることなく1つの撮像デバイスから画像データの取込みを繰返す画像データ取込みタイミングとインターバルを決定するスケジューリングステップを備えたことを特徴とする画像処理カメラ制御方法。   An imaging device that acquires image data, a plurality of applications each having different functions using image data from the imaging device, and an imaging that controls the imaging device in response to an image data acquisition request corresponding to the plurality of applications In an image processing camera system including a device control unit and a control unit that allows a plurality of applications to capture image data from one imaging device and execute the plurality of applications in parallel, And a scheduling step for determining an image data capturing timing and an interval for repeatedly capturing image data from one imaging device without overlapping in time. Image processing camera control method. 各アプリケーションにおける取込んだ画像データを用いた処理を含めたタイミングを決定するステップを備えたことを特徴とする請求項14記載の画像処理カメラ制御方法。   The image processing camera control method according to claim 14, further comprising a step of determining a timing including processing using captured image data in each application. 複数のアプリケーションにおいて必要な画像データの枚数と、必要な取込み頻度とを記憶した記憶手段から読出すステップと、読出した画像データの枚数と取込み頻度とに基いて、実行可能な複数のアプリケーションが、1つの撮像デバイスから画像データの取込みを繰返す画像データ取込みタイミングとインターバルを決定するステップを備えたことを特徴とする請求項14記載の画像処理カメラ制御方法。   Based on the step of reading from the storage means storing the number of image data required in a plurality of applications and the required capture frequency, and the plurality of executable applications based on the number of read image data and the capture frequency, The image processing camera control method according to claim 14, further comprising a step of determining an image data capturing timing and an interval for repeatedly capturing image data from one imaging device.
JP2008144069A 2008-06-02 2008-06-02 Image processing camera system and image processing camera control method Expired - Lifetime JP4542174B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008144069A JP4542174B2 (en) 2008-06-02 2008-06-02 Image processing camera system and image processing camera control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008144069A JP4542174B2 (en) 2008-06-02 2008-06-02 Image processing camera system and image processing camera control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005503866A Division JP4153522B2 (en) 2003-07-11 2003-07-11 Image processing camera system and image processing camera control method

Publications (3)

Publication Number Publication Date
JP2008278515A true JP2008278515A (en) 2008-11-13
JP2008278515A5 JP2008278515A5 (en) 2009-03-19
JP4542174B2 JP4542174B2 (en) 2010-09-08

Family

ID=40055844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008144069A Expired - Lifetime JP4542174B2 (en) 2008-06-02 2008-06-02 Image processing camera system and image processing camera control method

Country Status (1)

Country Link
JP (1) JP4542174B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071711A (en) * 2010-09-29 2012-04-12 Clarion Co Ltd Onboard equipment
JP2014229066A (en) * 2013-05-22 2014-12-08 株式会社デンソー Vehicle video control device
US9310190B2 (en) 2011-08-31 2016-04-12 Hitachi High-Technologies Corporation Surface shape measuring apparatus
US9366625B2 (en) 2012-02-09 2016-06-14 Hitachi High-Technologies Corporation Surface measurement device
JP2019200728A (en) * 2018-05-18 2019-11-21 株式会社デンソー On-vehicle camera
CN112990174A (en) * 2021-02-04 2021-06-18 嘉兴市木星机器人科技有限公司 Visual tracking platform and method for multi-application scene
WO2024117485A1 (en) * 2022-12-01 2024-06-06 한화비전 주식회사 Camera control system and method using scheduler

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746568A (en) * 1993-07-29 1995-02-14 Canon Inc Information processing equipment
JPH08240833A (en) * 1995-03-02 1996-09-17 Mitsubishi Electric Corp Exposure control device for vehicle camera
JPH09181962A (en) * 1995-12-27 1997-07-11 Toyota Motor Corp Exposure amount control device for moving body imaging device
JP2002056381A (en) * 2000-08-11 2002-02-20 Fujitsu Ltd Road condition image processing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746568A (en) * 1993-07-29 1995-02-14 Canon Inc Information processing equipment
JPH08240833A (en) * 1995-03-02 1996-09-17 Mitsubishi Electric Corp Exposure control device for vehicle camera
JPH09181962A (en) * 1995-12-27 1997-07-11 Toyota Motor Corp Exposure amount control device for moving body imaging device
JP2002056381A (en) * 2000-08-11 2002-02-20 Fujitsu Ltd Road condition image processing device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071711A (en) * 2010-09-29 2012-04-12 Clarion Co Ltd Onboard equipment
US9310190B2 (en) 2011-08-31 2016-04-12 Hitachi High-Technologies Corporation Surface shape measuring apparatus
US9366625B2 (en) 2012-02-09 2016-06-14 Hitachi High-Technologies Corporation Surface measurement device
JP2014229066A (en) * 2013-05-22 2014-12-08 株式会社デンソー Vehicle video control device
JP2019200728A (en) * 2018-05-18 2019-11-21 株式会社デンソー On-vehicle camera
CN110497852A (en) * 2018-05-18 2019-11-26 株式会社电装 Vehicle Cameras and Camera Systems
JP7070082B2 (en) 2018-05-18 2022-05-18 株式会社デンソー In-vehicle camera
CN110497852B (en) * 2018-05-18 2025-05-09 株式会社电装 Vehicle cameras and camera systems
CN112990174A (en) * 2021-02-04 2021-06-18 嘉兴市木星机器人科技有限公司 Visual tracking platform and method for multi-application scene
WO2024117485A1 (en) * 2022-12-01 2024-06-06 한화비전 주식회사 Camera control system and method using scheduler

Also Published As

Publication number Publication date
JP4542174B2 (en) 2010-09-08

Similar Documents

Publication Publication Date Title
JP4153522B2 (en) Image processing camera system and image processing camera control method
JP4542174B2 (en) Image processing camera system and image processing camera control method
KR20220058975A (en) Image pickup device and electronic apparatus
JP7434730B2 (en) Vehicle information display device and vehicle control device
WO2018155038A1 (en) Display device for vehicle
KR20140094116A (en) parking assist method for vehicle through drag and drop
JP4611899B2 (en) Camera lens dirt detection device and image display system
KR101601324B1 (en) Image acquiring method of vehicle camera system
JP2018191051A (en) Control device, control method, and program
JP2023028366A (en) Travel video display method and travel video display system
US11023750B2 (en) Video output system
KR20120019871A (en) Avn apparatus with camera for vehicle
CN119452672A (en) Method for coordinated display of camera images in a motor vehicle and correspondingly arranged motor vehicle
WO2023221998A1 (en) Vehicle-mounted streaming media display system and method
JP6054738B2 (en) Camera module, camera system, and image display method
JP6931832B2 (en) Parking assistance devices and vehicles
KR20150129542A (en) Operating method of around view system
KR100833704B1 (en) Peripheral sensing method for cars
US11818470B2 (en) Image generation device, image generation method, and vehicle control system
KR102515550B1 (en) Vehicle display system and control method thereof
KR20250039883A (en) Electronic device for performing integrated multi-functions using single rear view image of vehicle, and operating method of the same
CN119284012A (en) A multifunctional intelligent electronic rearview mirror and driving recorder system
JP2006273308A (en) Visual information provision system
JP2020083103A (en) Head-up display device
KR20080077437A (en) How to control the blinking of the active marker for motion capture

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090203

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100624

R150 Certificate of patent or registration of utility model

Ref document number: 4542174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term