[go: up one dir, main page]

JP2010071768A - Vehicle inspection apparatus - Google Patents

Vehicle inspection apparatus Download PDF

Info

Publication number
JP2010071768A
JP2010071768A JP2008238611A JP2008238611A JP2010071768A JP 2010071768 A JP2010071768 A JP 2010071768A JP 2008238611 A JP2008238611 A JP 2008238611A JP 2008238611 A JP2008238611 A JP 2008238611A JP 2010071768 A JP2010071768 A JP 2010071768A
Authority
JP
Japan
Prior art keywords
image
wheel
polar coordinate
matrix
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008238611A
Other languages
Japanese (ja)
Other versions
JP5274173B2 (en
Inventor
Kazuya Takahashi
一哉 高橋
Tadaaki Kitamura
忠明 北村
Tatsu Yumiba
竜 弓場
Takeshi Saito
豪 齋藤
Yutaka Sano
豊 佐野
Naoki Katsuta
直樹 勝田
Masayuki Inui
正幸 乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Central Japan Railway Co
Original Assignee
Hitachi Ltd
Central Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Central Japan Railway Co filed Critical Hitachi Ltd
Priority to JP2008238611A priority Critical patent/JP5274173B2/en
Publication of JP2010071768A publication Critical patent/JP2010071768A/en
Application granted granted Critical
Publication of JP5274173B2 publication Critical patent/JP5274173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle inspection apparatus capable of inspecting by taking a photograph of the side face of a vehicle. <P>SOLUTION: The vehicle inspection apparatus 1 is configured to include an image taking device 16 disposed along a railway track 4 for taking a wheel image of the side face of the wheel 20 of the vehicle 6 and an image storing device 30 for storing the image taken by the image taking device 16, wherein the image taking device 30 takes the wheel image based on a detection signal detecting the wheel 20 by a wheel detection sensor 26 which is installed corresponding to the image taking device 30. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、列車車両の車輪を撮影して、車輪の状態を検査する車両検査装置に関する。   The present invention relates to a vehicle inspection apparatus that images a wheel of a train vehicle and inspects the state of the wheel.

列車車両の車輪を検査して、車輪の磨耗や劣化の進行を車両の走行距離に応じて記録することは、車輪部品の交換時期を知るうえで重要である。車輪の検査はピット内に車両を停車して行われるが、一般に、車輪は周辺部の各種部品に遮蔽されており、車輪全体を1回の停車で検査することはできない。このような事情から、車輪の検査を行う方法として、車両の走行中にカメラ等で車輪を撮影する技術が開示されている。例えば、特許文献1に記載の車輪踏面欠陥検査装置は、線路脇に設置された複数のカメラで車輪踏面を連写し、当該連写画像から車輪踏面の欠陥を計測するようになっている。この際に車輪の汚れと欠陥は異物として検出され、その縦横比に基づいて分類される。また、特許文献2に記載の車輪検査装置は、線路脇に設置されたカメラで、接近してくる車輪踏面を水平方向に長いスリット状に連写したうえで、これを垂直方向に積み重ねて、当該車輪1周分の車輪踏面を形成して保存するようになっている。   It is important for inspecting the wheels of a train vehicle to record the progress of wheel wear and deterioration according to the distance traveled by the vehicle in order to know when to replace the wheel parts. The inspection of the wheel is performed by stopping the vehicle in the pit. Generally, the wheel is shielded by various parts in the peripheral portion, and the entire wheel cannot be inspected by one stop. Under such circumstances, as a method for inspecting the wheel, a technique for photographing the wheel with a camera or the like while the vehicle is traveling is disclosed. For example, the wheel tread defect inspection device described in Patent Document 1 continuously captures a wheel tread with a plurality of cameras installed beside the track, and measures a defect on the wheel tread from the continuous image. At this time, dirt and defects on the wheel are detected as foreign matters and are classified based on the aspect ratio. In addition, the wheel inspection device described in Patent Document 2 is a camera installed on the side of a track, and after continuously shooting the approaching wheel tread in a slit shape in the horizontal direction, this is stacked in the vertical direction, A wheel tread for one wheel is formed and stored.

特開平7−174672号公報JP-A-7-174672 特開平5−126686号公報JP-A-5-126686

ところで、車輪踏面だけでなく、車輪側面にも傷等や割れが生じることから、車輪側面の検査も必要である。従来は、車輪を撮影して検査する技術について、車輪踏面しか行われておらず、車輪側面については考慮されていなかった。   By the way, since not only the wheel tread but also the wheel side face are scratched or broken, it is necessary to inspect the wheel side face. Conventionally, only the wheel tread has been performed for the technique of photographing and inspecting the wheel, and the side of the wheel has not been considered.

本発明が解決しようとする課題は、車輪側面を撮影して検査することができる車両検査装置を提供することにある。   The problem to be solved by the present invention is to provide a vehicle inspection device capable of photographing and inspecting a wheel side surface.

上記課題を解決するため、本発明の車両検査装置は、線路に沿って設置され、その線路を通過する車両の車輪側面の車輪画像を取得する画像取得装置と、その画像取得装置が取得した画像を保存する画像保存装置とを備え、画像取得装置は、その画像取得装置に対応付けて備えられた車輪検知センサにより車輪を検知した検知信号に基づいて車輪画像を取得することを特徴とする。   In order to solve the above problems, a vehicle inspection apparatus according to the present invention is installed along a track, acquires an image of a wheel side surface of a vehicle passing through the track, and an image acquired by the image acquisition device. The image acquisition device acquires a wheel image based on a detection signal obtained by detecting a wheel by a wheel detection sensor provided in association with the image acquisition device.

本発明によれば、画像取得装置によって車輪検知センサが検知した車輪側面を撮影して車輪画像を取得し、車輪画像を用いて車輪側面の特徴点、例えば車輪側面の傷を観察することができる。画像取得装置は、カメラ等を用いるのが好ましい、また、車輪の両側面の画像を取得するために線路の両側に設置することが好ましい。カメラ等の視野は、例えば、車輪側面が線路に接している部分を中心として車輪の3分の1以上、すなわち角度にして120度分以上が写る視野とするように設定する。さらに、フラッシュ等の照明装置を設けることが好ましい。なお、車輪の接近するタイミングに合わせてカメラのシャッターを切る必要があるが、車輪の接近を検出する車輪検知センサに同期して撮影することは、例えば、特開昭64−405号公報に記載されている。   According to the present invention, the wheel side surface detected by the wheel detection sensor can be captured by the image acquisition device to acquire the wheel image, and the feature point of the wheel side surface, for example, the scratch on the wheel side surface can be observed using the wheel image. . The image acquisition device preferably uses a camera or the like, and is preferably installed on both sides of the track in order to acquire images on both sides of the wheel. The field of view of the camera or the like is set so that, for example, the field where the wheel side surface is in contact with the track is at least a third of the wheel, that is, the field of view is 120 degrees or more. Furthermore, it is preferable to provide a lighting device such as a flash. Although it is necessary to release the shutter of the camera in accordance with the approach timing of the wheel, photographing in synchronism with a wheel detection sensor that detects the approach of the wheel is described in, for example, Japanese Patent Application Laid-Open No. 64-405. Has been.

ところで、前述したように、車輪は周辺部の各種部品に遮蔽されており、1度の撮影で車輪の全体画像を取得できない。この問題を解決するため、車輪検査装置を、複数の画像取得装置と複数の車輪検知センサと、車輪計数装置と、車両の通過時刻を記録するタイマーとを備え、画像取得装置にはそれぞれ識別番号が設定されてなり、車輪計数装置は、検知信号に基づいて車両における車輪の順番を示す車輪番号を生成し、画像取得装置を、取得した車輪画像と識別番号と車輪番号と通過時刻とを対応付けて画像保存装置に保存するように構成することが望ましい。   By the way, as described above, the wheel is shielded by various parts in the peripheral portion, and an entire image of the wheel cannot be acquired by one photographing. In order to solve this problem, the wheel inspection device includes a plurality of image acquisition devices, a plurality of wheel detection sensors, a wheel counting device, and a timer for recording the passing time of the vehicle, and each of the image acquisition devices has an identification number. Is set, the wheel counting device generates a wheel number indicating the order of the wheels in the vehicle based on the detection signal, and the image acquisition device corresponds to the acquired wheel image, the identification number, the wheel number, and the passage time. In addition, it is desirable to configure so as to store in the image storage device.

これにより、それぞれの画像取得装置で車輪側面の一部部分を撮影することで車輪の全体画像を取得することができる。また、識別番号から、車輪画像がどの画像取得装置で撮影されたかを識別でき、車輪番号から、車輪画像が車両の何番目の車輪を撮影したものかを識別できる。さらに、通過時刻を保存しておくと、例えば、列車運行表を参照して、撮影した車輪を備える車両を特定することができる。画像取得装置は、線路に沿って適切な間隔で設置されることが好ましい。適切な間隔とは、画像取得装置の設置個数によって決まるものである。例えば、画像取得装置が4つ設置される場合では、車輪外周の4分の1間隔となる。また、取得した複数の車輪画像から全体の車輪画像を合成するパノラマ形成装置を設け、全体の車輪画像と車輪番号とを対応付けて保存してもよい。   Thereby, the whole image of a wheel is acquirable by imaging a part of wheel side by each image acquisition device. Further, from the identification number, it is possible to identify which image acquisition device the wheel image was captured, and from the wheel number, it is possible to identify what number wheel of the vehicle is captured. Furthermore, if the passage time is stored, for example, a vehicle including photographed wheels can be specified with reference to a train schedule. The image acquisition devices are preferably installed at appropriate intervals along the track. The appropriate interval is determined by the number of installed image acquisition apparatuses. For example, when four image acquisition devices are installed, the interval is a quarter of the outer circumference of the wheel. Further, a panorama forming apparatus that synthesizes the entire wheel image from the acquired plurality of wheel images may be provided, and the entire wheel image and the wheel number may be stored in association with each other.

ここで、前述したように、車輪は周辺部の各種部品に遮蔽されていて、車輪に正対するように画像取得装置を設置すると車輪画像が得られないことから、画像取得装置の設置角度を変える必要がある。通常は、画像取得装置が車輪を見上げるように設置されることから、画像取得装置が取得する車輪画像は円ではなく、楕円となり、特徴点の形も本来の形と異なるため判別しづらくなる。この問題を解決するため、画像取得装置を、画像保存装置に保存された車輪画像に射影変換を施して車輪に正対する正対画像を生成するとともに、その正対画像を画像保存装置に保存する画像処理装置を備えて構成することが望ましい。   Here, as described above, the wheel is shielded by various parts in the peripheral portion, and if the image acquisition device is installed so as to face the wheel, the wheel image cannot be obtained, so the installation angle of the image acquisition device is changed. There is a need. Normally, since the image acquisition device is installed so as to look up the wheels, the wheel image acquired by the image acquisition device is not a circle but an ellipse, and the shape of the feature point is different from the original shape, which makes it difficult to discriminate. In order to solve this problem, the image acquisition device performs projective transformation on the wheel image stored in the image storage device to generate a directly-facing image that faces the wheel, and stores the facing image in the image storage device. It is desirable to have an image processing apparatus.

これにより、車輪に正対していない画像取得装置で取得した車輪画像を、車輪に正対する正対画像にすることができる。予め射影変換に用いるパラメータを、基準となる車輪と画像取得装置との位置関係から求めておけば、以後はそのパラメータを用いて取得した車輪画像から正対画像を生成することができる。射影変換に関しては、例えば、ディジタル画像処理(CG−ARTS協会)に記載されている。また、射影変換に係るパラメータについては、三次元画像処理(昭晃堂、井口征士著)に記載のカメラキャリブレーションによって求めることができる。   Thereby, the wheel image acquired with the image acquisition apparatus which is not facing the wheel can be made into the facing image which faces a wheel. If the parameters used for the projective transformation are obtained in advance from the positional relationship between the reference wheel and the image acquisition device, a facing image can be generated from the wheel images acquired using the parameters thereafter. The projective transformation is described in, for example, digital image processing (CG-ARTS Association). Further, parameters relating to projective transformation can be obtained by camera calibration described in three-dimensional image processing (written by Shojido and Seiji Iguchi).

さらに、画像処理装置を、正対画像を処理して車輪の輪郭を抽出し、その輪郭に基づいてその車輪の車軸位置を推定し、その推定した車軸位置を原点とする極座標変換を行って極座標画像を生成するとともに、極座標画像を画像保存装置に保存するように構成することもできる。   Further, the image processing device processes the facing image, extracts the contour of the wheel, estimates the wheel axle position based on the contour, performs polar coordinate conversion with the estimated axle position as the origin, and polar coordinates While generating an image, it can also comprise so that a polar coordinate image may be preserve | saved at an image preservation | save apparatus.

例えば、極座標画像の垂直方向に、正対画像における車軸位置から特徴点までの距離をとり、極座標画像の水平方向に、正対画像における車軸位置を中心とする回転角をとるようにする。この極座標変換により、車軸位置から特徴点までの距離の増減が垂直方向の変位に反映され、車軸位置を中心とする回転角の増減が水平方向の変位に反映され、後述する特徴点の探査、特定がしやすくなる。なお、車輪の輪郭の抽出には、正対画像にソーベルフィルタ等の輪郭強調処理を行う。   For example, the distance from the axle position in the facing image to the feature point is taken in the vertical direction of the polar coordinate image, and the rotation angle around the axle position in the facing image is taken in the horizontal direction of the polar coordinate image. By this polar coordinate conversion, the increase / decrease in the distance from the axle position to the feature point is reflected in the vertical displacement, and the increase / decrease in the rotation angle around the axle position is reflected in the horizontal displacement. It becomes easy to identify. For extracting the contour of the wheel, contour enhancement processing such as a Sobel filter is performed on the facing image.

さらに、画像処理装置を、画 像保存装置に予め保存された基準となる車輪画像の車軸位置と推定した車軸位置とのずれの大きさに基づいて、極座標画像を補正して補正画像を生成するとともに、その補正画像を画像保存装置に保存するように構成することもできる。   Further, the image processing device generates a corrected image by correcting the polar coordinate image based on the magnitude of the deviation between the axle position of the reference wheel image stored in advance in the image storage device and the estimated axle position. At the same time, the corrected image can be stored in the image storage device.

前述した正対画像から推定した車軸位置は、基準となる車輪、例えば、磨耗していない車輪の車軸位置と垂直方向に差異が生じる場合がある。すなわち、磨耗した車輪は車輪の半径が小さくなるためである。また、画像取得装置の撮影のタイミングの微差により、水平方向でも差異が生じる場合がある。そこで、予め磨耗していない車輪の車輪画像等から車軸位置を求めて保存しておけば、推定した車軸位置とのずれの大きさに基づいて、極座標画像を補正することができる。なお、正対画像を補正することも可能である。   The axle position estimated from the above-mentioned facing image may differ in the vertical direction from the axle position of a reference wheel, for example, a non-wearing wheel. That is, the worn wheel has a smaller wheel radius. In addition, a difference may occur in the horizontal direction due to a slight difference in photographing timing of the image acquisition device. Therefore, if the axle position is obtained and stored from a wheel image of a wheel that has not been worn in advance, the polar coordinate image can be corrected based on the estimated deviation from the axle position. It is also possible to correct the facing image.

また、車両検査装置を、画像取得装置が取得した車輪画像の車輪と同一の車輪の車輪画像を、識別番号と車輪番号と通過時刻とに基づいて画像保存装置を検索して抽出し、その抽出した車輪画像に対応する極座標画像に表示された特徴点の輝度パタンのテンプレートを作成し、そのテンプレートに基づいて、画像取得装置が取得した車輪画像から画像処理装置が生成した極座標画像上を探査して特徴点を特定し、特徴点の変化を比較する機能を有するように構成することもできる。   Further, the vehicle inspection device extracts and extracts a wheel image of the same wheel as the wheel of the wheel image acquired by the image acquisition device by searching the image storage device based on the identification number, the wheel number, and the passage time, and the extraction The brightness pattern template of the feature point displayed in the polar coordinate image corresponding to the wheel image is created, and on the polar coordinate image generated by the image processing device is searched from the wheel image acquired by the image acquisition device based on the template. It is also possible to have a function of specifying feature points and comparing changes of feature points.

これにより、車輪側面の特徴点の経年変化を観察できるようになる。すなわち、画像取得装置が新たに取得した車輪画像の車輪と同一の車輪の画像を、車輪番号等に基づいて画像保存装置から抽出し、抽出した車輪画像に対応付けられた特徴点のテンプレートを用いて、新たに取得した車輪画像の極座標画像上を探査して同一の特徴点を見つけ出して特徴点の大きさや長さを観察することで、特徴点の経年変化、車輪劣化状況を追跡できる。なお、極座標画像上を探査して同一の特徴点を見つけ出すには、正規化相関法等の既存のパタンマッチングを用いるのが好ましい。パタンマッチングは、例えば、車両検査装置に情報処理装置を備えて行うことができる。また、画像処理装置により行ってもよい。   Thereby, it becomes possible to observe the secular change of the feature point on the wheel side surface. That is, an image of the same wheel as the wheel of the wheel image newly acquired by the image acquisition device is extracted from the image storage device based on the wheel number or the like, and a feature point template associated with the extracted wheel image is used. Thus, by searching on the polar coordinate image of the newly acquired wheel image to find the same feature point and observing the size and length of the feature point, it is possible to track the aging of the feature point and the wheel deterioration status. In order to search the polar coordinate image and find the same feature point, it is preferable to use an existing pattern matching such as a normalized correlation method. The pattern matching can be performed, for example, by providing the vehicle inspection device with an information processing device. Further, it may be performed by an image processing apparatus.

また、画像処理装置を、フィルタ処理により車輪画像上の特徴点領域を強調した後に所定のしきい値で2値化する特徴点検出機能を有するように構成することもできる。   The image processing apparatus can also be configured to have a feature point detection function that binarizes with a predetermined threshold value after emphasizing the feature point region on the wheel image by filter processing.

本発明によれば、車輪側面を撮影して検査することができる車両検査装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the vehicle inspection apparatus which can image | photograph and test | inspect a wheel side surface can be provided.

以下、本発明の車両検査装置2の実施例を説明する。   Hereinafter, the Example of the vehicle inspection apparatus 2 of this invention is described.

図1(a)は、本実施例の車両検査装置1を構成する検査ユニット2の配置図である。図1(a)に示すように、検査ユニット2は、レール3,4の両脇に複数(本実施例では4つ)設置され、それぞれ独立に車両6の左右の車輪の外側と内側を検査するようになっている。図中の矢印は車両6の進行方向を示している。また、検査ユニット2には、それぞれユニット番号が設定されている。なお、一般に、車両検査は、車両6が車庫に入る前に行われるので、検査ユニット2は、車庫前に設置される。   FIG. 1A is a layout diagram of an inspection unit 2 constituting the vehicle inspection apparatus 1 of this embodiment. As shown in FIG. 1A, a plurality of inspection units 2 (four in this embodiment) are installed on both sides of the rails 3 and 4, and the outside and inside of the left and right wheels of the vehicle 6 are independently inspected. It is supposed to be. The arrows in the figure indicate the traveling direction of the vehicle 6. Each inspection unit 2 has a unit number. In general, since the vehicle inspection is performed before the vehicle 6 enters the garage, the inspection unit 2 is installed in front of the garage.

図1(b)は、車両検査装置1の構成図である。車両検査装置1は、検査ユニット2と、データベース8と、パノラマ形成装置10と、パソコン12とで構成され、それぞれ通信線14を介して通信可能となっている。検査ユニット2は、複数(本実施例では4つ)の画像取得装置16,17,18,19で構成され、各画像取得装置は機能は同じであるが、独立して動作を行うようになっている。図中の矢印は、車両6の車輪20が転がる方向である。   FIG. 1B is a configuration diagram of the vehicle inspection device 1. The vehicle inspection apparatus 1 includes an inspection unit 2, a database 8, a panorama forming apparatus 10, and a personal computer 12, and can communicate with each other via a communication line 14. The inspection unit 2 is composed of a plurality (four in this embodiment) of image acquisition devices 16, 17, 18, and 19. Each image acquisition device has the same function, but operates independently. ing. The arrow in the figure is the direction in which the wheel 20 of the vehicle 6 rolls.

検査ユニット2は、画像取得装置16,17,18,19で取得した車輪20の分割撮影された複数の車輪画像をデータベース8に送信し、データベース8はそれらを格納する。パノラマ形成装置10は、データベース8に格納された複数の車輪画像から全体の車輪画像を生成し、パソコン12に送信する。パソコン12は、キーボードやマウス等のコマンド入力装置と、表示装置を備えており、データベース8にアクセスして車輪に関する画像及び計測データを参照して後述する車輪の特徴点のパタンマッチング処理を行う。また、パノラマ形成装置10から送信される全体の車輪画像を表示装置に表示する。なお、データベース8、パノラマ形成装置10、パソコン12の動作について後に詳述する。   The inspection unit 2 transmits to the database 8 a plurality of wheel images obtained by dividing and shooting the wheels 20 acquired by the image acquisition devices 16, 17, 18, and 19, and the database 8 stores them. The panorama forming apparatus 10 generates an entire wheel image from a plurality of wheel images stored in the database 8 and transmits it to the personal computer 12. The personal computer 12 includes a command input device such as a keyboard and a mouse, and a display device. The personal computer 12 accesses the database 8 and performs a pattern matching process of feature points of the wheels, which will be described later, with reference to images and measurement data related to the wheels. Further, the entire wheel image transmitted from the panorama forming apparatus 10 is displayed on the display device. The operations of the database 8, the panorama forming apparatus 10, and the personal computer 12 will be described in detail later.

図2(a)は、画像取得装置16の構成図である。画像取得装置16は、カメラ22と、フラッシュ24と、車輪検知センサ26と、車輪計数装置28と、タイマー29と、画像保存装置30と、画像処理装置32とで構成される。カメラ22は、レール4に沿って、それぞれ車輪20の周囲長の4分の1の間隔で設置され、車輪20の一周を360度として、車輪20の回転角が90度進む毎に車輪20の側面を撮影するようになっている。また、周囲長は車輪毎に異なるので、ここでは基準車輪21の周囲長4分の1の間隔で並べる。基準車輪21とは、車輪20と同一の構造で、磨耗していない車輪である。   FIG. 2A is a configuration diagram of the image acquisition device 16. The image acquisition device 16 includes a camera 22, a flash 24, a wheel detection sensor 26, a wheel counting device 28, a timer 29, an image storage device 30, and an image processing device 32. The cameras 22 are installed along the rails 4 at intervals of one-fourth of the circumference of the wheel 20, and the rotation of the wheel 20 is advanced by 90 degrees with one rotation of the wheel 20 being 360 degrees. It is supposed to shoot the side. Since the perimeter differs for each wheel, the perimeter of the reference wheel 21 is arranged at a quarter interval. The reference wheel 21 has the same structure as the wheel 20 and is not worn.

図2(b)は、画像取得装置16が備えるカメラ22の撮影視野である。図2(b)に示すように、撮影視野には、車輪20の中心にある車軸34、車軸34を中心とする同心円上にあるボルト36乃至43が含まれる。なお、ボルト36乃至43は同じ形状である。カメラ22の撮影視野は、車輪20とレール4の接点の両側に60度前後の視野を持たせる。したがって、カメラ22は、車輪20の下側約120度前後の範囲を撮影するようになっており、図2(b)においては、矩形46内の横線で示した領域48である。また、車輪20の4分の1周分、すなわち90度分が画面中央に写り、矩形46内の格子で示した領域49である。また、カメラ22は、車輪20に付属している各種部品のため、車輪20に正対しておらず、車輪20の下方からやや見上げる画角となっている。したがって、本来真円である車輪20は上下方向に縮んだ楕円状に撮影されている。なお、カメラ22は、20ナノ秒以下の短時間露光で撮影が可能なディジタルカメラである。フラッシュ24は、カメラ22が20ナノ秒以下の露光でも十分に撮影できるような強い光量が必要であり、ストロボ制御されたLEDを利用することができる。車輪検知センサ26は、例えばレール4に装着した磁気センサ又はレール4の近傍に設置した光電センサで構成することができ、車輪20が所定の位置に来たことを数十ナノ秒の遅延で検知し、同期信号を出力するようになっている。なお、移動する車輪20をカメラ22で撮影するために画像に“流れ”が発生するが、その“流れ”の大きさが検出対象となる特徴点の幅の半分以下になるように、シャッターの速度は高速に調整しておく。本実施例では、車輪検知センサ24とカメラ20はレール4に対して同じ場所にあるとする。   FIG. 2B is an imaging field of view of the camera 22 provided in the image acquisition device 16. As shown in FIG. 2B, the imaging field of view includes an axle 34 at the center of the wheel 20 and bolts 36 to 43 that are concentric with the axle 34 as the center. The bolts 36 to 43 have the same shape. The photographing field of view of the camera 22 has a field of view of around 60 degrees on both sides of the contact point between the wheel 20 and the rail 4. Accordingly, the camera 22 captures a range of about 120 degrees below the wheel 20 and is a region 48 indicated by a horizontal line in the rectangle 46 in FIG. Further, a quarter of the wheel 20, that is, 90 degrees is shown in the center of the screen, and is an area 49 indicated by a grid in the rectangle 46. Further, since the camera 22 is various parts attached to the wheel 20, the camera 22 does not face the wheel 20, and has an angle of view that looks up slightly from below the wheel 20. Therefore, the wheel 20 that is essentially a perfect circle is photographed in an elliptical shape that contracts in the vertical direction. The camera 22 is a digital camera that can capture images with a short exposure of 20 nanoseconds or less. The flash 24 needs a strong light quantity that allows the camera 22 to sufficiently shoot even with an exposure of 20 nanoseconds or less, and can use a flash-controlled LED. The wheel detection sensor 26 can be composed of, for example, a magnetic sensor mounted on the rail 4 or a photoelectric sensor installed in the vicinity of the rail 4, and detects that the wheel 20 has reached a predetermined position with a delay of several tens of nanoseconds. Then, a synchronization signal is output. Note that a “flow” occurs in the image because the moving wheel 20 is photographed by the camera 22, and the size of the “flow” is less than half the width of the feature point to be detected. Adjust the speed to high speed. In this embodiment, it is assumed that the wheel detection sensor 24 and the camera 20 are in the same place with respect to the rail 4.

ここで、画像取得装置16のその他の装置の構成を、画像取得装置16の動作とともに説明する。まず、車輪検知センサ26が、車輪20が所定の位置に来たことを検知し、カメラ22とフラッシュ24と車輪計数装置28とタイマー29に同期信号を出力する。カメラ22は、同期信号に同期して車輪20を撮影し、撮影した車輪画像を画像保存装置30に出力する。フラッシュ24は、同期信号に同期して発光し、車輪20の一部を照明する。タイマー29は、同期信号に同期して車両6の通過時刻を画像保存装置30に出力する。車輪計数装置28は、車輪検知センサ26の同期信号の立ち上がり回数を計数することで車両6の何番目の車輪20を撮影したかを知ることができ、この順番を車輪番号として画像保存装置30に出力する。画像保存装置30は、車輪番号に前述した検査ユニット2のユニット番号を付したものを車輪IDとして、この車輪IDと車輪画像と通過時刻とを対応付けて保存する。検査ユニット2のユニット番号により、車両6のどの車輪20をどこから撮影したかを特定することができる。また、車輪計数装置28は、同期信号の立ち上がり回数を予め定められた計数値まで計数することで、車両6の一編成の通過が完了したタイミングを知り、これを画像処理装置32に通知するとともに、計数値をリセットして新たな車両の到来に備える。なお、予め定められた計数値とは、車両6の片側の車輪20の数である。画像処理装置32は、車輪計数装置28による車両6の通過完了通知の受信後、画像保存装置30に保存された車輪画像を処理する。   Here, the configuration of other devices of the image acquisition device 16 will be described together with the operation of the image acquisition device 16. First, the wheel detection sensor 26 detects that the wheel 20 has come to a predetermined position, and outputs a synchronization signal to the camera 22, the flash 24, the wheel counting device 28, and the timer 29. The camera 22 captures the wheel 20 in synchronization with the synchronization signal, and outputs the captured wheel image to the image storage device 30. The flash 24 emits light in synchronization with the synchronization signal and illuminates a part of the wheel 20. The timer 29 outputs the passage time of the vehicle 6 to the image storage device 30 in synchronization with the synchronization signal. The wheel counting device 28 can know what number of wheels 20 of the vehicle 6 was photographed by counting the number of rising times of the synchronization signal of the wheel detection sensor 26, and this order is stored in the image storage device 30 as a wheel number. Output. The image storage device 30 stores the wheel ID assigned with the unit number of the inspection unit 2 described above as a wheel ID, and stores the wheel ID, the wheel image, and the passage time in association with each other. The unit number of the inspection unit 2 can identify which wheel 20 of the vehicle 6 was shot from. In addition, the wheel counting device 28 counts the number of rises of the synchronization signal to a predetermined count value, thereby knowing the timing when the passing of one train of the vehicle 6 is completed and notifying the image processing device 32 of this. The count value is reset to prepare for the arrival of a new vehicle. The predetermined count value is the number of wheels 20 on one side of the vehicle 6. The image processing device 32 processes the wheel image stored in the image storage device 30 after receiving the notification of the completion of the passage of the vehicle 6 by the wheel counting device 28.

ここで、図3を参照して、画像処理装置32の処理フローを説明する。ステップ1において、画像保存装置30から車輪画像を入力する。車輪画像のファイル名は車輪IDを用いる。   Here, the processing flow of the image processing apparatus 32 will be described with reference to FIG. In step 1, a wheel image is input from the image storage device 30. Wheel ID is used as the file name of the wheel image.

ステップ2について、図4,5を参照して説明する。図4(a)は、車輪20とカメラ22の位置関係を示し、平面50は車輪20の検査すべき側面の平面を示す。図4(b)は、後述するカメラキャリブレーションを説明するための図であり、図5は、後述する正対画像マトリクスを説明するための図である。図4(a)に示すように、カメラ22は車輪20に正対していないので、カメラ22で撮影した車輪画像に射影変換を施して車輪20に正対する正対画像を生成する。カメラ22と車輪20の位置関係は確定しているので、射影変換に係るパラメータはカメラキャリブレーションによって求めることができる。   Step 2 will be described with reference to FIGS. FIG. 4A shows the positional relationship between the wheel 20 and the camera 22, and the plane 50 shows the plane of the side surface of the wheel 20 to be inspected. FIG. 4B is a diagram for explaining camera calibration to be described later, and FIG. 5 is a diagram for explaining a directly-facing image matrix to be described later. As shown in FIG. 4A, since the camera 22 does not face the wheel 20, projection conversion is performed on the wheel image photographed by the camera 22 to generate a facing image that faces the wheel 20. Since the positional relationship between the camera 22 and the wheel 20 is fixed, the parameters relating to the projective transformation can be obtained by camera calibration.

ここで、カメラキャリブレーションについて説明する。カメラキャリブレーションは、カメラ22の設置固定時に少なくとも1度行っておけば、以降はその時に求めたパラメータを用いて射影変換を行うことができる。ただし、車輪は磨耗によってその半径が変わるため、撮影した画像における車輪の上下位置の微小な差異が生じる。また、カメラ22の撮影タイミングの差異により、水平位置でも微小な差異が生ずる。よって、カメラキャリブレーションは、磨耗していない基準車輪21を基準となる位置に定めて行う。なお、車輪20と基準車輪21の構造は同一である。   Here, camera calibration will be described. If the camera calibration is performed at least once when the camera 22 is fixed, then projective transformation can be performed using the parameters obtained at that time. However, since the radius of the wheel changes due to wear, there is a slight difference in the vertical position of the wheel in the captured image. Further, due to the difference in the photographing timing of the camera 22, a minute difference is generated even in the horizontal position. Therefore, the camera calibration is performed by setting the reference wheel 21 that is not worn as a reference position. The structures of the wheel 20 and the reference wheel 21 are the same.

ここで、カメラパラメータを求めるため、画面上画像マトリクスと、車輪ワールド座標の2つの座標系を定義する。画面上画像マトリクスは[x,y]で表し、カメラ22で車輪20又は基準車輪21の部分を撮影したディジタル画像の座標系で、行列表現が可能であり、行数と列数で画素を特定する。図4(b)の矩形46は画面上画像マトリクスの範囲を表し、左上端を基点[0,0]とする。1画素当たりの大きさは、ミリメートル/画素である。   Here, in order to obtain the camera parameters, two coordinate systems of an on-screen image matrix and wheel world coordinates are defined. The on-screen image matrix is represented by [x, y], and can be expressed in the coordinate system of a digital image obtained by photographing the wheel 20 or the reference wheel 21 with the camera 22, and the pixels are specified by the number of rows and the number of columns. To do. A rectangle 46 in FIG. 4B represents the range of the on-screen image matrix, and the upper left corner is the base point [0, 0]. The size per pixel is millimeter / pixel.

車輪ワールド座標は(X,Y)で表し、実際の車輪20又は基準車輪21の座標系であって、実数値をとる。車輪検知センサ26が、車輪20又は基準車輪21を検出したときの基準となる位置での車軸34の位置を原点とする。車輪20又は基準車輪21とレール4の接点と車軸34を結ぶ線分をY軸、車軸34を通りレール4に平行な軸をX軸とする。単位はミリメートルなどMKSA単位系で定めることができる。   The wheel world coordinates are represented by (X, Y), which is a coordinate system of the actual wheel 20 or the reference wheel 21 and takes a real value. The position of the axle 34 at the reference position when the wheel detection sensor 26 detects the wheel 20 or the reference wheel 21 is set as the origin. A line segment connecting the wheel 20 or the reference wheel 21 and the contact point between the rail 4 and the axle 34 is defined as a Y axis, and an axis passing through the axle 34 and parallel to the rail 4 is defined as an X axis. The unit can be determined in an MKSA unit system such as millimeters.

以上2つの座標系を定義してカメラパラメータを求める。図4(b)は、基準車輪21の画面上画像マトリクスである。基準車輪21は、中心に基準車軸35を有する。マーク52,53,54,55はカメラパラメータを求めるための目印であり、基準車輪21にもともと刻印されているパタンを用いてもよい。マーク52乃至55の画面上画像マトリクスをそれぞれ[x,y]、[x,y]、[x,y]、[x,y]とし、対応する車輪ワールド座標をそれぞれ、(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)とする。これらの画面上画像マトリクス及び車輪ワールド座標の値は既知である。ここで、求めるべき未知のカメラパラメータをc11、c12、c13、c21、c22、c23、c31、c32とする。ただし、車輪ワールド座標が実数であるのに対して画面上画像マトリクスは整数値であるから厳密には一致しないが、整数値の中で対応する実数値に最も近いものを選ぶものとする。このようにすると、画面上画像マトリクス[x,y]と、車輪ワールド座標(X,Y)には(数1)の関係が成立する。 The camera parameters are obtained by defining the above two coordinate systems. FIG. 4B is an on-screen image matrix of the reference wheel 21. The reference wheel 21 has a reference axle 35 at the center. The marks 52, 53, 54, and 55 are marks for obtaining camera parameters, and patterns originally stamped on the reference wheel 21 may be used. The on-screen image matrices of the marks 52 to 55 are respectively [x 1 , y 1 ], [x 2 , y 2 ], [x 3 , y 3 ], [x 4 , y 4 ], and the corresponding wheel world coordinates are Let (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , Y 3 ), and (X 4 , Y 4 ), respectively. These on-screen image matrices and wheel world coordinate values are known. Here, it is assumed that unknown camera parameters to be obtained are c 11 , c 12 , c 13 , c 21 , c 22 , c 23 , c 31 , and c 32 . However, although the wheel world coordinate is a real number, the on-screen image matrix is an integer value, so it does not exactly match, but the integer value closest to the corresponding real value is selected. In this way, the relationship of (Equation 1) is established between the on-screen image matrix [x, y] and the wheel world coordinates (X, Y).

Figure 2010071768
ここで、定数Hを消去して整理すると(数2)が得られる。
Figure 2010071768
Here, when the constant H is deleted and arranged, (Equation 2) is obtained.

Figure 2010071768
これを行列で表現すると(数3)となる。
Figure 2010071768
When this is expressed in a matrix, (Equation 3) is obtained.

Figure 2010071768
(数3)の(X,Y)と[x,y]は、マーク52乃至55の車輪ワールド座標と画面上画像マトリクスを代入して成立すべきであるから、これらを代入すると(数4)を得る。
Figure 2010071768
Since (X, Y) and [x, y] in (Equation 3) should be established by substituting the wheel world coordinates of the marks 52 to 55 and the image matrix on the screen, substituting these (Equation 4) Get.

Figure 2010071768
(数4)の左辺の8×8行列の逆行列を両辺に乗じることにより、カメラパラメータc11、c12、c13、c21、c22、c23、c31、c32を求めることができる。また、マークを5つ以上定めた場合は、(数4)の左辺の行列は行数が列数よりも多くなる。この場合でも、左辺の行列の転置行列を両辺に乗じることで、左辺の行列を8×8行列とし、カメラパラメータc11、c12、c13、c21、c22、c23、c31、c32について解くことができる。
Figure 2010071768
The camera parameters c 11 , c 12 , c 13 , c 21 , c 22 , c 23 , c 31 , c 32 can be obtained by multiplying both sides by the inverse matrix of the 8 × 8 matrix on the left side of (Equation 4). it can. When five or more marks are defined, the number of rows in the matrix on the left side of (Expression 4) is greater than the number of columns. Even in this case, by multiplying both sides by the transposed matrix of the matrix on the left side, the matrix on the left side becomes an 8 × 8 matrix, and the camera parameters c 11 , c 12 , c 13 , c 21 , c 22 , c 23 , c 31 , it can be solved for c 32.

以上示した方法により、カメラパラメータが既知となれば、(数2)をx,yについてまとめた(数5)により、車輪ワールド座標(X,Y)から画面上画像マトリクス[x,y]への変換が可能となる。   If the camera parameters are known by the above-described method, (Equation 2) is compiled from (Equation 5) for x and y, and the wheel world coordinates (X, Y) are converted to the on-screen image matrix [x, y]. Can be converted.

Figure 2010071768
また、(数5)を車輪ワールド座標(X,Y)についてまとめると、(数6)を得る。
Figure 2010071768
Further, when (Equation 5) is summarized with respect to the wheel world coordinates (X, Y), (Equation 6) is obtained.

Figure 2010071768
これを行列表現で表すと(数7)となる。
Figure 2010071768
This can be expressed in matrix form (Equation 7).

Figure 2010071768
(数7)を変形して(数8)を得る。
Figure 2010071768
(Equation 7) is transformed to obtain (Equation 8).

Figure 2010071768
(数8)の右辺行列の右肩の−1は逆行列を表す。逆行列はガウスの掃きだし法をはじめとして様々な解法があり、容易に求めることができる。(数8)により、画面上画像マトリクス[x,y]から車輪ワールド座標(X,Y)への変換ができる。
Figure 2010071768
-1 on the right side of the right-side matrix of (Expression 8) represents an inverse matrix. The inverse matrix has various solutions, including Gaussian sweeping, and can be easily obtained. According to (Equation 8), the on-screen image matrix [x, y] can be converted into the wheel world coordinates (X, Y).

続いて、図5を参照して、正対画像のディジタル配列として正対画像マトリクスを定義する。正対画像マトリクスは[j,i]と表し、車輪20のディジタル画像であって、行列表現が可能であり、行数と列数で画素を特定する。1画素当たりの大きさはミリメートル/画素で表現され、垂直方向にj番目で水平方向にi番目の画素の輝度をその値として有する。図5は正対化した車輪20の図であり、矩形56は正対画像マトリクスの領域であって、矩形左上端を基点[0,0]とする。ここで、四隅の車輪ワールド座標をそれぞれ、A(−W/2,H)、B(W/2,H)、C(W/2,H+H)、D(−W/2,H+H)とする。W、H、Hは実数である。さらに、正対画像マトリクス[j,i]の1画素の水平方向の大きさを表すdx=W/M、及び垂直方向の大きさを表すdy=H/Nなるdxとdyを定義する。MとNは自然数である。単位はともにミリメートル/画素となる。この場合、正対画像マトリクスはN行M列の行列となり、四隅の車輪正対画像マトリクスはそれぞれ、A[0,0]、B[M−1,0]、C[0,N−1]、D(M−1,N−1)となる。以上のことから、車輪ワールド座標(X,Y)を(数9)で表すことができ、正対画像マトリクス[j,i]から車輪ワールド座標(X,Y)への変換が可能となる。 Subsequently, with reference to FIG. 5, a facing image matrix is defined as a digital array of facing images. The face-to-face image matrix is represented as [j, i], which is a digital image of the wheel 20 and can be expressed in matrix, and the pixels are specified by the number of rows and the number of columns. The size per pixel is expressed in millimeters / pixel, and has the luminance of the j-th pixel in the vertical direction and the i-th pixel in the horizontal direction as its value. FIG. 5 is a diagram of the wheel 20 that has been directly opposed, and a rectangle 56 is a region of a directly-facing image matrix, and the upper left corner of the rectangle is a base point [0, 0]. Here, the wheel world coordinates of the four corners are respectively A (−W / 2, H 0 ), B (W / 2, H 0 ), C (W / 2, H 0 + H), D (−W / 2, H 0 + H). W, H 0 , and H are real numbers. Furthermore, dx and dy are defined such that dx = W / M representing the horizontal size of one pixel of the directly-facing image matrix [j, i], and dy = H / N representing the vertical size. M and N are natural numbers. Both units are millimeters / pixel. In this case, the facing image matrix is a matrix of N rows and M columns, and the wheel facing image matrices at the four corners are A [0, 0], B [M-1, 0], and C [0, N-1], respectively. , D (M-1, N-1). From the above, the wheel world coordinates (X, Y) can be expressed by (Equation 9), and conversion from the directly-facing image matrix [j, i] to the wheel world coordinates (X, Y) becomes possible.

Figure 2010071768
また、(数9)を書き換えた(数10)により、車輪ワールド座標(X,Y)から正対画像マトリクス[j,i]への変換が可能となる。
Figure 2010071768
Also, by rewriting (Equation 9) from (Equation 9), it is possible to convert the wheel world coordinates (X, Y) into the directly-facing image matrix [j, i].

Figure 2010071768
(数10)において、jとiは必ずしも整数にならないが、それぞれ、左辺の値に最も近い整数を選択するものとする。(数9)により、正対画像マトリクス[j,i]の点を車輪ワールド座標(X,Y)の点に変換する。続いて車輪ワールド座標(X,Y)の点を、(数5)により画面上画像マトリクス[x,y]の点に変換する。画面上画像マトリクス[x,y]は撮影された正対補正前の画像であるから対応する点の輝度を、正対画像マトリクス[j,i]の輝度として割り当てる。以上の処理を正対画像マトリクス[j,i]の全域に亘り行う。すなわち、j=0,...,M−1とi=0,...,N−1に亘って行う。なお、対応する点が画面上画像マトリクス[x,y]の領域である矩形46からはみ出す場合は0などの固定値を割り当てることとする。これにより正対画像マトリクス[j,i]は正対した車輪の部分画像となる。
Figure 2010071768
In (Expression 10), j and i are not necessarily integers, but an integer closest to the value on the left side is selected. By using (Equation 9), the points of the directly-facing image matrix [j, i] are converted into the points of the wheel world coordinates (X, Y). Subsequently, the points of the wheel world coordinates (X, Y) are converted into the points of the on-screen image matrix [x, y] by (Equation 5). Since the on-screen image matrix [x, y] is a photographed image before the frontal correction, the luminance of the corresponding point is assigned as the luminance of the frontal image matrix [j, i]. The above processing is performed over the entire area of the directly-facing image matrix [j, i]. That is, j = 0,. . . , M−1 and i = 0,. . . , N−1. Note that when the corresponding point protrudes from the rectangle 46 which is the area of the on-screen image matrix [x, y], a fixed value such as 0 is assigned. As a result, the directly-facing image matrix [j, i] is a partial image of the facing wheel.

以上が処理フローのステップ2である。すなわち、ステップ2では、基準車輪21でカメラキャリブレーションを行ってカメラパラメータを算出し、カメラパラメータを用いて車輪20の画面上画像マトリクスを車輪ワールド座標に変換し、車輪ワールド座標と正対画像マトリクスとの関係を用いて、車輪20の画面上画像から正対画像マトリクスを生成する。   The above is step 2 of the processing flow. That is, in step 2, camera calibration is performed with the reference wheel 21 to calculate camera parameters, the image matrix on the screen of the wheel 20 is converted into wheel world coordinates using the camera parameters, and the wheel world coordinates and the facing image matrix are converted. Is used to generate a face-to-face image matrix from the on-screen image of the wheel 20.

次に、図6を参照して、ステップ3の車軸座標検出処理を説明する。図6は車軸34の車輪ワールド座標(g,g)を算出する方法を示す図である。前述の通り、正対画像マトリクス[j,i]は、図5の矩形56の領域のディジタル画像である。このディジタル画像にソーベルフィルタ等の輪郭強調処理を加えて所定のしきい値で2値化した画像を矩形58として示している。ここでは、輪郭エッジとしての値の大きいほうを黒で表記している。水平線分60はレール4の輪郭の一部として現れるものである。これはカメラ22を固定することで常に同じ場所に現れるので、予め処理対象から除外できる。一方、矩形58の範囲62に現れる輪郭は、車輪20の輪郭であって円の一部である。ここで、円の一部である輪郭上の任意の2点をそれぞれEとFとする。座標値は2値化された画像である矩形58から知ることができる。ただし、これらは正対画像マトリクス[j,i]であるから、(数9)によって車輪ワールド座標に変換する必要がある。(数9)によって変換した車輪ワールド座標として、EとFの座標をそれぞれ、E(e,e)、F(f,f)とする。EとFの垂直二等分線Gは車軸34を通る。垂直二等分線Gは、垂直二等分線G上の任意の点を(x,y)とすると(数11)で表される。 Next, the axle coordinate detection process in step 3 will be described with reference to FIG. FIG. 6 is a diagram illustrating a method of calculating the wheel world coordinates (g x , g y ) of the axle 34. As described above, the directly-facing image matrix [j, i] is a digital image of the area of the rectangle 56 in FIG. An image obtained by performing contour enhancement processing such as a Sobel filter and binarizing the digital image with a predetermined threshold is shown as a rectangle 58. Here, the larger value as the contour edge is shown in black. The horizontal line segment 60 appears as a part of the outline of the rail 4. Since this always appears at the same place by fixing the camera 22, it can be excluded from the processing target in advance. On the other hand, the contour appearing in the range 62 of the rectangle 58 is the contour of the wheel 20 and is a part of a circle. Here, let arbitrary two points on the outline which are a part of a circle be E and F, respectively. The coordinate value can be known from a rectangle 58 which is a binarized image. However, since these are the directly-facing image matrix [j, i], it is necessary to convert them into wheel world coordinates according to (Equation 9). As the wheel world coordinates converted by (Equation 9), the coordinates of E and F are set to E (e x , e y ) and F (f x , f y ), respectively. A vertical bisector G of E and F passes through the axle 34. The vertical bisector G is expressed by (Equation 11) where an arbitrary point on the vertical bisector G is (x, y).

Figure 2010071768
ここで(数11)のパラメータをα、β、γで置き換えて(数12)とする。
Figure 2010071768
Here, the parameter of (Equation 11) is replaced with α, β, and γ to obtain (Equation 12).

Figure 2010071768
α、β、γはEとFの座標により確定するパラメータである。ここで、範囲62の車輪20の輪郭上の任意の2点をk組(kは自然数)とって、これらの垂直二等分線をk本引く。このために添え字kを付して(数12)を(数13)に書き換える。ただし、k=1,2,..,kである。
Figure 2010071768
α, β, and γ are parameters determined by the coordinates of E and F. Here, any two points on the contour of the wheel 20 in the range 62 k 0 set (k 0 is a natural number) taking, subtract these perpendicular bisectors k 0 present. For this purpose, the subscript k is added and (Equation 12) is rewritten to (Equation 13). However, k = 1, 2,. . , K 0 .

Figure 2010071768
本の垂直二等分線は全て車軸34で交わるので(数13)の連立方程式の解が、車軸20の車輪ワールド座標になる。この連立方程式を解くために(数13)を(数14)で表現する。
Figure 2010071768
Since all the k 0 bisectors intersect at the axle 34, the solution of the simultaneous equations of (Equation 13) becomes the wheel world coordinates of the axle 20. In order to solve these simultaneous equations, (Equation 13) is expressed by (Equation 14).

Figure 2010071768
さらに、簡単化のために行列をUで表して(数15)とする。
Figure 2010071768
Further, for simplification, the matrix is represented by U (Equation 15).

Figure 2010071768
(数15)の両辺にUの転置行列を乗じて(数16)とする。
Figure 2010071768
(Equation 15) is obtained by multiplying both sides of (Equation 15) by the transpose matrix of U.

Figure 2010071768
Uは2×2の行列になって、通常は逆行列が存在して(x,y)について解くことができる。これが車軸34の車輪ワールド座標(g,g)である。(数16)の解き方は逆行列を両辺に乗じてもよいし、ガウスの掃きだし法で解いてもよい。垂直二等分線が3本以上になると、車輪20の輪郭の検出位置のずれの影響で必ずしも車軸34で交わらないが、上述の方法により二乗誤差が最小の最適解として車軸34が求まる。なお、車輪ワールド座標(g,g)を(数10)によって正対画像マトリクスに変換すると、垂直方向及び水平方向に配列の順番が負の値になり得る。これは車軸34が、矩形56(矩形58も同様)の範囲内にないことを示しているが問題はない。以上が処理フローのステップ3である。
Figure 2010071768
U T U is a 2 × 2 matrix, and usually an inverse matrix exists and can be solved for (x, y). This is the wheel world coordinates (g x , g y ) of the axle 34. The equation (16) may be solved by multiplying both sides by an inverse matrix or by Gaussian sweeping. When there are three or more vertical bisectors, the axle 34 is not necessarily intersected by the influence of the deviation of the detected position of the contour of the wheel 20, but the axle 34 is obtained as the optimum solution with the least square error by the above method. Note that when the wheel world coordinates (g x , g y ) are converted into a directly-facing image matrix by (Equation 10), the arrangement order in the vertical direction and the horizontal direction can be negative values. This indicates that the axle 34 is not within the range of the rectangle 56 (the same applies to the rectangle 58), but there is no problem. The above is step 3 of the processing flow.

次に、図7を参照して、ステップ4の極座標画像作成について説明する。図7は正対画像マトリクスを変換した極座標画像である。画像処理装置32は予め極座標変換テーブルを持っており、まず、極座標変換テーブル生成について説明する。極座標(t,r)は実数値をとる座標系であって、車輪ワールド座標の原点からの距離rを縦軸、車輪20とレール4の接点と車軸34を結ぶ線分からの偏角tを横軸とする。r軸の単位はミリメートルなどMKSA単位系とし、t軸はラディアン又は度とする。横軸の範囲は、−π/3ラディアンからπ/3ラディアン、すなわち、−60度から60度までとする。また、縦軸の範囲は、車輪20とレール4の接点を含むRとRまでを範囲とする(RとRは実数)。ここで(数17)により車輪ワールド座標(X,Y)から極座標(t,r)へ変換される。 Next, with reference to FIG. 7, the polar coordinate image creation in step 4 will be described. FIG. 7 is a polar coordinate image obtained by converting the facing image matrix. The image processing apparatus 32 has a polar coordinate conversion table in advance, and first, polar coordinate conversion table generation will be described. The polar coordinate (t, r) is a coordinate system that takes real values, the distance r from the origin of the wheel world coordinates is the vertical axis, and the declination t from the line segment that connects the contact point between the wheel 20 and the rail 4 and the axle 34 is horizontal. Axis. The unit of the r axis is an MKSA unit system such as millimeters, and the t axis is radians or degrees. The range of the horizontal axis is −π / 3 radians to π / 3 radians, that is, −60 degrees to 60 degrees. Further, the range of the vertical axis, a range of up to R 0 and R W that includes contacts the wheel 20 and rail 4 (R 0 and R W is a real number). Here, the wheel world coordinates (X, Y) are converted into polar coordinates (t, r) by (Equation 17).

Figure 2010071768
また、(数18)により極座標(t,r)から車輪ワールド座標(X,Y)へ変換される。
Figure 2010071768
Also, the polar coordinate (t, r) is converted to the wheel world coordinate (X, Y) by (Equation 18).

Figure 2010071768
次に、極座標画像のディジタル配列として、図8に示すような極座標画像マトリクス[q,p]を定義する。極座標画像マトリクス[q,p]は極座標系によるディジタル画像であって、行列表現が可能であり、行数と列数で画素を特定する。ここで、極座標画像マトリクス[q,p]の1画素の水平方向の大きさを表すdq=2π/(3T)、垂直方向の大きさを表すdp=(R−R)/Rなるdqとdpを定義する(T、Rは自然数)。単位は水平方向が“ラディアン/画素”で、垂直方向が“ミリメートル/画素”となる。極座標画像マトリクス[q,p]は矩形64の左上隅を基点(0,0)とし、横方向q番目で縦方向p番目の画素の輝度値を有する。また、極座標画像マトリクス[q,p]はR行T列の行列となり、矩形64の四隅の極座標画像マトリクスはそれぞれ、O[0,0]、P[T−1,0]、Q[0,R−1]、R(T−1,R−1)となる。(数19)により極座標画像マトリクス[q,p]から車輪極座標(t,r)への変換が可能である。
Figure 2010071768
Next, a polar coordinate image matrix [q, p] as shown in FIG. 8 is defined as a digital array of polar coordinate images. The polar image matrix [q, p] is a digital image based on a polar coordinate system and can be expressed in a matrix, and the pixels are specified by the number of rows and the number of columns. Here, dq which represents dq = 2π / (3T) representing the size in the horizontal direction of one pixel of the polar coordinate image matrix [q, p] and dp = (R W −R 0 ) / R representing the size in the vertical direction. And dp are defined (T and R are natural numbers). The unit is “radian / pixel” in the horizontal direction and “millimeter / pixel” in the vertical direction. The polar coordinate image matrix [q, p] has the upper left corner of the rectangle 64 as a base point (0, 0), and has the luminance value of the pixel in the horizontal direction q and the vertical direction p. The polar coordinate image matrix [q, p] is a matrix of R rows and T columns, and the polar coordinate image matrices at the four corners of the rectangle 64 are O [0, 0], P [T-1, 0], Q [0, R-1], R (T-1, R-1). Conversion from the polar coordinate image matrix [q, p] to the wheel polar coordinate (t, r) is possible by (Equation 19).

Figure 2010071768
また、(数20)により車輪極座標(t,r)から極座標画像マトリクス[q,p]への変換が可能である。
Figure 2010071768
Further, conversion from the wheel polar coordinates (t, r) to the polar coordinate image matrix [q, p] is possible by (Equation 20).

Figure 2010071768
また、(数19)と(数17)の順序で変換を進めることで、極座標画像マトリクス[q,p]の矩形64内の画素が車輪ワールド座標(X,Y)に変換される。さらに、(数5)により車輪ワールド座標(X,Y)から画面上画像マトリクス[x,y]へ変換できることから、極座標画像マトリクス[q,p]の画素を、画面上画像マトリクス[x,y]と対応付けることができる。画面上画像マトリクス[x,y]は撮影された車輪画像の輝度値を持ち、この輝度値が極座標画像マトリクス[q,p]に割り当てられる。以上の処理を矩形64全域に亘って繰り返すことにより、極座標画像マトリクス[q,p]の各画素に対応する画面上画像マトリクス[x,y]の画素が決まり、この対応関係を極座標変換テーブルとする。なお、変換の途中で実数から整数への対応付けが発生する場合には、実数に対して最も差異の少ない整数を選ぶものとする。また、極座標画像マトリクスの所定の画素が画面上画像マトリクスの矩形64の範囲内にない場合は0などの固定値を割り当てるものとする。極座標変換テーブルの生成は1度行って保存していればよく、以降は生成した極座標変換テーブルを用いて極座標変換すればよい。
Figure 2010071768
Further, by proceeding with the conversion in the order of (Equation 19) and (Equation 17), the pixels in the rectangle 64 of the polar coordinate image matrix [q, p] are converted into wheel world coordinates (X, Y). Furthermore, since the wheel world coordinates (X, Y) can be converted from the wheel world coordinates (X, Y) to the on-screen image matrix [x, y] by (Equation 5), the pixels of the polar coordinate image matrix [q, p] are converted into the on-screen image matrix [x, y]. ] Can be associated. The on-screen image matrix [x, y] has the luminance value of the captured wheel image, and this luminance value is assigned to the polar coordinate image matrix [q, p]. By repeating the above processing over the entire area of the rectangle 64, the pixel of the on-screen image matrix [x, y] corresponding to each pixel of the polar coordinate image matrix [q, p] is determined, and this correspondence relationship is determined with the polar coordinate conversion table. To do. Note that when real number-to-integer mapping occurs during conversion, an integer having the smallest difference with respect to the real number is selected. If a predetermined pixel of the polar coordinate image matrix is not within the range of the rectangle 64 of the on-screen image matrix, a fixed value such as 0 is assigned. The polar coordinate conversion table may be generated once and stored, and thereafter, polar coordinate conversion may be performed using the generated polar coordinate conversion table.

ところで、ステップ3で算出された車輪20の車軸34のワールド座標は(g,g)であって、これに対応する正対画像マトリクスの列数行数は、基準車輪21の場合の正対画像マトリクス[j,i]とは異なる。この差異を表現するために、車輪20の車軸34の正対画像マトリクスにおける位置を(j+j,i+i)と表す。これを(数9)で車輪ワールド座標に変換すると(数21)となる。 By the way, the world coordinates of the axle 34 of the wheel 20 calculated in step 3 are (g x , g y ), and the corresponding number of columns in the image matrix corresponding to this is the correct number in the case of the reference wheel 21. Different from the image matrix [j 0 , i 0 ]. In order to express this difference, the position of the axle 34 of the wheel 20 in the facing image matrix is represented as (j 0 + j d , i 0 + i d ). When this is converted into wheel world coordinates in (Equation 9), (Equation 21) is obtained.

Figure 2010071768
さらに、j=M/2の関係から、X=j・dxである。これをさらに(数5)で画面上画像マトリクスに変換し、[x,y]とする。一方、車軸34の正対画像マトリクスの位置[j,i]を、(数5)で画面上画像マトリクスに変換し、さらに、(数9)で車輪ワールド座標に変換した結果を[x,y]と表す。両者を比較することにより、車輪20と基準車輪21との間で、画面上画像マトリクスにおいて[x−x,y−y]の差異が生じることが分かる。これらは一般的には非整数であるが、最も近い整数を選び[z,z]とする。そして、極座標変換テーブルで得られた画面上画像マトリクス[x,y]に対して[x+z,y+z]とし、この値を極座標変換テーブルの出力として用いる。以上に示した補正付極座標変換テーブルを用いて、矩形領域64の全域に亘り対応する画面上画像マトリクス[x+z,y+z]の輝度を割り当てる。このとき、画面上画像マトリクス[x+z,y+z]が矩形46から外れる場合には対応する輝度はないので、ゼロなどの固定値を割り当てる。以上の処理により分割撮影された車輪画像は極座標画像すなわち極座標画像マトリクスに変換される。例えば、車軸34を中心とする同心円上に存在する特徴点65や66は、それぞれ、図8(b)のように水平方向の特徴点65と66に変換される。ボルト39,40,41もそれぞれ変換される。なお、特徴点65,66は例えば車輪34についた傷である。また、車輪20の輪郭は水平線分68に変換される。以上が処理フローにおけるステップ4の処理である。
Figure 2010071768
Furthermore, X = j d · dx from the relationship of j 0 = M / 2. This is further converted into an on-screen image matrix by (Equation 5), and set as [x d , y d ]. On the other hand, the position [j 0 , i 0 ] of the directly-facing image matrix of the axle 34 is converted into an on-screen image matrix in (Equation 5), and further converted into wheel world coordinates in (Equation 9). 0 , y 0 ]. By comparing the two, it can be seen that a difference of [x d −x 0 , y d −y 0 ] occurs in the on-screen image matrix between the wheel 20 and the reference wheel 21. These are generally non-integer numbers, but the nearest integer is selected as [z x , z y ]. Then, [x + z x , y + z y ] is used for the on-screen image matrix [x, y] obtained from the polar coordinate conversion table, and this value is used as the output of the polar coordinate conversion table. Using the polar coordinate conversion table with correction shown above, the brightness of the corresponding on-screen image matrix [x + z x , y + z y ] is assigned over the entire rectangular area 64. At this time, if the on-screen image matrix [x + z x , y + z y ] deviates from the rectangle 46, there is no corresponding luminance, so a fixed value such as zero is assigned. The wheel images divided and photographed by the above processing are converted into polar coordinate images, that is, polar coordinate image matrices. For example, feature points 65 and 66 existing on concentric circles centered on the axle 34 are converted into feature points 65 and 66 in the horizontal direction as shown in FIG. Bolts 39, 40 and 41 are also converted. The feature points 65 and 66 are scratches on the wheel 34, for example. Further, the contour of the wheel 20 is converted into a horizontal line segment 68. The above is the process of step 4 in the process flow.

次に、図9を参照して、ステップ5のボルト検出処理を説明する。極座標画像マトリクスはディジタル画像であるから、正規化相関によるパタンマッチングによる検出が可能である。ボルト形状は既知であり、ボルトの極座標変換後の形状も既知であって、これを図9(a)に示すようにテンプレートとしてソーベルフィルタ等の輪郭強調処理を施すことができる。例えば、図9(b)は極座標画像マトリクスの例であって、極座標変換されたボルト39,40,41が示されている。撮影のタイミングにより車輪の位相すなわち回転角はまちまちであるが、ボルト39,40,41は車軸から等距離の位置を円運動するので、極座標変換後は、水平線上を移動する。したがって、図9(a)のテンプレートを水平線上近傍で探査すれば、ボルト39,40,41を検出することができる。ただし、ボルト間に形状の差異がないので車輪上のボルトを特定することはできない。車輪上に例えばボルトがk(kは2以上の自然数)個の場合はk通りの曖昧さを残して特定される。ここで、ある特定のボルトのみが他と異なる形状をしており、これに対応するテンプレートを有して検出した場合には、ボルトを特定することができるので、車輪の回転角も一意に特定される。以上がステップ5のボルト検出処理である。   Next, the bolt detection process in step 5 will be described with reference to FIG. Since the polar coordinate image matrix is a digital image, it can be detected by pattern matching using normalized correlation. The bolt shape is known, and the shape of the bolt after the polar coordinate conversion is also known. As shown in FIG. 9A, the template can be subjected to contour enhancement processing such as a Sobel filter. For example, FIG. 9B is an example of a polar coordinate image matrix, and shows bolts 39, 40, and 41 that have undergone polar coordinate conversion. Although the phase of the wheel, that is, the rotation angle varies depending on the shooting timing, the bolts 39, 40, and 41 move circularly at equidistant positions from the axle, and thus move on the horizontal line after the polar coordinate conversion. Therefore, if the template of FIG. 9A is searched in the vicinity of the horizontal line, the bolts 39, 40, and 41 can be detected. However, since there is no difference in shape between the bolts, the bolt on the wheel cannot be specified. For example, when there are k bolts (k is a natural number of 2 or more) on the wheel, the specification is made with k ambiguities. Here, only a specific bolt has a different shape from the others, and if it is detected with a template corresponding to this, the bolt can be specified, so the rotation angle of the wheel is also specified uniquely. Is done. The above is the bolt detection process in step 5.

次に、図9、図10を参照して、ステップ6の特徴点検出処理について説明する。図9(b)は特徴点70を有する車輪20の極座標マトリクスの例である。ステップ5で検出したボルト領域以外の領域について、極座標画像マトリクスに対して、ソーベルフィルタ処理後に所定のしきい値で2値化して特徴点の有無と、特徴点がある場合はその端点の位置を検出することができる。また、両端点の位置から特徴点の大きさを計測することができる。同時に特徴点70に最近傍のボルト、図9(b)の例ではボルト39の位置(qbolt,pbolt)からの水平方向の変位を計算し、位置と変位を特徴点70の位置情報とする。このように最近傍のボルトとの位置関係で車輪上での特徴点70の位置を特定する。図10は、ボルトの数が8つの場合の特徴点の位置特定と曖昧さを示す図である。8つのボルトの形状が同じで、ボルト39が図10のボルトのいずれであるかが特定できない場合は、特徴点70は位置70乃至77の8通りの曖昧さをもって記録される。しかし、前述したように8つのボルトのいずれか1つが特殊な形状であって、特殊なボルトの位置が特定できれば、その他のボルトの位置の順番から特徴点の位置を一意に決定できる。また、車輪の所定の領域に所定のマークを刻印し、マークを検出してこれを基準とすることで位置特定の際の曖昧さをなくすこともできる。以上がステップ6の特徴点検出処理である。 Next, the feature point detection process in step 6 will be described with reference to FIGS. FIG. 9B is an example of a polar coordinate matrix of the wheel 20 having the feature points 70. For regions other than the bolt region detected in step 5, the polar coordinate image matrix is binarized with a predetermined threshold value after the Sobel filter processing, and the presence / absence of a feature point and the position of the end point if there is a feature point Can be detected. Further, the size of the feature point can be measured from the positions of both end points. At the same time, the displacement in the horizontal direction from the position ( qbolt , pbolt ) of the bolt nearest to the feature point 70, in the example of FIG. 9B, the bolt 39 in the example of FIG. To do. In this way, the position of the feature point 70 on the wheel is specified based on the positional relationship with the nearest bolt. FIG. 10 is a diagram showing the location and ambiguity of feature points when the number of bolts is eight. If the shapes of the eight bolts are the same and it is not possible to determine which of the bolts 39 in FIG. 10, the feature point 70 is recorded with eight ambiguities at positions 70 to 77. However, as described above, if any one of the eight bolts has a special shape and the position of the special bolt can be specified, the position of the feature point can be uniquely determined from the order of the positions of the other bolts. Further, it is possible to eliminate ambiguity when specifying the position by imprinting a predetermined mark on a predetermined area of the wheel, detecting the mark, and using the mark as a reference. The feature point detection process in step 6 has been described above.

ステップ7において、画像処理装置32は、ステップ6までに得られた種々の画像及びデータをデータベース8に出力する。データベース8に出力する画像及びデータは、車輪画像、車輪ID、通過時刻、ステップ2で生成した正対画像、ステップ3で求めた車軸位置、ステップ4で生成した極座標画像、ステップ5で求めたボルトの位置、ステップ6で求めた特徴点の位置と長さである。以上で図3に示した画像処理装置32の処理が終了する。   In step 7, the image processing device 32 outputs various images and data obtained up to step 6 to the database 8. The image and data output to the database 8 are the wheel image, the wheel ID, the passing time, the facing image generated in Step 2, the axle position determined in Step 3, the polar image generated in Step 4, and the bolt determined in Step 5. , And the position and length of the feature point obtained in step 6. Thus, the processing of the image processing apparatus 32 shown in FIG.

ここで、図3の処理フローの説明に出てきた5つの座標系を図11にまとめておく。前述したように、これらは相互に変換が可能であり、(数5)によって、車輪ワールド座標から画面上画像マトリクスへの変換が行われ、その逆変換は(8)でなされる。(数9)によって、正対画像マトリクスから車輪ワールド座標への変換が行われ、その逆変換は(数10)でなされる。(数17)によって、車輪極座標から車輪ワールド座標への変換がなされ、その逆変換は(数18)でなされる。(数19)によって極座標画像マトリクスから車輪極座標への変換がなされ、その逆変換は(数20)でなされる。離散的で行列表現可能な画面上画像マトリクス[x,y]と、正対画像マトリクス[j,i]と、極座標画像マトリクス[q,t]は実線で示している。また、車輪上ワールド座標(X,Y)と車輪極座標(t,r)は実数値をとる座標系であり、破線で示している。なお、画面上画像マトリクス[x,y]と、正対画像マトリクス[j,i]と、極座標画像マトリクス[q,p]はディジタル画像であり、画像処理装置32によるフィルタ処理が可能である。   Here, FIG. 11 summarizes the five coordinate systems that have come out in the description of the processing flow of FIG. As described above, these can be converted into each other, and the conversion from the wheel world coordinates to the on-screen image matrix is performed by (Equation 5), and the inverse conversion is performed in (8). According to (Equation 9), the conversion from the directly-facing image matrix to the wheel world coordinates is performed, and the inverse transformation is performed by (Equation 10). According to (Equation 17), conversion from wheel polar coordinates to wheel world coordinates is performed, and the inverse transformation is performed by (Equation 18). The transformation from the polar coordinate image matrix to the wheel polar coordinate is performed by (Equation 19), and the inverse transformation is performed by (Equation 20). The on-screen image matrix [x, y], the directly-facing image matrix [j, i], and the polar coordinate image matrix [q, t] that can be expressed in a discrete and matrix manner are indicated by solid lines. Further, the world coordinates on the wheel (X, Y) and the wheel polar coordinates (t, r) are coordinate systems taking real values, and are indicated by broken lines. The on-screen image matrix [x, y], the directly-facing image matrix [j, i], and the polar coordinate image matrix [q, p] are digital images and can be filtered by the image processing device 32.

これより、画像取得装置16以外の装置について説明する。データベース8は画像取得装置16乃至19からの画像及び計測したデータを車輪ID毎にまとめ、通過時刻をインデクスとして保存する。   From this, devices other than the image acquisition device 16 will be described. The database 8 summarizes the images and measured data from the image acquisition devices 16 to 19 for each wheel ID, and stores the passage time as an index.

ここで、図9,10を参照して、パソコン12で行う特徴点のパタンマッチング処理について説明する。図9(c)はデータベース8に保存されている極座標マトリクスから切り出した特徴点の輝度パタンであるテンプレートパタン72である。   Here, the feature point pattern matching processing performed by the personal computer 12 will be described with reference to FIGS. FIG. 9C shows a template pattern 72 that is a luminance pattern of feature points cut out from the polar coordinate matrix stored in the database 8.

まず、データベース8には、過去に画像処理装置32により生成した車輪20の極座標マトリクスが保存してあるとする。そこで、新たに車輪20の車輪画像を取得し、極座標マトリクス図9(b)を生成し、パソコン12に表示させる。そして、パソコン12により、車輪20の車輪ID、通過時刻に基づいてデータベース8を検索し、過去に保存した車輪20の極座標マトリクスを抽出する。抽出した極座標マトリクスから、特徴点の位置情報に基づいて特徴点の輝度パタンであるテンプレートパタン72を切り出す。テンプレートパタン72は特徴点の外接矩形であって、水平方向をt軸、垂直方向をr軸とし、外接矩形の左上隅を基点(0,0)としてTmp[q,p]で表される。このとき、テンプレートの高さ、すなわち垂直方向の画素数をh、テンプレートの幅、すなわち水平方向の画素数をwとする。一方、図9(b)の極座標マトリクスの輝度パタンをTrg[q,p]で表すとする。このとき、両者の正規化相関によるパタンマッチングに係る類似度Sim[q,p]は(数22)で表される。   First, it is assumed that the polar coordinate matrix of the wheel 20 generated by the image processing device 32 in the past is stored in the database 8. Therefore, a new wheel image of the wheel 20 is acquired, and a polar coordinate matrix FIG. 9B is generated and displayed on the personal computer 12. Then, the personal computer 12 searches the database 8 based on the wheel ID of the wheel 20 and the passage time, and extracts the polar coordinate matrix of the wheel 20 stored in the past. A template pattern 72 that is a luminance pattern of the feature point is cut out from the extracted polar matrix based on the position information of the feature point. The template pattern 72 is a circumscribed rectangle of the feature point, and is represented by Tmp [q, p], where the horizontal direction is the t axis, the vertical direction is the r axis, and the upper left corner of the circumscribed rectangle is the base point (0, 0). At this time, the height of the template, that is, the number of pixels in the vertical direction is h, and the width of the template, that is, the number of pixels in the horizontal direction is w. On the other hand, it is assumed that the luminance pattern of the polar matrix in FIG. 9B is represented by Trg [q, p]. At this time, similarity Sim [q, p] related to pattern matching based on the normalized correlation between them is expressed by (Equation 22).

Figure 2010071768
過去に取得した極座標マトリクスから作成したテンプレートパタン72と、新たに取得した極座標マトリクス上の特徴点70の形状が極端に変化していなければ両者はq軸とp軸にシフト探査するのみで該当する位置を検出できる。また、撮影のタイミングの差異により回転角であるqは変化するものの、車軸からの距離は不変であるからパタンマッチング処理の際にも、テンプレートパタン72を取得した際の極座標マトリクスの配列順番[q90,p90]も一緒に保存しておき、p90を固定して、類似度Sim[q,p90]をq軸方向のみに探査すればよい。これによって、過去に取得した極座標マトリクス上の特徴点と、新たに取得した極座標マトリクス上の特徴点とが、車輪20上の同じ箇所の特徴点であるかを特定し、特徴点の長さ、形状の経年変化を観察する。
Figure 2010071768
If the template pattern 72 created from the previously acquired polar coordinate matrix and the shape of the feature point 70 on the newly acquired polar coordinate matrix have not changed extremely, both are applicable only by shifting search to the q-axis and p-axis. The position can be detected. In addition, although the rotation angle q changes due to a difference in photographing timing, the distance from the axle does not change. Therefore, in the pattern matching process, the polar matrix matrix arrangement order [q 90 , p 90 ] may be stored together, p 90 may be fixed, and the similarity Sim [q, p 90 ] may be searched only in the q-axis direction. Thereby, it is specified whether the feature points on the polar coordinate matrix acquired in the past and the feature points on the newly acquired polar coordinate matrix are the same feature points on the wheel 20, the length of the feature points, Observe the aging of the shape.

次に、図12を参照して、パノラマ形成装置10の処理を説明する。図12(a)はパノラマ形成に際して用いる仮想表示メモリを示しており、実体はパソコン12に接続した外部処理装置内のメモリである。図12(b)乃至(e)はそれぞれ、画像処理装置16乃至19で得られる正対画像マトリクスである。パノラマ形成装置10はデータベース8に格納されている一連の車輪の部分画像を、所定の位置に張り重ねて1つの車輪全体の画像を形成し、パソコン12に表示する。パノラマ形成装置12は、図12(a)の仮想表示メモリの破線と円弧で囲まれる領域78乃至81の部分に、それぞれ、図12(b)乃至(e)に示す正対画像マトリクスが所定の角度だけ回転させて張り合わせる。例えば、図12(b)の正対画像マトリクスは右回転45度であり、(c)乃至(e)はそれぞれ90度だけ回転角を増して張り合わせる。回転変換は4行4列の行列演算で容易に実現される。また、張り合わせる際には、(b)乃至(e)の円弧が領域78乃至81の各円弧と重なるようにする。図12の領域78乃至81は基準車輪21の車軸35の位置と半径の長さから設定されるものなので、検査に係る車輪20が基準車輪21の半径と一致して、撮影タイミングの微差もなければ、上記の回転角と円弧の位置合わせは回転角と上下左右の併進移動量を予め決めておけば、最適に張り合わせることができる。しかし、実際には車輪毎に回転ずれΔq、垂直方向のずれΔj、水平方向のずれΔiがあるので、これらのずれも補正して張り合わせる必要がある。これらのずれ、Δq、Δj、Δiについて説明する。   Next, processing of the panorama forming apparatus 10 will be described with reference to FIG. FIG. 12A shows a virtual display memory used for forming a panorama, and the substance is a memory in an external processing apparatus connected to the personal computer 12. FIGS. 12B to 12E are front-facing image matrices obtained by the image processing apparatuses 16 to 19, respectively. The panorama forming apparatus 10 superimposes a series of wheel partial images stored in the database 8 at a predetermined position to form an image of one entire wheel and displays it on the personal computer 12. In the panorama forming apparatus 12, the facing image matrixes shown in FIGS. 12B to 12E are respectively set in the regions 78 to 81 surrounded by the broken line and the arc of the virtual display memory in FIG. Rotate by an angle and stick together. For example, the directly-facing image matrix in FIG. 12B has a right rotation of 45 degrees, and (c) to (e) are bonded together with a rotation angle increased by 90 degrees. The rotation conversion is easily realized by a 4 × 4 matrix operation. Further, when pasting, the arcs of (b) to (e) are overlapped with the arcs of the regions 78 to 81. Since regions 78 to 81 in FIG. 12 are set based on the position of the axle 35 of the reference wheel 21 and the length of the radius, the inspection wheel 20 coincides with the radius of the reference wheel 21 and there is a slight difference in photographing timing. If the rotation angle and the arc are not aligned, the rotation angle and the amount of translational movement in the vertical and horizontal directions can be determined optimally if they are determined in advance. However, since there are actually rotational deviations Δq, vertical deviations Δj, and horizontal deviations Δi for each wheel, these deviations must be corrected and pasted together. These deviations, Δq, Δj, and Δi will be described.

前述したように、データベース8には、矩形64に示す極座標マトリクスの一連が保持されている。これらは車輪20の1回転分の画像であり、q軸方向にπ/2の間隔で撮影された4つの車輪画像の極座標マトリクスである。しかし、実際には、カメラ20の撮影タイミングの差異や、車輪20のスリップによってπ/2の周辺に正負の回転ずれΔqが生じる。回転ずれΔqは各カメラ22間に生じるので、これらは個別に計測して保持する必要がある。ただし、この回転ずれは隣接する極座標マトリクスの重複する領域について(数22)に示す正規化相関によるパタンマッチングで、特徴点を含めたテクスチャの一致点又はボルトの位置からのt軸方向のずれΔqを計測することができる。   As described above, the database 8 holds a series of polar coordinate matrices indicated by the rectangle 64. These are images for one rotation of the wheel 20 and are polar coordinate matrices of four wheel images taken at intervals of π / 2 in the q-axis direction. However, in reality, a positive and negative rotational deviation Δq occurs around π / 2 due to a difference in photographing timing of the camera 20 or a slip of the wheel 20. Since the rotational deviation Δq occurs between the cameras 22, it is necessary to measure and hold them individually. However, this rotational deviation is pattern matching based on the normalized correlation shown in (Equation 22) for the overlapping regions of adjacent polar coordinate matrices, and the deviation Δq in the t-axis direction from the texture coincidence point including the feature point or the bolt position. Can be measured.

車輪20の車軸34の位置は、図8(a)に示す正対画像マトリクスにおいて、基準車輪21の基準車軸35よりもレール4に近くなる。正対画像マトリクス[j,i]においては画像下方、すなわちi方向で増加方向に変位している。この変位量Δiは、画像処理装置32の処理フローのステップ4において、極座標変換テーブルの補正の際に求めた車軸34の基準からのずれiである。したがって、Δi=iとなる。 The position of the axle 34 of the wheel 20 is closer to the rail 4 than the reference axle 35 of the reference wheel 21 in the facing image matrix shown in FIG. In the directly-facing image matrix [j, i], it is displaced downward in the image, that is, in the increasing direction in the i direction. The displacement Δi in step 4 of the process flow of the image processing apparatus 32, a deviation i d from the reference axle 34 obtained on the correction of the polar coordinate conversion table. Therefore, the Δi = i d.

また、撮影された車輪20の車軸34の位置は、撮影毎のタイミング微差により、基準車輪20の基準車軸34の位置と比べて水平方向で左右に変位し得る。正対画像マトリクス[j,i]においては画像水平方向、すなわちj方向で増加方向又は減少方向に変位している。この変位量Δjは、画像処理装置32の処理フローのステップ4において、極座標変換テーブルの補正の際に求めた車軸の基準からのずれjである。したがって、Δj=jとなる。以上により各ずれをもとめて、各画像を補正して張り合わせることができる。 Further, the position of the axle 34 of the photographed wheel 20 can be displaced to the left and right in the horizontal direction compared to the position of the reference axle 34 of the reference wheel 20 due to a slight timing difference at each photographing. In the directly-facing image matrix [j, i], the image is displaced in the horizontal direction, that is, in the increasing direction or decreasing direction in the j direction. This displacement amount Δj is the deviation j d from the axle reference obtained at the time of correction of the polar coordinate conversion table in step 4 of the processing flow of the image processing device 32. Therefore, the Δj = j d. As described above, each image can be found and corrected to be pasted together.

以上に述べた処理により、正対した車輪全周のパノラマ画像が作成される。ただし、上記の処理で得られるパノラマ画像は撮影の度に回転の位相が一致しておらず、したがって、同一の特徴点も同一の位置に表示されない問題がある。そこで、画像処理装置16の処理フローのステップ5において検出した所定のマーカ又はボルトを常に、仮想表示メモリの最上部又は最下部に位置させるように、パノラマ処理後に回転変換をかけることが有効である。また、画像処理装置16の処理フローのステップ6において検出した所定の特徴点が所定の位置になるように回転変換することも可能である。   Through the processing described above, a panoramic image of the entire circumference of the facing wheel is created. However, there is a problem that the panoramic image obtained by the above processing does not have the same rotation phase every time it is taken, and therefore the same feature point is not displayed at the same position. Therefore, it is effective to perform rotation conversion after panorama processing so that the predetermined marker or bolt detected in step 5 of the processing flow of the image processing device 16 is always positioned at the top or bottom of the virtual display memory. . It is also possible to perform rotation conversion so that the predetermined feature point detected in step 6 of the processing flow of the image processing device 16 becomes a predetermined position.

パノラマ形成処理において、図12(b)乃至(e)の正対画像マトリクスはそれぞれ、120度程度の範囲が写っているため、張り合わせる際に重複領域が存在する。重複する場合には、各正対画像マトリクスの中央部90度の領域、すなわち横線パタンで表示している部分を選択する。また、特徴点は車輪側面に生じる凹凸なので、車輪側面とフラッシュ24の位置関係により、正対画像マトリクス画面中央部よりも周辺部のほうが特徴点のコントラストが良好に撮影されていることがある。この場合には、周辺部の特徴点のコントラストの良い画像を選択するほうがよい。このために、正対画像マトリクスのお互いに重複する部分については、画像処理装置16の処理フローのステップ6において、特徴点検出のために施したソーベルフィルタ及び所定のしきい値での2値化処理の結果検出された、特徴点面積の大きいほうの正対画像マトリクスを選択する。このようにパノラマ形成すると、さらに特徴点を視認し易い画像となる。   In the panorama forming process, the facing image matrices in FIGS. 12B to 12E each have a range of about 120 degrees, and therefore there is an overlapping area when they are pasted together. In the case of overlapping, an area of 90 ° at the center of each facing image matrix, that is, a portion displayed by a horizontal line pattern is selected. Further, since the feature points are irregularities generated on the side surfaces of the wheels, the contrast of the feature points may be better photographed in the peripheral portion than in the central portion of the facing image matrix screen due to the positional relationship between the wheel side surfaces and the flash 24. In this case, it is better to select an image with good contrast of the feature points in the peripheral part. For this reason, with respect to the overlapping part of the facing image matrix, in step 6 of the processing flow of the image processing device 16, the Sobel filter applied for feature point detection and the binary value with a predetermined threshold value are used. A face-to-face image matrix having a larger feature point area detected as a result of the conversion processing is selected. When a panorama is formed in this way, an image that makes it easier to visually recognize feature points is obtained.

パノラマ形成された仮想表示メモリの画像は、必要に応じてその部分又は全体がパソコン12に表示される。その表示解像度に応じて、車輪全体を表示する際には間引き処理など画面縮小表示をする。また、表示されている任意の特徴点を、パソコン12のポインティングデバイスで指示すると、その部分の正対画像マトリクス、さらに画面上画像マトリクスを表示するように構成することもできる。   The panoramic image of the virtual display memory is displayed on the personal computer 12 in part or in whole as necessary. Depending on the display resolution, when the entire wheel is displayed, a reduced screen display such as a thinning process is performed. Further, when an arbitrary feature point being displayed is instructed by a pointing device of the personal computer 12, a directly-facing image matrix of that portion, and further an on-screen image matrix can be displayed.

以上本実施例に示したように、車両検査装置1を、線路4に沿って設置され、車両6の車輪20の側面の車輪画像を取得する画像取得装置16と、画像取得装置16が取得した画像を保存する画像保存装置30とを備え、画像取得装置30は、その画像取得装置30に対応付けて備えられた車輪検知センサ26により車輪20を検知した検知信号に基づいて車輪画像を取得するように構成した。   As described above in the present embodiment, the vehicle inspection apparatus 1 is installed along the track 4 and is acquired by the image acquisition apparatus 16 that acquires the wheel image of the side surface of the wheel 20 of the vehicle 6 and the image acquisition apparatus 16. An image storage device 30 for storing the image, and the image acquisition device 30 acquires a wheel image based on a detection signal detected by the wheel detection sensor 26 provided in association with the image acquisition device 30. It was configured as follows.

これにより、画像取得装置16によって車輪検知センサ26が検知した車輪20の側面を撮影して車輪画像を取得し、車輪画像を用いて車輪20の側面の特徴点を観察することができる。   Thereby, the side surface of the wheel 20 detected by the wheel detection sensor 26 can be captured by the image acquisition device 16 to acquire the wheel image, and the feature point on the side surface of the wheel 20 can be observed using the wheel image.

また、複数の画像取得装置16乃至19と複数の車輪検知センサ26と、車輪計数装置28と、車両の通過時刻を記録するタイマー29とを備え、画像取得装置16を備える検査ユニット2にそれぞれユニット番号が設定されてなり、車輪計数装置28は、検知信号に基づいて車両における車輪20の順番を示す車輪番号を生成してユニット番号を付して車輪IDとし、画像取得装置16を、取得した車輪画像と車輪IDと通過時刻とを対応付けて画像保存装置30に保存するように構成した。   Each of the inspection units 2 provided with the image acquisition device 16 includes a plurality of image acquisition devices 16 to 19, a plurality of wheel detection sensors 26, a wheel counting device 28, and a timer 29 that records the passing time of the vehicle. The wheel counting device 28 generates the wheel number indicating the order of the wheels 20 in the vehicle based on the detection signal, attaches the unit number to the wheel ID, and acquires the image acquisition device 16. The wheel image, the wheel ID, and the passage time are associated with each other and stored in the image storage device 30.

これにより、それぞれの画像取得装置で車輪側面の一部部分を撮影することで車輪20の全体画像を取得することができる。また、ユニット番号から、車輪画像がどの画像取得装置で撮影されたかを識別でき、車輪番号から、車輪画像が車両6の何番目の車輪を撮影したものかを識別できる。さらに、通過時刻を保存し、列車運行表を参照して、撮影した車輪20を備える車両6を特定することができる。   Thereby, the whole image of the wheel 20 can be acquired by photographing a part of the wheel side surface with each image acquisition device. In addition, it is possible to identify which image acquisition device has captured the wheel image from the unit number, and it is possible to identify from which number the wheel of the vehicle 6 is captured by the wheel image. Furthermore, the passing time is preserve | saved and the vehicle 6 provided with the image | photographed wheel 20 can be specified with reference to a train schedule.

また、画像取得装置16を、画像保存装置30に保存された車輪画像に射影変換を施して車輪20に正対する正対画像を生成するとともに、その正対画像をデータベース8に保存する画像処理装置32を備えて構成した。   Further, the image acquisition device 16 performs projective transformation on the wheel image stored in the image storage device 30 to generate a directly-facing image facing the wheel 20, and stores the facing image in the database 8. 32.

これにより、車輪20に正対していない画像取得装置30で取得した車輪画像を、車輪20に正対する正対画像にすることができる。予め射影変換に用いるパラメータを、基準車輪21と画像取得装置16が備えるカメラ22との位置関係から求めておけば、以後はそのパラメータを用いて取得した車輪画像から正対画像を生成することができる。   Thereby, the wheel image acquired by the image acquisition device 30 that is not directly facing the wheel 20 can be made a directly facing image that faces the wheel 20. If the parameters used for the projective transformation are obtained in advance from the positional relationship between the reference wheel 21 and the camera 22 provided in the image acquisition device 16, a facing image can be generated from the wheel image acquired using the parameters thereafter. it can.

さらに、画像処理装置32を、正対画像を処理して車輪20の輪郭を抽出し、その輪郭に基づいてその車輪20の車軸位置を推定し、その推定した車軸位置を原点とする極座標変換を行って極座標画像を生成するとともに、極座標画像をデータベース8に保存するように構成した。   Further, the image processing device 32 processes the facing image to extract the contour of the wheel 20, estimates the axle position of the wheel 20 based on the contour, and performs polar coordinate conversion with the estimated axle position as the origin. The polar coordinate image is generated and the polar coordinate image is stored in the database 8.

本実施例では、極座標画像の垂直方向に、正対画像における車軸位置から特徴点までの距離をとり、極座標画像の水平方向に、正対画像における車軸位置を中心とする回転角をとった。この極座標変換により、車軸位置から特徴点までの距離の増減が垂直方向の変位に反映され、車軸位置を中心とする回転角の増減が水平方向の変位に反映され、後述する特徴点の探査、特定がしやすくなる。   In the present embodiment, the distance from the axle position in the facing image to the feature point is taken in the vertical direction of the polar coordinate image, and the rotation angle around the axle position in the facing image is taken in the horizontal direction of the polar coordinate image. By this polar coordinate conversion, the increase / decrease in the distance from the axle position to the feature point is reflected in the vertical displacement, and the increase / decrease in the rotation angle around the axle position is reflected in the horizontal displacement. It becomes easy to identify.

さらに、画像処理装置32を、画像保存装置30に予め保存された基準となる車輪画像の車軸位置と推定した車軸位置とのずれの大きさに基づいて、極座標画像を補正して補正画像を生成するとともに、その補正画像をデータベース8に保存するように構成することもできる。   Further, the image processing device 32 generates a corrected image by correcting the polar coordinate image based on the magnitude of the deviation between the axle position of the reference wheel image stored in the image storage device 30 in advance and the estimated axle position. In addition, the corrected image may be stored in the database 8.

前述した正対画像から推定した車軸位置は、基準車輪21の車軸位置と垂直方向に差異が生じる場合がある。また、画像取得装置16の撮影のタイミングの微差により、水平方向でも差異が生じる場合がある。そこで、予め基準車輪21の車輪画像等から車軸位置を求めて保存しておけば、推定した車軸位置とのずれの大きさに基づいて、極座標画像を補正することができる。   The axle position estimated from the above-described facing image may be different from the axle position of the reference wheel 21 in the vertical direction. In addition, a difference may occur in the horizontal direction due to a slight difference in photographing timing of the image acquisition device 16. Therefore, if the axle position is obtained and stored in advance from the wheel image of the reference wheel 21 or the like, the polar coordinate image can be corrected based on the estimated deviation from the axle position.

また、車両検査装置1を、画像取得装置16が取得した車輪画像の車輪20と同一の車輪20の車輪画像を、車輪IDと通過時刻とに基づいて画像保存装置30を検索して抽出し、その抽出した車輪画像に対応する極座標画像に表示された特徴点の輝度パタンのテンプレートパタン72を作成し、テンプレートパタン72に基づいて、画像取得装置16が取得した車輪画像から画像処理装置32が生成した極座標画像上を探査して特徴点を特定し、特徴点の変化を比較する機能を有するように構成した。   In addition, the vehicle inspection device 1 extracts the wheel image of the same wheel 20 as the wheel 20 of the wheel image acquired by the image acquisition device 16 by searching the image storage device 30 based on the wheel ID and the passage time, A template pattern 72 of the brightness pattern of the feature point displayed in the polar coordinate image corresponding to the extracted wheel image is created, and the image processing device 32 generates the wheel image acquired by the image acquisition device 16 based on the template pattern 72. The feature point is identified by searching on the polar coordinate image, and the feature point comparison function is compared.

これにより、車輪20の側面の特徴点の経年変化を観察できるようになる。すなわち、画像取得装置16が新たに取得した車輪画像の車輪20と同一の車輪20の画像を、車輪ID等に基づいて画像保存装置から抽出し、抽出した車輪画像に対応付けられた特徴点のテンプレートを用いて、新たに取得した車輪画像の極座標画像上を探査して同一の特徴点を見つけ出して、特徴点の大きさや長さを観察することで、特徴点の経年変化、車輪劣化状況を追跡できる。   Thereby, the secular change of the feature point of the side surface of the wheel 20 can be observed. That is, the image of the wheel 20 that is the same as the wheel 20 of the wheel image newly acquired by the image acquisition device 16 is extracted from the image storage device based on the wheel ID or the like, and the feature points associated with the extracted wheel image are extracted. By using a template to search on the polar coordinate image of the newly acquired wheel image, find the same feature point, and observe the size and length of the feature point, so that the aging of the feature point and the wheel deterioration status can be detected. Can track.

以上、本実施例の車両検査装置1について説明したが、本発明は、この実施例に限らず適宜構成を変更して適用することができる。例えば、画像取得装置16の個数は適宜変更してもよい。各画像取得装置16の間隔は個数に応じて空けることが好ましい。   The vehicle inspection apparatus 1 according to the present embodiment has been described above. However, the present invention is not limited to this embodiment, and can be applied by appropriately changing the configuration. For example, the number of image acquisition devices 16 may be changed as appropriate. The interval between the image acquisition devices 16 is preferably set according to the number.

また、車輪画像を取得する際に通過時刻を保存したが、車両6が特定できれば通過時刻を保存しなくてもよい。その場合は製造番号等の車両番号読取装置を備えてもよい。   Moreover, although the passage time was preserve | saved when acquiring a wheel image, if the vehicle 6 can be specified, it does not need to preserve | save a passage time. In that case, you may provide vehicle number reading apparatuses, such as a manufacture number.

また、データベース8に車輪画像及びデータ等を保存しているが、画像保存装置に保存してもよい。   Further, although the wheel image and data are stored in the database 8, they may be stored in an image storage device.

また、特徴点のパタンマッチングをパソコン12で行ったが、画像処理装置32で行うように構成してもよい。さらに、極座標マトリクス上の特徴点でパタンマッチングを行ったが、正対画像マトリクス上の特徴点で行うこともできる。   Further, although the feature point pattern matching is performed by the personal computer 12, it may be configured to be performed by the image processing apparatus 32. Furthermore, although pattern matching is performed with feature points on the polar coordinate matrix, it can also be performed with feature points on the directly-facing image matrix.

また、パノラマ形成の際に、特徴点パタンをテンプレートとして用いたが、ボルトのパタンを用いて、隣接する画像間で同一ボルトの位置を照合することで、回転ずれΔqを計測することもできる。パノラマ形成は、パソコン12で行うようにしてもよい。   In addition, the feature point pattern is used as a template when forming the panorama, but the rotational deviation Δq can also be measured by collating the position of the same bolt between adjacent images using the bolt pattern. The panorama may be formed by the personal computer 12.

(a)は、検査ユニットの配置場所であり、(b)は、車両検査装置の構成図である。(A) is an arrangement | positioning place of an inspection unit, (b) is a block diagram of a vehicle inspection apparatus. (a)は、検査ユニットの構成図であり、(b)は、カメラで撮影した車輪の画面上画像マトリクスである。(A) is a block diagram of a test | inspection unit, (b) is the on-screen image matrix of the wheel image | photographed with the camera. 画像処理装置の処理フローである。It is a processing flow of an image processing apparatus. (a)は、車輪とカメラの位置関係を示す図であり、(b)は、カメラで撮影した基準車輪の画面上画像マトリクスである。(A) is a figure which shows the positional relationship of a wheel and a camera, (b) is an on-screen image matrix of the reference | standard wheel image | photographed with the camera. 車輪の正対画像マトリクスである。It is a confrontation image matrix of a wheel. 輪郭強調処理を加えた車輪の正対画像マトリクスである。It is the front image matrix of the wheel which added the outline emphasis process. 車輪の極座標画像である。It is a polar coordinate image of a wheel. (a)は、特徴点を有する車輪の正対画像マトリクスであり、(b)は、その正対画像マトリクスを変換した極座標マトリクスである。(A) is a facing image matrix of the wheel which has a feature point, (b) is a polar coordinate matrix which converted the facing image matrix. (a)は、ボルトの極座標マトリクスのテンプレートパタンであり、(b)は、特徴点の極座標マトリクスのテンプレートパタンであり、(c)は、特徴点を有する車輪の極座標マトリクスである。(A) is a template pattern of a polar coordinate matrix of a bolt, (b) is a template pattern of a polar coordinate matrix of a feature point, and (c) is a polar coordinate matrix of a wheel having a feature point. 特徴点を特定する際の曖昧度を説明する図である。It is a figure explaining the ambiguity at the time of specifying a feature point. 5つの座標系と数式との関係を示す図である。It is a figure which shows the relationship between five coordinate systems and numerical formula. パノラマ形成装置の処理を説明する図である。It is a figure explaining the process of a panorama formation apparatus.

符号の説明Explanation of symbols

1 車両検査装置
2 検査ユニット
4 レール
6 車両
8 データベース
10 パノラマ形成装置
12 パソコン
16 画像取得装置
20 車輪
21 基準車輪
22 カメラ
24 フラッシュ
26 車両検知センサ
28 車輪計数装置
30 画像保存装置
32 画像処理装置
34 車軸
35 基準車軸
36,37,38,39,40,41,42,43 ボルト
52,53,54,55 マーク
72 特徴点のテンプレートパタン
DESCRIPTION OF SYMBOLS 1 Vehicle inspection apparatus 2 Inspection unit 4 Rail 6 Vehicle 8 Database 10 Panorama formation apparatus 12 Personal computer 16 Image acquisition device 20 Wheel 21 Reference wheel 22 Camera 24 Flash 26 Vehicle detection sensor 28 Wheel counting device 30 Image storage device 32 Image processing device 34 Axle 35 Reference axle 36, 37, 38, 39, 40, 41, 42, 43 Bolt 52, 53, 54, 55 Mark 72 Template pattern of feature points

Claims (7)

線路に沿って設置され、該線路を通過する車両の車輪側面の車輪画像を取得する画像取得装置と、該画像取得装置が取得した画像を保存する画像保存装置とを備え、前記画像取得装置は、該画像取得装置に対応付けて備えられた車輪検知センサにより前記車輪を検知した検知信号に基づいて前記車輪画像を取得する車両検査装置。   An image acquisition device that is installed along a track and acquires a wheel image of a wheel side surface of a vehicle passing through the track; and an image storage device that stores an image acquired by the image acquisition device, A vehicle inspection device that acquires the wheel image based on a detection signal obtained by detecting the wheel by a wheel detection sensor provided in association with the image acquisition device. 前記車両検査装置は、複数の前記画像取得装置と複数の前記車輪検知センサと、車輪計数装置と、前記車両の通過時刻を記録するタイマーとを備え、前記画像取得装置にはそれぞれ識別番号が設定されてなり、前記車輪計数装置は、前記検知信号に基づいて前記車両における前記車輪の順番を示す車輪番号を生成し、前記画像取得装置は、前記取得した車輪画像と前記識別番号と前記車輪番号と前記通過時刻とを対応付けて前記画像保存装置に保存することを特徴とする請求項1に記載の車両検査装置。   The vehicle inspection device includes a plurality of the image acquisition devices, a plurality of wheel detection sensors, a wheel counting device, and a timer that records a passing time of the vehicle, and an identification number is set for each of the image acquisition devices. The wheel counting device generates a wheel number indicating the order of the wheels in the vehicle based on the detection signal, and the image acquisition device includes the acquired wheel image, the identification number, and the wheel number. The vehicle inspection device according to claim 1, wherein the image storage device stores the passage time in association with each other. 前記画像取得装置は、前記画像保存装置に保存された車輪画像に射影変換を施して前記車輪に正対する正対画像を生成するとともに、該正対画像を前記画像保存装置に保存する画像処理装置を備えることを特徴とする請求項1又は2に記載の車両検査装置。   The image acquisition device performs projective transformation on a wheel image stored in the image storage device to generate a directly facing image facing the wheel, and stores the facing image in the image storing device. The vehicle inspection device according to claim 1, further comprising: 前記画像処理装置は、前記正対画像を処理して前記車輪の輪郭を抽出し、該輪郭に基づいて当該車輪の車軸位置を推定し、該推定した車軸位置を原点とする極座標変換を行って極座標画像を生成するとともに、該極座標画像を前記画像保存装置に保存することを特徴とする請求項3に記載の車両検査装置。   The image processing device processes the facing image to extract a contour of the wheel, estimates an axle position of the wheel based on the contour, and performs polar coordinate conversion using the estimated axle position as an origin. The vehicle inspection apparatus according to claim 3, wherein a polar coordinate image is generated and the polar coordinate image is stored in the image storage device. 前記画像処理装置は、前記画像保存装置に予め保存された基準となる車輪画像の車軸位置と前記推定した車軸位置とのずれの大きさに基づいて、前記極座標画像を補正して補正画像を生成するとともに、該補正画像を前記画像保存装置に保存すること特徴とする請求項4に記載の車両検査装置。   The image processing device generates a corrected image by correcting the polar coordinate image based on a deviation amount between a wheel position of a reference wheel image stored in advance in the image storage device and the estimated axle position. The vehicle inspection device according to claim 4, wherein the corrected image is stored in the image storage device. 前記車両検査装置は、前記画像取得装置が取得した車輪画像の車輪と同一の車輪の車輪画像を、前記識別番号と前記車輪番号と前記通過時刻とに基づいて前記画像保存装置を検索して抽出し、該抽出した車輪画像に対応する極座標画像に表示された特徴点の輝度パタンのテンプレートを作成し、該テンプレートに基づいて、前記画像取得装置が取得した車輪画像から前記画像処理装置が生成した前記極座標画像上を探査して前記特徴点を特定し、前記特徴点の変化を比較する機能を有することを特徴とする請求項5に記載の車両検査装置。   The vehicle inspection device searches and extracts the image storage device based on the identification number, the wheel number, and the passage time, based on the identification number, the wheel number, and the passage time, of the wheel image of the wheel image acquired by the image acquisition device. Then, the brightness pattern template of the feature point displayed in the polar coordinate image corresponding to the extracted wheel image is created, and the image processing device generates the wheel image acquired by the image acquisition device based on the template. The vehicle inspection apparatus according to claim 5, wherein the vehicle inspection apparatus has a function of searching the polar coordinate image to identify the feature point and comparing a change in the feature point. 前記画像処理装置は、フィルタ処理により前記車輪画像上の特徴点領域を強調した後に所定のしきい値で2値化する特徴点検出機能を有することを特徴とする請求項6に記載の車両検査装置。   The vehicle inspection according to claim 6, wherein the image processing device has a feature point detection function of binarizing with a predetermined threshold after emphasizing a feature point region on the wheel image by filter processing. apparatus.
JP2008238611A 2008-09-17 2008-09-17 Vehicle inspection device Active JP5274173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008238611A JP5274173B2 (en) 2008-09-17 2008-09-17 Vehicle inspection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008238611A JP5274173B2 (en) 2008-09-17 2008-09-17 Vehicle inspection device

Publications (2)

Publication Number Publication Date
JP2010071768A true JP2010071768A (en) 2010-04-02
JP5274173B2 JP5274173B2 (en) 2013-08-28

Family

ID=42203705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008238611A Active JP5274173B2 (en) 2008-09-17 2008-09-17 Vehicle inspection device

Country Status (1)

Country Link
JP (1) JP5274173B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011027509A (en) * 2009-07-23 2011-02-10 Yokohama Rubber Co Ltd:The System and method for analyzing tire
JP2011053059A (en) * 2009-09-01 2011-03-17 Hitachi Ltd Vehicle inspection apparatus
JP2018508052A (en) * 2014-12-31 2018-03-22 パク、サンレ Image analysis method, apparatus, and computer-readable device
RU2663767C2 (en) * 2016-12-28 2018-08-09 Федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный университет путей сообщения" Robotic means for control of technical condition of freight cars
RU2668774C2 (en) * 2016-12-16 2018-10-02 Александр Игоревич Долгий Device for determining parameters of rolling stock units
RU2672851C1 (en) * 2014-04-30 2018-11-19 Индустри-Партнер Гмбх Радебойль-Косвиг Device for measurement of rail vehicle wheel parts
CN109406164A (en) * 2018-10-25 2019-03-01 青岛青特众力车桥有限公司 A kind of vehicle bridge oil stream lubrication test platform

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS64405A (en) * 1987-06-23 1989-01-05 Railway Technical Res Inst Apparatus for inspecting sectional shape of wheel
JPH05126686A (en) * 1991-11-08 1993-05-21 Railway Technical Res Inst Vehicle inspecting device
JPH07174672A (en) * 1993-11-01 1995-07-14 East Japan Railway Co Wheel tread defect inspection device
JPH08278116A (en) * 1995-04-07 1996-10-22 Central Japan Railway Co Bolt looseness inspection method and bolt looseness inspection device
JPH09101122A (en) * 1995-10-02 1997-04-15 East Japan Railway Co Wheel shape measuring device and method
JP2005351730A (en) * 2004-06-10 2005-12-22 Horiba Ltd System for determining set state of car
JP2006290312A (en) * 2005-04-15 2006-10-26 Hitachi Industries Co Ltd Vehicle wheel inspection device
JP2008180619A (en) * 2007-01-25 2008-08-07 Act Denshi Kk Wheel measuring method and wheel measuring apparatus therefor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS64405A (en) * 1987-06-23 1989-01-05 Railway Technical Res Inst Apparatus for inspecting sectional shape of wheel
JPH05126686A (en) * 1991-11-08 1993-05-21 Railway Technical Res Inst Vehicle inspecting device
JPH07174672A (en) * 1993-11-01 1995-07-14 East Japan Railway Co Wheel tread defect inspection device
JPH08278116A (en) * 1995-04-07 1996-10-22 Central Japan Railway Co Bolt looseness inspection method and bolt looseness inspection device
JPH09101122A (en) * 1995-10-02 1997-04-15 East Japan Railway Co Wheel shape measuring device and method
JP2005351730A (en) * 2004-06-10 2005-12-22 Horiba Ltd System for determining set state of car
JP2006290312A (en) * 2005-04-15 2006-10-26 Hitachi Industries Co Ltd Vehicle wheel inspection device
JP2008180619A (en) * 2007-01-25 2008-08-07 Act Denshi Kk Wheel measuring method and wheel measuring apparatus therefor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011027509A (en) * 2009-07-23 2011-02-10 Yokohama Rubber Co Ltd:The System and method for analyzing tire
JP2011053059A (en) * 2009-09-01 2011-03-17 Hitachi Ltd Vehicle inspection apparatus
RU2672851C1 (en) * 2014-04-30 2018-11-19 Индустри-Партнер Гмбх Радебойль-Косвиг Device for measurement of rail vehicle wheel parts
JP2018508052A (en) * 2014-12-31 2018-03-22 パク、サンレ Image analysis method, apparatus, and computer-readable device
RU2668774C2 (en) * 2016-12-16 2018-10-02 Александр Игоревич Долгий Device for determining parameters of rolling stock units
RU2663767C2 (en) * 2016-12-28 2018-08-09 Федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный университет путей сообщения" Robotic means for control of technical condition of freight cars
CN109406164A (en) * 2018-10-25 2019-03-01 青岛青特众力车桥有限公司 A kind of vehicle bridge oil stream lubrication test platform
CN109406164B (en) * 2018-10-25 2024-04-19 青岛青特众力车桥有限公司 Axle oil flow lubrication test bed

Also Published As

Publication number Publication date
JP5274173B2 (en) 2013-08-28

Similar Documents

Publication Publication Date Title
CN112116576B (en) Polarization structure light imaging and improved defect detection method
Wang et al. Automated estimation of reinforced precast concrete rebar positions using colored laser scan data
JP5274173B2 (en) Vehicle inspection device
CN104574393B (en) A kind of three-dimensional pavement crack pattern picture generates system and method
JP5303405B2 (en) Vehicle inspection device
CN103675588B (en) The machine vision detection method of printed component part polarity and equipment
Zhu et al. Panoramic image stitching for arbitrarily shaped tunnel lining inspection
CN100573040C (en) Calibration method of structured light measurement system for three-dimensional contour of object surface
TWI500925B (en) Check the device, check the method and check the program
CN116758136B (en) Real-time online identification method, system, equipment and medium for cargo volume
CN105741379A (en) Method for panoramic inspection on substation
CN103534583A (en) Method of detecting defect in tire
JP2015021862A (en) 3D measuring apparatus and 3D measuring method
CN118707546B (en) Tunnel lining surface crack detection device, method, medium and equipment
CN116912334B (en) Phase mapping high-precision projector calibration method based on grating fringe projection
CN115375608A (en) Detection method and device, detection equipment and storage medium
CN109146791B (en) Tunnel spread map generation method based on area array CCD imaging
CN114187363A (en) A method, device and mobile terminal for obtaining radial distortion parameter value
CN118333963A (en) A method and system for monitoring deformation of transmission line tower
Hua et al. Single-stripe-enhanced spacetime stereo reconstruction for concrete defect identification
Fu et al. Linear array image alignment under nonlinear scale distortion for train fault detection
CN117433447A (en) Rail fastener three-dimensional geometric detection system
Hu et al. A high-resolution surface image capture and mapping system for public roads
CN113744182B (en) A method for monitoring the changing status of complex cracks based on QR code positioning technology
JPH04181106A (en) Calibration device of position dimension measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130514

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5274173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150