[go: up one dir, main page]

JP7093962B2 - Vehicle image generator and vehicle image generator - Google Patents

Vehicle image generator and vehicle image generator Download PDF

Info

Publication number
JP7093962B2
JP7093962B2 JP2018070499A JP2018070499A JP7093962B2 JP 7093962 B2 JP7093962 B2 JP 7093962B2 JP 2018070499 A JP2018070499 A JP 2018070499A JP 2018070499 A JP2018070499 A JP 2018070499A JP 7093962 B2 JP7093962 B2 JP 7093962B2
Authority
JP
Japan
Prior art keywords
image
vehicle
camera
image data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018070499A
Other languages
Japanese (ja)
Other versions
JP2019185080A (en
Inventor
英夫 富永
博章 中矢
紳 川島
剛 柴田
幸之 高崎
尚樹 熊崎
晃広 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wants Ex
Original Assignee
Wants Ex
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wants Ex filed Critical Wants Ex
Priority to JP2018070499A priority Critical patent/JP7093962B2/en
Publication of JP2019185080A publication Critical patent/JP2019185080A/en
Application granted granted Critical
Publication of JP7093962B2 publication Critical patent/JP7093962B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

特許法第30条第2項適用 1.発明の公開日 平成30年1月5日 2.発明を公開した場所 株式会社JU岐阜羽島オートオークション内の撮影スタジオ 3.公開者名 株式会社JU岐阜羽島オートオークション 4.発明の内容 車両画像生成装置および車両画像生成プログラムの使用Application of Article 30, Paragraph 2 of the Patent Law 1. Publication date of the invention January 5, 2018 2. Place where the invention was published Photo studio in JU Gifu Hashima Auto Auction Co., Ltd. 3. Publisher name JU Gifu Hashima Auto Auction 4. Contents of the invention Use of a vehicle image generator and a vehicle image generator

本発明は、画像データから車両画像が存在する所定範囲内の画像を切り抜いて別の画像データを生成する車両画像生成装置や車両画像生成プログラムに関する。 The present invention relates to a vehicle image generator or a vehicle image generation program that cuts out an image within a predetermined range in which a vehicle image exists from the image data and generates another image data.

車両画像の表示に関する技術として、例えば、下記特許文献1に開示されている「中古自動車オークションシステム」がある。この技術では、オークションの対象である中古自動車をオークションに先立って1台ずつ、動画映像と静止画映像を撮影する。例えば、静止画映像については、静止画撮影場所で停止した車両を4台のカメラで4方向からそれぞれ撮影する。そして、同文献1の図4に開示されているように、これらの画像をコンピュータの下見情報表示画面に表示する。これにより、オークション参加者は、下見情報表示画像において、静止画映像等により対象車両の状態を目視確認することが可能になる。 As a technique for displaying a vehicle image, for example, there is a "used car auction system" disclosed in Patent Document 1 below. In this technology, used cars that are the target of the auction are shot one by one prior to the auction. For example, for a still image, a vehicle stopped at a still image shooting location is photographed by four cameras from four directions. Then, as disclosed in FIG. 4 of the same document 1, these images are displayed on the preview information display screen of the computer. As a result, the auction participant can visually confirm the state of the target vehicle by the still image or the like in the preview information display image.

特開2003-162653号公報Japanese Patent Application Laid-Open No. 2003-162653

しかしながら、オークションの対象になる車両は、その種類や大きさが様々である。そのため、例えば、上記特許文献1の開示技術において、4台のカメラが所定の位置に固定されている場合は、常に最適な大きさで車両画像を撮影することができるとは限らない。また固定されたカメラがズーム機能を備えていた場合であっても、撮影の都度、ズーム調整しなければならないというのも作業員にとっては煩雑であり作業効率が向上しにくい。 However, the vehicles targeted for auction vary in type and size. Therefore, for example, in the disclosed technique of Patent Document 1, when four cameras are fixed at predetermined positions, it is not always possible to take a vehicle image with an optimum size. Even if the fixed camera has a zoom function, it is complicated for the worker to adjust the zoom every time the camera is taken, and it is difficult to improve the work efficiency.

このような問題は、例えば、カメラに高解像度のものを用いて撮影した画像データから車両画像を切り抜いて最適な大きさに揃えることにより解決し得る。ところが、コンピュータによる画像認識処理においては車両画像の輪郭検出が容易ではない。そのため、システムの開発に多大な費用と時間がかかり得るという問題がある。 Such a problem can be solved, for example, by cutting out a vehicle image from image data taken by using a camera having a high resolution and aligning the vehicle image with an optimum size. However, it is not easy to detect the contour of the vehicle image in the image recognition process by the computer. Therefore, there is a problem that it may take a lot of money and time to develop the system.

本発明は、上述した課題を解決するためになされたものであり、車両画像の輪郭を検出することなく、所定の大きさで車両画像を切り抜いて別の画像データを生成し得る車両画像生成装置や車両画像生成プログラムを提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and is a vehicle image generation device capable of cutting out a vehicle image with a predetermined size and generating another image data without detecting the contour of the vehicle image. And to provide a vehicle image generation program.

上記目的を達成するため、特許請求の範囲に記載された請求項1または請求項の技術的手段を採用する。この手段によると、画像認識手段は、車両画像を含む画像データから2つの円または楕円を認識し、距離計測手段は、画像認識手段に認識された2つの円または楕円の中心間の距離を計測する。枠決定手段は、その中心間の距離に基づいて車両画像が存在する所定範囲を定め得る所定枠を決定し、画像切抜き手段は、その所定枠を用いて車両画像が存在する所定範囲内の画像を切り抜いて別の画像データを生成する。なお、当該別の画像データには、車両画像が存在する所定範囲よりも外側を削除した画像データも含まれる。 In order to achieve the above object, the technical means of claim 1 or claim 3 described in the claims is adopted. According to this means, the image recognition means recognizes two circles or ellipses from the image data including the vehicle image, and the distance measuring means measures the distance between the centers of the two circles or ellipses recognized by the image recognition means. do. The frame determining means determines a predetermined frame in which a predetermined range in which the vehicle image exists can be determined based on the distance between the centers, and the image cropping means uses the predetermined frame to determine an image within a predetermined range in which the vehicle image exists. To generate another image data by cutting out. The other image data also includes image data in which the outside of the predetermined range in which the vehicle image exists is deleted.

車両の側面が現れる車両画像に存在する2つの円は、典型的には、タイヤまたはホイールである。車両の側面をその前方や後方から撮影した車両画像においてはタイヤやホイールは楕円に写る。そのため、このような車両画像において存在する2つの楕円も、タイヤまたはホイールである蓋然性が高い。これにより、車両画像を含む画像データから、画像認識手段が2つの円または楕円を認識するということは車両画像から当該車両のタイヤやホイールを検出することに他ならない。また、複雑な形状になりがちな車両画像の輪郭に比べると、円や楕円はパターン化されておりコンピュータによる画像認識処理においては輪郭の検出が容易である。そのため、画像認識手段により車両画像から当該車両のタイヤやホイールを検出することが可能である。 The two circles present in the vehicle image where the sides of the vehicle appear are typically tires or wheels. Tires and wheels appear elliptical in vehicle images taken from the front or rear of the side of the vehicle. Therefore, the two ellipses present in such vehicle images are also likely to be tires or wheels. As a result, the fact that the image recognition means recognizes two circles or ellipses from the image data including the vehicle image is nothing but detecting the tires and wheels of the vehicle from the vehicle image. Further, compared to the contour of a vehicle image which tends to have a complicated shape, circles and ellipses are patterned, and the contour can be easily detected in the image recognition process by a computer. Therefore, it is possible to detect the tires and wheels of the vehicle from the vehicle image by the image recognition means.

2つの円または楕円が車両のタイヤやホイールである場合には、距離計測手段が計測したこれら2つの円や楕円の中心間の距離は、当該車両のホイールベースに相当する。一般的に車両の長さ(前後方向長さや車両の全長)は、前後のタイヤの間隔(ホイールベース)に左右されることが多い。つまり、ホイールベースの大きさから当該車両の全長が概ね決まる。これにより、枠決定手段により、車両画像が存在する所定範囲を定め得る所定枠を、2つの円や楕円の中心間の距離に基づいて決定することが可能である。そのため、このような所定枠を用いて、画像切抜き手段が所定範囲内の画像を切り抜くことにより、車両画像が存在する画像を別の画像データとして生成することが可能になる。 When the two circles or ellipses are the tires or wheels of the vehicle, the distance between the centers of these two circles or ellipses measured by the distance measuring means corresponds to the wheelbase of the vehicle. Generally, the length of the vehicle (length in the front-rear direction and the total length of the vehicle) often depends on the distance between the front and rear tires (wheelbase). That is, the total length of the vehicle is roughly determined by the size of the wheelbase. Thereby, the frame determining means can determine a predetermined frame in which a predetermined range in which the vehicle image exists can be determined based on the distance between the centers of the two circles and ellipses. Therefore, by using such a predetermined frame and the image cutting means cutting out an image within a predetermined range, it becomes possible to generate an image in which a vehicle image exists as another image data.

また、特許請求の範囲に記載された請求項2の技術的手段を採用する。この手段によると、画像認識手段は、画像データの画像全体範囲よりも小さい範囲内において2つの円または楕円を認識する。これにより、画像データの画像全体範囲においてこのような2つの円または楕円を認識する場合に比べて、コンピュータによる画像認識処理の対象範囲が狭くなるので、2つの円または楕円を認識するために要する時間が短くなる。 Further, the technical means of claim 2 described in the claims is adopted. According to this means, the image recognition means recognizes two circles or ellipses within a range smaller than the entire image range of the image data. As a result, the target range of the image recognition processing by the computer is narrower than the case of recognizing such two circles or ellipses in the entire image range of the image data, so that it is necessary to recognize the two circles or ellipses. The time is shortened.

請求項1や請求項の発明では、画像認識手段により車両画像から当該車両のタイヤやホイールを容易に検出することが可能であり、距離計測手段が計測したこれら2つの円や楕円の中心間の距離は当該車両のホイールベースに相当する。枠決定手段は、当該車両のホイールベースに相当する2つの円や楕円の中心間の距離に基づいて、車両画像が存在する所定範囲を定め得る所定枠を決定することが可能である。したがって、このような所定枠を用いて所定範囲内の画像を画像切抜き手段が切り抜くことにより、車両画像の輪郭を検出することなく、所定の大きさで車両画像を切り抜いて別の画像データを生成することができる。 In the inventions of claim 1 and claim 3 , the tires and wheels of the vehicle can be easily detected from the vehicle image by the image recognition means, and the distance between the centers of these two circles or ellipses measured by the distance measuring means. The distance corresponds to the wheelbase of the vehicle. The frame determining means can determine a predetermined frame that can determine a predetermined range in which the vehicle image exists, based on the distance between the centers of two circles or ellipses corresponding to the wheelbase of the vehicle. Therefore, when the image cropping means cuts out an image within a predetermined range using such a predetermined frame, the vehicle image is cut out to a predetermined size without detecting the contour of the vehicle image, and another image data is generated. can do.

請求項2の発明では、画像データの画像全体範囲においてこのような2つの円または楕円を認識する場合に比べて、コンピュータによる画像認識処理の対象範囲が狭くなるので、2つの円または楕円を認識するために要する時間が短くなる。したがって、画像認識処理を高速にすることができる。 In the invention of claim 2, since the target range of the image recognition processing by the computer is narrower than the case of recognizing such two circles or ellipses in the entire image range of the image data, the two circles or ellipses are recognized. The time required to do this is shortened. Therefore, the image recognition process can be speeded up.

本発明の一実施形態に係る車両画像撮影システムを車両オークション用の撮影スタジオに適用した場合における構成例を示す説明図である。It is explanatory drawing which shows the configuration example in the case where the vehicle image photographing system which concerns on one Embodiment of this invention is applied to the photography studio for a vehicle auction. 本実施形態の車両画像撮影システムを構成するカメラウォールの構成例を示す図である。図2(A)は正面図であり、図2(B)は平面図である。It is a figure which shows the configuration example of the camera wall which constitutes the vehicle image taking system of this embodiment. FIG. 2A is a front view, and FIG. 2B is a plan view. 本実施形態の車両画像撮影システムの電気的な構成例を示すブロック図である。It is a block diagram which shows the electric structure example of the vehicle image taking system of this embodiment. 図3に示すコンピュータにより実行される車両画像撮影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the vehicle image taking processing executed by the computer shown in FIG. 図4に示すサブルーチン「トリミング枠設定処理」の流れを示すフローチャートである。It is a flowchart which shows the flow of the subroutine "trimming frame setting process" shown in FIG. 図3に示す車両画像撮影処理においてコンピュータのディスプレィ画面に表示される画面の例である。This is an example of a screen displayed on the display screen of the computer in the vehicle image capturing process shown in FIG. 図5に示すトリミング枠設定処理の概念イメージを表した説明図である。It is explanatory drawing which showed the conceptual image of the trimming frame setting process shown in FIG. 図4に示すトリミング処理の前の画像データの一例を表した説明図である。It is explanatory drawing which showed an example of the image data before the trimming process shown in FIG. 図4に示すトリミング処理の後の画像データの一例を表した説明図である。It is explanatory drawing which showed an example of the image data after the trimming process shown in FIG. 図4に示すサブルーチン「トリミング枠設定処理」の他の参考例の流れを表したフローチャートである。It is a flowchart which showed the flow of the other reference example of the subroutine "trimming frame setting process" shown in FIG.

以下、本発明の車両画像生成装置および車両画像生成プログラムを車両アラウンド画像撮影システムに適用した実施形態について図を参照して説明する。本実施形態は、中古自動車のオークション会場に設けられた大型ディスプレィ、同会場の端末装置やインターネットに接続された端末装置等に表示するための車体画像を、予め撮影するスタジオの車両アラウンド画像撮影システムに関するものである。以下、車両アラウンド画像撮影システムのことを単に「撮影システム」ともいう。 Hereinafter, an embodiment in which the vehicle image generation device and the vehicle image generation program of the present invention are applied to a vehicle around image capturing system will be described with reference to the drawings. This embodiment is a vehicle-around image shooting system in a studio that preliminarily shoots a vehicle body image for display on a large display installed at an auction site of a used car, a terminal device at the same venue, a terminal device connected to the Internet, or the like. It is about. Hereinafter, the vehicle-around image shooting system is also simply referred to as a “shooting system”.

≪撮影システム10の構成概要≫
まず、図1に基づいて、本実施形態の撮影システム10の構成概要を簡単に説明する。図1には、撮影システム10の構成例を表した説明図が図示されている。なお、同図において表されている座標系は、X軸方向が車両8の進行方向、Y軸方向が車両8の高さ(車高)方向、Z軸方向が車両8の幅(車幅)方向をそれぞれ示す。本明細書では、このようなX軸方向のことを前後方向という場合もある。またY軸方向のことを上下方向という場合もある。さらにZ軸方向のことを左右方向という場合もある。他の図においてもこのような座標系が表されている場合には同様である。なお、本実施形態では、車両8は、中型車(例えば、全長:4.8メートル、全幅:1.7メートル、全高:1.5メートル)である。
<< Outline of the configuration of the shooting system 10 >>
First, the outline of the configuration of the photographing system 10 of the present embodiment will be briefly described with reference to FIG. FIG. 1 is an explanatory diagram showing a configuration example of the photographing system 10. In the coordinate system shown in the figure, the X-axis direction is the traveling direction of the vehicle 8, the Y-axis direction is the height (vehicle height) direction of the vehicle 8, and the Z-axis direction is the width (vehicle width) of the vehicle 8. The directions are shown respectively. In the present specification, such an X-axis direction may be referred to as a front-back direction. In addition, the Y-axis direction may be referred to as the vertical direction. Further, the Z-axis direction may be referred to as a left-right direction. The same applies when such a coordinate system is represented in other figures. In the present embodiment, the vehicle 8 is a medium-sized vehicle (for example, total length: 4.8 meters, total width: 1.7 meters, total height: 1.5 meters).

図1に示すように、撮影システム10が設けられる撮影スタジオ2は、車両8の進行方向に横長の撮影空間を壁3により区画形成した建屋である。図1の紙面左側が入口5であり、同紙面右側が出口6である。被写体である車両8は、入口5から撮影スタジオ2内に入ると所定位置7において停車する。所定位置7は、撮影スタジオ2のほぼ中央に設けられている。そして、車体周囲や車内の内装等が撮影された後、出口6から出る。なお、撮影スタジオ2の床面には、X軸方向に長い矩形の所定位置7を直接的に明示、または間接的に示唆する、線やマークが表示されている。なお、所定位置7は、例えば、長辺が6メートル、短辺が2メートルに設定されている。 As shown in FIG. 1, the photography studio 2 provided with the photography system 10 is a building in which a horizontally long photography space is partitioned by a wall 3 in the traveling direction of the vehicle 8. The left side of the paper in FIG. 1 is the entrance 5, and the right side of the paper is the exit 6. The vehicle 8 as a subject stops at a predetermined position 7 when entering the shooting studio 2 from the entrance 5. The predetermined position 7 is provided substantially in the center of the shooting studio 2. Then, after the surroundings of the vehicle body and the interior of the vehicle are photographed, the vehicle exits from Exit 6. In addition, on the floor surface of the photographing studio 2, lines and marks that directly or indirectly suggest a predetermined position 7 of a rectangle long in the X-axis direction are displayed. The predetermined position 7 is set, for example, to have a long side of 6 meters and a short side of 2 meters.

このような撮影スタジオ2等に設けられる撮影システム10は、主に、4つのカメラウォール20(20a,20b,20c,20d)とこれらのカメラウォール20を制御するコンピュータ11とにより構成されている。 The shooting system 10 provided in such a shooting studio 2 or the like is mainly composed of four camera walls 20 (20a, 20b, 20c, 20d) and a computer 11 for controlling these camera walls 20.

4つのカメラウォール20は、本実施形態では、撮影スタジオ2内に設けられており、例えば、高さが約2.5メートルに設定され、またX軸方向の長さ(横幅)が約3メートルに設定されている。そのため、標準的な体格の作業員であれば、直立姿勢であってもカメラウォール20の裏側(退避スペース4)に移動することで身体を隠すことができる。 In the present embodiment, the four camera walls 20 are provided in the shooting studio 2, for example, the height is set to about 2.5 meters, and the length (width) in the X-axis direction is about 3 meters. Is set to. Therefore, a worker with a standard physique can hide his / her body by moving to the back side (evacuation space 4) of the camera wall 20 even in an upright posture.

これらのカメラウォール20は、本実施形態では、所定位置7の四隅から、それぞれ2メートル~3メートル離れた位置に配置されている。即ち、カメラウォール20a~20dは、撮影スタジオ2内の所定位置7に停車した車両8を囲むように当該車両8の四隅から所定距離内(例えば3メートル以内)に設けられている。 In the present embodiment, these camera walls 20 are arranged at positions 2 to 3 meters away from the four corners of the predetermined position 7. That is, the camera walls 20a to 20d are provided within a predetermined distance (for example, within 3 meters) from the four corners of the vehicle 8 so as to surround the vehicle 8 stopped at the predetermined position 7 in the shooting studio 2.

例えば、カメラウォール20aは、所定位置7の出口6方向の左前角部7aから2メートル~3メートル(所定距離)だけ離れた位置に設けられている。またカメラウォール20bは、所定位置7の入口5方向の左後角部7bから同所定距離だけ離れた位置に設けられている。カメラウォール20c,20dは、右後角部7cや右前角部7dから、それぞれ同所定距離だけ離れた位置に設けられている。なお、図1において、カメラウォール20(20a~20d)と壁3の間に表されている一点鎖線は、後述する退避スペース4を示すものである。 For example, the camera wall 20a is provided at a position separated from the left front corner portion 7a in the exit 6 direction of the predetermined position 7 by 2 meters to 3 meters (predetermined distance). Further, the camera wall 20b is provided at a position separated from the left rear corner portion 7b in the entrance 5 direction of the predetermined position 7 by the same predetermined distance. The camera walls 20c and 20d are provided at positions separated from the right rear corner portion 7c and the right front corner portion 7d by the same predetermined distance, respectively. In FIG. 1, the alternate long and short dash line represented between the camera wall 20 (20a to 20d) and the wall 3 indicates the evacuation space 4, which will be described later.

撮影スタジオ2内において、このように配置されるカメラウォール20a~20dは、それぞれ3台のカメラ30を備えている。また、カメラウォール20a~20dは、それぞれ所定位置7(所定位置7に停車した車両8)を取り囲むように湾曲している。即ち、カメラウォール20a~20dの平面形状は、所定位置7の対角線の交点(所定位置7の中心)Pを中心に描かれる楕円Oの周上に沿う湾曲状に形成されている。楕円Oは、長径がX軸方向、短径がZ軸方向であり、例えば、長径が15メートル、短径が7メートルに設定されている。 In the shooting studio 2, the camera walls 20a to 20d arranged in this way each include three cameras 30. Further, the camera walls 20a to 20d are curved so as to surround the predetermined position 7 (the vehicle 8 stopped at the predetermined position 7), respectively. That is, the planar shapes of the camera walls 20a to 20d are formed in a curved shape along the circumference of the ellipse O drawn around the intersection (center of the predetermined position 7) P of the diagonal lines of the predetermined position 7. The ellipse O has a major axis in the X-axis direction and a minor axis in the Z-axis direction. For example, the major axis is set to 15 meters and the minor axis is set to 7 meters.

これら3台のカメラ30は、カメラウォール20のそれぞれにおいて所定位置7(所定位置7に停車した車両8)の周囲方向に並んで位置するように設けられている。より厳密には、前述の楕円Oの周上に位置するようにこれらのカメラ30が配置されている。例えば、所定位置7の左前角部7aから所定距離だけ離れた場所に設けられるカメラウォール20aには、出口6方向から車両8の前方左側方に向かって、カメラ30a,30b,30cがそれぞれ設けられている。同様に、右前角部7dから所定距離だけ離れた場所に設けられるカメラウォール20dには、出口6方向から車両8の前方右側方に向かって、カメラ30m,30k,30jがそれぞれ設けられている。 These three cameras 30 are provided so as to be arranged side by side in the peripheral direction of the predetermined position 7 (the vehicle 8 stopped at the predetermined position 7) on each of the camera walls 20. More precisely, these cameras 30 are arranged so as to be located on the circumference of the ellipse O described above. For example, the camera wall 20a provided at a position separated from the left front corner portion 7a of the predetermined position 7 by a predetermined distance is provided with cameras 30a, 30b, and 30c from the exit 6 direction toward the front left side of the vehicle 8, respectively. ing. Similarly, the camera wall 20d provided at a place separated from the right front corner portion 7d by a predetermined distance is provided with cameras 30m, 30k, and 30j from the exit 6 direction toward the front right side of the vehicle 8, respectively.

即ち、これらのカメラ30a,30b,30c,30d,30e,30f,30g,30i,30j,30k,30m(以下、これらを総称して「カメラ30a等」という場合がある。図面に表されている符号30は、それが指す対象がカメラ30a,30b,30c,30d,30e,30f,30g,30i,30j,30k,30mのいずれかに該当することを示す。)は、所定位置7の中心Pに対して点対称に位置している。例えば、カメラ30aと30g、カメラ30bとカメラ30h、カメラ30cとカメラ30i、カメラ30dとカメラ30j、カメラ30eとカメラ30k、カメラ30fとカメラ30m、はそれぞれ所定位置7の中心Pに対して点対称に位置している。 That is, these cameras 30a, 30b, 30c, 30d, 30e, 30f, 30g, 30i, 30j, 30k, 30m (hereinafter, these may be collectively referred to as "camera 30a or the like" in the drawings. Reference numeral 30 indicates that the object pointed to by the camera corresponds to any one of the cameras 30a, 30b, 30c, 30d, 30e, 30f, 30g, 30i, 30j, 30k, and 30m). It is located point-symmetrically with respect to. For example, the cameras 30a and 30g, the camera 30b and the camera 30h, the camera 30c and the camera 30i, the camera 30d and the camera 30j, the camera 30e and the camera 30k, and the camera 30f and the camera 30m are point-symmetrical with respect to the center P of the predetermined position 7, respectively. Is located in.

これにより、カメラウォール20aのカメラ30a,30b,30cにより車両8の前側8aの画像や左側8cの前方向等の画像を撮影することが可能になる。また、カメラウォール20dのカメラ30m,30k,30jにより車両8の前側8aの画像や右側8dの前方向等の画像を撮影することが可能になる。 As a result, the cameras 30a, 30b, and 30c of the camera wall 20a can take an image of the front side 8a of the vehicle 8 and an image of the left side 8c in the front direction and the like. Further, the cameras 30m, 30k, and 30j of the camera wall 20d make it possible to take an image of the front side 8a of the vehicle 8 and an image of the right side 8d in the front direction and the like.

また、左後角部7bから所定距離だけ離れた場所に設けられるカメラウォール20bには、入口5方向から車両8の後方左側方に向かって、カメラ30f,30e,30dがそれぞれ設けられている。さらに、右後角部7cから所定距離だけ離れた場所に設けられるカメラウォール20cには、入口5方向から車両8の後方右側方に向かって、カメラ30g,30h,30iがそれぞれ設けられている。 Further, the camera wall 20b provided at a place separated from the left rear corner portion 7b by a predetermined distance is provided with cameras 30f, 30e, and 30d from the entrance 5 direction toward the rear left side of the vehicle 8, respectively. Further, the camera wall 20c provided at a position separated from the right rear corner portion 7c by a predetermined distance is provided with cameras 30g, 30h, and 30i from the entrance 5 direction toward the rear right side of the vehicle 8, respectively.

これにより、カメラウォール20bのカメラ30f,30e,30dにより車両8の後側8bおよび左側8cの後方向等の画像を撮影することが可能になる。また、カメラウォール20cのカメラ30g,30h,30iにより車両8の後側8bおよび右側8dの後方向等の画像を撮影することが可能になる。 As a result, the cameras 30f, 30e, and 30d of the camera wall 20b can take images of the rear side 8b and the left side 8c of the vehicle 8 in the rear direction and the like. Further, the cameras 30g, 30h, and 30i of the camera wall 20c make it possible to take images of the rear side 8b and the right side 8d of the vehicle 8 in the rear direction and the like.

一方、コンピュータ11は、撮影スタジオ2とは別に部屋(例えば、オペレータ室や調整室)に設けられている。本実施形態では、コンピュータ11は、カメラウォール20a~20dのそれぞれに設けられている12台のカメラ30a等に接続されており、後述するような画像処理等を行う。コンピュータ11やその周辺機器等の構成については、後で図3を参照しながら述べる。 On the other hand, the computer 11 is provided in a room (for example, an operator room or an adjustment room) separately from the shooting studio 2. In the present embodiment, the computer 11 is connected to 12 cameras 30a and the like provided on each of the camera walls 20a to 20d, and performs image processing and the like as described later. The configuration of the computer 11 and its peripheral devices will be described later with reference to FIG.

≪カメラウォール20の構成≫
ここで、カメラウォール20の構成について、図2を参照しながら説明する。4つのカメラウォール20a~20dのうち、カメラウォール20aとカメラウォール20cは同様に構成されている。また、カメラウォール20aとカメラウォール20bはYZ平面に対して、またカメラウォール20aとカメラウォール20dはXY平面に対して、それぞれ鏡映対称に構成されている。そのため、ここでは4つのカメラウォール20a~20dのうち、カメラウォール20aを代表して説明する。図2(A)には、カメラウォール20aの正面図が図示されている。また図2(B)には、カメラウォール20aの平面図が図示されている。なお、便宜的に図2においては、透明パネル39の部分を薄い灰色に、またドームカバー38の部分を濃い灰色に、それぞれ着色している。
<< Configuration of camera wall 20 >>
Here, the configuration of the camera wall 20 will be described with reference to FIG. Of the four camera walls 20a to 20d, the camera wall 20a and the camera wall 20c are similarly configured. Further, the camera wall 20a and the camera wall 20b are configured to be mirror-symmetrical with respect to the YZ plane, and the camera wall 20a and the camera wall 20d are configured to be mirror-symmetrical with respect to the XY plane. Therefore, among the four camera walls 20a to 20d, the camera wall 20a will be described here as a representative. FIG. 2A shows a front view of the camera wall 20a. Further, FIG. 2B shows a plan view of the camera wall 20a. For convenience, in FIG. 2, the transparent panel 39 is colored light gray and the dome cover 38 is colored dark gray.

図2に示すように、カメラウォール20aは、主に、縦枠21、横枠22、上面パネル23、側面パネル24、前面パネル25,26等により構成されている。縦枠21と横枠22は、例えば、アルミニウム製のL型アングルや角パイプであり、カメラウォール20aの骨組構造を構成している(図2(B)参照)。X軸方向に掛け渡されている横枠22は、図1に示す楕円Oの楕円弧やそれに近似した楕円弧に沿う形状に湾曲している。横枠22は、例えば、高さ方向に異なる位置の複数箇所(例えば3箇所)に設けられている。 As shown in FIG. 2, the camera wall 20a is mainly composed of a vertical frame 21, a horizontal frame 22, a top panel 23, a side panel 24, front panels 25, 26 and the like. The vertical frame 21 and the horizontal frame 22 are, for example, aluminum L-shaped angles or square pipes, and form the framework structure of the camera wall 20a (see FIG. 2B). The horizontal frame 22 spanning in the X-axis direction is curved in a shape along the elliptical arc of the ellipse O shown in FIG. 1 or an elliptical arc close to the elliptical arc. The horizontal frames 22 are provided at a plurality of locations (for example, three locations) at different positions in the height direction, for example.

上面パネル23、側面パネル24および前面パネル25,26は、例えば、鉄製の平坦な平板(鉄板)で構成された板壁構造を有する壁体があり、表面が灰色に塗装されている。上面パネル23はカメラウォール20aの上方を塞ぐ天板の役割、側面パネル24はカメラウォール20aの側方を塞ぐ側板の役割をそれぞれ果たしている。X軸方向に掛け渡されている横枠22は、前述したように楕円弧に沿う形状に湾曲しているため、カメラウォール20aの前面は、複数枚の前面パネル25,26により構成される。 The top panel 23, the side panel 24, and the front panels 25, 26 have, for example, a wall body having a plate wall structure composed of a flat flat plate (iron plate) made of iron, and the surface thereof is painted gray. The top panel 23 plays the role of a top plate that closes the upper part of the camera wall 20a, and the side panel 24 plays the role of a side plate that closes the sides of the camera wall 20a. Since the horizontal frame 22 spanning in the X-axis direction is curved in a shape along an elliptical arc as described above, the front surface of the camera wall 20a is composed of a plurality of front panels 25 and 26.

本実施形態では、前面パネル25,26は、X軸方向(短手方向)の長さがいずれも同じ寸法に設定されており、前面パネル25,26の合計枚数は、例えば、所定位置7の周囲方向に並んで配置されるカメラ30の台数Nを2倍して1を引いた数S(=N×2-1)に設定されている。カメラウォール20aが備えるカメラ30は3台であるので、前面パネル25,26の合計枚数Sは5(=3×2-1)になる。 In the present embodiment, the front panels 25 and 26 are all set to have the same length in the X-axis direction (short direction), and the total number of front panels 25 and 26 is, for example, at a predetermined position 7. The number S (= N × 2-1) obtained by doubling the number N of the cameras 30 arranged side by side in the peripheral direction and subtracting 1 is set. Since the camera wall 20a has three cameras 30, the total number S of the front panels 25 and 26 is 5 (= 3 × 2-1).

本実施形態では、次に説明するように、前面パネル25は、カメラ30が取り付けられる部分を含めて覆うことから、カメラ30の台数と同数の3枚の前面パネル25と2枚の前面パネル26によりカメラウォール20aの前面が構成される。なお、前面パネル25,26として平坦な平面パネルを選択する必要はなく、短手方向が楕円弧に沿った曲面を有する曲面パネルを前面パネル25,26に用いてもよい。 In the present embodiment, as will be described next, since the front panel 25 covers the portion to which the camera 30 is attached, the number of the three front panels 25 and the two front panels 26 is the same as the number of the cameras 30. The front surface of the camera wall 20a is configured by the above. It is not necessary to select a flat flat panel as the front panels 25 and 26, and a curved panel having a curved surface along an elliptical arc in the lateral direction may be used for the front panels 25 and 26.

前面パネル25は、複数の壁体に分割されている。即ち、前面パネル25は、Y軸方向に上から、幕板壁25a、ブランク板壁25b、腰板壁25cの3種類の壁体で構成されている。これに対して、前面パネル26は、短冊状の長壁体で構成されている。 The front panel 25 is divided into a plurality of walls. That is, the front panel 25 is composed of three types of wall bodies, that is, a curtain plate wall 25a, a blank plate wall 25b, and a wainscot wall 25c from above in the Y-axis direction. On the other hand, the front panel 26 is composed of a strip-shaped long wall body.

幕板壁25aはブランク板壁25b等の上方、腰板壁25cはブランク板壁25b等の下方をそれぞれ塞ぐ壁体である。ブランク板壁25bは、カメラケース33を収容されていないラック空間の前面開口部を塞ぐ壁体である。本実施形態では、中段のラック空間28にカメラケース33が収容されており、上段のラック空間27と下段のラック空間29はカメラケース33が収容されていない。そのため、本実施形態では、ブランク板壁25bは、上下段のラック空間27,29を塞いでいる。なお、中段のラック空間28には、カメラケース33の前蓋36が取り付けられている。図2(A)においては、ラック空間は、二点鎖線で表現されており、符号を付していないものもある。 The curtain plate wall 25a is a wall body that closes the upper side of the blank plate wall 25b and the like, and the waist plate wall 25c is a wall body that closes the lower side of the blank plate wall 25b and the like. The blank plate wall 25b is a wall body that closes the front opening of the rack space that does not accommodate the camera case 33. In the present embodiment, the camera case 33 is housed in the middle rack space 28, and the camera case 33 is not housed in the upper rack space 27 and the lower rack space 29. Therefore, in the present embodiment, the blank plate wall 25b closes the upper and lower rack spaces 27 and 29. The front lid 36 of the camera case 33 is attached to the rack space 28 in the middle stage. In FIG. 2A, the rack space is represented by a two-dot chain line, and some of them are not marked.

前面パネル26は、ラック空間27,28,29が設けられていない部分の前面開口部を塞ぐ壁体である。本実施形態では、カメラウォール20aは、3台のカメラ30が車両8の周囲方向に並ぶように設けられているため、3台のカメラの間の2箇所に前面パネル26が取り付けられている。前面パネル26により塞がれているカメラウォール20aの内部空間にも、ラック空間27,28,29等が設けられる場合にはカメラ30を取り付けることが可能になる。そのような場合には、前面パネル26に代えて、前面パネル25(幕板壁25a、ブランク板壁25b、腰板壁25c)等が取り付けられる。 The front panel 26 is a wall body that closes the front opening of the portion where the rack spaces 27, 28, and 29 are not provided. In the present embodiment, since the camera wall 20a is provided so that the three cameras 30 are arranged in the peripheral direction of the vehicle 8, the front panels 26 are attached to two places between the three cameras. If rack spaces 27, 28, 29 and the like are provided in the internal space of the camera wall 20a blocked by the front panel 26, the camera 30 can be attached. In such a case, a front panel 25 (curtain board wall 25a, blank board wall 25b, wainscot wall 25c) or the like is attached instead of the front panel 26.

なお、本実施形態では、カメラウォール20aの背面には、図略の背面パネルが取り付けられている。これにより、後述するように、作業員がカメラウォール20aの裏側に隠れる際に身体の一部がカメラウォール20a内に入ったり、塵や埃等がカメラウォール20a内に入り込んだりするのを防止している。このようなことが想定されない場合には、背面パネルは設けなくてもよい。 In this embodiment, a back panel (not shown) is attached to the back of the camera wall 20a. This prevents a part of the body from entering the camera wall 20a and dust or the like from entering the camera wall 20a when the worker hides behind the camera wall 20a, as will be described later. ing. If this is not expected, the back panel may not be provided.

カメラ30が収容されるラック空間27,28,29には、カメラケース33や前蓋36等が取り付けられる。本実施形態では、中段のラック空間28にカメラ30を収容しており、その前面開口部には、前蓋36、ドームカバー38や透明パネル39を有するカメラボックス37が取り付けられている。 A camera case 33, a front lid 36, and the like are attached to the rack spaces 27, 28, and 29 in which the camera 30 is housed. In the present embodiment, the camera 30 is housed in the rack space 28 in the middle stage, and a camera box 37 having a front lid 36, a dome cover 38, and a transparent panel 39 is attached to the front opening thereof.

カメラ30は、カメラ本体とレンズユニットにより構成されており、これらは雲台に取り付けられている。カメラ本体、レンズユニット、雲台は、いずれも図示されていない。カメラ本体は、例えば、動画を撮影可能な高精細ハイビジョンカラーカメラであり、撮影した動画データをSDI(Serial Digital Interface)を介して出力可能に構成されている。また、レンズユニットは、電動ズームレンズ機構も備えており、オートフォーカスによるズーム調整も可能である。ズーム、ホワイトバランスや露出等は、コンピュータ11から調整可能に構成されている。 The camera 30 is composed of a camera body and a lens unit, which are attached to a pan head. The camera body, lens unit, and pan head are not shown. The camera body is, for example, a high-definition high-definition color camera capable of shooting a moving image, and is configured to be able to output the shot moving image data via an SDI (Serial Digital Interface). The lens unit is also equipped with an electric zoom lens mechanism, and zoom adjustment by autofocus is also possible. The zoom, white balance, exposure, etc. can be adjusted from the computer 11.

本実施形態では、ズームやホワイトバランス等の設定データは、カメラインタフェース14を介してRS-232Cケーブル17により接続されたコンピュータ11から受信し得るように構成されている(図3参照)。 In the present embodiment, the setting data such as zoom and white balance can be received from the computer 11 connected by the RS-232C cable 17 via the camera interface 14 (see FIG. 3).

雲台は、雲台に取り付けられたカメラ30の撮影方向を左右方向(車両8の前後方向)や上下方向に変更したり、カメラ30の位置を前後方向(車両8の左右方向)に変更したりし得るものである。雲台は、主に、パン・チルトユニットとスライドユニットにより構成されている。なお、パン・チルトユニットおよびスライドユニットは、いずれも図示を省略している。 The cloud stand changes the shooting direction of the camera 30 attached to the cloud stand to the left-right direction (front-back direction of the vehicle 8) or up-down direction, or changes the position of the camera 30 to the front-back direction (left-right direction of the vehicle 8). It can be. The pan head is mainly composed of a pan / tilt unit and a slide unit. The pan / tilt unit and the slide unit are not shown.

雲台40は、それぞれにカメラ30a等が取り付けられることによって、各カメラ30a等の撮影方向が所定位置7の中心P(図1参照)を向くように、個々の雲台40のパンやチルトが調整される。例えば、後述する基準カメラで車両8を撮影した場合に、当該車両8の全体が撮影視野や画角(撮影範囲)の中心に位置するように当該基準カメラの雲台40のパンおよびチルトが調整される。基準カメラ以外の他のカメラについては、雲台40のパンは、当該車両8の全体が撮影視野や画角(撮影範囲)の中心に位置するように調整される。これに対してチルトは、撮影した画像内の車両8の屋根輪郭最上部の高さが基準カメラで撮影した同輪郭最上部の高さ(図8(J)に示す一点鎖線の高さ)Yhと同じになるように調整される。つまり、カメラ30a等により撮影された車両8の屋根輪郭最上部の高さがそれぞれの画像50a,50b,50c,50d,50e,50f,50g,50h,50i,50j,50k,50m(以下、これらを総称して「画像50a等」という場合がある。)において一様に揃うことになる。 By attaching a camera 30a or the like to each of the pan heads 40, the pan or tilt of each pan head 40 is set so that the shooting direction of each camera 30a or the like faces the center P (see FIG. 1) of the predetermined position 7. It will be adjusted. For example, when the vehicle 8 is photographed by the reference camera described later, the pan and tilt of the pan head 40 of the reference camera are adjusted so that the entire vehicle 8 is located at the center of the shooting field of view and the angle of view (shooting range). Will be done. For cameras other than the reference camera, the pan of the pan head 40 is adjusted so that the entire vehicle 8 is located at the center of the shooting field of view and the angle of view (shooting range). On the other hand, for tilt, the height of the top of the roof contour of the vehicle 8 in the captured image is the height of the top of the contour taken by the reference camera (height of the alternate long and short dash line shown in FIG. 8 (J)) Yh. Is adjusted to be the same as. That is, the height of the top of the roof contour of the vehicle 8 taken by the camera 30a or the like is the respective images 50a, 50b, 50c, 50d, 50e, 50f, 50g, 50h, 50i, 50j, 50k, 50m (hereinafter, these). May be collectively referred to as "image 50a, etc.").

これにより、後述するトリミング処理(S117)において所定のトリミング枠で同様にトリミングされた画像60a,60b,60c,60d,60e,60f,60g,60h,60i,60j,60k,60m(以下、これらを総称して「画像60a等」という場合がある。)は、それに写る車両8の屋根の高さ(図9に示す一点鎖線の高さ)Yiも揃う。そのため、このような車両8の屋根の高さYiが揃っている画像60a等を、例えば、当該車両8の周囲方向順に並ぶように繋げることにより、車両8の全周の車体画像をアラウンドビュー(360度画像)のように回転させているかのように見せることができる。 As a result, the images 60a, 60b, 60c, 60d, 60e, 60f, 60g, 60h, 60i, 60j, 60k, 60m (hereinafter referred to as these) similarly trimmed in the predetermined trimming frame in the trimming process (S117) described later. The height of the roof of the vehicle 8 (the height of the alternate long and short dash line shown in FIG. 9) Yi reflected in the image (sometimes collectively referred to as “image 60a, etc.”) is also included. Therefore, by connecting the images 60a and the like having the same roof height Yi of the vehicle 8 so as to be arranged in the order of the peripheral direction of the vehicle 8, the vehicle body image of the entire circumference of the vehicle 8 can be viewed around. It can be made to appear as if it is rotated like a 360-degree image).

≪コンピュータ11、周辺機器の構成≫
次に、コンピュータ11やその周辺機器の構成を図3に基づいて説明する。図3には、撮影システム10の電気的な構成例を表したブロック図が図示されている。コンピュータ11は、典型的にはパソコンであり、例えば、MPU、メインメモリ(DRAM等)、ストレージデバイス(磁気ディスク、フラッシュメモリ等)、通信インタフェース(LANインタフェース、SDIインタフェース等)、ディスプレィやキーボード等により構成されている(図3にはこれらは図示されていない)。
≪Computer 11, peripheral device configuration≫
Next, the configuration of the computer 11 and its peripheral devices will be described with reference to FIG. FIG. 3 shows a block diagram showing an example of an electrical configuration of the photographing system 10. The computer 11 is typically a personal computer, and may be, for example, an MPU, a main memory (DRAM, etc.), a storage device (magnetic disk, flash memory, etc.), a communication interface (LAN interface, SDI interface, etc.), a display, a keyboard, or the like. It is configured (these are not shown in FIG. 3).

後述するように、当該コンピュータ11が実行する車両画像撮影処理のプログラムやトリミング枠設定処理のプログラム等は、ストレージデバイスに予め格納されている。この車両画像撮影処理により、コンピュータ11は、カメラウォール20a~20dのそれぞれのカメラ30a等から、ビデオハブ12およびSDIケーブル15,16を介してSDIインタフェースにより動画データを取得する。コンピュータ11は、LANインタフェースによりLANケーブル18に接続され、またカメラ30a等が有するカメラインタフェース14にもRS-232Cケーブル17を介して接続されている。コンピュータ11からディスプレィに出力されるビデオ信号は、分配器を介して図略のサブディスプレィにも送られている。このサブディスプレィは、例えば、カメラウォール20a~20dのいずれかの退避スペース4に配置されている。 As will be described later, a vehicle image capture processing program, a trimming frame setting processing program, and the like executed by the computer 11 are stored in advance in the storage device. By this vehicle image capturing process, the computer 11 acquires moving image data from the cameras 30a and the like of the camera walls 20a to 20d via the video hub 12 and the SDI cables 15 and 16 by the SDI interface. The computer 11 is connected to the LAN cable 18 by the LAN interface, and is also connected to the camera interface 14 of the camera 30a or the like via the RS-232C cable 17. The video signal output from the computer 11 to the display is also sent to the sub-display shown in the figure via the distributor. This sub-display is arranged in, for example, the evacuation space 4 of any of the camera walls 20a to 20d.

ビデオハブ12は、SDIインタフェースによる複数チャネルの映像信号を選択可能な集線装置であり、LANインタフェースを備えている。本実施形態では、ビデオハブ12は、例えば、12チャネルの入力系統に対して4チャネルの出力系統を選択可能に構成されている。入力系統のチャネル数は、カメラ30a等の台数12に合わせたものであり、また出力系統のチャネル数は、カメラウォール20a~20dの数に合わせている。これにより、例えば、各カメラウォール20a~20dごとに4チャネル(A~Dチャネル)に分割してコンピュータ11に送信することが可能になる。ビデオハブ12は、LANケーブル18にも接続されている。そのため、A~Dチャネルの動画データの送信は、コンピュータ11からLANを介して受け取る制御コマンドに従って行われる。 The video hub 12 is a concentrator that can select a plurality of channels of video signals by an SDI interface, and includes a LAN interface. In the present embodiment, the video hub 12 is configured so that, for example, a 4-channel output system can be selected for a 12-channel input system. The number of channels of the input system is matched to the number 12 of the cameras 30a and the like, and the number of channels of the output system is matched to the number of camera walls 20a to 20d. As a result, for example, each camera wall 20a to 20d can be divided into 4 channels (A to D channels) and transmitted to the computer 11. The video hub 12 is also connected to the LAN cable 18. Therefore, the transmission of the moving image data of the A to D channels is performed according to the control command received from the computer 11 via the LAN.

例えば、ビデオハブ12は、Aチャネルの送信タイミングにおいては、カメラウォール20aのカメラ30a,30b,30cがそれぞれ撮影した動画データを所定のタイムスロットに時分割してコンピュータ11に送信する。またBチャネルの送信タイミングでは、カメラウォール20bのカメラ30d,30e,30fがそれぞれ撮影した動画データを所定のタイムスロットに時分割してコンピュータ11に送信する。同様に、カメラウォール20cのカメラ30g,30h,30iの動画データをCチャネルにより、またカメラウォール20dのカメラ30j,30k,30mの動画データをDチャネルにより、それぞれのタイミングで送信する。 For example, at the transmission timing of the A channel, the video hub 12 time-divisions the moving image data captured by the cameras 30a, 30b, and 30c of the camera wall 20a into predetermined time slots and transmits the video data to the computer 11. Further, at the transmission timing of the B channel, the moving image data captured by the cameras 30d, 30e, and 30f of the camera wall 20b are time-divisioned into predetermined time slots and transmitted to the computer 11. Similarly, the moving image data of the cameras 30g, 30h, 30i of the camera wall 20c is transmitted by the C channel, and the moving image data of the cameras 30j, 30k, 30m of the camera wall 20d is transmitted by the D channel at the respective timings.

本実施形態では、カメラ30a等が有するカメラインタフェース14は、RS-232Cに準拠したインタフェースであり、デイジーチェーン状にそれぞれのカメラ30a等を電気的に数珠つなぎにするものである。コンピュータ11からアドレス付きの制御コマンドを受信すると、当該アドレスのカメラ30がその制御コマンドに従った制御を行う。 In the present embodiment, the camera interface 14 included in the cameras 30a and the like is an interface compliant with RS-232C, and the cameras 30a and the like are electrically connected in a daisy chain. When a control command with an address is received from the computer 11, the camera 30 at the address performs control according to the control command.

なお、ビデオハブ12が備えるチャネル数は、入力系統数がカメラ30a等の台数以上であればよく、また出力系統数は多い方がよいが1チャネル以上カメラ30a等の台数以下でもよい。また、本実施形態では、LANケーブル18にファイルサーバ13等を接続している。このファイルサーバ13には、出品検査票に記載された車両8に関する固有情報(出品番号、車種、型式、排気量、走行距離、車名等)や、後述するように、コンピュータ11により実行される車両画像撮影処理によって動画データから切り出された(キャプチャーされた)静止画データ等が蓄積される。なお、ファイルサーバは、データベースサーバを含む概念である。 The number of channels included in the video hub 12 may be as long as the number of input systems is equal to or greater than the number of cameras 30a or the like, and the number of output systems may be larger, but may be 1 channel or more and less than or equal to the number of cameras 30a or the like. Further, in the present embodiment, the file server 13 and the like are connected to the LAN cable 18. The file server 13 is executed by the computer 11 and the unique information (exhibition number, vehicle type, model, exhaust volume, mileage, vehicle name, etc.) regarding the vehicle 8 described in the exhibition inspection slip, and as will be described later. Still image data and the like cut out (captured) from the moving image data by the vehicle image shooting process are accumulated. The file server is a concept including a database server.

このほか、LANケーブル18には、図示されていない周辺機器として、例えば、他のパソコン、プリンタや無線LANのアクセスポイント等が接続されている。なお、作業員が携帯する内装画像撮影用のデジタルカメラにより撮影された内装画像データは、無線LANのアクセスポイントを経由してファイルサーバ13に蓄積される。また場合によっては、カメラ30a等のうちの特定のカメラ30(例えば、カメラ30d)または別途設けられたカメラから送られてくる動画データを常時映し出すディスプレィ装置(モニタ装置)が設けられている。この場合には、次に説明する車両画像撮影処理の動画データ取得処理(S107)では、コンピュータ11のディスプレィに動画を映し出す必要はない。 In addition, as peripheral devices (not shown), for example, another personal computer, a printer, a wireless LAN access point, or the like is connected to the LAN cable 18. The interior image data taken by the digital camera for taking an interior image carried by the worker is stored in the file server 13 via the access point of the wireless LAN. Further, in some cases, a display device (monitor device) for constantly displaying moving image data sent from a specific camera 30 (for example, the camera 30d) of the cameras 30a or the like or a separately provided camera is provided. In this case, in the moving image data acquisition process (S107) of the vehicle image capturing process described below, it is not necessary to display the moving image on the display of the computer 11.

≪コンピュータ11による車両画像撮影処理≫
続いて、コンピュータ11が実行する車両画像撮影処理について図4~図9を参照しながら説明する。図4には、コンピュータ11により実行される車両画像撮影処理の流れを表したフローチャートが図示されている。図5には、図4に示すサブルーチン「トリミング枠設定処理」の流れを示すフローチャートが図示されている。図6には、車両画像撮影処理においてコンピュータ11のディスプレィ画面に表示される画面例が図示されている。
≪Vehicle image shooting process by computer 11≫
Subsequently, the vehicle image capturing process executed by the computer 11 will be described with reference to FIGS. 4 to 9. FIG. 4 shows a flowchart showing the flow of the vehicle image capturing process executed by the computer 11. FIG. 5 shows a flowchart showing the flow of the subroutine “trimming frame setting process” shown in FIG. FIG. 6 illustrates a screen example displayed on the display screen of the computer 11 in the vehicle image capturing process.

なお、図6のディスプレィ画面70に表示されているソフトウェアボタンは、それに対応するキースイッチがキーボードに存在する場合には、コンピュータ11のオペレータが当該キーを押下することで選択できるが、オペレータがマウス等のポインティングデバイスによりソフトウェアボタンをクリックすることによっても選択可能である。以下の説明においては、マウスのクリックにより選択可能な場合であっても、オペレータがキースイッチを押下することにより選択される場合を例示して説明する。 The software button displayed on the display screen 70 of FIG. 6 can be selected by the operator of the computer 11 by pressing the key when the corresponding key switch is present on the keyboard, but the operator is the mouse. It can also be selected by clicking the software button with a pointing device such as. In the following description, even if the selection can be made by clicking the mouse, the case where the selection is made by the operator pressing the key switch will be described as an example.

図4に示すように、車両画像撮影処理が開始されると、まずステップS101により所定の初期化処理が行われた後、ステップS103により撮影モード設定処理が行われる。初期化処理では、例えば、当該車両画像撮影処理に関わるワークファイルやフラグ等をクリアしたり設定データ等をメインメモリ上に展開したりする。また、撮影モード設定処理では、それぞれのカメラ30a等に対して個々に設定されているズーム、ホワイトバランスや露出等に関する設定データのデフォルト値をカメラインタフェース14に送信する。これにより、カメラ30a等は、ズームやホワイトバランス等がそれぞれデフォルト値に設定される。 As shown in FIG. 4, when the vehicle image shooting process is started, a predetermined initialization process is first performed in step S101, and then a shooting mode setting process is performed in step S103. In the initialization process, for example, the work file, the flag, etc. related to the vehicle image shooting process are cleared, and the setting data, etc. are expanded on the main memory. Further, in the shooting mode setting process, the default values of the setting data related to the zoom, white balance, exposure, etc., which are individually set for each camera 30a and the like, are transmitted to the camera interface 14. As a result, the zoom, white balance, and the like of the camera 30a and the like are set to default values.

本実施形態では、図6に示すディスプレィ画面70のように、例えば、撮影モードが「晴れ」、「曇り」、「夕方」、「夜間」のようにカメラモードボタン96として表示されている。例えば、現在設定されている撮影モードの「晴れ」は黄色(図7では薄灰色)で表示され、それ以外の「曇り」等は灰色で表示されている。この撮影モードは、オペレータがF9キーの「カメラモード切替」79を押下することによって、設定する撮影モードを「晴れ」→「曇り」→「夕方」→「夜間」→「晴れ」→…というようにサイクリックに切り替えることができる。 In the present embodiment, as in the display screen 70 shown in FIG. 6, for example, the shooting mode is displayed as a camera mode button 96 such as “sunny”, “cloudy”, “evening”, and “night”. For example, "sunny" in the currently set shooting mode is displayed in yellow (light gray in FIG. 7), and other "cloudy" and the like are displayed in gray. In this shooting mode, the operator presses the "camera mode switch" 79 of the F9 key to set the shooting mode to "sunny"-> "cloudy"-> "evening"-> "night"-> "sunny"-> ... Can be switched to cyclic.

ステップS103の撮影モード設定処理が済むと、撮影開始の指示があるまで待機する(S105)。即ち、図6に示すように、コンピュータ11のディスプレィ画面70に表示されているファンクションのF5キーの「一括撮影」75またはF6キーの「4地点撮影」76が押下されるまで待機する(S105;No)。なお、図6の表示例は、ある程度処理が進んだ状態の画面表示を例示しているため、このステップS103の処理時点では表示されていないもの(例えば、4地点静止画94、マルチ静止画95)が既に表示されていることに注意されたい。 When the shooting mode setting process in step S103 is completed, the process waits until there is an instruction to start shooting (S105). That is, as shown in FIG. 6, it waits until the "batch shooting" 75 of the F5 key of the function displayed on the display screen 70 of the computer 11 or the "four-point shooting" 76 of the F6 key is pressed (S105; No). Since the display example of FIG. 6 exemplifies the screen display in a state where the processing has progressed to some extent, the display is not displayed at the time of processing in step S103 (for example, a four-point still image 94 and a multi-still image 95). Note that) is already displayed.

例えば、コンピュータ11のオペレータは、車両8が所定位置7に停車するまで撮影開始を待ったり、また作業員による車両8の内装画像の撮影が終了するまで撮影開始を待ったりする。また、カメラウォール20a~20dのカメラ30a等により動画の撮影が開始されると、作業員の姿が当該動画に写り込んでしまう場合がある。そのため、当該作業員は、車両8の移動や内装の撮影等の所定の作業を完了すると、カメラウォール20a~20dの裏側に設けられている退避スペース4(図1参照)に隠れることで、このような写り込みを防ぐことが可能になる。オペレータは、作業員による所定の作業や退避が完了したことを、目視やインカム(インターコミュニケーション)等により確認したうえで、「一括撮影」75または「4地点撮影」76を押下する。 For example, the operator of the computer 11 waits for the start of shooting until the vehicle 8 stops at the predetermined position 7, or waits for the start of shooting until the worker finishes shooting the interior image of the vehicle 8. Further, when the shooting of a moving image is started by the cameras 30a or the like of the camera walls 20a to 20d, the figure of the worker may be reflected in the moving image. Therefore, when the worker completes predetermined work such as moving the vehicle 8 and photographing the interior, the worker hides in the evacuation space 4 (see FIG. 1) provided on the back side of the camera walls 20a to 20d. It is possible to prevent such reflections. The operator presses "Batch shooting" 75 or "Four-point shooting" 76 after confirming by visual inspection or intercommunication that the predetermined work or evacuation by the worker has been completed.

「一括撮影」75や「4地点撮影」76が押下されると(S105;Yes)、コンピュータ11からカメラインタフェース14に対して各カメラ30a等のアドレスを付けた撮影開始の制御コマンドが送信される。これにより、カメラ30a等はそれぞれ車両8の動画撮影を始める。 When "Batch shooting" 75 or "Four-point shooting" 76 is pressed (S105; Yes), a control command for starting shooting with an address such as each camera 30a is transmitted from the computer 11 to the camera interface 14. .. As a result, the cameras 30a and the like each start shooting a moving image of the vehicle 8.

続くステップS107により動画データ取得処理が行われる。ここでは「一括撮影」75が押下された場合を例示して説明する。なお、「4地点撮影」76が押下された場合には、カメラウォール20a~20dが備える3台のカメラ30a等のうち、中央に配置されたカメラ30b,30e,30h,30kからビデオハブ12を介して送られてくる動画データだけが画像処理の対象になる。この点が、すべてのカメラ30a等の動画データを画像処理の対象にする「一括撮影」の場合と異なる。 The moving image data acquisition process is performed by the subsequent step S107. Here, the case where "Batch shooting" 75 is pressed will be described as an example. When "4 point shooting" 76 is pressed, the video hub 12 is used from the cameras 30b, 30e, 30h, 30k arranged in the center among the three cameras 30a and the like provided in the camera walls 20a to 20d. Only the moving image data sent via the image processing is targeted. This point is different from the case of "batch shooting" in which moving image data of all cameras 30a and the like are targeted for image processing.

ステップS107の処理では、例えば、各カメラ30a等から送られてくる動画データのうちカメラ30a,30b,30cの動画データをAチャネルから出力するように指示可能な制御コマンドをビデオハブ12に対して送信する。これにより、ビデオハブ12からAチャネルを介してカメラ30a,30b,30cの動画データが送られてくる。これにより、コンピュータ11のディスプレィには、例えば、カメラ30a,30b,30cから送られてくる動画が図6に示す4地点静止画94のように画面分割されて映し出される。特定の1台のカメラ30(例えば、カメラ30c)から送られてくる動画を符号94で示す破線内に大きく映し出してもよい。 In the process of step S107, for example, a control command capable of instructing the video hub 12 to output the video data of the cameras 30a, 30b, 30c among the video data sent from the cameras 30a and the like is given to the video hub 12. Send. As a result, the moving image data of the cameras 30a, 30b, 30c is sent from the video hub 12 via the A channel. As a result, for example, the moving image sent from the cameras 30a, 30b, and 30c is projected on the display of the computer 11 by dividing the screen as shown in the four-point still image 94 shown in FIG. The moving image sent from one specific camera 30 (for example, the camera 30c) may be greatly projected within the broken line indicated by the reference numeral 94.

このため、次のステップS109では、Aチャネルから入力される画像データに対してキャプチャー処理を行い、動画データから静止画データを切り抜いて(キャプチャーして)、例えば、それをストレージデバイスに一時的に格納する。動画データから切り出す静止画データは、1つでも2つ以上でもよい。静止画データを2つ以上切り出した場合には、後述するトリミング処理(S117)も、これら2つ以上の静止画データに対して行われる。 Therefore, in the next step S109, the image data input from the A channel is captured, the still image data is cut out (captured) from the moving image data, and for example, it is temporarily stored in the storage device. Store. The still image data to be cut out from the moving image data may be one or two or more. When two or more still image data are cut out, the trimming process (S117) described later is also performed on the two or more still image data.

このような動画データ取得処理(S107)とキャプチャー処理(S109)をAチャネルからDチャネルまで行うことによって(S111;No)、カメラ30a等から出力される各動画データについて静止画データを切り出すことが可能になる。ステップS111によりキャプチャー処理が全データに対して行われたと判定すると(S111;Yes)、続くステップS113により撮影完了表示処理が行われる。 By performing such video data acquisition processing (S107) and capture processing (S109) from channel A to channel D (S111; No), it is possible to cut out still image data for each video data output from the camera 30a or the like. It will be possible. When it is determined in step S111 that the capture process has been performed on all the data (S111; Yes), the shooting completion display process is performed in the subsequent step S113.

撮影完了表示処理(S113)は、ディスプレィ画面70の撮影完了インジケータ99aの表示色を灰色から赤色に変更することにより行われる。つまり、撮影完了インジケータ99aは、撮影完了前は「撮影完了」の文字の背景色が灰色で表示され、撮影完了後は同背景色が赤色で表示される。なお、撮影完了インジケータ99aの右隣に表示されている調整完了インジケータ99bは、調整完了前は「調整完了」の文字の背景色が灰色で表示され、調整完了後は同背景色が赤色で表示される。 The shooting completion display process (S113) is performed by changing the display color of the shooting completion indicator 99a on the display screen 70 from gray to red. That is, in the shooting completion indicator 99a, the background color of the characters "shooting completed" is displayed in gray before the shooting is completed, and the background color is displayed in red after the shooting is completed. The adjustment completion indicator 99b displayed to the right of the shooting completion indicator 99a displays the background color of the characters "adjustment completed" in gray before the adjustment is completed, and the same background color is displayed in red after the adjustment is completed. Will be done.

なお、これらの撮影完了インジケータ99aや調整完了インジケータ99bは、作業員が待機可能なカメラウォール20a~20d裏の退避スペース4にサブディスプレィが設けられている場合には、そのディスプレィにもディスプレィ画面70が表示されるため、作業員はその画面によっても確認することができる。 If a sub-display is provided in the evacuation space 4 behind the camera walls 20a to 20d where the worker can stand by, the shooting completion indicator 99a and the adjustment completion indicator 99b are also displayed on the display screen 70. Is displayed, so the worker can also check it on the screen.

このように静止画の切り出し(キャプチャー)が完了すると、次にステップS115によりトリミング枠設定処理が行われる。本車両画像撮影処理におけるトリミングとは、車両8の画像を中心にその周囲の不要な画像部分を切り取ることをいい、そのために設定される境界線がトリミング枠である。トリミング枠の内側を残して、同枠の外側を削除する画像処理が次のステップS117により行われるトリミング処理である。トリミングは、「切り抜き」ともいう。 When the still image is cut out (captured) in this way, the trimming frame setting process is then performed in step S115. The trimming in the vehicle image capturing process means to cut out an unnecessary image portion around the image of the vehicle 8 and the boundary line set for that purpose is a trimming frame. The image processing that leaves the inside of the trimming frame and deletes the outside of the frame is the trimming process performed in the next step S117. Trimming is also called "clipping".

ステップS115によるトリミング枠設定処理は、図5に処理の流れが図示されており、またこの処理の概念イメージを表した説明図が図7に示されている。そのため、ここからは図5および図7も参照しながら説明する。なお、トリミング前の画像が表されている図8や、トリミング後の画像が表されている図9も参照する。 The flow of the trimming frame setting process in step S115 is shown in FIG. 5, and an explanatory diagram showing a conceptual image of this process is shown in FIG. Therefore, from here on, it will be described with reference to FIGS. 5 and 7. In addition, FIG. 8 showing the image before trimming and FIG. 9 showing the image after trimming are also referred to.

図5に示すように、トリミング枠設定処理では、まずステップS201により所定の初期化処理が行われる。この処理は、例えば、後述する絞込み範囲のデフォルト値が設定される。続くステップS203では基準画像取得処理が行われる。この基準画像には、カメラ30a等のうち、車両8の前輪9aのホイール(またはタイヤ)と後輪9bのホイール(またはタイヤ)との間隔が最も広く撮影できるカメラにより撮られた画像が選択される(図7(A)参照)。即ち、車両8の真横から撮影した画像には、前後のホイール間隔が最も広く写り得ることから、車両8のセンターピラー付近にカメラが設けられている場合にはそのカメラにより撮影された画像を基準画像に選択する。 As shown in FIG. 5, in the trimming frame setting process, first, a predetermined initialization process is performed in step S201. In this process, for example, a default value of a narrowing range described later is set. In the following step S203, the reference image acquisition process is performed. For this reference image, an image taken by a camera capable of taking the widest distance between the wheel (or tire) of the front wheel 9a of the vehicle 8 and the wheel (or tire) of the rear wheel 9b is selected from the cameras 30a and the like. (See Fig. 7 (A)). That is, since the front and rear wheel spacing can be widest in the image taken from the side of the vehicle 8, if a camera is provided near the center pillar of the vehicle 8, the image taken by the camera is used as a reference. Select for the image.

ところが、本実施形態の場合には、車両8のセンターピラー付近にはカメラが設けられていない。そのため、車両8の前後方向の中央に最も近い、カメラ30c,30d,30i,30jが撮影した画像50c,50d,50i,50jが基準画像に該当し得ることになる(図8(C),図8(D),図8(I),図8(J)参照)。即ち、これらのカメラ30c,30d,30i,30jでは、他のカメラ30a,30b,30e,30f,30g,30h,30k,30mに比べて、車両8の前後方向を最も大きく撮ることができることから、これらのカメラ30c,30d,30i,30jで車両8の一部が切れて(欠けて)撮影されることがなければ、他のカメラにおいてもそのような車両8の一部の切れ(欠け)が発生し得ないからである。 However, in the case of the present embodiment, the camera is not provided near the center pillar of the vehicle 8. Therefore, the images 50c, 50d, 50i, 50j taken by the cameras 30c, 30d, 30i, and 30j, which are closest to the center of the vehicle 8 in the front-rear direction, can correspond to the reference image (FIG. 8 (C), FIG. 8 (D), Fig. 8 (I), Fig. 8 (J)). That is, these cameras 30c, 30d, 30i, and 30j can take the largest image in the front-rear direction of the vehicle 8 as compared with other cameras 30a, 30b, 30e, 30f, 30g, 30h, 30k, and 30m. Unless a part of the vehicle 8 is cut (missing) and photographed by these cameras 30c, 30d, 30i, 30j, a part of the vehicle 8 is cut (missing) in other cameras as well. This is because it cannot occur.

なお、画像認識処理の対象としては、外来光の影響が少ない画像がより望ましい。そのため、画像内において、外部から光が入り込んでいる出口6に比べて外来光の入射があるものの写り込みの範囲が狭い入口5が写っている方の画像、つまり画像50cまたは画像50jを基準画像に選択する。本実施形態ではカメラ30jにより撮影された画像50jを基準画像にする。なお、本明細書では、基準画像を撮影したカメラのことを基準カメラという場合がある。 As the target of the image recognition processing, an image that is less affected by external light is more desirable. Therefore, in the image, the image of the entrance 5 in which the range of reflection is narrower than that of the exit 6 in which the light enters from the outside is incident, that is, the image 50c or the image 50j is used as the reference image. Select to. In the present embodiment, the image 50j taken by the camera 30j is used as the reference image. In this specification, a camera that has taken a reference image may be referred to as a reference camera.

また、次のステップS205では、ホイール検知処理が行われる。この処理は、基準画像(車両の側面が現れる車両画像を含む画像)の画像データから、円または楕円を2箇所において画像認識し前輪9aおよび後輪9bのホイールの画像を検知する。前輪9aおよび後輪9bのホイールは、車両8の真横から撮影した画像においては円形(円)の画像として現れ、また車両8の斜め横から撮影した画像においては楕円形(楕円)の画像として現れる。そのため、カメラ30jで撮影された画像50j(基準画像)では、前輪9aおよび後輪9bのホイールは楕円形の画像として現れることから、ステップS205のホイール検知処理の画像認識では、例えば、予め登録されているホイール相当の楕円形の複数種類のテンプレートに基づいてテンプレートパターンマッチングが行われる。 Further, in the next step S205, the wheel detection process is performed. This process recognizes a circle or an ellipse at two points from the image data of the reference image (an image including a vehicle image in which the side surface of the vehicle appears) and detects the images of the wheels of the front wheels 9a and the rear wheels 9b. The wheels of the front wheels 9a and the rear wheels 9b appear as a circular (circular) image in the image taken from the side of the vehicle 8 and as an elliptical (elliptical) image in the image taken from the diagonal side of the vehicle 8. .. Therefore, in the image 50j (reference image) taken by the camera 30j, the wheels of the front wheels 9a and the rear wheels 9b appear as elliptical images. Therefore, in the image recognition of the wheel detection process in step S205, for example, they are registered in advance. Template pattern matching is performed based on multiple types of elliptical templates corresponding to the wheels.

また、本実施形態では、ステップS201の初期化処理によって絞込み範囲のデフォルト値が設定されている。そのため、基準画像の全範囲を対象に画像認識によるホイール検知が行われるのではなく、当該絞込み範囲(絞込み枠α)内においてホイール検知が行われる。即ち、本実施形態では、例えば、図7(B)に示すように、画像50jの画像全範囲α(図7(B)に示す灰色に着色された外周範囲内)よりも小さい範囲を囲む絞込み枠β内においてホイール検知が行われる。この絞込み枠βは、この画像50jを撮影したカメラ30jの画角(撮影範囲)と所定位置7の位置関係に基づいて、車両8が所定位置7に停車した場合には当該車両8の前輪9aおよび後輪9bが概ね位置と範囲に設定されている。 Further, in the present embodiment, the default value of the narrowing range is set by the initialization process of step S201. Therefore, the wheel is not detected by image recognition for the entire range of the reference image, but the wheel is detected within the narrowing range (narrowing frame α). That is, in the present embodiment, for example, as shown in FIG. 7B, the narrowing down that surrounds a range smaller than the entire image range α of the image 50j (within the gray colored outer peripheral range shown in FIG. 7B). Wheel detection is performed in the frame β. The narrowing frame β is based on the positional relationship between the angle of view (shooting range) of the camera 30j that captured the image 50j and the predetermined position 7, and when the vehicle 8 stops at the predetermined position 7, the front wheel 9a of the vehicle 8 is used. And the rear wheel 9b is generally set to the position and range.

なお、車両8のサイズによって絞込み枠βの範囲内に前輪9aや後輪9bが入らない場合には、絞込み枠βよりもサイズが大きい別の絞込み枠がストレージデバイスから呼び出されて、ステップS205のホイール検知処理に用いられる。絞込み枠βの範囲内に前輪9aや後輪9bが入らない場合は、絞込み枠β内において楕円(または円)が1箇所しか検知されないときや、1箇所も楕円(または円)が検知されないときである。 If the front wheels 9a and the rear wheels 9b do not fit within the range of the narrowing frame β depending on the size of the vehicle 8, another narrowing frame having a size larger than that of the narrowing frame β is called from the storage device, and step S205 is performed. Used for wheel detection processing. When the front wheels 9a and the rear wheels 9b do not fit within the narrowing frame β, when only one ellipse (or circle) is detected in the narrowing frame β, or when no ellipse (or circle) is detected. Is.

ステップS205により前輪9aおよび後輪9bのホイールの画像が検知されると、ステップS207ではホイールベース算出処理が行われる。ホイールベースは、車両8の前輪9aの車軸と後輪9bの車軸との間の距離である。そのため、このホイールベース算出処理では、ステップS205のホイール検知処理により画像認識された前輪9aおよび後輪9bのそれぞれの楕円(または円)51,52の中心53,54を求めたうえで両方の中心間の距離、つまりホイールベース57を算出する。ホイールベース(中心間の距離)57は、例えば、画素(ピクセル)数で表される。 When the images of the wheels of the front wheels 9a and the rear wheels 9b are detected in step S205, the wheelbase calculation process is performed in step S207. The wheelbase is the distance between the axle of the front wheel 9a and the axle of the rear wheel 9b of the vehicle 8. Therefore, in this wheelbase calculation process, the centers 53 and 54 of the ellipses (or circles) 51 and 52 of the front wheels 9a and the rear wheels 9b image-recognized by the wheel detection process in step S205 are obtained, and then the centers of both are obtained. The distance between them, that is, the wheelbase 57 is calculated. The wheelbase (distance between centers) 57 is represented by, for example, the number of pixels.

ステップS207により算出されたホイールベース57は、次のステップS209によるトリミング枠決定処理に用いられる。一般的に車両8の全長は、ホイールベース57に左右されることが多いため、ホイールベース57の大きさから当該車両8の全長が概ね決まる。つまり、ホイールベース57の長さごとに、それぞれに対応する車両8の大きさ(サイズ(全長、全幅、全高))を定めることが可能になる。したがって、本実施形態では、それぞれのサイズ(全長、全幅、全高)の車両全体を囲み得る複数種類のトリミング枠γが、ホイールベース57の長さごとにそれぞれ関連付けられている。例えば、図6のディスプレィ画面70に表示されている枠サイズボタン93(「枠1」~「枠9」)は、このような複数種類のトリミング枠γをオペレータが手動で選択するためのものである。 The wheelbase 57 calculated in step S207 is used for the trimming frame determination process in the next step S209. Generally, the total length of the vehicle 8 is often influenced by the wheelbase 57, so that the total length of the vehicle 8 is roughly determined by the size of the wheelbase 57. That is, it is possible to determine the size (size (total length, total width, total height)) of the vehicle 8 corresponding to each length of the wheelbase 57. Therefore, in the present embodiment, a plurality of types of trimming frames γ that can surround the entire vehicle of each size (total length, total width, total height) are associated with each length of the wheelbase 57. For example, the frame size buttons 93 (“frame 1” to “frame 9”) displayed on the display screen 70 of FIG. 6 are for the operator to manually select such a plurality of types of trimming frames γ. be.

ステップS209のトリミング枠決定処理により車両8の全体を囲み得るトリミング枠γが決定(設定)されると、本トリミング枠設定処理を終了して図4に示す車両画像撮影処理に処理を戻す。 When the trimming frame γ that can surround the entire vehicle 8 is determined (set) by the trimming frame determination process in step S209, the present trimming frame setting process is terminated and the process returns to the vehicle image capturing process shown in FIG.

ステップS117によるトリミング処理では、カメラ30a等の動画データから切り抜いてストレージデバイス等に一時的に格納された静止画データを読み出した後、ステップS115で設定されたトリミング枠γを用いて同枠γ内の画像データを切り抜いて別の画像データを生成する処理である。この処理は、ステップS109により切り出したすべての静止画データに対して終了するまで行われる(S119;No)。これにより、後述するように、ステップS117によるトリミング処理後の静止画データを当該車両8の周囲方向順に並ぶように繋げることにより、車両8の全周の車体周囲を見ることが可能なアラウンドビュー(360度画像)相当の車体画像データを生成できていることがわかる。 In the trimming process in step S117, after cutting out from the moving image data of the camera 30a or the like and reading the still image data temporarily stored in the storage device or the like, the trimming frame γ set in step S115 is used in the same frame γ. It is a process to cut out the image data of the above and generate another image data. This process is performed until the end of all the still image data cut out in step S109 (S119; No). As a result, as will be described later, by connecting the still image data after the trimming process in step S117 so as to be arranged in the order of the peripheral direction of the vehicle 8, it is possible to see the surroundings of the vehicle body around the entire circumference of the vehicle 8 (around view). It can be seen that the vehicle body image data equivalent to (360 degree image) can be generated.

なお、図8にトリミング処理(S117)の前の画像データの一例を示す。また、図9にトリミング処理(S117)の後の画像データの一例を示す。これらの図から、図9のトリミング後の画像等は、図8のトリミング前の画像50a等から切り抜かれたものであることが理解できる。また、図9の画像60a等は、図6に示すディスプレィ画面70のマルチ静止画95において表示されている各静止画像であることもわかる。 Note that FIG. 8 shows an example of image data before the trimming process (S117). Further, FIG. 9 shows an example of image data after the trimming process (S117). From these figures, it can be understood that the image and the like after the trimming of FIG. 9 are cut out from the image 50a and the like before the trimming of FIG. It can also be seen that the images 60a and the like in FIG. 9 are the still images displayed in the multi-still image 95 of the display screen 70 shown in FIG.

また、トリミング枠γのサイズXb,Ybは、トリミング後の画像60a等を表示させるディスプレィ画面70の表示サイズ(例えば、QVGAに対応したアスペクト比4:3の1280ピクセル×960ピクセル)に適合した矩形サイズに設定されている。なお、トリミング前の画像50a等のサイズXa,Yaは、例えば、フルHDに対応したアスペクト比16:9の1920ピクセル×1080ピクセルに設定されている。 Further, the sizes Xb and Yb of the trimming frame γ are rectangles suitable for the display size of the display screen 70 for displaying the trimmed image 60a and the like (for example, 1280 pixels × 960 pixels with an aspect ratio of 4: 3 corresponding to QVGA). It is set to the size. The sizes Xa and Ya of the image 50a and the like before trimming are set to, for example, 1920 pixels × 1080 pixels having an aspect ratio of 16: 9 corresponding to full HD.

ステップS119によりトリミング処理が全データに対して行われたと判定すると(S119;Yes)、続くステップS121により車体画像表示処理が行われる。この処理では、ステップS119によるトリミング後の静止画像をディスプレィ画面70の4地点静止画94とマルチ静止画95に表示する。つまり、図6に表されている内容がコンピュータ11のディスプレィ画面70に表示される。即ち、4地点静止画94においては、右上画像がカメラ30b、右下画像がカメラ30e、左下画像がカメラ30h、左上画像がカメラ30kによりそれぞれ撮影したものである。 When it is determined in step S119 that the trimming process has been performed on all the data (S119; Yes), the vehicle body image display process is performed in the subsequent step S121. In this process, the still image after trimming in step S119 is displayed on the four-point still image 94 and the multi-still image 95 of the display screen 70. That is, the content shown in FIG. 6 is displayed on the display screen 70 of the computer 11. That is, in the four-point still image 94, the upper right image is taken by the camera 30b, the lower right image is taken by the camera 30e, the lower left image is taken by the camera 30h, and the upper left image is taken by the camera 30k.

また、マルチ静止画95においては、説明の便宜上、12枚の画像を上下左右に4分割すると、右上3枚のうち、左側画像がカメラ30a、中央画像がカメラ30b、右側画像がカメラ30cによりそれぞれ撮影したものであり、また右下3枚のうち、右側画像がカメラ30d、中央画像がカメラ30e、左側画像がカメラ30fによりそれぞれ撮影したものである。また、左下3枚のうち、右側画像がカメラ30g、中央画像がカメラ30h、左側画像がカメラ30iによりそれぞれ撮影したものであり、左上3枚のうち、左側画像がカメラ30j、中央画像がカメラ30k、右側画像がカメラ30mによりそれぞれ撮影したものである。 Further, in the multi-still image 95, for convenience of explanation, when 12 images are divided into four vertically and horizontally, the left image is the camera 30a, the center image is the camera 30b, and the right image is the camera 30c among the three upper right images. Of the three lower right images, the right image was taken by the camera 30d, the center image was taken by the camera 30e, and the left image was taken by the camera 30f. Of the three lower left images, the right image is taken by the camera 30 g, the center image is taken by the camera 30h, and the left image is taken by the camera 30i. Of the upper left three images, the left image is the camera 30j and the center image is the camera 30k. , The right image is taken by the camera 30m respectively.

なお、マルチ静止画95において表示される各静止画像を、例えば、当該車両8の周囲方向順に並ぶように繋げることにより、車両8の全周の車体画像をアラウンドビュー(360度画像)のように回転させているかのような疑似回転を見せることができる。また、図9に示すように、各画像60a等に写っている車両画像は、当該車両8の屋根の高さ方向位置Yiが一様に揃っていることから、屋根の位置が高さ方向にバラバラである場合に比べて、このような疑似回転に伴う屋根の位置が凸凹になりにくい。そのため、車両画像の疑似回転を美しく見せることができる。 By connecting the still images displayed in the multi-still image 95 so as to be arranged in the order of the surrounding direction of the vehicle 8, the vehicle body image of the entire circumference of the vehicle 8 can be viewed as an around view (360 degree image). It is possible to show a pseudo-rotation as if it were rotating. Further, as shown in FIG. 9, in the vehicle image shown in each image 60a or the like, the roof position Yi of the vehicle 8 is uniformly aligned in the height direction, so that the roof position is in the height direction. Compared to the case where they are disjointed, the position of the roof due to such pseudo rotation is less likely to be uneven. Therefore, the pseudo rotation of the vehicle image can be made to look beautiful.

即ち、カメラ30aの右上左側画像(図9(A);60a)→カメラ30bの右上中央画像(図9(B);60b)→カメラ30cの右上右側画像(図9(C);60c)→カメラ30dの右下右側画像(図9(D);60d)→カメラ30eの右下中央画像(図9(E);60e)→カメラ30fの右下左側画像(図9(F);60f)→カメラ30gの左下右側画像(図9(G);60g)→カメラ30hの左下中央画像(図9(H);60h)→カメラ30iの左下左側画像(図9(I);60i)→カメラ30jの左上左側画像(図9(J);60j)→カメラ30kの左上中央画像(図9(K);60k)→カメラ30mの左上右側画像(図9(L);60m)の順に現れるように各静止画像データを順次表示する。これにより、アラウンドビュー(360度画像)相当の車体画像データを得ることが可能になる。 That is, the upper right left image of the camera 30a (FIG. 9 (A); 60a) → the upper right center image of the camera 30b (FIG. 9 (B); 60b) → the upper right image of the camera 30c (FIG. 9 (C); 60c) → Lower right right image of camera 30d (FIG. 9 (D); 60d) → Lower right center image of camera 30e (FIG. 9 (E); 60e) → Lower right left image of camera 30f (FIG. 9 (F); 60f) → Lower left right image of camera 30g (Fig. 9 (G); 60g) → Lower left center image of camera 30h (Fig. 9 (H); 60h) → Lower left left image of camera 30i (Fig. 9 (I); 60i) → Camera The upper left left image of 30j (FIG. 9 (J); 60j) → the upper left center image of the camera 30k (FIG. 9 (K); 60k) → the upper left right image of the camera 30m (FIG. 9 (L); 60m). Each still image data is displayed sequentially in. This makes it possible to obtain vehicle body image data equivalent to an around view (360-degree image).

なお、ステップS105において「4地点撮影」76が押下されている場合には、ステップS121では4地点静止画94だけがディスプレィ画面70に表示され、マルチ静止画95は表示されない。そのため、「4地点撮影」76を押下した場合には、アラウンドビュー(360度画像)相当の車体画像データは得ることができない。 When "four-point shooting" 76 is pressed in step S105, only the four-point still image 94 is displayed on the display screen 70 and the multi-still image 95 is not displayed in step S121. Therefore, when "4 point shooting" 76 is pressed, the vehicle body image data equivalent to the around view (360 degree image) cannot be obtained.

続くステップS123では調整完了表示処理が行われる。この処理では、ディスプレィ画面70の調整完了インジケータ99bの表示色を灰色から赤色に変更する。調整完了インジケータ99bは、前述のように調整完了前は背景色が灰色で表示されている。 In the following step S123, the adjustment completion display process is performed. In this process, the display color of the adjustment completion indicator 99b on the display screen 70 is changed from gray to red. As described above, the adjustment completion indicator 99b has a gray background color before the adjustment is completed.

このような一連のキャプチャー(切り出し)とトリミング(切り抜き)が完了すると、コンピュータ11は、ステップS125により次の入力コマンドを待つ。即ち、ENTERキーの「保存」83、ESCキーの「画面クリア」71またはF12キーの「終了」82のいずれが押下されたか判定する。 When such a series of capture (cutout) and trimming (cutout) is completed, the computer 11 waits for the next input command in step S125. That is, it is determined whether the "save" 83 of the ENTER key, the "screen clear" 71 of the ESC key, or the "end" 82 of the F12 key is pressed.

「保存」83が押下されたと判定した場合には(S125;「保存」)、続くステップS127の画像データ保存処理によりトリミングした後の静止画像の画像データをすべてファイルサーバ13に保存する。これにより、保存した静止画データに関連付けられている出品番号等の車両8に関する固有情報がディスプレィ画面70の保存履歴表示領域97に表示される。そして、ステップS129の画像表示消去処理によって現在表示している4地点静止画94やマルチ静止画95等を消去した後、ステップS105に処理を移行して次の撮影開始に備えて「一括撮影」75や「4地点撮影」76のキーが押下されるのを待つ。 When it is determined that "Save" 83 is pressed (S125; "Save"), all the image data of the still image after trimming by the image data saving process of the following step S127 is saved in the file server 13. As a result, unique information about the vehicle 8 such as the exhibition number associated with the saved still image data is displayed in the storage history display area 97 of the display screen 70. Then, after erasing the four-point still image 94, the multi-still image 95, etc. currently displayed by the image display erasing process in step S129, the process is shifted to step S105 to prepare for the next shooting start, "batch shooting". Wait for the keys of 75 and "4 point shooting" 76 to be pressed.

これに対して「画面クリア」71が押下されたと判定した場合には(S125;「画面クリア」)、ステップS127の画像データ保存処理をスキップして、ステップS129の画像表示消去処理を行う。つまり、トリミング後の静止画データを保存することなく破棄した後(S129)、ステップS103に処理を移行して次の撮影開始に備えて「一括撮影」75や「4地点撮影」76のキーが押下されるのを待つ。 On the other hand, when it is determined that the "screen clear" 71 is pressed (S125; "screen clear"), the image data saving process in step S127 is skipped and the image display erasing process in step S129 is performed. That is, after discarding the trimmed still image data without saving (S129), the process shifts to step S103 and the keys of "Batch shooting" 75 and "Four-point shooting" 76 are pressed in preparation for the next shooting start. Wait for it to be pressed.

また「終了」82が押下された場合には(S125;「終了」)、例えば、本当に本車両画像撮影処理を終えてよいかを確認する別ウィンドウ等をディスプレィ画面70に表示して、最終確認の入力があった場合には本車両画像撮影処理を終えて、ディスプレィ画面70の表示を終了する。なお、「終了」82の押下は、他の処理を実行中等にも受け付けることができる。 When "End" 82 is pressed (S125; "End"), for example, a separate window or the like for confirming whether or not the vehicle image shooting process can be completed is displayed on the display screen 70 for final confirmation. When is input, the vehicle image shooting process is finished and the display of the display screen 70 is finished. The pressing of "End" 82 can be accepted even while other processing is being executed.

図4のフローチャートには記載されていない処理として、例えば、ファンクションのF2キーの「内装再表示」72を押下した場合には、内装画像表示領域92に車両8の内装画像が再表示される。当該内装画像のデータ(内装画像データ)は、カメラウォール20a~20dが備えるカメラ30a等とは別に作業員が携帯するデジタルカメラにより撮影されて無線LAN等を介してファイルサーバ13に蓄積される。またそれとほぼ同時または別のタイミングにディスプレィ画面70の内装画像表示領域92にも表示される。内装画像データは、出品番号等の当該車両8に固有のデータに関連付けられている。そのため、コンピュータ11は「内装再表示」72が押下されると、当該車両8の固有のデータに基づいてファイルサーバ13から車両8の内装画像データを取得して内装画像表示領域92に再度表示する。 As a process not described in the flowchart of FIG. 4, for example, when the "interior redisplay" 72 of the F2 key of the function is pressed, the interior image of the vehicle 8 is redisplayed in the interior image display area 92. The interior image data (interior image data) is photographed by a digital camera carried by a worker separately from the cameras 30a and the like provided on the camera walls 20a to 20d, and is stored in the file server 13 via a wireless LAN or the like. It is also displayed in the interior image display area 92 of the display screen 70 at almost the same time or at another timing. The interior image data is associated with data unique to the vehicle 8 such as an exhibition number. Therefore, when the "interior redisplay" 72 is pressed, the computer 11 acquires the interior image data of the vehicle 8 from the file server 13 based on the unique data of the vehicle 8 and displays it again in the interior image display area 92. ..

なお、内装画像表示領域92の左隣に設けられている内装画像削除領域91は、内装画像表示領域92内に表示されている内装画像を削除する場合に不要な内装画像をマウス等で当該内装画像削除領域91にドラッグ・アンド・ドロップすることにより、当該内装画像を内装画像表示領域92から排除するために用いられる。 The interior image deletion area 91 provided to the left of the interior image display area 92 uses a mouse or the like to capture an interior image that is unnecessary when deleting the interior image displayed in the interior image display area 92. It is used to exclude the interior image from the interior image display area 92 by dragging and dropping it onto the image deletion area 91.

また、ファンクションのF3キーの「再トリミング」73は、例えば、ファンクションのF4キー74が押下されてトリミング枠の設定が「自動」から「手動」に切り替わった場合において、トリミング枠を変更するときにオペレータが押下する。「再トリミング」73が押下されると、コンピュータ11は、一時的に格納された静止画データをストレージデバイス等から読み出した後、新たに設定されたトリミング枠を用いて同枠内の画像データを切り抜く画像処理を行う。 Further, the "retrimming" 73 of the F3 key of the function is, for example, when the F4 key 74 of the function is pressed and the setting of the trimming frame is switched from "automatic" to "manual", when the trimming frame is changed. Pressed by the operator. When the "retrimming" 73 is pressed, the computer 11 reads the temporarily stored still image data from the storage device or the like, and then uses the newly set trimming frame to display the image data in the frame. Performs cropping image processing.

ファンクションのF4キー74は、これを押下することによりトグル(押下するごとに交互)でトリミング枠の手動設定と自動設定の選択を可能にする。つまり、手動設定が選択されている場合にはF4キー74の部分には「手動」が表示され、自動設定が選択されている場合にはF4キー74の部分には「自動」が表示される。前述した本車両画像撮影処理は、トリミング枠の自動設定を前提にするものである。 The F4 key 74 of the function enables the manual setting and the automatic setting of the trimming frame to be selected by toggle (alternate each time the button is pressed) by pressing the F4 key 74. That is, when the manual setting is selected, "manual" is displayed in the part of the F4 key 74, and when the automatic setting is selected, "automatic" is displayed in the part of the F4 key 74. .. The vehicle image shooting process described above is premised on the automatic setting of the trimming frame.

また、ファンクションのF7キーの「マルチ撮影」77が押下された場合には、コンピュータ11は、トリミング処理(S117)によりトリミングされた後の12枚の静止画像を別ウィンドウ等において4地点静止画94と同程度に大きく表示する。この場合、ディスプレィ画面70において12枚の静止画像をすべて同時に表示することが難しい。そのため、例えば、マウスのスクロールホイールやキーボードの特定キー等の操作により大きく表示させる静止画像を前述のように、カメラ30aの右上左側画像→カメラ30bの右上中央画像→カメラ30cの右上右側画像→カメラ30dの右下右側画像→カメラ30eの右下中央画像→カメラ30fの右下左側画像→カメラ30gの左下右側画像→カメラ30hの左下中央画像→カメラ30iの左下左側画像→カメラ30jの左上左側画像→カメラ30kの左上中央画像→カメラ30mの左上右側画像の順に現れるように表示画像を変更する表示処理を行う。 Further, when the "multi-shooting" 77 of the F7 key of the function is pressed, the computer 11 displays the 12 still images trimmed by the trimming process (S117) in a separate window or the like at four points of still images 94. Display as large as. In this case, it is difficult to display all 12 still images at the same time on the display screen 70. Therefore, for example, as described above, a still image that is enlarged by operating the scroll wheel of the mouse or a specific key of the keyboard is displayed as the upper right left image of the camera 30a → the upper right center image of the camera 30b → the upper right right image of the camera 30c → the camera. Lower right right image of 30d → Lower right center image of camera 30e → Lower right left image of camera 30f → Lower left right image of camera 30g → Lower left center image of camera 30h → Lower left left image of camera 30i → Upper left left image of camera 30j → Perform display processing to change the display image so that it appears in the order of the upper left center image of the camera 30k → the upper left right image of the camera 30m.

また、ファンクションのF8キーの「出品番号取得」78が押下された場合には、コンピュータ11は、当該車両8に固有のデータに基づいてファイルサーバ13から車両8の出品番号を取得して出品番号表示領域98にそれを表示する。また、オペレータがマウス等で出品番号表示領域98をクリックした後、当該車両8の出品番号をキーボードで直接入力することもできる。出品番号は、静止画データがファイルサーバ13に保存される際に当該静止画データに関連付けられる。 Further, when the "exhibition number acquisition" 78 of the F8 key of the function is pressed, the computer 11 acquires the exhibition number of the vehicle 8 from the file server 13 based on the data unique to the vehicle 8, and the exhibition number. Display it in the display area 98. Further, after the operator clicks the exhibition number display area 98 with a mouse or the like, the exhibition number of the vehicle 8 can be directly input with the keyboard. The exhibition number is associated with the still image data when the still image data is stored in the file server 13.

なお、トリミング枠の設定が「手動」である場合においては、枠サイズボタン93として現在設定されているサイズのボタン部分が黄色(図6では薄灰色)で表示され、それ以外のボタン部分が灰色で表示される。この黄色表示は、F10キーの「枠サイズ+」80やF11キーの「枠サイズ-」81が押下されるごとにアップしたりダウンしたりする。トリミング枠は「枠1」~「枠9」の枠サイズボタン93をマウス等のポインティングデバイスでクリックすることによっても選択可能である。 When the trimming frame is set to "manual", the button portion of the size currently set as the frame size button 93 is displayed in yellow (light gray in FIG. 6), and the other button portions are gray. It is displayed in. This yellow display goes up or down each time the "frame size +" 80 of the F10 key or the "frame size-" 81 of the F11 key is pressed. The trimming frame can also be selected by clicking the frame size buttons 93 of "frame 1" to "frame 9" with a pointing device such as a mouse.

次にカメラウォール20a~20dに設けられるカメラ30a等のレンズの種類について説明する。本実施形態では、カメラ30a等のレンズユニットは、すべて同じものが選択されるわけではない。つまり、カメラ30a等は、標準ズームレンズを有する場合と広角ズームレンズを有する場合がある。 Next, the types of lenses such as the cameras 30a provided on the camera walls 20a to 20d will be described. In the present embodiment, not all lens units such as the camera 30a are selected. That is, the camera 30a or the like may have a standard zoom lens or a wide-angle zoom lens.

例えば、カメラウォール20a~20dのいずれについても3台のうち車両8の周囲方向で当該車両8に最も近い位置に配置される、カメラ30c,30d,30i,30jについても、広角ズームレンズが選択される。また、カメラウォール20a~20dのいずれについても3台のうち車両8の周囲方向中央に配置される、カメラ30b,30e,30h,30kについては、広角ズームレンズが選択される。そして、残ったカメラ30a,30f,30g,30mには、標準ズームレンズが選択される。 For example, a wide-angle zoom lens is selected for the cameras 30c, 30d, 30i, and 30j, which are arranged at the positions closest to the vehicle 8 in the peripheral direction of the vehicle 8 among the three cameras of the camera walls 20a to 20d. To. A wide-angle zoom lens is selected for the cameras 30b, 30e, 30h, and 30k, which are arranged in the center of the vehicle 8 in the peripheral direction among the three camera walls 20a to 20d. Then, a standard zoom lens is selected for the remaining cameras 30a, 30f, 30g, and 30m.

カメラウォール20a~20dに設けられている3台のカメラ30のうち、車両8から最も遠い端に配置されたカメラ30a,30f,30g,30mについては、広角ズームレンズではなく標準ズームレンズを有する。標準ズームレンズは、広角ズームレンズに比べて一般的に製品コストが安い傾向にある。そのため、すべてのカメラ30a等に広角ズームレンズを選択した場合に比較して当該撮影システム10のコスト増加を抑制することができる。 Of the three cameras 30 provided on the camera walls 20a to 20d, the cameras 30a, 30f, 30g, and 30m arranged at the farthest end from the vehicle 8 have a standard zoom lens instead of a wide-angle zoom lens. Standard zoom lenses generally tend to be cheaper than wide-angle zoom lenses. Therefore, it is possible to suppress an increase in the cost of the photographing system 10 as compared with the case where a wide-angle zoom lens is selected for all the cameras 30a and the like.

以上説明したように、本発明の車両画像生成装置および車両画像生成プログラムを適用した本実施形態の撮影システム10では、ホイール検知処理(S205)は、車両画像40を含む画像データから2つの楕円51,52(または円)を認識し、ホイールベース算出処理(S207)は、ホイール検知処理(S205)に認識された2つの楕円51,52(または円)の中心53,54間の距離を計測する。トリミング枠決定処理(S209)は、その中心53,54間の距離に基づいて車両画像40が存在する所定範囲を定め得るトリミング枠γを決定し、トリミング処理(S117)は、そのトリミング枠γを用いて車両画像40が存在する所定範囲内の画像を切り抜いて別の画像データを生成する。これにより、このようなトリミング枠γを用いて所定範囲内の画像60jをトリミング処理(S117)が切り抜くことにより、車両画像40の輪郭を検出することなく、トリミング枠γの大きさで車両画像40を切り抜いて別の画像データを生成することができる。 As described above, in the photographing system 10 of the present embodiment to which the vehicle image generation device and the vehicle image generation program of the present invention are applied, the wheel detection process (S205) is performed by two ellipses 51 from the image data including the vehicle image 40. , 52 (or circle) is recognized, and the wheelbase calculation process (S207) measures the distance between the centers 53, 54 of the two ellipses 51, 52 (or circle) recognized by the wheel detection process (S205). .. The trimming frame determination process (S209) determines a trimming frame γ that can determine a predetermined range in which the vehicle image 40 exists based on the distance between the centers 53 and 54, and the trimming process (S117) determines the trimming frame γ. It is used to crop an image within a predetermined range in which the vehicle image 40 exists to generate another image data. As a result, the trimming process (S117) cuts out the image 60j within a predetermined range using such a trimming frame γ, so that the vehicle image 40 has the size of the trimming frame γ without detecting the contour of the vehicle image 40. Can be cropped to generate different image data.

また、本実施形態の撮影システム10では、ホイール検知処理(S205)は、画像50a等の画像全範囲αよりも小さい絞込み枠β内において2つの楕円51,52(または円)を認識する。これにより、画像50a等の画像全範囲αにおいてこのような2つの楕円51,52(または円)を認識する場合に比べて、コンピュータ11によるホイール検知処理(S205)の対象範囲が狭くなるので、2つの楕円51,52(または円)を認識するために要する時間が短くなる。したがって、ホイール検知処理(S205)を高速にすることができる。 Further, in the photographing system 10 of the present embodiment, the wheel detection process (S205) recognizes two ellipses 51, 52 (or circles) in the narrowing frame β smaller than the entire image range α such as the image 50a. As a result, the target range of the wheel detection process (S205) by the computer 11 is narrower than in the case of recognizing such two ellipses 51, 52 (or circles) in the entire image range α such as the image 50a. The time required to recognize the two ellipses 51, 52 (or circles) is shortened. Therefore, the wheel detection process (S205) can be speeded up.

≪トリミング枠設定処理の他の参考例≫
なお、出品検査票に記載された車両8に関する固有情報(出品番号、車種、型式、排気量、走行距離、車名等)がファイルサーバ13に蓄積(格納)されている場合には、ディスプレィ画面70の出品番号表示領域98に表示されている当該車両8の出品番号から、車両8のサイズをファイルサーバ13より呼び出すことができる。車両8に関する固有情報は、特許請求の範囲に記載の「車両情報」に相当し得るものである。そのため、このような場合には、トリミング枠設定処理(S115)においては、図10に表した処理の構成にすることが可能になる。図10には、図4に示すサブルーチン「トリミング枠設定処理」の他の参考例の流れを表したフローチャートが図示されている。
<< Other reference examples of trimming frame setting process >>
If the unique information (exhibition number, vehicle type, model, displacement, mileage, vehicle name, etc.) regarding the vehicle 8 described in the exhibition inspection slip is stored (stored) in the file server 13, the display screen is displayed. The size of the vehicle 8 can be called from the file server 13 from the exhibition number of the vehicle 8 displayed in the exhibition number display area 98 of the 70. The unique information about the vehicle 8 can correspond to the "vehicle information" described in the claims. Therefore, in such a case, in the trimming frame setting process (S115), the process shown in FIG. 10 can be configured. FIG. 10 shows a flowchart showing the flow of another reference example of the subroutine “trimming frame setting process” shown in FIG.

図10に示すように、トリミング枠設定処理では、まずステップS501により所定の初期化処理が行われる。続くステップS503では出品番号取得処理が行われる。出品番号は、前述したように、ディスプレィ画面70のファンクションのF8キーの「出品番号取得」78が押下されると、コンピュータ11が当該車両8に固有のデータに基づいてファイルサーバ13から車両8の出品番号を取得して出品番号表示領域98に表示する。また、オペレータがマウス等で出品番号表示領域98をクリックした後、当該車両8の出品番号をキーボードで直接入力する。 As shown in FIG. 10, in the trimming frame setting process, first, a predetermined initialization process is performed in step S501. In the following step S503, the exhibition number acquisition process is performed. As described above, when the "exhibition number acquisition" 78 of the F8 key of the function of the display screen 70 is pressed, the computer 11 determines the exhibition number from the file server 13 to the vehicle 8 based on the data unique to the vehicle 8. The exhibition number is acquired and displayed in the exhibition number display area 98. Further, after the operator clicks the exhibition number display area 98 with a mouse or the like, the exhibition number of the vehicle 8 is directly input with the keyboard.

出品番号には、当該車両8に関する固有情報(出品番号、車種、型式、排気量、走行距離、車名等)が関連付けられているため、次のステップS505の車両サイズ取得処理により、車名または型式に基づいて当該車両8のサイズを取得する。当該車両8のサイズは、例えば、ファイルサーバ13に蓄積されている車両マスターから読み込むことにより取得する。これにより、当該車両8の全長、全幅、全高等のデータが得られることから、続くステップS507によりトリミング枠を決定する。少なくとも全長が得られればよい。 Since the exhibition number is associated with unique information about the vehicle 8 (exhibition number, vehicle type, model, displacement, mileage, vehicle name, etc.), the vehicle name or the vehicle name or the vehicle name is obtained by the vehicle size acquisition process in the next step S505. The size of the vehicle 8 is acquired based on the model. The size of the vehicle 8 is acquired, for example, by reading from the vehicle master stored in the file server 13. As a result, data such as the total length, the total width, and the total height of the vehicle 8 can be obtained, so the trimming frame is determined in the subsequent step S507. It suffices if at least the total length can be obtained.

ステップS507のトリミング枠決定処理は、前述した図5のステップS209とほぼ同様である。車両8のサイズ(全長、全幅、全高)のうち、全長ごとに関連付けられているトリミング枠γを決定する。トリミング枠γは、画像50a等において当該車両8の車両全体を囲み得るものである。ステップS507のトリミング枠決定処理により車両8の全体を囲み得るトリミング枠γが決定(設定)されると、本トリミング枠設定処理を終了して図4に示す車両画像撮影処理に処理を戻す。 The trimming frame determination process in step S507 is substantially the same as step S209 in FIG. 5 described above. Of the sizes of the vehicle 8 (total length, total width, total height), the trimming frame γ associated with each total length is determined. The trimming frame γ can surround the entire vehicle of the vehicle 8 in the image 50a or the like. When the trimming frame γ that can surround the entire vehicle 8 is determined (set) by the trimming frame determination process in step S507, the present trimming frame setting process is terminated and the process returns to the vehicle image capturing process shown in FIG.

以上説明したように、本実施形態の撮影システム10におけるトリミング枠設定処理の他の参考例では、車両サイズ取得処理(S505)では、車両8の全長を特定可能な当該車両8に関する固有情報を取得し、トリミング枠決定処理(S507)では、当該車両8の固有情報に含まれる全長に基づいて車両画像40が存在する所定範囲を定め得るトリミング枠γを決定し、トリミング処理(S117)では、そのトリミング枠γを用いて車両画像40が存在する所定範囲内の画像60jを切り抜いて別の画像データを生成する。 As described above, in another reference example of the trimming frame setting process in the photographing system 10 of the present embodiment, in the vehicle size acquisition process (S505), the unique information about the vehicle 8 that can specify the total length of the vehicle 8 is acquired. Then, in the trimming frame determination process (S507), a trimming frame γ that can determine a predetermined range in which the vehicle image 40 exists is determined based on the total length included in the unique information of the vehicle 8, and in the trimming process (S117), the trimming frame γ is determined. Using the trimming frame γ, the image 60j within a predetermined range in which the vehicle image 40 exists is cut out to generate another image data.

これにより、車両サイズ取得処理(S505)が取得した当該車両8に関する固有情報に含まれる全長に基づいて、トリミング枠決定処理(S507)は、車両画像40が存在する所定範囲を定め得るトリミング枠γを当該車両8に関する固有情報に基づいて決定することが可能である。したがって、このようなトリミング枠γを用いて所定範囲内の画像60jをトリミング処理(S117)が切り抜くことにより、車両画像40の輪郭を検出することなく、所定の大きさで車両画像40を切り抜いて別の画像データを生成することができる。 As a result, based on the total length included in the unique information about the vehicle 8 acquired by the vehicle size acquisition process (S505), the trimming frame determination process (S507) can determine a predetermined range in which the vehicle image 40 exists. Can be determined based on the unique information about the vehicle 8. Therefore, the trimming process (S117) cuts out the image 60j within a predetermined range using such a trimming frame γ, so that the vehicle image 40 is cut out to a predetermined size without detecting the contour of the vehicle image 40. Another image data can be generated.

上述した実施形態では、カメラ30jを基準カメラにしてそれにより撮影された画像(動画からキャプチャーした静止画)50jについてホイール検知処理(S205)により2つの楕円51,52(または円)を認識したが、カメラ30cを基準カメラにしてそれにより撮影された画像50cについてホイール検知処理(S205)により2つの楕円51,52(または円)を認識してもよい。また、入口5や出口6から入射する外来光の条件によっては、カメラ30dを基準カメラにしてそれにより撮影された画像50dについてホイール検知処理(S205)により2つの楕円51,52(または円)を認識してもよいし、カメラ30iを基準カメラにしてそれにより撮影された画像50iについてホイール検知処理(S205)により2つの楕円51,52(または円)を認識してもよい。 In the above-described embodiment, two ellipses 51, 52 (or circles) are recognized by the wheel detection process (S205) for the image (still image captured from the moving image) 50j taken by the camera 30j as a reference camera. The two ellipses 51, 52 (or circles) may be recognized by the wheel detection process (S205) for the image 50c taken by using the camera 30c as a reference camera. Further, depending on the conditions of the external light incident from the inlet 5 and the exit 6, two ellipses 51, 52 (or circles) are formed by the wheel detection process (S205) for the image 50d taken by the camera 30d as a reference camera. It may be recognized, or two ellipses 51, 52 (or circles) may be recognized by the wheel detection process (S205) for the image 50i taken by using the camera 30i as a reference camera.

また、上述した実施形態では、トリミング前の画像50a等において車両8の屋根輪郭最上部の高さがそれぞれ一様に揃うようにカメラ30a等により撮影し、トリミング処理(S117)によりこれらの画像50a等を同じトリミング位置で一律にトリミングしたが、トリミング処理において、車両8の屋根輪郭最上部の高さがそれぞれ一様に揃うようにトリミング前の画像50a等からトリミングしてもよい。この場合、画像認識したホイール検知処理(S205)により画像認識された前輪9aまたは後輪9bのうち、画像内で下方に位置する一方の前輪9a(または後輪9b)の中心53(または中心54)を基準にトリミング枠の上下方向位置を決める。 Further, in the above-described embodiment, the images 50a and the like before trimming are photographed by the camera 30a and the like so that the heights of the uppermost roof contours of the vehicle 8 are uniformly aligned, and these images 50a are subjected to the trimming process (S117). Etc. are uniformly trimmed at the same trimming position, but in the trimming process, the image 50a or the like before trimming may be trimmed so that the heights of the uppermost roof contours of the vehicle 8 are uniformly aligned. In this case, of the front wheels 9a or the rear wheels 9b image-recognized by the image-recognized wheel detection process (S205), the center 53 (or the center 54) of one of the front wheels 9a (or the rear wheel 9b) located below in the image. ) Is used as a reference to determine the vertical position of the trimming frame.

以上、本発明の具体例を詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、上述した具体例を様々に変形または変更したものが含まれる。また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時の請求項に記載の組合せに限定されるものではない。さらに、本明細書または図面に例示した技術は、複数の目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つ。なお、[符号の説明]の欄における括弧内の記載は、上述した各実施形態で用いた用語と、特許請求の範囲に記載の用語との対応関係を明示し得るものである。 Although specific examples of the present invention have been described in detail above, these are merely examples and do not limit the scope of claims. The techniques described in the claims include various modifications or modifications of the above-mentioned specific examples. Further, the technical elements described in the present specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. Further, the techniques exemplified in the present specification or the drawings achieve a plurality of objectives at the same time, and achieving one of the objectives has technical usefulness in itself. The description in parentheses in the [Explanation of reference numerals] column can clearly indicate the correspondence between the terms used in each of the above-described embodiments and the terms described in the claims.

2…撮影スタジオ
4…退避スペース
5…入口
6…出口
7…所定位置
8…車両
8a…前側
8b…後側(車両の側面)
8c…左側(車両の側面)
8d…右側
9a…前輪
9b…後輪
10…撮影システム
11…コンピュータ(車両画像生成装置、画像認識手段、距離計測手段、枠決定手段、画像切抜き手段)
20,20a~20d…カメラウォール
30,30a~30k,30m…カメラ
40…車両画像
50…画像
50c、50d、50i、50j…画像(車両の側面が現れる車両画像を含む画像)
51、52…楕円
53、54…中心
57…ホイールベース(円または楕円の中心間の距離)
60…画像
70…ディスプレィ画面
S117…トリミング処理(画像切抜き手段)
S203…基準画像取得処理
S205…ホイール検知処理(画像認識手段)
S207…ホイールベース算出処理(距離計測手段)
S209…トリミング枠決定処理(枠決定手段
α…画像全範囲
β…絞込み枠
γ…トリミング枠
2 ... Shooting studio 4 ... Evacuation space 5 ... Entrance 6 ... Exit 7 ... Predetermined position 8 ... Vehicle 8a ... Front side 8b ... Rear side (side of vehicle)
8c ... Left side (side of the vehicle)
8d ... Right side 9a ... Front wheel 9b ... Rear wheel 10 ... Shooting system 11 ... Computer (vehicle image generator, image recognition means, distance measuring means, frame determining means, image cropping means)
20, 20a to 20d ... Camera wall 30, 30a to 30k, 30m ... Camera 40 ... Vehicle image 50 ... Image 50c, 50d, 50i, 50j ... Image (image including vehicle image showing the side surface of the vehicle)
51, 52 ... Ellipse 53, 54 ... Center 57 ... Wheelbase (distance between the centers of a circle or ellipse)
60 ... Image 70 ... Display screen S117 ... Trimming process (image cropping means)
S203 ... Reference image acquisition processing S205 ... Wheel detection processing (image recognition means)
S207 ... Wheelbase calculation process (distance measuring means)
S209 ... Trimming frame determination process (frame determination means )
α ... Full range of image β ... Narrowing frame γ ... Trimming frame

Claims (3)

車両の側面が現れる車両画像を含む画像データから前記車両画像が存在する所定範囲内の画像を切り抜いて別の画像データを生成する車両画像生成装置であって、
前記画像データから2つの円または楕円を認識する画像認識手段と、
前記画像認識手段により認識された前記2つの円または楕円の中心間の距離を計測する距離計測手段と、
前記距離計測手段により計測された前記中心間の距離に基づいて前記所定範囲を定め得る所定枠を決定する枠決定手段と、
前記枠決定手段により決定された前記所定枠を用いて前記所定範囲内の画像を切り抜いて前記別の画像データを生成する画像切抜き手段と、
を備えることを特徴とする車両画像生成装置。
A vehicle image generation device that generates another image data by cutting out an image within a predetermined range in which the vehicle image exists from image data including a vehicle image in which a side surface of the vehicle appears.
An image recognition means that recognizes two circles or ellipses from the image data,
A distance measuring means for measuring the distance between the centers of the two circles or ellipses recognized by the image recognition means, and a distance measuring means.
A frame determining means for determining a predetermined frame that can determine the predetermined range based on the distance between the centers measured by the distance measuring means, and
An image cropping means that cuts out an image within the predetermined range using the predetermined frame determined by the frame determining means to generate the other image data, and an image cropping means.
A vehicle image generator, characterized in that it comprises.
前記画像認識手段は、前記画像データの画像全体範囲よりも小さい範囲内において前記2つの円または楕円を認識することを特徴とする請求項1に記載の車両画像生成装置。 The vehicle image generation device according to claim 1, wherein the image recognition means recognizes the two circles or ellipses within a range smaller than the entire image range of the image data. 車両の側面が現れる車両画像を含む画像データから前記車両画像が存在する所定範囲内の画像を切り抜いて別の画像データを生成する車両画像生成プログラムであって、
コンピュータを、
前記画像データから2つの円または楕円を認識する画像認識手段と、
前記画像認識手段により認識された前記2つの円または楕円の中心間の距離を計測する距離計測手段と、
前記距離計測手段により計測された前記中心間の距離に基づいて前記所定範囲を定め得る所定枠を決定する枠決定手段と、
前記枠決定手段により決定された前記所定枠を用いて前記所定範囲内の画像を切り抜いて前記別の画像データを生成する画像切抜き手段と、
して機能させることを特徴とする車両画像生成プログラム。
It is a vehicle image generation program that generates another image data by cutting out an image within a predetermined range in which the vehicle image exists from image data including a vehicle image in which a side surface of the vehicle appears.
Computer,
An image recognition means that recognizes two circles or ellipses from the image data,
A distance measuring means for measuring the distance between the centers of the two circles or ellipses recognized by the image recognition means, and a distance measuring means.
A frame determining means for determining a predetermined frame that can determine the predetermined range based on the distance between the centers measured by the distance measuring means, and
An image cropping means that cuts out an image within the predetermined range using the predetermined frame determined by the frame determining means to generate the other image data, and an image cropping means.
A vehicle image generation program characterized by functioning.
JP2018070499A 2018-03-31 2018-03-31 Vehicle image generator and vehicle image generator Active JP7093962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018070499A JP7093962B2 (en) 2018-03-31 2018-03-31 Vehicle image generator and vehicle image generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070499A JP7093962B2 (en) 2018-03-31 2018-03-31 Vehicle image generator and vehicle image generator

Publications (2)

Publication Number Publication Date
JP2019185080A JP2019185080A (en) 2019-10-24
JP7093962B2 true JP7093962B2 (en) 2022-07-01

Family

ID=68341125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070499A Active JP7093962B2 (en) 2018-03-31 2018-03-31 Vehicle image generator and vehicle image generator

Country Status (1)

Country Link
JP (1) JP7093962B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111551554B (en) * 2020-06-01 2023-04-18 南京索安电子有限公司 Vehicle bottom scanning system and method for intelligently detecting potential safety hazards of vehicle chassis

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009509232A (en) 2005-09-15 2009-03-05 マンハイム インヴェストメンツ,インコーポレイテッド Method and apparatus for automatically capturing multiple images of cars and other products for sale or auction
JP2013157766A (en) 2012-01-30 2013-08-15 Fujitsu Frontech Ltd Photographing device, program, and photographing method
US20160100087A1 (en) 2014-10-03 2016-04-07 Davo Scheich Vehicle photographic tunnel
JP2017058956A (en) 2015-09-16 2017-03-23 富士通フロンテック株式会社 Vehicle photographing system and vehicle photographing method
WO2017158983A1 (en) 2016-03-18 2017-09-21 株式会社Jvcケンウッド Object recognition device, object recognition method, and object recognition program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009509232A (en) 2005-09-15 2009-03-05 マンハイム インヴェストメンツ,インコーポレイテッド Method and apparatus for automatically capturing multiple images of cars and other products for sale or auction
JP2013157766A (en) 2012-01-30 2013-08-15 Fujitsu Frontech Ltd Photographing device, program, and photographing method
US20160100087A1 (en) 2014-10-03 2016-04-07 Davo Scheich Vehicle photographic tunnel
JP2017058956A (en) 2015-09-16 2017-03-23 富士通フロンテック株式会社 Vehicle photographing system and vehicle photographing method
WO2017158983A1 (en) 2016-03-18 2017-09-21 株式会社Jvcケンウッド Object recognition device, object recognition method, and object recognition program

Also Published As

Publication number Publication date
JP2019185080A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
KR100937750B1 (en) Driving assistance device
CN106952311B (en) Auxiliary parking system and method based on panoramic stitching data mapping table
US8947533B2 (en) Parameter determining device, parameter determining system, parameter determining method, and recording medium
JP5380941B2 (en) Parking support apparatus and method
CN102792334B (en) Video generation device and operations support systems
JP6790543B2 (en) Display control devices, methods, programs and display control systems
JP5795850B2 (en) Image data processing system
EP3051807B1 (en) Predicted-route presentation device and predicted-route presentation method
US20130222594A1 (en) Image generation device and operation support system
JPH1145323A (en) Image processing device
JP5960007B2 (en) Perimeter monitoring equipment for work machines
DE102018133013A1 (en) VEHICLE REMOTE CONTROL DEVICE AND VEHICLE REMOTE CONTROL METHOD
JP6614754B2 (en) Method for converting an omnidirectional image from an omnidirectional camera placed on a vehicle into a rectilinear image
KR20020086290A (en) System, method and program for perspective projection image creation, and recording medium storing the same program
DE102018133030A1 (en) VEHICLE REMOTE CONTROL DEVICE AND VEHICLE REMOTE CONTROL METHOD
WO2022073461A1 (en) Parking process display method and device, and vehicle
JP7093962B2 (en) Vehicle image generator and vehicle image generator
JP7049632B2 (en) Vehicle imaging system
CN203759754U (en) Vehicular panoramic imaging system calibrator
KR20150014311A (en) Device, method and vehicle for providing around view
DE112021006654T5 (en) INSTALLATION SUPPORT APPARATUS, INSTALLATION SUPPORT METHOD AND INSTALLATION SUPPORT PROGRAM
US12080075B2 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
JP2007288611A (en) On-vehicle image display device
JP2010121987A (en) Calibration target and calibration system for on-vehicle camera
JP2006303583A (en) Vehicle body outside display device and initializing method of vehicle body outside display device

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180423

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R150 Certificate of patent or registration of utility model

Ref document number: 7093962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350