[go: up one dir, main page]

JP2004265396A - Image forming system and image forming method - Google Patents

Image forming system and image forming method Download PDF

Info

Publication number
JP2004265396A
JP2004265396A JP2004036616A JP2004036616A JP2004265396A JP 2004265396 A JP2004265396 A JP 2004265396A JP 2004036616 A JP2004036616 A JP 2004036616A JP 2004036616 A JP2004036616 A JP 2004036616A JP 2004265396 A JP2004265396 A JP 2004265396A
Authority
JP
Japan
Prior art keywords
image
viewpoint
traveling
locus
intersection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004036616A
Other languages
Japanese (ja)
Inventor
Masashi Sasaki
政司 佐々木
Ryosuke Shibazaki
亮介 柴崎
Jun Kumagai
潤 熊谷
Tomoki Fujimoto
知己 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VINGO KK
Original Assignee
VINGO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VINGO KK filed Critical VINGO KK
Priority to JP2004036616A priority Critical patent/JP2004265396A/en
Publication of JP2004265396A publication Critical patent/JP2004265396A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image forming system and an image forming method which easily generates a realistic walk-through animation based on actually photographed images. <P>SOLUTION: The system includes a vehicle 10, video cameras 30 for photographing surrounding images to output their image data, a laser range scanner 20 outputting depth information, and a computer 40. The computer 40 identifies the positions of surrounding objects at predetermined intervals based on the depth information, identifies a running path T of the vehicle 10 relative to the identified positions of surrounding objects, and carries out a process of calculating position information presenting the position of the vehicle 10 on the running path T and advance direction information presenting an advance direction. The computer 40 further carries out a process of generating a panorama image Pn presenting images of all surrounding directions viewed from the position on the running path T at predetermined intervals based on the image data, and a process of generating a walk-through animation based on the depth information, the position information, the advance direction information and the panorama image. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は映像生成システム及び映像生成方法に係り、特に、実際のリアルさを実現したウォークスルーアニメーションを生成するための、映像生成システム及び映像生成方法に関する。   The present invention relates to a video generation system and a video generation method, and more particularly, to a video generation system and a video generation method for generating a walk-through animation realizing realism.

近年、実際の都市環境をコンピュータ内に仮想的に生成し、この仮想3次元都市空間をナビゲーションシステム、ゲーム、映画などに利用することが行われている。ユーザーは、この仮想3次元都市空間内を仮想的に移動することができ、ウォークスルーアニメーションによってあたかも実際の都市内で移動しているかのような体験をすることができる。
このウォークスルーアニメーションは、道案内や観光案内、美術館案内、不動産販売を始め、様々な分野で利用されている。例えば、観光案内等としては、仮想の3D都市空間である「デジタルシティ」中でバスツアーやドライブ等をウォークスルーアニメーションで体験できる。
また、2次元地図が3次元化され、これが自動車や歩行者等のためのナビゲーションシステムに利用されている。
In recent years, an actual city environment is virtually generated in a computer, and the virtual three-dimensional city space is used for a navigation system, a game, a movie, and the like. The user can virtually move in the virtual three-dimensional city space, and can experience as if moving in a real city by the walk-through animation.
This walk-through animation is used in various fields, such as road guidance, tourist information, museum information, and real estate sales. For example, as a tourist guide, a bus tour, a drive, and the like can be experienced through a walk-through animation in a “digital city” that is a virtual 3D city space.
Further, a two-dimensional map is converted into a three-dimensional map, which is used for a navigation system for a car, a pedestrian, and the like.

また、美術館案内としては、ホームページ上において美術館のヴァーチャルツアーを行うサービスが提供されている。このサービスでは、ホームページ内で美術館内の所望の部屋を選択すると、部屋の中心から見た部屋内の360度にわたるパノラマ画像が表示され、ユーザーは各部屋に配置された美術作品を自由に見回すことができる。
また、不動産販売としては、ホームページ上でモデルルームや物件近隣の映像を立体的に観賞できるサービスが提供されている。このサービスでは、自在に画像を動かしてモデルルームにいるかのごとく物件を見学できる。また、最寄り駅から物件までの道程を画面で見ることができる。ユーザーは、このサービスにより物件付近の環境を一覧することが可能で、現地に行かなくとも周囲のイメージをつかむことができる。
As a guide for museums, a service for conducting a virtual tour of the museum on a homepage is provided. With this service, when a desired room in the museum is selected on the homepage, a 360-degree panoramic image of the room viewed from the center of the room is displayed, and the user can freely look around the artworks arranged in each room. Can be.
In addition, as real estate sales, a service is provided that allows three-dimensional viewing of a model room or a video near a property on a homepage. With this service, you can freely move the images and tour the property as if you were in the model room. In addition, you can see the route from the nearest station to the property on the screen. With this service, users can view the environment around the property and get an image of the surroundings without having to go to the site.

上記のような仮想空間やウォークスルーアニメーションを生成するには、大きく2つの手法がある。
一つ目は、モデル・ベースト・レンダリングと呼ばれる手法であり、物体の「立体形状」を入力して(モデリングして)いくものである。具体例には、ウォークスルーアニメーションやVRML、CAD、ゲームなどで3次元的な表現を作り出すために利用されている。
There are roughly two methods for generating the virtual space and the walk-through animation as described above.
The first is a method called model-based rendering, in which a “three-dimensional shape” of an object is input (modeled). As a specific example, it is used to create a three-dimensional expression in walk-through animation, VRML, CAD, a game, or the like.

2次元地図データを3次元化する場合には、立体形状を特定するために、実際に地物の高さ情報を取得する必要がある。この技術として、地物の映像を2方向から取得し、この映像及び位置情報から地物の高さを計算する技術が提案されている(例えば、特許文献1参照)。この技術では、効率よく地物の高さ情報を取得できるものの、広大な範囲にある地物について個々に高さ情報を計算するには非常な時間が掛かり、リアリティのある仮想3次元空間を形成するには手間が掛かるという問題があった。   When the two-dimensional map data is converted to three-dimensional data, it is necessary to actually obtain the height information of the feature in order to specify the three-dimensional shape. As this technique, a technique has been proposed in which an image of a feature is acquired from two directions, and the height of the feature is calculated from the image and position information (for example, see Patent Document 1). With this technology, although it is possible to efficiently acquire the height information of a feature, it takes an extremely long time to calculate the height information individually for a feature in a vast area, and a realistic three-dimensional space is formed. There was a problem that it took time and effort.

また、上記モデル・ベースト・レンダリングは、非常に専門的な技術を要すると共に、実際の物体の表面形状や反射パラメータ等の光学特性の取得が困難であるという問題がある。すなわち、この手法では、光学特性として簡単な色と反射モデルが使用されることにより、実際の空間に比較して見栄えが乏しいという欠点がある。
これを改善するために、仮想空間内の建物の側面に実際の写真をテクスチャーとして貼る等の手法が提案されている(例えば、特許文献2参照)。しかしこの手法では、テクスチャーの取得に時間や費用が多くかかるといった欠点がある。また、いかに技術が高度になっても、現実世界のリアリティを完全に再現することはできないため、実際にその場所の環境や雰囲気をよく知ることはできない。
In addition, the model-based rendering requires a very specialized technique and has a problem that it is difficult to obtain optical properties such as a surface shape and a reflection parameter of an actual object. In other words, this method has a drawback that the appearance is poor compared to the actual space because a simple color and reflection model are used as the optical characteristics.
In order to improve this, a method of pasting an actual photograph as a texture on a side surface of a building in a virtual space has been proposed (for example, see Patent Document 2). However, this method has a disadvantage that it takes much time and cost to acquire the texture. Also, no matter how sophisticated the technology, it is not possible to completely reproduce the reality of the real world, so it is not possible to actually know the environment and atmosphere of the place.

二つ目は、イメージ・ベースト・レンダリングという手法である。この手法は、写真や映像など現実世界を撮影した画像を大量に蓄積し、これらの実写画像を様々に加工・処理し再構築することで、撮影点以外の視点での映像をも作り出すという手法である。
つまり、この手法は、モデルを生成せずに、物体やシーンの見え方そのものを入力画像として記録・蓄積しておき、これらを再合成することで新しい画像を生成するものである。この手法では対象物体の形状や反射特性を考慮する必要がないため、モデル化が困難な物体に対しても適用することができ、実際の空間と略同程度のリアリティを得ることができる(例えば、特許文献3参照)。
The second is an image-based rendering technique. In this method, a large amount of images of the real world, such as photos and videos, are accumulated, and these real images are processed, processed, and reconstructed in various ways to create videos from viewpoints other than the shooting point. It is.
That is, in this method, the appearance of an object or a scene itself is recorded and accumulated as an input image without generating a model, and a new image is generated by re-synthesizing these. Since this method does not need to consider the shape and reflection characteristics of the target object, it can be applied to an object that is difficult to model, and can obtain a reality that is approximately the same as that of the actual space (for example, And Patent Document 3).

このようなイメージ・ベースト・レンダリングを用いて広域空間を生成するには、大量の都市空間の実写画像と撮影された位置と方向、さらに実写画像内に映っている物体の撮影地点から奥行き情報が必要となる。
例えば、物体の撮影地点からの奥行き情報を取得するために、ステレオマッチングによる情報取得方法がある。この方法では、まず元となる実写画像を車載型撮影システムにより実際に都市空間を撮影し取得する。さらに奥行き情報を得るために、GPSなどで得た位置・姿勢情報が既知の二画像から、エピポーラ拘束を利用した対応点マッチングを行い、ステレオマッチングの原理を利用して対応点の奥行き値を導出する方法をとる。そして大量の実写画像と奥行き情報をもとに、仮想空間の生成を行う。
In order to generate a wide-area space using such image-based rendering, a large amount of real-world images of urban space, the position and direction in which the images were taken, and depth information from the shooting point of the object reflected in the actual images are obtained. Required.
For example, there is an information acquisition method using stereo matching in order to acquire depth information from a shooting point of an object. In this method, first, an actual photographed image is actually photographed and acquired in an urban space by a vehicle-mounted photographing system. In order to further obtain depth information, corresponding point matching using epipolar constraints is performed from two images with known position and orientation information obtained by GPS etc., and the depth value of the corresponding point is derived using the principle of stereo matching Take the way to. Then, a virtual space is generated based on a large amount of photographed images and depth information.

或いは、EPI解析により奥行き情報を取得する方法がある。この方法では、同様に車載型撮影システムを使用し、実写画像を取得する。そして、カメラと建物の間の距離である奥行き情報の推定には、EPI(Epipolar Plane Image)画像上の傾きを調べ、物体の奥行き情報を推定する手法を用いている。そして大量の実写画像と奥行き情報をもとに、光線空間という概念を用い、都市空間という広域環境をリアルに構築する。   Alternatively, there is a method of acquiring depth information by EPI analysis. In this method, a photographed image is acquired using a vehicle-mounted imaging system. For estimating the depth information, which is the distance between the camera and the building, a method of examining the inclination on an EPI (Epipolar Plane Image) image and estimating the depth information of the object is used. Based on a large amount of real images and depth information, the concept of a ray space is used to realistically construct a wide-area environment called an urban space.

特開2000−74669号公報(第4頁〜第8頁)JP-A-2000-74669 (pages 4 to 8) 特開2003−6680号公報(第3頁〜第19頁)JP-A-2003-6680 (pages 3 to 19) 特開平10−214069号公報(第4頁〜第10頁)JP-A-10-214069 (pages 4 to 10)

広域空間を対象とした既存技術では、このように撮影された画像の位置や方向は、GPSなどにより取得されている。しかし、GPSでの測位では、ビルの谷間など正確な位置を受信できない地域が多いという問題がある。   In the existing technology targeting a wide area, the position and direction of the image captured in this way are acquired by GPS or the like. However, GPS positioning has a problem that there are many areas where accurate positions cannot be received, such as the valleys of buildings.

また、奥行き情報の取得には、主に得られた画像を処理することによって奥行き情報の推定が行われている。このような画像処理によって奥行き情報を得るためには、1.振動、ノイズ、光源環境の変化などの影響を受けるため正確な3次元情報を得ることが難しいこと、2.撮影経路は直線である必要性があること、3.カメラの速度が一定という条件があること、など問題が多い。
実際、道路を走って取得された画像データ等から位置や奥行きを推定する処理を行なう場合、様々な環境要因によって正確な位置情報や奥行き情報を得ることはかなり難しいものとなっていた。
In obtaining depth information, depth information is estimated mainly by processing an obtained image. In order to obtain depth information by such image processing, it is necessary to: 1. It is difficult to obtain accurate three-dimensional information due to the influence of vibration, noise, changes in the light source environment, and the like. 2. The shooting path must be straight; There are many problems such as the condition that the speed of the camera is constant.
In fact, when performing a process of estimating a position or a depth from image data or the like acquired on a road, it has been quite difficult to obtain accurate position information and depth information due to various environmental factors.

また、従来のウォークスルーアニメーションでは、例えば、自動車等が交差点で右左折する場合、表示される映像は、現在走っている道路の映像から、いきなり曲がった後の道路の映像に切り替わっていた。このため、本当に曲がったのか、また右折したのか左折したのかどうかわからないという問題があった。
さらに交差点には、店舗や看板など価値ある情報を持った地物が多く存在しており、映像が急に切り替わるとこれらの情報を十分に把握できない可能性があるという問題があった。
Further, in the conventional walk-through animation, for example, when a car or the like makes a right or left turn at an intersection, the displayed image is switched from the image of the currently running road to the image of the road after a sudden turn. For this reason, there was a problem that it was not known whether the vehicle really turned or whether the vehicle turned right or left.
Furthermore, at intersections, there are many features having valuable information such as stores and signboards, and there is a problem that if the video is suddenly switched, such information may not be sufficiently grasped.

これを解決するために、交差点(例えば十字路)で右左折するときの連続した映像をウォークスルーアニメーションで提供する場合、実際に取得しなければならない映像は、1つの交差点につき右左折×4方向と直進×(上下方向2直線+左右方向2直線)の合計12通り必要となり、非常に非効率的である。   In order to solve this problem, when a continuous image of turning right and left at an intersection (for example, a crossroad) is provided by a walk-through animation, the image to be actually acquired is a right / left turn × 4 directions per intersection. A total of twelve patterns of straight traveling × (two straight lines in the vertical direction + two straight lines in the horizontal direction) are required, which is very inefficient.

本発明の目的は、実写映像をもとに映像処理によって広域空間を表現するイメージ・ベースト・レンダリングという手法を用いて、簡単にリアリティのあるウォークスルーアニメーションの生成を可能とする映像生成システム及び映像生成方法を提供することにある。
本発明の他の目的は、交差点でのリアルな右左折映像や任意視点からの映像を、従来のように手間をかけることなく生成することが可能な、映像生成システム及び映像生成方法を提供することにある。
An object of the present invention is to provide a video generation system and a video that can easily generate a realistic walk-through animation by using a method called image-based rendering that expresses a wide area by video processing based on a live-action video. It is to provide a generation method.
Another object of the present invention is to provide a video generation system and a video generation method capable of generating a real right / left turn video at an intersection or a video from an arbitrary viewpoint without any trouble as in the related art. It is in.

前記課題は、本発明の映像生成システムによれば、移動体と、該移動体に配設され該移動体の周方向の映像を撮影して画像データを出力するカメラと、前記移動体に配設され該移動体の周囲の物体との距離を表わす奥行き情報を出力する水平レーザーと、前記画像データ及び前記奥行き情報を処理するデータ処理装置と、を備え、前記データ処理装置は、前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する処理と、前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する処理と、前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、ウォークスルーアニメーションを生成する処理を行うことにより解決される。   According to the image generation system of the present invention, the object is to provide a moving body, a camera which is provided on the moving body, captures a video in a circumferential direction of the moving body and outputs image data, and a camera which is mounted on the moving body. A horizontal laser that is provided and outputs depth information indicating a distance to an object around the moving object; and a data processing device that processes the image data and the depth information. The data processing device includes the depth information. The position of the surrounding object with respect to the moving object is specified at predetermined time intervals based on the specified moving object, and the traveling trajectory of the moving object moved with respect to the specified position of the surrounding object is identified on the traveling trajectory. A process of calculating position information indicating the position of the moving object and traveling direction information representing the traveling direction; and generating a panoramic image displaying the entire circumferential direction viewed from the traveling locus at predetermined time intervals based on the image data. A process of the depth information, the position information, on the basis of the travel direction information and the panorama image is solved by performing the processing of generating a walk-through animation.

このように、本発明の映像生成システムによれば、移動体が移動した走行軌跡上の位置情報を、GPS等の測位機器を用いることなく、水平レーザーによって測定した奥行き情報から特定することができる。水平レーザーによれば、ビル等の谷間の位置においても正確な距離測定が可能である。
また、水平レーザーを用いることにより、測定点から建物等の物体までの奥行き距離を直接的に測定することができ、位置精度が向上する。
そして、本発明では、実際に撮影した映像と奥行き情報とを用いることによって、リアリティのあるウォークスルーアニメーションを生成することが可能となる。
As described above, according to the video generation system of the present invention, it is possible to specify the position information on the travel locus of the moving body from the depth information measured by the horizontal laser without using a positioning device such as a GPS. . According to the horizontal laser, accurate distance measurement is possible even at the position of a valley such as a building.
Further, by using a horizontal laser, the depth distance from the measurement point to an object such as a building can be directly measured, and the positional accuracy is improved.
Then, in the present invention, it is possible to generate a realistic walk-through animation by using the actually shot video and the depth information.

また、前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡から他方の走行軌跡へ進行方向を変更する映像を生成する交差点右左折映像生成処理を行い、該交差点右左折映像生成処理では、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とすることを特徴とする。   Further, in the processing for generating the walk-through animation, the data processing device may use one of the traveling trajectories based on the depth information, the position information, the traveling direction information, and the panorama image in the traveling trajectories that intersect each other. Performing an intersection right / left turn image generation process that generates an image that changes the traveling direction to the travel locus, and in the intersection right / left turn image generation process, the viewpoint of the walk-through animation in one travel locus intersects the travel locus. , The part of the panoramic image in the one traveling locus whose gaze is shifted in the circumferential direction from the traveling direction is set as the display image of the walk-through animation.

このように、本発明では、交差する走行軌跡において、直進映像を取得するだけで、一方の走行軌跡から他方の走行軌跡へ曲がるときの自然なウォークスルーアニメーションを生成することができる。したがって、取得すべき映像が少なくて済むので、手間が掛からず、映像生成の時間やコストを大幅に削減することができる。   As described above, in the present invention, it is possible to generate a natural walk-through animation when turning from one running locus to the other running locus only by acquiring a straight ahead image on the intersecting running locus. Therefore, the number of images to be acquired can be reduced, so that no labor is required and the time and cost for generating images can be greatly reduced.

また、前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点における映像を生成する任意視点映像生成処理を行なうことを特徴とする。
より詳細には、前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点からの所定の視野角度範囲の映像を生成する任意視点映像生成処理処理を行い、該任意視点映像生成処理では、前記視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、該走行軌跡外部分画像を連結して走行軌跡外映像を生成するように構成することができる。
Further, the data processing device is characterized in that, in the process of generating the walk-through animation, an arbitrary viewpoint video generation process of generating a video at a viewpoint outside the travel trajectory is performed.
More specifically, in the process of generating the walk-through animation, the data processing device performs an arbitrary viewpoint video generation process of generating an image of a predetermined viewing angle range from a viewpoint outside the travel trajectory. In the viewpoint video generation processing, each intersection at which the straight line drawn from the viewpoint in each angle direction within the viewing angle range intersects with the traveling locus is specified, and the panorama image at each intersection includes the viewpoint. Cut out the image portion, calculate the distance from the intersection to the surrounding objects in the angular directions and the distance from the viewpoint to the surrounding objects in the angular directions based on the depth information, and calculate these. A distance ratio is calculated, the image portion is enlarged or reduced by the ratio to generate a partial image outside the travel path, and the partial image outside the travel path is connected to travel. Atogai can be configured to generate an image.

このように、本発明では、走行軌跡以外の視点からの映像を、走行軌跡からの映像を拡大・縮小および連結することにより生成することができる。これにより、見え方が自然であって、かつ、リアリティのある映像を生成することができる。   As described above, in the present invention, it is possible to generate an image from a viewpoint other than the traveling locus by enlarging, reducing, and connecting the video from the traveling locus. This makes it possible to generate a natural-looking and realistic video.

本発明の映像生成方法は、全方位カメラで撮影位置の全周方向の画像データを取得する工程と、周囲の物体との距離を測定する水平レーザーで該水平レーザーと周囲の物体との奥行き情報を取得する工程と、前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する工程と、前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する工程と、前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいてウォークスルーアニメーションを生成する工程と、を備えたことを特徴とする。   An image generation method according to the present invention includes a step of obtaining image data in a circumferential direction of a shooting position with an omnidirectional camera, and depth information between the horizontal laser and a surrounding object by a horizontal laser measuring a distance to a surrounding object. Obtaining the position of the surrounding object with respect to the moving body at predetermined time intervals based on the depth information, and a traveling locus of the moving body with respect to the specified position of the surrounding object. Calculating position information representing the position of the moving object on the travel locus and traveling direction information representing the traveling direction, and the entire periphery viewed from the travel locus at predetermined time intervals based on the image data. Generating a panoramic image indicating a direction, and generating a walk-through animation based on the depth information, the position information, the traveling direction information, and the panoramic image , Characterized by comprising a.

また、前記ウォークスルーアニメーションを生成する工程では、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とする処理を行なうことを特徴とする。   In the step of generating the walk-through animation, the viewpoint of the walk-through animation in one traveling locus is determined based on the depth information, the position information, the traveling direction information, and the panoramic image in the traveling locus that intersects with each other. As the vehicle approaches the intersection of the travel trajectories, a process is performed in which a portion of the panorama image in the one travel trajectory, in which the line of sight is shifted in the circumferential direction from the traveling direction, is used as the display image of the walk-through animation. .

また、前記ウォークスルーアニメーションを生成する工程では、前記走行軌跡外の視点における映像を生成する処理を行なうことを特徴とする。
より詳細には、前記ウォークスルーアニメーションを生成する工程では、前記走行軌跡外の視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする。
Further, in the step of generating the walk-through animation, a process of generating a video image at a viewpoint outside the travel locus is performed.
More specifically, in the step of generating the walk-through animation, each intersection point at which the straight line drawn from the viewpoint outside the running locus in each angle direction within the viewing angle range intersects with the running locus is specified. Of the panoramic image at each intersection, an image portion including the viewpoint is cut out, and the distance from each intersection to a surrounding object in each angular direction and the distance from the viewpoint to a surrounding object in each angular direction. Is calculated based on the depth information, and the ratio of these distances is calculated.The image portion is enlarged or reduced by the ratio to generate a partial image outside the travel locus, and the partial images outside the travel locus are connected. And generating a video image outside the traveling locus.

なお、本明細書において、アニメーションとは動画のことであり、より具体的には、実写映像からなる動画により、所定の場所を移動した場合と同じような表示を行なうことを意味するものである。   In the present specification, the animation is a moving image, and more specifically, means that a moving image composed of a live-action image performs a display similar to a case where a predetermined place is moved. .

本発明によれば、車載カメラシステムによって取得した実写映像とレーザーレンジスキャナで取得した奥行き情報を用いることにより、簡単にリアリティのあるウォークスルーアニメーションの生成を可能とする映像生成システム及び映像生成方法を提供することができる。
さらに、交差点でのリアルな右左折映像や任意視点からの映像を、従来のように手間をかけることなく、リアルに再現することが可能となる。
According to the present invention, there is provided an image generation system and an image generation method that can easily generate a realistic walk-through animation by using a real image obtained by an onboard camera system and depth information obtained by a laser range scanner. Can be provided.
Further, it is possible to reproduce a real right / left turn image at an intersection or an image from an arbitrary viewpoint without taking time and effort as in the related art.

以下、本発明の一実施の形態を図面に基づいて説明する。以下の説明では本発明に関わる映像生成システムや映像生成方法について説明しているが、この説明例において、本発明には、映像生成方法、これに関する映像生成システムに所定処理を行わせるためのプログラム、記憶媒体等も含まれることは勿論である。   An embodiment of the present invention will be described below with reference to the drawings. In the following description, a video generation system and a video generation method according to the present invention are described. In this description example, the present invention provides a video generation method and a program for causing the video generation system to perform predetermined processing. And a storage medium.

図1から図37は、本発明の実施例に係るものであり、図1は映像生成システムの説明図、図2は映像生成システムの構成を表わす説明図、図3はビデオカメラ及びレーザーレンジスキャナの配置を表わす説明図、図4はビデオカメラによる映像重複距離の計算のための説明図である。
図5から図9は奥行き情報の処理に関するものであり、図5は走行軌跡データ取得処理の流れ図、図6はレンジ画像の一例を示す説明図、図7はレンジ画像のデータ処理を説明する説明図、図8は走行軌跡画像の一例を示す説明図、図9は走行軌跡データの一例を示す説明図である。
図10から図15はパノラマ画像生成処理に関するものであり、図10はパノラマ画像生成処理の流れ図、図11は隣合う3台のビデオカメラによる画像の一例を示す説明図、図12はビデオカメラ画像の重複部分を削除する処理を説明する説明図、図13は重複部分を削除したビデオカメラ画像の一例を示す説明図、図14は隣合うビデオカメラ画像の端部の重複部分のヒストグラム、図15は8台のビデオカメラによる画像からパノラマ画像を生成する処理を説明する説明図である。
FIGS. 1 to 37 relate to an embodiment of the present invention. FIG. 1 is an explanatory diagram of an image generating system, FIG. 2 is an explanatory diagram showing a configuration of the image generating system, and FIG. 3 is a video camera and a laser range scanner. FIG. 4 is an explanatory diagram for calculating a video overlap distance by a video camera.
5 to 9 relate to the processing of the depth information, FIG. 5 is a flowchart of the traveling trajectory data acquisition processing, FIG. 6 is an explanatory diagram showing an example of the range image, and FIG. 7 is an explanation for explaining the data processing of the range image. FIG. 8 and FIG. 8 are explanatory diagrams showing an example of the traveling locus image, and FIG. 9 is an explanatory diagram showing an example of the traveling locus data.
10 to 15 relate to the panoramic image generation processing, FIG. 10 is a flowchart of the panorama image generation processing, FIG. 11 is an explanatory diagram showing an example of images from three adjacent video cameras, and FIG. FIG. 13 is an explanatory diagram illustrating an example of a video camera image from which an overlapping portion has been deleted, FIG. 14 is a histogram of an overlapping portion at an end of an adjacent video camera image, and FIG. FIG. 8 is an explanatory diagram illustrating a process of generating a panoramic image from images obtained by eight video cameras.

図16から図18は右左折映像生成処理に関するものであり、図16は交差点における右左折映像を生成する処理の説明図、図17は交差点における右左折映像を生成する処理の流れ図、図18は交差点における左折映像を生成する処理の説明図である。
図19から図25は任意視点映像生成処理に関するものであり、図19は任意視点映像を生成する処理の説明図、図20は任意視点映像を生成する処理の流れ図、図21は任意視点映像を生成する処理の説明図、図22は任意視点映像を生成する処理の説明図、図23はパノラマ画像及びピクセルラインの説明図、図24は視点Pから見たピクセルラインの生成処理を説明する説明図、図25は生成されたピクセルラインの配置を示す説明図である。
図26から図37は具体例に係るものであり、図26は左折映像生成に使用した走行軌跡画像を示す説明図、図27は左折映像の一例を示す説明図、図28はフレームごとの移動パラメータを示す説明図、図29は右折映像生成に使用した走行軌跡画像を示す説明図、図30は右折映像の一例を示す説明図、図31はフレームごとの移動パラメータを示す説明図である。また、図32は任意視点映像生成に使用した走行軌跡画像を示す説明図、図33は任意視点映像生成に使用した走行軌跡データを示す説明図、図34から図37は任意視点の位置と任意視点からの画像を示す説明図である。
16 to 18 relate to the right / left turn image generation processing, FIG. 16 is an explanatory diagram of a right / left turn image generation processing at an intersection, FIG. 17 is a flowchart of a right / left turn image generation processing at an intersection, and FIG. It is explanatory drawing of the process which produces | generates a left turn image in an intersection.
19 to 25 relate to an arbitrary viewpoint video generation process, FIG. 19 is an explanatory diagram of a process for generating an arbitrary viewpoint video, FIG. 20 is a flowchart of a process for generating an arbitrary viewpoint video, and FIG. FIG. 22 is an explanatory diagram of a generating process, FIG. 22 is an explanatory diagram of a process of generating an arbitrary viewpoint video, FIG. 23 is an explanatory diagram of a panoramic image and pixel lines, and FIG. FIG. 25 is an explanatory diagram showing the arrangement of the generated pixel lines.
26 to 37 relate to a specific example, FIG. 26 is an explanatory diagram showing a traveling locus image used for generating a left-turn image, FIG. 27 is an explanatory diagram showing an example of a left-turn image, and FIG. FIG. 29 is an explanatory diagram showing a traveling locus image used for generating a right-turn image, FIG. 30 is an explanatory diagram showing an example of a right-turn image, and FIG. 31 is an explanatory diagram showing movement parameters for each frame. FIG. 32 is an explanatory diagram showing a traveling locus image used for generating an arbitrary viewpoint video, FIG. 33 is an explanatory diagram showing traveling locus data used for generating an arbitrary viewpoint video, and FIGS. It is explanatory drawing which shows the image from a viewpoint.

本発明の映像生成システムSは、図1に概略示すように、移動体としての自動車10と、この自動車10に載置される水平レーザーとしてのレーザーレンジスキャナ20と、ビデオカメラ30と、データ処理装置としてのコンピュータ40と、から構成されている。映像生成システムSは、自動車10により移動することができる。
ビデオカメラ30およびレーザーレンジスキャナ20は、それぞれコンピュータ40に電気的に接続され、図2に示すように、ビデオカメラ30からは画像データ、レーザーレンジスキャナ20からは周囲の建物等の側面までの奥行き情報がコンピュータ40へ出力されるように構成されている。
As schematically shown in FIG. 1, an image generation system S according to the present invention includes an automobile 10 as a moving body, a laser range scanner 20 as a horizontal laser mounted on the automobile 10, a video camera 30, And a computer 40 as an apparatus. The image generation system S can be moved by the automobile 10.
The video camera 30 and the laser range scanner 20 are electrically connected to a computer 40, respectively, and as shown in FIG. 2, image data from the video camera 30 and depth from the laser range scanner 20 to the side of a surrounding building or the like. The information is configured to be output to the computer 40.

図1に示すように、自動車10のルーフには、システムキャリア11が固定され、このシステムキャリア11上に縦30cm、横30cm、高さ60cmのアングル台12が固定されている。そして、このアングル台12の上に、台座31が配設されている。そして、この台座31上には、レーザーレンジスキャナ20およびビデオカメラ30が取り付けられている。アングル台12は、ビデオカメラ30の位置を高くすることにより、システムキャリア11や車体がビデオカメラ30で撮影された映像に写ってしまうことを防ぐために設けられている。
また、微振動や縦揺れを軽減させるために、不図示の防振材がアングル台12と台座31との間に装着されている。本例では、防振材として、GELTEC社製インシュレータMN−5を使用している。この防振材はαゲルでできており、固有振動数が低く設定されているため低周波数域の防振が可能であり、上下左右全方向の防振が期待される。
このように配設されたビデオカメラ30は、地上からの高さがおよそ2.3mとなった。
As shown in FIG. 1, a system carrier 11 is fixed to a roof of an automobile 10, and an angle base 12 having a length of 30 cm, a width of 30 cm, and a height of 60 cm is fixed on the system carrier 11. A pedestal 31 is provided on the angle base 12. The laser range scanner 20 and the video camera 30 are mounted on the pedestal 31. The angle base 12 is provided in order to prevent the system carrier 11 and the vehicle body from appearing in an image captured by the video camera 30 by raising the position of the video camera 30.
Further, a vibration isolator (not shown) is mounted between the angle base 12 and the pedestal 31 in order to reduce micro vibrations and pitching. In this example, an insulator MN-5 manufactured by GELTEC is used as a vibration isolator. This anti-vibration material is made of α-gel, and its natural frequency is set low, so that it is possible to perform anti-vibration in a low frequency range, and anti-vibration in all directions, up, down, left, and right is expected.
The video camera 30 arranged in this way had a height from the ground of about 2.3 m.

レーザーレンジスキャナ20は、レーザーを水平方向に出射して映像生成システムSと建物等の対象物と間の奥行き情報(距離情報)を計測する。レーザーレンジスキャナ20としては、例えば、IBEO lasertechnik社製のLD−Aを用いることができる。レーザーレンジスキャナ20を用いることによって、建物などの対象物と撮影位置との距離を直接測定し、奥行き情報を取得することができる。したがって、レーザーレンジスキャナ20によれば、外部要因等に影響されることが少なく、撮影した画像から画像処理によって推定された奥行き情報よりも正確な奥行き情報を取得することができる。   The laser range scanner 20 emits a laser in the horizontal direction and measures depth information (distance information) between the image generation system S and an object such as a building. As the laser range scanner 20, for example, LD-A manufactured by IBEO lasertechnik can be used. By using the laser range scanner 20, it is possible to directly measure the distance between an object such as a building and a shooting position and acquire depth information. Therefore, according to the laser range scanner 20, it is possible to acquire depth information that is less affected by external factors and the like and is more accurate than the depth information estimated by image processing from a captured image.

レーザーヘッダはsingle−row方式であり、1秒間で20回転(1回転は300度)するように構成されている。最大計測距離は70mであり、レーザーヘッダの1回転で480のレンジポイントを計測することができる。すなわち、70m先にある対象物を約25cmのポイント間隔で測定することができる。計測誤差は3cmである。
このレーザーレンジスキャナ20により、奥行き情報、すなわち、センサー位置(レーザーレンジスキャナ20本体)と映像生成システムSの周囲にある対象物(建物)との間の距離情報およびこのときのレーザーの照射方位情報を継続的に取得することができる。そして、この奥行き情報から建物の側面形状を取得することが可能となる。
レーザーレンジスキャナ20で取得された奥行き情報は、レーザーヘッダが1回転する毎に1周期のデータとしてコンピュータ40へ出力される。コンピュータ40は、この奥行き情報を受信して、モニター表示したり、記憶部内に保存したりする。
The laser header is of a single-row type, and is configured to make 20 rotations per second (one rotation is 300 degrees). The maximum measurement distance is 70 m, and 480 range points can be measured by one rotation of the laser header. That is, an object located 70 m away can be measured at point intervals of about 25 cm. The measurement error is 3 cm.
By this laser range scanner 20, depth information, that is, distance information between a sensor position (the main body of the laser range scanner 20) and an object (building) around the image generation system S, and laser irradiation direction information at this time Can be obtained continuously. Then, it becomes possible to acquire the side shape of the building from the depth information.
The depth information obtained by the laser range scanner 20 is output to the computer 40 as data of one cycle every time the laser header makes one rotation. The computer 40 receives this depth information, displays it on a monitor, and saves it in the storage unit.

コンピュータ40は、CPU、入力部、出力部、記憶部、表示部等を備えており、必要であれば、通信制御部を備えた構成とされる。
CPUは、所定のプログラムにしたがって、データの表示や保存及び処理を行う。記憶部は、HDD,ROM,RAMから構成されている。ROMには、コンピュータシステムのハードウェア制御のための基本的な各種プログラムが格納されている。RAMは、コンピュータ制御のためのワークエリアとして機能するように構成されている。HDDには、オペレーティングプログラムや、各プログラム等の情報が格納されている。
このコンピュータ40は、後述するようにレーザーレンジスキャナ20やビデオカメラ30からのデータを取得して、各種のデータ処理を行なう。レーザーレンジスキャナ20からの奥行き情報は、時間ごとにスキャンライン番号が付されて記憶部に記憶される。ビデオカメラ30からの画像データは、時間ごとにフレーム番号が付されて記憶される。このスキャンライン番号とフレーム番号とは、所定の対応関係に関係付けられており、これにより奥行き情報と画像データを時間的に同調させている。
本例では、コンピュータ40は自動車10内に搭載される。ただし、コンピュータ40を自動車10とは別の場所に載置しておき、レーザーレンジスキャナ20やビデオカメラ30からのデータを無線や有線でコンピュータ40に出力したり、記憶媒体を介してコンピュータ40に提供するように構成してもよい。
The computer 40 includes a CPU, an input unit, an output unit, a storage unit, a display unit, and the like. If necessary, the computer 40 includes a communication control unit.
The CPU displays, stores, and processes data according to a predetermined program. The storage unit includes an HDD, a ROM, and a RAM. The ROM stores various basic programs for hardware control of the computer system. The RAM is configured to function as a work area for computer control. The HDD stores information such as an operating program and each program.
The computer 40 acquires data from the laser range scanner 20 and the video camera 30 and performs various data processing as described later. The depth information from the laser range scanner 20 is assigned a scan line number for each time and stored in the storage unit. The image data from the video camera 30 is stored with a frame number assigned for each time. The scan line number and the frame number are associated with a predetermined correspondence relationship, whereby the depth information and the image data are synchronized in time.
In this example, the computer 40 is mounted in the automobile 10. However, the computer 40 is placed in a place different from the car 10 and the data from the laser range scanner 20 or the video camera 30 is output to the computer 40 wirelessly or by wire, or is transmitted to the computer 40 via a storage medium. It may be configured to provide.

ビデオカメラ30は、全方位カメラシステムを構成し、自動車10の全周囲方向360度にわたって映像を取得し、取得したデジタルデータをコンピュータ40へ出力する。
本例では、ビデオカメラ30としてワイドコンバージョンレンズを備えたデジタルビデオカメラを使用している。また、本例では、360度全方向の映像を取得するために、8台の同じビデオカメラ30を45度ごとに放射状に配置して全方位カメラシステムを構築している。なお、本例では、動画映像を取得することができるビデオカメラ30を撮像手段(カメラ)として用いているが、これに限らず、撮像手段として静止画像を取得することができるカメラを用いてもよい。
ここで、8台のビデオカメラ30は、自動車10の真正面に向けられたものから時計方向にカメラ1,2,・・・8ということとする。
本例のビデオカメラ30の実測値に基づく画角は、縦34度、横46度である。また、ワイドコンバージョンレンズ装着時の画角は、縦46度、横60である。
The video camera 30 constitutes an omnidirectional camera system, acquires images over 360 degrees around the vehicle 10, and outputs the acquired digital data to the computer 40.
In this example, a digital video camera having a wide conversion lens is used as the video camera 30. Further, in this example, in order to acquire an image in all directions of 360 degrees, an omnidirectional camera system is constructed by arranging eight identical video cameras 30 radially every 45 degrees. In this example, the video camera 30 capable of acquiring a moving image is used as an imaging unit (camera). However, the present invention is not limited to this, and a camera capable of acquiring a still image may be used as the imaging unit. Good.
Here, the eight video cameras 30 are referred to as cameras 1, 2,..., 8 in a clockwise direction from a camera facing directly in front of the automobile 10.
The angle of view based on the measured values of the video camera 30 of this example is 34 degrees in height and 46 degrees in width. The angle of view when the wide conversion lens is attached is 46 degrees in height and 60 in width.

8台のビデオカメラ30は、図3に示すように、八角形のプレート状の台座31上に放射状に互いに等角度間隔となるよう配設されている。台座31は、一辺55cmの正方形のプレートの4つ角を切り落とした正八角形に形成されている。すなわちビデオカメラ30は、レンズの中心が円の中心Oから円周上に45°ずつ等間隔になるように配置される。このとき、ビデオカメラ30は、円の中心Oからレンズの位置までの半径が最短距離となるように配設されている。中心Oからビデオカメラ30のレンズの位置までの距離は、約30cmである。
また、台座31上には、レーザーレンジスキャナ20が、その中心と中心Oとが一致するように配設されている。
なお、本例では、ビデオカメラ30を8台構成としたが、これに限らず、周囲360°をカバーする映像が得られれば台数には限定されない。
As shown in FIG. 3, the eight video cameras 30 are radially arranged on an octagonal plate-shaped pedestal 31 so as to be equiangularly spaced from one another. The pedestal 31 is formed in a regular octagon obtained by cutting off four corners of a square plate having a side of 55 cm. That is, the video cameras 30 are arranged such that the centers of the lenses are at equal intervals of 45 ° on the circumference from the center O of the circle. At this time, the video camera 30 is disposed such that the radius from the center O of the circle to the position of the lens is the shortest distance. The distance from the center O to the position of the lens of the video camera 30 is about 30 cm.
The laser range scanner 20 is provided on the pedestal 31 such that the center thereof coincides with the center O.
In the present example, eight video cameras 30 are configured, but the number is not limited to this, and the number is not limited as long as an image covering 360 ° around can be obtained.

図4に示すように、ビデオカメラ30の水平方向(横方向)の画角をθ、中心Oからビデオカメラのレンズ位置までの距離をr、中心0から隣合う2台のビデオカメラ30の映像が重なる位置までの距離をXとすると、これらの関係は以下のようになる。
x/r=sin(180°−θ/2)/sin((θ/2)−22.5°)
As shown in FIG. 4, the angle of view in the horizontal direction (lateral direction) of the video camera 30 is θ, the distance from the center O to the lens position of the video camera is r, and the images of two video cameras 30 adjacent from the center 0. Assuming that the distance to the position at which X overlaps is X, these relationships are as follows.
x / r = sin (180 ° −θ / 2) / sin ((θ / 2) −22.5 °)

本例のビデオカメラ30の画角(コンバージョンレンズ装着時)は60°、台座31の中心Oからビデオカメラ30のレンズまでの距離は30cmであるから、上式より中心Oから映像が重複する位置までの距離rは約115cmと算出される。
つまり、台座31の中心Oから約115cmの距離で隣合う2台のビデオカメラ30の映像が重複する。よって、本例では、台座31の中心Oから半径115cmの円内の物体は映像には写らないが、中心Oから半径115cmの円外であれば、360°全方向の物体を映像に記録できる。
8台のビデオカメラ30は、マニュアルモードで撮影条件を一定に設定して撮影を行うとよい。本例では、秒間30コマの高密度連続フレーム静止画記録を行った。
また、すべてのビデオカメラ30の明るさの設定は同一に固定した。
The angle of view of the video camera 30 of this example (when a conversion lens is attached) is 60 °, and the distance from the center O of the pedestal 31 to the lens of the video camera 30 is 30 cm. The distance r to is calculated to be about 115 cm.
That is, the images of the two video cameras 30 adjacent to each other at a distance of about 115 cm from the center O of the pedestal 31 overlap. Therefore, in this example, an object within a circle having a radius of 115 cm from the center O of the pedestal 31 is not captured in the image, but if the object is outside a circle having a radius of 115 cm from the center O, an object in all directions of 360 ° can be recorded in the video. .
It is preferable that the eight video cameras 30 perform shooting in a manual mode while setting shooting conditions constant. In this example, high-density continuous frame still image recording of 30 frames per second was performed.
In addition, the brightness settings of all the video cameras 30 are fixed to be the same.

(奥行き情報の処理)
次に、レーザーレンジスキャナ20によって取得される奥行き情報の処理について説明する。図5は走行軌跡データ取得処理の手順である。
コンピュータ40では、レーザーレンジスキャナ20から1周期ごとの奥行き情報(レーザーレンジスキャナ20に対する相対的な方位における周囲の建物等の側面までの距離情報)を継続的に受信する。そして、コンピュータ40は、この奥行き情報を1周期ごとにスキャンライン番号Lnを付して各時間のデータとして記憶していく(ステップS1)。
コンピュータ40では、各スキャンライン番号Lnが付された奥行き情報ごとに、図6のようなレンジ画像を生成する処理を行う(ステップS2)。奥行き情報を平面上にプロットするとレンジ画像が得られる。レンジ画像には、建物の側面Wの形状が点の集合によって表わされる。また、中央部にある点は、レーザーレンジスキャナ20の中心位置を表わしている。これにより、レーザーレンジスキャナ20に対する周囲の建物等の位置が所定時間ごとに特定される。
(Processing of depth information)
Next, processing of depth information acquired by the laser range scanner 20 will be described. FIG. 5 shows the procedure of the traveling locus data acquisition process.
The computer 40 continuously receives, from the laser range scanner 20, depth information for each cycle (distance information to a side surface of a surrounding building or the like in a relative direction with respect to the laser range scanner 20). Then, the computer 40 stores the depth information as the data of each time with the scan line number Ln attached for each cycle (step S1).
The computer 40 performs a process of generating a range image as shown in FIG. 6 for each piece of depth information to which each scan line number Ln is assigned (step S2). When depth information is plotted on a plane, a range image is obtained. In the range image, the shape of the side surface W of the building is represented by a set of points. A point in the center represents the center position of the laser range scanner 20. Thereby, the position of the surrounding building or the like with respect to the laser range scanner 20 is specified every predetermined time.

図7(A)は、複数のスキャンライン番号Lnに対応するレンジ画像が重ね合わされたものである。コンピュータ40は、スキャンライン番号Lnごとにレンジ画像から線分を抽出する処理を行う(ステップS3)。この処理により同図(B)の画像が生成される。
そして、同図(C)に示すように、線分を抽出した画像の共通部分を重ねあわせる処理が行なわれる(ステップS4)。これは、線分の共通部分を認識して、線分が抽出された画像を縦方向及び横方向に移動させると共に、回転させることにより、直前のスキャンライン番号Lnの線分が抽出された画像に重ね合わせることにより行われる。
このとき、映像生成システムSは移動しているため、レンジ画像を重ね合わせるとレーザーレンジスキャナ20の中心位置は時間とともにずれた位置に現われる。これにより、映像生成システムSの移動した方向ベクトルが算出される。
FIG. 7A shows an example in which range images corresponding to a plurality of scan line numbers Ln are superimposed. The computer 40 performs a process of extracting a line segment from the range image for each scan line number Ln (step S3). By this processing, the image shown in FIG.
Then, as shown in FIG. 4C, a process of superimposing a common portion of the image from which the line segment has been extracted is performed (step S4). This is because, by recognizing the common part of the line segment, moving the image from which the line segment is extracted in the vertical and horizontal directions and rotating it, the image from which the line segment of the immediately preceding scan line number Ln is extracted Is performed by superimposing.
At this time, since the image generation system S is moving, when the range images are superimposed, the center position of the laser range scanner 20 appears at a position shifted with time. Thereby, the moving direction vector of the video generation system S is calculated.

このようにして、各スキャンライン番号Lnのレンジ画像を同様の手順で重ね合わせて行くことにより、図8に示すような走行軌跡画像を得ることができる。図中、Tは映像生成システムSが移動した走行軌跡を表わしている。このように、特定された周囲の物体の位置に対する移動体10の移動軌跡を特定することができる。
コンピュータ40は、レンジ画像を重ね合わせる処理を行なうことによって、各スキャンライン番号Lnに対応する時点における映像生成システムSのX、Y座標(座標情報)および画像の回転角度を走行軌跡データとして生成し記憶する(ステップS5)。このようにして、周囲の建物等に対するレーザーレンジスキャナ20の走行軌跡上の位置情報及び進行方向情報(自動車10の正面方向)が得られる。図9に走行軌跡データの例を示す。
また、各スキャンライン番号Lnの奥行き情報から、各時点での走行軌跡T上における建物の側面との距離、道路幅等を求めることができる。
なお、座標情報は、計測開始時の映像生成システムSの位置を原点とした相対的なものとなる。
In this way, by superimposing the range images of the respective scan line numbers Ln in the same procedure, a traveling locus image as shown in FIG. 8 can be obtained. In the figure, T represents a travel locus that the image generation system S has moved. In this manner, the movement trajectory of the moving body 10 with respect to the specified position of the surrounding object can be specified.
The computer 40 generates the X and Y coordinates (coordinate information) of the image generation system S and the rotation angle of the image at the time corresponding to each scan line number Ln as travel locus data by performing a process of superimposing the range images. It is stored (step S5). In this manner, the position information and the traveling direction information (the front direction of the vehicle 10) on the traveling locus of the laser range scanner 20 with respect to the surrounding buildings and the like are obtained. FIG. 9 shows an example of travel locus data.
Further, from the depth information of each scan line number Ln, the distance from the side of the building on the traveling locus T at each time point, the road width, and the like can be obtained.
Note that the coordinate information is relative with respect to the position of the video generation system S at the start of the measurement.

(パノラマ画像の生成処理)
次に、図10に基づいてビデオカメラ30により取得された画像データから、360°全方向を表示するパノラマ画像Pnを生成する処理について説明する。この処理では、コンピュータ40により、8台のビデオカメラ30で取得した8つの映像を水平方向につなぎ合わせパノラマ画像が生成される。パノラマ画像とは、視点から見た周囲360°の映像を連続的につなぎ合わせたものである。
(Panorama image generation processing)
Next, a process of generating a panoramic image Pn displaying all directions of 360 ° from image data acquired by the video camera 30 will be described with reference to FIG. In this process, the computer 40 connects eight videos acquired by the eight video cameras 30 in the horizontal direction to generate a panoramic image. The panoramic image is obtained by continuously connecting images around 360 ° viewed from the viewpoint.

ビデオカメラ30で撮影された画像は、本例の場合、図11に示されるような640×480ピクセルの画像であり、フレーム番号が付されてコンピュータ40の記憶部に記憶される。なお、図中、カメラ1,カメラ8,カメラ2は、それぞれ自動車10の真正面,左45°,右45°を撮影するビデオカメラ30による画像である。また、図示していないが、本例の場合は、カメラ1〜8の8枚の画像が各フレーム番号に対応して得られている。
上述のように隣合うビデオカメラ30による撮像範囲は一部重複していること、及び、各ビデオカメラ30は、撮影の明るさに違いがあることから、各ビデオカメラ30で撮影した映像を単につなげただけでは、不自然な画像となってしまい綺麗なパノラマ画像を生成することができない。このため、パノラマ画像を生成する処理では、重複部分を削除する処理が行われる。
In this example, the image captured by the video camera 30 is an image of 640 × 480 pixels as shown in FIG. In the drawing, cameras 1, 8 and 2 are images obtained by the video camera 30 for photographing the front of the automobile 10, 45 ° left and 45 ° right, respectively. Although not shown, in the case of this example, eight images of the cameras 1 to 8 are obtained corresponding to each frame number.
As described above, the imaging ranges of the adjacent video cameras 30 partially overlap with each other, and since each video camera 30 has a difference in the brightness of shooting, the video captured by each video camera 30 is simply displayed. Simply connecting them results in an unnatural image and cannot produce a beautiful panoramic image. For this reason, in the process of generating a panoramic image, a process of deleting an overlapping portion is performed.

まず、コンピュータ40は、記憶部からフレーム番号ごとに図11に示すような8枚の画像を読み出す処理を行なう(ステップS11)。
そして、図12に示すように各ビデオカメラ30による画像のうち重複しない画像部分にはマスク処理を行なう(ステップS12)。マスクがかけられる領域は、各画像の中心から所定のピクセル数の幅に設定されている。
そして、図13に示すようにマスクされた部分(マスク部分)に加えて、マスク部分の左右両側の数ピクセルを残して、両端の画像部分を削除して、使用する画像領域を抽出する処理が行われる(ステップS13)。本例では、画像領域を抽出処理で画像の両端から125ピクセルずつの領域を削除する処理が行われる。
First, the computer 40 performs a process of reading eight images as shown in FIG. 11 from the storage unit for each frame number (step S11).
Then, as shown in FIG. 12, a non-overlapping image portion of the images obtained by the respective video cameras 30 is subjected to mask processing (step S12). The area to be masked is set to have a width of a predetermined number of pixels from the center of each image.
Then, as shown in FIG. 13, in addition to the masked portion (mask portion), a process of extracting image regions to be used by deleting image portions at both ends while leaving several pixels on both left and right sides of the mask portion. This is performed (step S13). In this example, a process of deleting an area of 125 pixels each from both ends of the image by the image area extraction processing is performed.

次に各ビデオカメラ30の画像の明るさを調節する処理が行なわれる(ステップS14)。
このため、図14に示すように、抽出された画像のうち、隣合う画像と重複する両端の部分のヒストグラムが抽出される。一例としてカメラ8,カメラ1の重複する端部のヒストグラムを図14(A),(B)にそれぞれ示す。
そして、各画像から抽出したヒストグラムを平均する処理が行われる。図14(C)に平均化したヒストグラムを示す。そして、平均化したヒストグラムを元の画像にリサンプリングする処理が行われ、抽出された画像は明るさが調整される。
明るさが調節されると、8枚の画像を横方向につなぎ合わせる処理が行われる(ステップS15)。これにより、図15に示すような360°全方向のパノラマ画像Pnが生成される。なお、本例のパノラマ画像Pnは、進行方向(カメラ1の中心方向)を0度として、左右に180度づつの視野範囲の画像が広がっている。
そして、接合されたパノラマ画像Pnは、フレーム番号を付して記憶される(ステップS16)。
このようにして得られたパノラマ画像Pnは、隣合う画像との接合部分において明るさが調整されているため、ユーザーに違和感を生じさせることがない。
コンピュータ40では、すべてのフレーム番号に対して、ステップS11からS15の処理を行ない、パノラマ画像Pnを生成し、記憶部に記憶する。
Next, a process of adjusting the brightness of the image of each video camera 30 is performed (step S14).
Therefore, as shown in FIG. 14, histograms of both ends of the extracted image overlapping with the adjacent image are extracted. As an example, histograms of overlapping edges of the camera 8 and the camera 1 are shown in FIGS.
Then, a process of averaging the histograms extracted from each image is performed. FIG. 14C shows the averaged histogram. Then, a process of resampling the averaged histogram into the original image is performed, and the brightness of the extracted image is adjusted.
When the brightness is adjusted, a process of connecting the eight images in the horizontal direction is performed (step S15). Thereby, a panoramic image Pn in all directions of 360 ° as shown in FIG. 15 is generated. Note that the panoramic image Pn of this example has an image in a viewing range of 180 degrees to the left and right, with the traveling direction (center direction of the camera 1) being 0 degree.
Then, the joined panoramic image Pn is stored with a frame number attached (step S16).
The brightness of the panoramic image Pn obtained in this way is adjusted at the joint between the adjacent image and the image, so that the user does not feel uncomfortable.
The computer 40 performs the processing of steps S11 to S15 for all frame numbers, generates a panoramic image Pn, and stores it in the storage unit.

以上のようにして生成された走行軌跡データ、パノラマ画像Pn等からウォークスルーアニメーションが生成される。
ウォークスルーアニメーションは、以下の映像生成処理で述べるようにウォークスルーアニメーションの視点、すなわち時間と共に移動するユーザーの視点からの視線方向のパノラマ画像を切り取って合成することにより生成される。
すなわち、コンピュータ40には、ユーザーの視点の座標及び視野角度が入力され、各時間における視点の座標及び視野角度に対応するフレーム番号のパノラマ画像Pnが選択され、画像が合成される。
例えば、走行軌跡上に視点がある場合には、その視点の座標によりスキャンライン番号Ln及びフレーム番号が特定され、そのフレーム番号のパノラマ画像Pnが選択される。そして、その視点からの視線方向の画像、すなわちその視点からの視野角度で決定される範囲の画像部分がパノラマ画像Pnから切取られ、表示画像が生成される。このように生成された表示画像は、直接、コンピュータ40の表示部に表示させることができる。また、生成された表示画像を記憶部に記憶させておくこともできる。
また、視点が走行軌跡外にある場合等の処理については後述する。
A walk-through animation is generated from the traveling locus data, the panoramic image Pn, and the like generated as described above.
The walk-through animation is generated by cutting and synthesizing a viewpoint of the walk-through animation, that is, a panoramic image in the line of sight from the viewpoint of the user moving with time, as described in the following video generation processing.
That is, the coordinates of the viewpoint and the viewing angle of the user are input to the computer 40, the panorama image Pn of the frame number corresponding to the viewpoint coordinates and the viewing angle at each time is selected, and the images are synthesized.
For example, when there is a viewpoint on the traveling locus, the scan line number Ln and the frame number are specified by the coordinates of the viewpoint, and the panoramic image Pn of the frame number is selected. Then, an image in the line-of-sight direction from the viewpoint, that is, an image portion in a range determined by the viewing angle from the viewpoint is cut out from the panoramic image Pn, and a display image is generated. The display image generated in this way can be directly displayed on the display unit of the computer 40. In addition, the generated display image can be stored in the storage unit.
Processing when the viewpoint is outside the traveling locus will be described later.

(交差点右左折映像生成処理)
次に、交差点右左折映像の生成処理について説明する。
この処理では、図16に示すように、映像生成システムSが交差点を縦方向に直進したときにビデオカメラ30によって得られた映像(パノラマ画像)と横方向に直進して得られた映像(パノラマ画像)から、交差点を曲がるときの映像が合成される。
このとき、縦方向に移動したときの軌跡を走行軌跡T1、横方向に移動したときの軌跡を走行軌跡T2とし、走行軌跡T1,T2は、図16のように交差点内で交差するものとする。
(Intersection right / left turn video generation processing)
Next, generation processing of an intersection right / left turn image will be described.
In this processing, as shown in FIG. 16, when the video generation system S goes straight ahead at the intersection, the video (panorama image) obtained by the video camera 30 and the video obtained by going straight in the horizontal direction (panorama image) From the image), the video when turning around the intersection is synthesized.
At this time, the locus when moving in the vertical direction is the running locus T1, the locus when moving in the horizontal direction is the running locus T2, and the running locus T1 and T2 intersect within the intersection as shown in FIG. .

以下に2本の道路が直交する交差点を左折するときの映像を生成する処理を例にとって説明する。
図17は、交差点右左折映像の生成手順を示すものである。
自動車は、走行軌跡T1上を移動し、交差点で左折し、さらに走行軌跡T2上を移動するものとする。
コンピュータ40は、走行軌跡T1,T2におけるパノラマ画像Pn及び走行軌跡データを読み出す(ステップS21)。このとき、走行軌跡T1,T2による走行軌跡データは、同じデータの異なる時間帯のデータであってもよいし、別々のデータではあるが原点位置及び方向を一致させたものであってもよい。
Hereinafter, a description will be given of an example of a process of generating an image when a left turn is made at an intersection where two roads are orthogonal to each other.
FIG. 17 shows a procedure for generating an intersection right / left-turn image.
It is assumed that the automobile moves on the traveling locus T1, turns left at an intersection, and further moves on the traveling locus T2.
The computer 40 reads the panorama image Pn and the traveling locus data on the traveling locus T1 and T2 (step S21). At this time, the travel trajectory data based on the travel trajectories T1 and T2 may be data of the same data in different time zones, or may be separate data but having the same origin position and direction.

次に、交差時のフレーム番号を決定する処理が行われる(ステップS22)。
コンピュータ40は、図18(D)に示すように、レーザーレンジスキャナ20によって得られた縦方向の走行軌跡T1と横方向の走行軌跡T2を重ね合わせ、交差点での交点P4を求める。走行軌跡データの走行軌跡T1,T2での座標情報を参照して、交点P4が求められる。
また、コンピュータ40は、交点P4の座標から交点P4に対応するスキャンライン番号を縦方向走行時及び横方向走行時についてそれぞれ算出する。スキャンライン番号とフレーム番号とは、対応付けられているので、得られたスキャンライン番号をもとに、パノラマ画像Pnの縦方向走行時と横方向走行時のフレーム番号それぞれが求められる。
Next, a process of determining a frame number at the time of intersection is performed (step S22).
As shown in FIG. 18D, the computer 40 superimposes the vertical traveling locus T1 and the horizontal traveling locus T2 obtained by the laser range scanner 20, and obtains an intersection P4 at the intersection. The intersection P4 is obtained by referring to the coordinate information on the traveling trajectories T1 and T2 of the traveling trajectory data.
Further, the computer 40 calculates the scan line number corresponding to the intersection P4 from the coordinates of the intersection P4 for the vertical travel and the horizontal travel, respectively. Since the scan line numbers and the frame numbers are associated with each other, the frame numbers of the panoramic image Pn in the vertical direction and in the horizontal direction are obtained based on the obtained scan line numbers.

次に、パノラマ画像Pnを合成する処理が行われる(ステップS23)。
図18(A)のように自動車(ウォークスルーアニメーションの視点)が交差点の手前のP1地点(軌跡T1上)で直進しているとき、視線は矢印の方向つまり前面の直進方向を向いている。このため、この時にウォークスルーアニメーションに使用される表示画像は、走行軌跡T1からのパノラマ画像Pnのうちカメラ1による画像部分が切り取られたものとなる。
Next, a process of synthesizing the panoramic image Pn is performed (Step S23).
As shown in FIG. 18A, when the car (viewpoint of the walk-through animation) is traveling straight ahead at the point P1 (on the trajectory T1) before the intersection, the line of sight is in the direction of the arrow, that is, in the straight ahead direction on the front. For this reason, the display image used for the walk-through animation at this time is a panorama image Pn from the traveling trajectory T1 in which the image portion of the camera 1 has been cut out.

図18(B)のように自動車が交差点に近くなると、左折しているように見えるように、走行軌跡T1からのパノラマ画像Pnのうち視点を所定量だけ左側へ移動させた画像部分が切取られて使用される。具体的には、パノラマ画像Pnを表示画面に対して左から右に移動させていく。言い換えると表示画面を左に移動させる。そして徐々にカメラ1中心の画像から、カメラ1とカメラ8の画像から合成した画像が切り出されて表示される。   When the vehicle approaches the intersection as shown in FIG. 18B, an image portion of the panorama image Pn from the traveling locus T1 in which the viewpoint has been moved to the left by a predetermined amount is cut off so as to appear to be turning left. Used. Specifically, the panoramic image Pn is moved from left to right with respect to the display screen. In other words, the display screen is moved to the left. Then, an image synthesized from the images of the cameras 1 and 8 is gradually cut out from the image at the center of the camera 1 and displayed.

図18(C)のように自動車が交差点内に進入していくと、さらに視点を左側へ移動させていく。つまり走行軌跡T1からのパノラマ画像Pnのうち、さらに視点を左側へ移動させた画像部分が切取られて使用される。つまり、表示画面に対して左から右にさらにパノラマ画像Pnを移動させる。言い換えると表示画面をさらに左へ移動させ、カメラ8とカメラ7の画像から合成した画像が切り出されて表示される。このように、交点P4に近づくにつれて表示される画像は、カメラ7を中心とした画像に近づいていくことになる。   As the car enters the intersection as shown in FIG. 18C, the viewpoint is further moved to the left. In other words, of the panoramic image Pn from the traveling trajectory T1, an image portion obtained by further moving the viewpoint to the left is cut out and used. That is, the panorama image Pn is further moved from left to right with respect to the display screen. In other words, the display screen is further moved to the left, and an image synthesized from the images of the cameras 8 and 7 is cut out and displayed. Thus, the image displayed as approaching the intersection P4 approaches the image centered on the camera 7.

図18(D)のように自動車が交点P4では、縦方向走行時(走行軌跡T1)のカメラ7(左90°)の画像と横方向走行時(走行軌跡T2)のカメラ1(前面)の画像は一致する。そこで交点P4に達したとき、縦方向走行によって得られたパノラマ画像Pn(画像中心はカメラ7)は、横方向走行によって得られたパノラマ画像Pn(画像中心はカメラ1)に置き換えられる。このとき、フレーム番号が切り替えられる。これにより、縦方向走行時に得られた画像と、横方向走行時に得られた画像とをユーザーに違和感を与えることなく、切り替えることができる。   As shown in FIG. 18D, at the intersection P4, the image of the camera 7 (90 ° left) when traveling in the vertical direction (traveling trajectory T1) and the image of the camera 1 (front) when traveling in the horizontal direction (traveling trajectory T2). The images match. Therefore, when the intersection P4 is reached, the panoramic image Pn (image center is the camera 7) obtained by running in the vertical direction is replaced with a panoramic image Pn (image center is the camera 1) obtained by running in the horizontal direction. At this time, the frame numbers are switched. This makes it possible to switch between the image obtained during the vertical running and the image obtained during the horizontal running without giving the user a feeling of strangeness.

最後に、以上の生成した画像がつなぎ合わされて、交差点を左折する映像(ウォークスルーアニメーション)が合成される。これにより、実際に交差点で曲がることなく直進映像を取得するだけで、交差点において4方向から進入した場合の右折・左折動画をそれぞれ作り出すことが可能となる。
この方法によれば、右左折時に、画面が直進時の画面から急に右左折方向の画面に切り替わってしまうことがないので、ユーザーに違和感を与えることがないので好適である。
このように、本例の映像生成システムSによれば、ユーザーに違和感を生じさせることのない自然な右左折映像を含むウォークスルーアニメーションを生成することができる。
Finally, the generated images are joined together, and a video (walk-through animation) of turning left at the intersection is synthesized. This makes it possible to create right-turn and left-turn moving images when entering from four directions at an intersection by simply acquiring a straight-ahead image without actually turning at the intersection.
According to this method, when turning right or left, the screen does not suddenly switch from the screen in the straight traveling direction to the screen in the right or left turning direction, so that it is preferable that the user does not feel uncomfortable.
As described above, according to the video generation system S of the present example, it is possible to generate a walk-through animation including a natural right / left-turn video that does not cause a user to feel strange.

また、次述する任意視点映像生成処理を組合せて、設定した移動パラメータにより視点を移動させた画像を生成することができる。視点移動及び進行方向映像は、交差点動画のときと同様に、奥行き情報から移動体の位置、道路幅などを測定し、その位置情報をもとにパノラマ画像を移動、拡大、縮小することによって合成することができる。   Further, an image in which the viewpoint is moved by the set movement parameter can be generated by combining the arbitrary viewpoint video generation processing described below. The viewpoint movement and traveling direction images are synthesized by measuring the position of the moving object and the road width from the depth information and moving, enlarging, and reducing the panorama image based on the position information, as in the case of the intersection video. can do.

(任意視点映像生成処理)
次に、任意視点映像生成処理について説明する。コンピュータ40は、生成したパノラマ画像とレーザーレンジスキャナ20による奥行き情報、走行軌跡データをもとに、自動車10の走行した軌跡以外の任意の視点から見える任意視点映像(走行軌跡外映像)を生成する処理を行う。
図19に任意視点映像生成の概念図を示す。図19に示すように、原点L0からの走行軌跡T上を映像生成システムSが移動してレーザーレンジスキャナ20による奥行き情報、ビデオカメラ30による画像データが取得されたものとする。そして、奥行き情報から走行軌跡Tの両側には建物の側面Wが測定される。ここで、走行軌跡T上以外の新たな視点をPとする。
(Arbitrary viewpoint video generation processing)
Next, the arbitrary viewpoint video generation processing will be described. The computer 40 generates an arbitrary viewpoint video (a video outside the travel locus) that can be viewed from an arbitrary viewpoint other than the locus on which the automobile 10 travels, based on the generated panoramic image, the depth information from the laser range scanner 20, and the travel locus data. Perform processing.
FIG. 19 shows a conceptual diagram of arbitrary viewpoint video generation. As shown in FIG. 19, it is assumed that the image generation system S has moved along the traveling trajectory T from the origin L0 and the depth information by the laser range scanner 20 and the image data by the video camera 30 have been acquired. Then, the side surfaces W of the building are measured on both sides of the traveling locus T from the depth information. Here, let P be a new viewpoint other than on the traveling locus T.

任意視点映像生成処理の概略は、まず、視点Pからの視線ベクトルV1,V2・・・と同じ方向であって視点Pを向くベクトルをもった走行軌跡T上の範囲を特定し、この範囲のデータを有するスキャンライン番号Lnの範囲を算出する。
次にそれぞれの対象スキャンライン番号Lnにおける交点L1,L2・・・について、建物の側面Wと視点Pまでの距離、建物の側面Wと走行軌跡T上の点までの距離を求める。
そして求められた2つの距離の比に応じて、各スキャンライン番号に対応する各フレーム番号において走行軌跡Tにおけるパノラマ画像Pnを拡大・縮小する処理が行われる。
最後に生成した画像を再構成し、新たな視点Pの画像が生成される。
図20は、任意視点映像を生成する手順を表している。
The outline of the arbitrary viewpoint video generation processing is as follows. First, a range on the traveling trajectory T having a vector in the same direction as the line-of-sight vectors V1, V2,. A range of scan line numbers Ln having data is calculated.
Next, for the intersections L1, L2,... At each target scan line number Ln, the distance between the side surface W of the building and the viewpoint P, and the distance between the side surface W of the building and a point on the traveling locus T are determined.
Then, a process of enlarging / reducing the panorama image Pn on the traveling locus T at each frame number corresponding to each scan line number is performed according to the ratio of the two distances obtained.
Finally, the generated image is reconstructed, and a new image of the viewpoint P is generated.
FIG. 20 shows a procedure for generating an arbitrary viewpoint video.

任意視点映像生成処理では、データ入力処理として、視点Pの座標(X,Y)、対象物の視野領域を決定する視野角度θ1,θ2がコンピュータ40に与えられ、記憶されている走行軌跡データ及びパノラマ画像Pnが読み込まれる(ステップS31)。   In the arbitrary viewpoint video generation processing, the coordinates (X, Y) of the viewpoint P and the viewing angles θ1 and θ2 that determine the viewing area of the target object are given to the computer 40 as data input processing, and the stored travel locus data and The panoramic image Pn is read (Step S31).

次に、対象物の視野領域から視点Pへの延長線と走行軌跡Tとの交点を計算する処理が行われる(ステップS32)。
視点P(X,Y)において、進行方向を0度として視野角度θ1からθ2の範囲を見た場合に、視野角度θ1からθ2の範囲が視野領域である。
ここで、図21に示すように、交点L1,交点L2は、それぞれ視点Pから視野角度θ1,θ2だけ傾斜した方向へ向けて引いた直線と走行軌跡Tとの交点である。また、原点L0,交点L1,交点L2のそれぞれの座標を(0,0),(Xl1,Yl1),(Xl2,Yl2)とする。
図21に示すように視点P(X,Y)から走行軌跡Tに向かって垂線を引いた交点をL3とする。交点L3の座標は(X2,Y)である。コンピュータ40は、視点Pおよび走行軌跡データからX2を算出し、さらに視点Pと交点L3と間の距離Lx(=X−X2)を求める。
また、交点L3と交点L1との距離Ld1は、Ld1=Lx/tanθ1により算出され、交点L3と交点L2との距離Ld2は、Ld2=Lx/tanθ2により算出される。
さらに、交点L1のY座標(Yl1)は、Yl1=Y−Ld1により算出され、交点L2のY座標(Yl2)は、Yl2=Y−Ld2により算出される。これにより、走行軌跡T上の交点の座標範囲が算出される。
このようにして視野角度θ1からθ2まで、角度毎に対応する走行軌跡T上の交点が求められる。
Next, a process of calculating an intersection between the extended line from the visual field region of the target object to the viewpoint P and the traveling locus T is performed (step S32).
At the viewpoint P (X, Y), when viewing the range from the viewing angles θ1 to θ2 with the traveling direction being 0 degrees, the range from the viewing angles θ1 to θ2 is the viewing area.
Here, as shown in FIG. 21, the intersection points L1 and L2 are the intersection points of a straight line drawn from the viewpoint P in a direction inclined by the viewing angles θ1 and θ2, respectively, and the traveling locus T. The coordinates of the origin L0, the intersection L1, and the intersection L2 are (0, 0), (X11, Y11), and (X12, Y12).
As shown in FIG. 21, an intersection point drawn from the viewpoint P (X, Y) toward the traveling locus T is defined as L3. The coordinates of the intersection L3 are (X2, Y). The computer 40 calculates X2 from the viewpoint P and the travel trajectory data, and further obtains a distance Lx (= X−X2) between the viewpoint P and the intersection L3.
The distance Ld1 between the intersection L3 and the intersection L1 is calculated by Ld1 = Lx / tan θ1, and the distance Ld2 between the intersection L3 and the intersection L2 is calculated by Ld2 = Lx / tan θ2.
Further, the Y coordinate (Y11) of the intersection L1 is calculated by Y11 = Y-Ld1, and the Y coordinate (Y12) of the intersection L2 is calculated by Y12 = Y-Ld2. Thus, the coordinate range of the intersection on the traveling locus T is calculated.
In this way, the intersections on the traveling locus T corresponding to the angles from the viewing angles θ1 to θ2 are obtained.

次に、使用すべきデータのスキャンライン番号Lnの範囲を特定する処理が行われる(ステップS33)。ここでは、角度毎に対応する走行軌跡T上のY座標と走行軌跡データのスキャンライン番号Lnに対応するY座標とを照らし合わせる処理が行なわれ、角度毎に最も近いY座標を有するスキャンライン番号Lnが決定される。   Next, processing for specifying the range of the scan line number Ln of the data to be used is performed (step S33). Here, the process of comparing the Y coordinate on the traveling locus T corresponding to each angle with the Y coordinate corresponding to the scan line number Ln of the traveling locus data is performed, and the scan line number having the closest Y coordinate for each angle is performed. Ln is determined.

次に、視点Pからの画像を得るために、各対象スキャンライン番号Lnに対応する走行軌跡T上の点からの画像を拡大縮小するための拡大縮小率を求める処理が行なわれる(ステップS34)。
各視線方向の拡大縮小率は、視点Pから対象物(この場合、建物の側面W)までの各視線方向の距離Dpと走行軌跡T上の点から対象物までの各視線方向の距離Dlとの比Zによって与えられる。
Next, in order to obtain an image from the viewpoint P, a process of obtaining an enlargement / reduction ratio for enlarging / reducing an image from a point on the travel locus T corresponding to each target scan line number Ln is performed (step S34). .
The enlargement / reduction ratio in each line-of-sight direction is determined by the distance Dp in each line-of-sight direction from the viewpoint P to the object (in this case, the side surface W of the building) and the distance Dl in each line-of-sight direction from a point on the traveling trajectory T to the object. Given by the ratio Z of

図22に示すように、対象スキャンライン番号Lnに対応する座標点(Xln,Yln)から対象物までの距離Dlnは、その実測値がレーザーレンジスキャナ20によってすでに取得され、奥行き情報として記憶されている。図中、交点L1,L2に対応するθ1方向,θ2方向の対象物の側面Wの位置をそれぞれW1,W2としている。
使用する範囲のスキャンライン番号Lnについて、対象物への対象角度θlnに対応する奥行き情報を読み出せば対象物までの距離Dlnが求まる。
しかし走行軌跡データは、スキャンライン番号Lnごとに各レンジ画像を回転させてつなぎ合わせることにより生成されているため、視野角度θ1からθ2までの角度に加えて画像の回転角度θrnを考慮する必要がある(図22参照)。なお、回転角度θrnは、スキャンライン番号Lnに対応する回転角度であって、測定時の進行方向に相当する。
そこで視野角度θ1からθ2までの各角度別に求めた対象スキャンライン番号Lnについて、走行軌跡データを参照して回転角度θrnを考慮すると、対象角度θlnは、θln=θn−θrnとなる。
As shown in FIG. 22, the distance DIn from the coordinate point (Xln, Yln) corresponding to the target scan line number Ln to the target is obtained by actually acquiring the measured value by the laser range scanner 20 and storing it as depth information. I have. In the figure, the positions of the side surfaces W of the object in the θ1 direction and the θ2 direction corresponding to the intersections L1 and L2 are denoted by W1 and W2, respectively.
By reading depth information corresponding to the target angle θln to the target for the scan line number Ln in the range to be used, the distance Dln to the target can be obtained.
However, since the travel locus data is generated by rotating and connecting the respective range images for each scan line number Ln, it is necessary to consider the image rotation angle θrn in addition to the angles from the viewing angles θ1 to θ2. (See FIG. 22). The rotation angle θrn is a rotation angle corresponding to the scan line number Ln, and corresponds to a traveling direction at the time of measurement.
Thus, when the rotation angle θrn is considered with reference to the travel trajectory for the target scan line number Ln obtained for each angle from the viewing angles θ1 to θ2, the target angle θln is θln = θn−θrn.

したがって、各スキャンライン番号Lnにおける奥行き情報のうち、角度θlnに対応する距離情報が対象物までの視線方向の距離Dlnに該当する。コンピュータ40は、角度θlnに対応するデータを読み出して、距離Dlnとして記憶する。   Therefore, of the depth information at each scan line number Ln, the distance information corresponding to the angle θln corresponds to the distance Dln in the line-of-sight direction to the target. The computer 40 reads out the data corresponding to the angle θln and stores it as the distance Dln.

また、視点Pから対象物までの視線方向の距離Dpnを算出する処理が行なわれる。
距離Dpnは、スキャンライン番号Lnに対応して算出された距離Dlnから視点P(X,Y)と座標点(Xln,Yln)までの距離Dplnを引いたものに相当する。すなわち、Dpn=Dln−Dplnである。
Further, a process of calculating a distance Dpn in the line of sight from the viewpoint P to the target is performed.
The distance Dpn corresponds to a value obtained by subtracting the distance Dpln between the viewpoint P (X, Y) and the coordinate point (Xln, Yln) from the distance Dln calculated corresponding to the scan line number Ln. That is, Dpn = Dln-Dpln.

まず、距離Dplnを算出する処理では、各スキャンライン番号Lnの座標点(Xln,Yln)が走行軌跡データから読み出され、視点P(X,Y)と座標点L(Xln,Yln)との2点間の距離が計算される。すなわち、距離Dplnは、Dpln=sqrt{(X−Xln)+(Y−Yln)}によって算出される。
そして、距離Dpnは、Dpn=Dln−Dplnによって算出される。
First, in the process of calculating the distance Dpln, the coordinate point (Xln, Yln) of each scan line number Ln is read from the travel locus data, and the coordinates of the viewpoint P (X, Y) and the coordinate point L (Xln, Yln) are read. The distance between the two points is calculated. That is, the distance Dpln is calculated by Dpln = sqrt {(X-Xln ) 2 + (Y-Yln) 2}.
Then, the distance Dpn is calculated by Dpn = Dln-Dpln.

視点P(X,Y)から対象物までの視線方向の距離Dpnとスキャンライン番号Lnの座標点から対象物までの距離Dlnとの距離の比Zは、Z=Dpn/Dlnにより算出される。
これにより各スキャンライン番号Lnについて、元の画像から新たな視点Pの画像を生成する際の画像の拡大縮小率(比Z)が求められ記憶される。
The ratio Z of the distance Dpn between the viewpoint P (X, Y) in the line of sight to the target and the distance Dln from the coordinate point of the scan line number Ln to the target is calculated by Z = Dpn / Dln.
As a result, for each scan line number Ln, the enlargement / reduction ratio (ratio Z) of the image when the image of the new viewpoint P is generated from the original image is obtained and stored.

次に、使用される画像の領域を決定する処理が行なわれる(ステップS35)。
まず、スキャンライン番号Lnとパノラマ画像Pnのフレーム番号は同期させてあるので、スキャンライン番号Lnが決定されることによりコンピュータ40は使用するパノラマ画像Pnのフレーム番号を特定する。また、スキャンライン番号Lnに対応して、対象角度θlnを算出する。
図23に示すように、パノラマ画像Pnの幅をw、パノラマ画像Pnの中心の角度を0とすると、対象ピクセルラインInは、
In1=(π−θln)×w/2π・・(ピクセルライン始まり)
In2=(π−θln)×w/2π+w/2π・・(ピクセルライン終わり)
で表わされる。すなわち、スキャンライン番号Lnについては、パノラマ画像PnのIn1からIn2までのピクセル幅から構成される画像が使用される画像となる。
Next, a process of determining a region of an image to be used is performed (step S35).
First, since the scan line number Ln and the frame number of the panoramic image Pn are synchronized, the computer 40 specifies the frame number of the panoramic image Pn to be used by determining the scan line number Ln. Further, the target angle θln is calculated corresponding to the scan line number Ln.
As shown in FIG. 23, assuming that the width of the panoramic image Pn is w and the angle of the center of the panoramic image Pn is 0, the target pixel line In is
In1 = (π-θln) × w / 2π ·· (pixel line start)
In2 = (π−θln) × w / 2π + w / 2π .. (end of pixel line)
Is represented by That is, the scan line number Ln is an image in which an image composed of pixel widths from In1 to In2 of the panoramic image Pn is used.

次に、画像の再構成処理として、画像の拡大縮小化処理が行なわれる(ステップS36)。
距離Dpnと距離Dlnとの距離の比Z、ピクセルラインInを使って画像を再構成する。
図24に示すように、各ピクセルラインInに距離の比Zを掛けることによって、画像が拡大縮小され、視点Pから見たピクセルラインIpnが角度ごとに生成される。ピクセルラインIpnは、走行軌跡外部分画像に相当する。
Next, as image reconstruction processing, image enlargement / reduction processing is performed (step S36).
An image is reconstructed using the distance ratio Z between the distance Dpn and the distance Dln and the pixel line In.
As shown in FIG. 24, by multiplying each pixel line In by the distance ratio Z, the image is scaled up and the pixel line Ipn viewed from the viewpoint P is generated for each angle. The pixel line Ipn corresponds to a partial image outside the traveling locus.

さらに、画像の再構成処理として、画像の配置処理が行なわれる(ステップS37)。
このようにして生成されたピクセルラインIpnは、比Zに応じてピクセルライン毎に大きさが異なる。そこで、図25に示すように、拡大した場合(比Zが1以上の場合)はもとの画像の縦の長さが基準にされ、もとの画像の縦の長さからはみ出る部分は削除される。なお、図25では理解の容易のため、一部のピクセルラインIpnを離散的に表示している。
一方、縮小した場合(比Zが1未満の場合)はすべてのピクセルラインの中から縦の長さが最小のピクセルラインが検索され、このピクセルラインの縦の長さが基準にされ、この長さからはみ出る部分は削除される。
そしてそれぞれその縦の長さから各ラインの中心ピクセルを割り出し、中心ピクセルを画像の縦方向の中央部に合わせるように各ラインの画像が並べられる。これにより、視点Pから見た画像(走行軌跡外映像)が生成される。
このように、本例の映像生成システムSによれば、走行軌跡T以外からの任意視点でのウォークスルーアニメーションを生成することができる。
Further, an image arrangement process is performed as an image reconstruction process (step S37).
The size of the pixel line Ipn generated in this manner differs for each pixel line according to the ratio Z. Therefore, as shown in FIG. 25, when the image is enlarged (when the ratio Z is 1 or more), the vertical length of the original image is used as a reference, and the portion protruding from the vertical length of the original image is deleted. Is done. In FIG. 25, some pixel lines Ipn are discretely displayed for easy understanding.
On the other hand, when the image is reduced (when the ratio Z is less than 1), a pixel line having the smallest vertical length is searched from all the pixel lines, and the vertical length of this pixel line is used as a reference. The part that goes out of the way is deleted.
Then, the center pixel of each line is calculated based on the vertical length, and the image of each line is arranged so that the center pixel is aligned with the vertical center of the image. As a result, an image (video outside the travel locus) viewed from the viewpoint P is generated.
As described above, according to the video generation system S of the present example, it is possible to generate a walk-through animation from an arbitrary viewpoint other than the traveling locus T.

以上のように、本例の映像生成システムSによれば、レーザーレンジスキャナ20から得られた奥行き情報をもとに正確な走行軌跡データ及び位置情報を算出し、ビデオカメラ30から得られた画像データをもとに周囲360°にわたるパノラマ画像Pnを生成することができる。
そして、これらのデータをもとに、右左折映像生成処理や任意視点映像生成処理によって、リアリティのあるウォークスルーアニメーションを生成することができる。
As described above, according to the image generation system S of the present example, accurate travel trajectory data and position information are calculated based on the depth information obtained from the laser range scanner 20, and the image obtained from the video camera 30 is calculated. It is possible to generate a panoramic image Pn covering 360 degrees around the image based on the data.
Then, based on these data, it is possible to generate a realistic walk-through animation by right / left turn video generation processing or arbitrary viewpoint video generation processing.

次に、本例のシステムにより生成された走行画像の具体例を示す。まず、交差点での左折映像の具体例を示す。
映像の対象となった交差点は、東西および南北に延びる片道1車線(往復2車線)の道路が約90°に交差する交差点である。
まず、映像生成システムSによって、東西、南北に延びる各道路について、両方向から交差点を直進する映像(計4方向の直進映像)を取得すると共に、奥行き情報を取得した。
Next, a specific example of the traveling image generated by the system of the present example will be described. First, a specific example of a left-turn image at an intersection is shown.
The intersection targeted for the image is an intersection where a one-way one-way (two-way round-trip) road extending from east to west and north to south intersects at about 90 °.
First, with respect to each road extending in the east, west, and north and south directions, the image generation system S acquires images (straight-moving images in a total of four directions) of going straight through the intersection from both directions, and also acquires depth information.

これらの映像等のデータに基づき、南北方向の道路を南下し、交差点で左折して東西方向の道路を東へ向かう映像を合成した。このとき用いた映像は、南北方向の道路を北から南へ向かう直進映像と、東西方向の道路を西から東へ向かう直進映像である。   Based on the data of these images and the like, an image was synthesized in which the user goes south on a north-south road, turns left at an intersection, and heads east on an east-west road. The images used at this time are a straight-ahead image that goes from north to south on a north-south road, and a straight-ahead image that goes from west to east on an east-west road.

レーザーレンジスキャナ20によって取得された走行軌跡画像を図26に示す。走行軌跡データから、北から南へ直進した時と西から東へ直進した時の交差位置、及び交差した時の映像のフレーム番号が求められる。
ここでは、交差位置での映像のフレーム番号は、北から南への直進映像では開始フレームから129フレーム目、西から東への直進映像では開始フレームから98フレーム目である。
また、北から南への直進映像,西から東への直進映像に基づいて、フレームごとにそれぞれパノラマ画像を生成した。
FIG. 26 shows a traveling locus image acquired by the laser range scanner 20. From the traveling trajectory data, an intersection position when the vehicle goes straight from north to south and a straight line from west to east, and a frame number of a video at the time of intersection are obtained.
Here, the frame number of the video at the intersection position is the 129th frame from the start frame in the straight ahead video from north to south, and the 98th frame from the start frame in the straight forward video from west to east.
In addition, a panoramic image is generated for each frame based on the straight-moving image from north to south and the straight-moving image from west to east.

さらに、これらのデータから左折映像を合成した。図27は、生成された左折映像を4フレームごとに表示したものである。
このうち、フレーム76までの画像は北から南への直進画像そのものである。フレーム77から交差時の1フレーム手前のフレーム128までは、北から南への直進画像の視点をずらして合成したものである。また、図中のフレーム98は、北から南への直進映像から、西から東への直進映像に切り換わったフレームである。これ以降は、西から東への直進映像のフレーム画像が用いられる。
Furthermore, a left-turn image was synthesized from these data. FIG. 27 shows the generated left-turn image displayed every four frames.
Of these, the image up to the frame 76 is the straight image going straight from north to south. The frames from frame 77 to frame 128, which is one frame before the intersection, are synthesized by shifting the viewpoint of the straight-ahead image from north to south. Further, a frame 98 in the figure is a frame that is switched from a straight moving image from north to south to a straight moving image from west to east. Thereafter, a frame image of a straight-line video from west to east is used.

また、交差点付近において実際に映像を取得した軌跡よりも内側(左側)の軌跡を通過するように、視点を左側へ徐々に移動させて左折画像を生成した。視点の移動量を表す移動パラメータの値を図28に示す。   In addition, the viewpoint is gradually moved to the left so as to pass through the locus inside (left side) of the locus from which the video was actually acquired near the intersection, thereby generating a left-turn image. FIG. 28 shows movement parameter values indicating the amount of movement of the viewpoint.

次に、交差点での右折映像の具体例を示す。
対象となる交差点は、上記左折映像における交差点と同一である。この交差点において、北から南へ向かう直進映像と、東から西へ向かう直進映像を用いて、南北方向の道路を南下し、交差点で右折して東西方向の道路を西へ向かう映像を合成した。
Next, a specific example of a right-turn image at an intersection is shown.
The target intersection is the same as the intersection in the left turn image. At this intersection, using the straight-moving video from north to south and the straight-moving video from east to west, a video was made to go south on the north-south road, turn right at the intersection, and go west on the east-west road.

レーザーレンジスキャナ20によって取得した走行軌跡画像を図29に示す。この走行軌跡画像に基づいて、北から南へ直進した時と東から西へ直進した時の交差位置と交差した時の映像のフレーム番号が算出される。
ここでは、交差位置でのフレーム番号は、北から南への直進映像では開始フレームから139フレーム目、西から東への直進映像では開始フレームから119フレーム目である。
取得したデータから生成した右折映像を図30に示す。図30では、生成された右折映像を4フレームごとに表示している。
交差するまでは北から南への直進映像が用いられ、交差後は西から東への直進映像が用いられている。フレーム84までの画像は北から南への直進画像そのものである。フレーム85から交差時の1フレーム手前のフレーム138までは、北から南への直進画像の視点を右方向へ徐々にずらして合成したものである。そして、交差時には西から東への直進映像のフレーム119に切換えられる。これ以降は、西から東への直進映像のフレーム画像が用いられる。
FIG. 29 shows a running locus image acquired by the laser range scanner 20. Based on the traveling locus image, the frame number of the video when the vehicle crosses the intersection position when traveling straight from north to south and when traveling straight from east to west is calculated.
Here, the frame number at the intersection position is the 139th frame from the start frame in the straight forward video from north to south, and the 119th frame from the start frame in the straight forward video from west to east.
FIG. 30 shows a right-turn image generated from the acquired data. In FIG. 30, the generated right-turn image is displayed every four frames.
Until the intersection, a straight-ahead image from north to south is used, and after the intersection, a straight-ahead image from west to east is used. The image up to the frame 84 is the straight image from north to south. The frames from frame 85 to frame 138, which is one frame before the intersection, are synthesized by gradually shifting the viewpoint of the straight-ahead image from north to south to the right. Then, at the time of intersection, the frame is switched to a frame 119 of a straight-ahead image from west to east. Thereafter, a frame image of a straight-line video from west to east is used.

また、交差点付近において実際に映像を取得した走行軌跡よりも内側(右側)の走行軌跡を通過するように、視点を右側へ徐々に移動させて右折画像を生成した。その時の移動パラメータの値を図31に示す。   In addition, the viewpoint was gradually moved to the right side so as to pass through a traveling locus inside (right side) of the traveling locus where the video was actually acquired near the intersection, and a right-turn image was generated. FIG. 31 shows the values of the movement parameters at that time.

以上のように、パノラマ画像Pnと走行軌跡データをもとに、交差フレーム番号を算出してパノラマ画像Pnを合成することにより交差点での右左折映像を自動的に合成することができる。
従来は、リアリティのある右左折映像及び直進映像を取得するには、実際に1つの交差点あたり12回(右左折走行8回、直進走行4回)も走行しなければならなかった。しかし、本発明によれば、1つの交差点あたり計4回の直進走行のみで、どの方向の右左折映像も直進映像も取得できる。したがって、本発明によれば1/3の労力で右左折映像及び直進映像を取得することができるので、手間が掛からず、コストを低減することができる。
As described above, by calculating the intersection frame number based on the panorama image Pn and the travel locus data and synthesizing the panorama image Pn, it is possible to automatically synthesize the right / left turn video at the intersection.
Conventionally, in order to acquire a realistic right / left turn image and straight-ahead image, it was necessary to actually drive 12 times (8 right / left turns and 4 straight runs) per one intersection. However, according to the present invention, it is possible to acquire a right / left turn image and a straight image in any direction only by a total of four straight runs per intersection. Therefore, according to the present invention, a right / left turn image and a straight-ahead image can be acquired with one-third of the labor, so that no labor is required and the cost can be reduced.

さらに、移動パラメータにより、交差点でのよりリアリティのある右左折映像を得ることができる。
移動パラメータについては、曲がり始めは右折時と左折時において移動パラメータは同程度である。しかし、左側通行の場合は、中盤以降において右折時の方が左折時よりも大回りとなるので、右折時の方が左折時よりも移動パラメータが大きく設定されている。
上記の右左折映像を合成する時に用いた移動パラメータを使用することにより、他の交差点での右左折映像を合成する時にも適応することができる。特に左折時の場合は、交差点での曲がるルートが道路幅や車線数の違いに関係なくほぼ同じとなるため、移動パラメータを標準化することができる。また、右折時の場合や、交差点での道路の交差角度や車線数の多少に応じて、移動パラメータを適宜に設定することによって、その交差点にあった右左折映像を自動的に生成することができる。
Further, it is possible to obtain a more realistic right / left-turn image at the intersection based on the movement parameter.
As for the movement parameters, the right and left turns at the beginning of the turn are almost the same. However, in the case of left-hand traffic, the turning parameter is set to be larger when turning right after the middle stage than when turning left. Therefore, the movement parameter is set to be larger when turning right than when turning left.
By using the movement parameters used when synthesizing the right / left-turn image, it is also possible to adapt when synthesizing the right / left-turn image at another intersection. In particular, in the case of a left turn, the turning route at the intersection is almost the same irrespective of the difference in the road width and the number of lanes, so that the movement parameters can be standardized. In addition, in the case of a right turn, or depending on the intersection angle of a road at an intersection or the number of lanes, the moving parameters are appropriately set, so that a right / left turn image corresponding to the intersection can be automatically generated. it can.

次に、任意視点映像の具体例を示す。
まず、直線道路において映像生成システムSによって直進映像を取得すると共に、奥行き情報を取得した。
図32に走行軌跡画像を示す。これは、取得したデータのうちスキャンライン番号が720から780までの61スキャン分のデータを用いて生成されたものである。図中、走行軌跡はTで表わされている。
図33に各スキャンライン番号における走行軌跡T上の座標点の座標と回転角度θrnを示す。また、取得された映像をもとにパノラマ画像Pnを生成した。
Next, a specific example of an arbitrary viewpoint video will be described.
First, on a straight road, a straight-moving image was obtained by the image generation system S, and depth information was obtained.
FIG. 32 shows a traveling locus image. This is generated using data of 61 scans with scan line numbers 720 to 780 among the acquired data. In the figure, the running locus is represented by T.
FIG. 33 shows the coordinates of a coordinate point on the traveling locus T and the rotation angle θrn at each scan line number. Further, a panoramic image Pn was generated based on the obtained video.

このような走行軌跡データとパノラマ画像Pnを使って新たな視点から見た画像を生成する。
ここでは新たな視点Pの座標として、走行軌跡T上の視点P15(0,25)を中心に左右にX座標を−3.5から+3.5までの範囲で移動させたP11(−3.5,25)、P12(−3,25)、P13(−2,25)、P14(−1,25)、P16(1,25)、P17(2,25)、P18(3,25)、P19(3.5,25)の9点を設定した。
また、図32に示すように各視点では、各視点からの画像の違いを見るために、視野角度θ1を75°,視野角度θ2を30°に固定して設定し、45°の角度範囲の画像を生成した。
視点P11,P12,P13,P14は、走行軌跡T(視点P15)よりもX座標方向左側へそれぞれ3.5,3,2,1だけ移動した点である。また、視点P16,P17,P18,P19は、走行軌跡T(視点P15)よりもX座標方向右側へそれぞれ1,2,3,3.5だけ移動した点である。
An image viewed from a new viewpoint is generated using such traveling locus data and the panoramic image Pn.
Here, as the coordinates of the new viewpoint P, P11 (−3.−3) in which the X coordinate is moved left and right around the viewpoint P15 (0, 25) on the traveling trajectory T in the range from −3.5 to +3.5. 5,25), P12 (-3,25), P13 (-2,25), P14 (-1,25), P16 (1,25), P17 (2,25), P18 (3,25), Nine points of P19 (3.5, 25) were set.
Further, as shown in FIG. 32, in each viewpoint, the viewing angle θ1 is fixed at 75 ° and the viewing angle θ2 is fixed at 30 ° in order to see a difference between images from each viewpoint, and the angle range of 45 ° is set. Image generated.
The viewpoints P11, P12, P13, and P14 are points moved by 3.5, 3, 2, 1 to the left in the X coordinate direction from the traveling locus T (viewpoint P15). The viewpoints P16, P17, P18, and P19 are points moved by 1, 2, 3, 3.5 to the right in the X coordinate direction with respect to the traveling locus T (viewpoint P15).

図34乃至図37に、このような設定のもとに生成された各視点からの画像を示す。これらの図は見易さのため線図で表わしてある。
視点P15(0,25)から見た画像を図34(A)に示す。この画像は、視野角度θ1=75°,θ2=30°として、走行軌跡T上の視点P15におけるパノラマ画像のうちこれらの角度範囲の画像が切り出されたものである。
また、視点P16,P17から見た画像をそれぞれ図34(B),(C)に示す。視点P18,P19から見た画像をそれぞれ図35(A),(B)に示す。視点P14,P13から見た画像をそれぞれ図36(A),(B)に示す。視点P12,P11から見た画像をそれぞれ図37(A),(B)に示す。
FIG. 34 to FIG. 37 show images from each viewpoint generated under such settings. These figures are shown diagrammatically for ease of viewing.
FIG. 34A shows an image viewed from the viewpoint P15 (0, 25). This image is a panorama image at the viewpoint P15 on the traveling trajectory T with the viewing angles θ1 = 75 ° and θ2 = 30 °, and images in these angle ranges are cut out.
Also, images viewed from the viewpoints P16 and P17 are shown in FIGS. Images viewed from viewpoints P18 and P19 are shown in FIGS. 35 (A) and (B), respectively. Images viewed from viewpoints P14 and P13 are shown in FIGS. 36 (A) and (B), respectively. Images viewed from viewpoints P12 and P11 are shown in FIGS. 37 (A) and (B), respectively.

走行軌跡T上の視点P15からの画像と各視点からの画像を比較すると、視点P16から視点P19方向へ右側に移動するにつれ、対象物の見える範囲が狭くなってきており、右側の建物の壁に向かって近づいているように見える。
また、視点P16から視点P19への移動は、視野角度の方向に直線的に移動しているのではなく、進行方向に対して90°の方向へ移動している。したがって、各視点からの画像は視点が右側へ移動するにつれて、画像の中心に向かって拡大されていくのではなく、画像が拡大され視野範囲が狭くなると共に、視野範囲は建物の向かって右側方向へと平行移動していく。
Comparing the image from the viewpoint P15 on the traveling trajectory T with the image from each viewpoint, the moving range from the viewpoint P16 to the viewpoint P19 to the right side shows that the visible range of the object becomes narrower, and the wall of the building on the right side Appears to be approaching.
In addition, the movement from the viewpoint P16 to the viewpoint P19 does not linearly move in the direction of the viewing angle, but moves in a direction at 90 ° to the traveling direction. Therefore, the image from each viewpoint is not enlarged toward the center of the image as the viewpoint moves to the right, but the image is enlarged and the field of view is narrowed, and the field of view is shifted rightward toward the building. It moves in parallel to.

一方、走行軌跡T上の視点P15から左側へ移動していくと、視点P11に移動するにつれ、視野範囲が広がっており、建物の壁から遠ざかっているように見える。すなわち、視点P13から視点P19では建物の前にある木は視野範囲に含まれておらず、画像には映っていない。しかし、視点P11及び視点P12では、視野範囲が広がって視野範囲内に木が含まれ、画像に映しだされている。   On the other hand, when moving from the viewpoint P15 on the traveling locus T to the left side, as it moves to the viewpoint P11, the visual field range is widened, and it looks as if it is moving away from the wall of the building. That is, from the viewpoint P13 to the viewpoint P19, the tree in front of the building is not included in the visual field range and is not reflected in the image. However, at the viewpoint P11 and the viewpoint P12, the field of view is widened, and a tree is included in the field of view, which is reflected in the image.

このようにビデオカメラ30により撮影された画像データをもとに生成されたパノラマ画像Pnと、レーザーレンジスキャナ20により取得された奥行き情報をもとに生成された走行軌跡データを用いて、走行軌跡T以外の任意の視点から見た画像を合成できる。
本発明の映像生成システムSでは、レーザーレンジスキャナ20を用いることにより、正確な位置情報や移動体軌跡が取得できる。すなわち、映像生成システムSでは、GPSやジャイロ等の他の位置測定装置を用いることがないので構成を簡単にすることができる。
そして、得られた位置情報に基づいて各視点からのパノラマ画像Pnや、視点の移動、交差点での右左折映像、進行方向変更映像等を生成することができる。
Using the panorama image Pn generated based on the image data photographed by the video camera 30 and the traveling locus data generated based on the depth information acquired by the laser range scanner 20, the traveling locus is An image viewed from any viewpoint other than T can be synthesized.
In the image generation system S of the present invention, accurate position information and a moving object trajectory can be obtained by using the laser range scanner 20. That is, in the image generation system S, the configuration can be simplified because other position measuring devices such as a GPS and a gyro are not used.
Then, based on the obtained position information, it is possible to generate a panoramic image Pn from each viewpoint, a movement of the viewpoint, a right / left turn image at an intersection, a moving direction change image, and the like.

そして、走行軌跡T以外の走行ルートの座標と視野角度を設定し、画像を生成していくことにより、自由移動が可能であってリアリティのある自然なウォークスルーアニメーションを生成することができる。   Then, by setting the coordinates of the traveling route other than the traveling trajectory T and the viewing angle and generating an image, a natural walk-through animation that can be freely moved and has a high degree of reality can be generated.

映像生成システムの説明図である。FIG. 3 is an explanatory diagram of a video generation system. 映像生成システムの構成を表わす説明図である。FIG. 1 is an explanatory diagram illustrating a configuration of a video generation system. ビデオカメラ及びレーザーレンジスキャナの配置を表わす説明図である。FIG. 3 is an explanatory diagram illustrating an arrangement of a video camera and a laser range scanner. ビデオカメラによる映像重複距離の計算のための説明図である。FIG. 4 is an explanatory diagram for calculating a video overlap distance by a video camera. 走行軌跡データ取得処理の流れ図である。It is a flowchart of a traveling locus data acquisition process. レンジ画像の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a range image. レンジ画像のデータ処理を説明する説明図である。FIG. 9 is an explanatory diagram illustrating data processing of a range image. 走行軌跡画像の一例を示す説明図である。It is explanatory drawing which shows an example of a traveling locus image. 走行軌跡データの一例を示す説明図である。It is explanatory drawing which shows an example of travel locus data. パノラマ画像生成処理の流れ図である。It is a flowchart of a panorama image generation process. 隣合う3台のビデオカメラによる画像の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of images from three adjacent video cameras. ビデオカメラ画像の重複部分を削除する処理を説明する説明図である。FIG. 9 is an explanatory diagram illustrating a process of deleting an overlapping portion of a video camera image. 重複部分を削除したビデオカメラ画像の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of a video camera image from which an overlapping portion has been deleted. 隣合うビデオカメラ画像の端部の重複部分のヒストグラムである。It is a histogram of the overlap part of the edge part of an adjacent video camera image. 8台のビデオカメラによる画像からパノラマ画像を生成する処理を説明する説明図である。FIG. 9 is an explanatory diagram illustrating a process of generating a panoramic image from images obtained by eight video cameras. 交差点における右左折映像を生成する処理の説明図である。It is explanatory drawing of the process which produces | generates the right-left turn image in an intersection. 交差点における右左折映像を生成する処理の流れ図である。It is a flowchart of the process which produces | generates the right-left turn image in an intersection. 交差点における左折映像を生成する処理の説明図である。It is explanatory drawing of the process which produces | generates a left turn image in an intersection. 任意視点映像を生成する処理の説明図である。FIG. 9 is an explanatory diagram of a process of generating an arbitrary viewpoint video. 任意視点映像を生成する処理の流れ図である。5 is a flowchart of a process for generating an arbitrary viewpoint video. 任意視点映像を生成する処理の説明図である。FIG. 9 is an explanatory diagram of a process of generating an arbitrary viewpoint video. 任意視点映像を生成する処理の説明図である。FIG. 9 is an explanatory diagram of a process of generating an arbitrary viewpoint video. パノラマ画像及びピクセルラインの説明図である。It is explanatory drawing of a panorama image and a pixel line. 視点Pから見たピクセルラインの生成処理を説明する説明図である。FIG. 9 is an explanatory diagram illustrating a pixel line generation process viewed from a viewpoint P. 生成されたピクセルラインの配置を示す説明図である。FIG. 9 is an explanatory diagram illustrating an arrangement of generated pixel lines. 左折映像生成に使用した走行軌跡画像を示す説明図である。It is explanatory drawing which shows the driving locus | trajectory image used for left-turn image production | generation. 左折映像の一例を示す説明図である。It is explanatory drawing which shows an example of a left turn image. フレームごとの移動パラメータを示す説明図である。FIG. 9 is an explanatory diagram showing movement parameters for each frame. 右折映像生成に使用した走行軌跡画像を示す説明図である。It is explanatory drawing which shows the driving locus | trajectory image used for right-turn image production | generation. 右折映像の一例を示す説明図である。It is explanatory drawing which shows an example of a right turn image. フレームごとの移動パラメータを示す説明図である。FIG. 9 is an explanatory diagram showing movement parameters for each frame. 任意視点映像生成に使用した走行軌跡画像を示す説明図である。It is explanatory drawing which shows the driving | running locus image used for arbitrary viewpoint image | video production | generation. 任意視点映像生成に使用した走行軌跡データを示す説明図である。It is explanatory drawing which shows the driving | running locus data used for arbitrary viewpoint image | video production | generation. 任意視点の位置と任意視点からの画像を示す説明図である。It is explanatory drawing which shows the position of an arbitrary viewpoint, and the image from an arbitrary viewpoint. 任意視点の位置と任意視点からの画像を示す説明図である。It is explanatory drawing which shows the position of an arbitrary viewpoint, and the image from an arbitrary viewpoint. 任意視点の位置と任意視点からの画像を示す説明図である。It is explanatory drawing which shows the position of an arbitrary viewpoint, and the image from an arbitrary viewpoint. 任意視点の位置と任意視点からの画像を示す説明図である。It is explanatory drawing which shows the position of an arbitrary viewpoint, and the image from an arbitrary viewpoint.

符号の説明Explanation of reference numerals

10 自動車
11 システムキャリア
12 アングル台
20 レーザーレンジスキャナ
30 ビデオカメラ
31 台座
40 コンピュータ
S 映像生成システム
DESCRIPTION OF SYMBOLS 10 Car 11 System carrier 12 Angle stand 20 Laser range scanner 30 Video camera 31 Base 40 Computer S Image generation system

Claims (8)

移動体と、該移動体に配設され該移動体の周方向の映像を撮影して画像データを出力するカメラと、前記移動体に配設され該移動体の周囲の物体との距離を表わす奥行き情報を出力する水平レーザーと、前記画像データ及び前記奥行き情報を処理するデータ処理装置と、を備え、
前記データ処理装置は、
前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する処理と、
前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する処理と、
前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、ウォークスルーアニメーションを生成する処理を行うことを特徴とする映像生成システム。
A distance between a moving body, a camera disposed on the moving body, which captures images in a circumferential direction of the moving body and outputs image data, and a camera disposed on the moving body and representing objects around the moving body. A horizontal laser that outputs depth information, and a data processing device that processes the image data and the depth information,
The data processing device includes:
The position of a surrounding object with respect to the moving body is specified at predetermined time intervals based on the depth information, and the running trajectory of the moving body with respect to the specified position of the surrounding object is specified. A process of calculating position information indicating a position of the moving body and traveling direction information representing a traveling direction on the moving body;
A process of generating a panoramic image that displays the entire circumferential direction as viewed from the traveling locus every predetermined time based on the image data;
A video generation system that performs a process of generating a walk-through animation based on the depth information, the position information, the traveling direction information, and the panoramic image.
前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡から他方の走行軌跡へ進行方向を変更する映像を生成する交差点右左折映像生成処理を行い、
該交差点右左折映像生成処理では、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とすることを特徴とする請求項1に記載の映像生成システム。
In the processing for generating the walk-through animation, the data processing device may convert one traveling locus into another traveling locus based on the depth information, the position information, the traveling direction information, and the panoramic image in the traveling locus intersecting each other. Perform an intersection right / left turn image generation process that generates an image that changes the traveling direction to the trajectory,
In the intersection right / left turn image generation processing, as the viewpoint of the walk-through animation on one traveling locus approaches the intersection of the traveling locus, a line of sight from a traveling direction to a circumferential direction in a panoramic image on the one traveling locus is changed. The video generation system according to claim 1, wherein the shifted portion is used as a display image of the walk-through animation.
前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点における映像を生成する任意視点映像生成処理を行なうことを特徴とする請求項1に記載の映像生成システム。   The video generation system according to claim 1, wherein the data processing device performs an arbitrary viewpoint video generation process of generating a video at a viewpoint outside the travel locus in the process of generating the walk-through animation. 前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点からの所定の視野角度範囲の映像を生成する任意視点映像生成処理処理を行い、
該任意視点映像生成処理では、前記視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、
該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、
前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、
前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、
該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする請求項1に記載の映像生成システム。
In the process of generating the walk-through animation, the data processing device performs an arbitrary viewpoint video generation process of generating a video within a predetermined viewing angle range from a viewpoint outside the travel locus,
In the arbitrary viewpoint video generation processing, specify each intersection where a straight line drawn from the viewpoint in each angle direction within the viewing angle range and the traveling locus intersects,
Of the panoramic image at each intersection, cut out an image portion including the viewpoint,
A distance from each intersection to a surrounding object in each angular direction and a distance from the viewpoint to a surrounding object in each angular direction are calculated based on the depth information, and a ratio of these distances is calculated. And
The image portion is enlarged or reduced by the ratio to generate a partial image outside the traveling locus,
The video generation system according to claim 1, wherein the video image outside the travel locus is generated by connecting the partial images outside the travel locus.
全方位カメラで撮影位置の全周方向の画像データを取得する工程と、
周囲の物体との距離を測定する水平レーザーで該水平レーザーと周囲の物体との奥行き情報を取得する工程と、
前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する工程と、
前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する工程と、
前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいてウォークスルーアニメーションを生成する工程と、を備えたことを特徴とする映像生成方法。
A step of acquiring image data in all directions of the shooting position with an omnidirectional camera,
A step of obtaining depth information between the horizontal laser and the surrounding object with a horizontal laser that measures the distance to the surrounding object,
The position of a surrounding object with respect to the moving body is specified at predetermined time intervals based on the depth information, and the running trajectory of the moving body with respect to the specified position of the surrounding object is specified. Calculating position information representing the position of the moving body and traveling direction information representing the traveling direction,
A step of generating a panoramic image that displays the entire circumferential direction as viewed from above the traveling locus for each predetermined time based on the image data;
Generating a walk-through animation based on the depth information, the position information, the traveling direction information, and the panoramic image.
前記ウォークスルーアニメーションを生成する工程では、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とする処理を行なうことを特徴とする請求項5に記載の映像生成方法。   In the step of generating the walk-through animation, the viewpoint of the walk-through animation in one traveling locus is determined based on the depth information, the position information, the traveling direction information, and the panoramic image in the traveling locus that crosses each other. The method according to claim 1, wherein a part of the panorama image in the one traveling locus whose gaze is shifted in a circumferential direction from a traveling direction is displayed as the display image of the walk-through animation as approaching a crossing point of the locus. 6. The video generation method according to 5. 前記ウォークスルーアニメーションを生成する工程では、前記走行軌跡外の視点における映像を生成する処理を行なうことを特徴とする請求項5に記載の映像生成方法。   The video generation method according to claim 5, wherein in the step of generating the walk-through animation, a process of generating a video at a viewpoint outside the travel locus is performed. 前記ウォークスルーアニメーションを生成する工程では、
前記走行軌跡外の視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、
該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、
前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、
前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、
該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする請求項5に記載の映像生成方法。
In the step of generating the walk-through animation,
Identify each intersection where a straight line drawn in each angle direction within the viewing angle range from the viewpoint outside the travel locus and the travel locus intersects,
Of the panoramic image at each intersection, cut out an image portion including the viewpoint,
A distance from each intersection to a surrounding object in each angular direction and a distance from the viewpoint to a surrounding object in each angular direction are calculated based on the depth information, and a ratio of these distances is calculated. And
The image portion is enlarged or reduced by the ratio to generate a partial image outside the traveling locus,
The image generation method according to claim 5, wherein the image outside the travel path is generated by connecting the partial images outside the travel path.
JP2004036616A 2003-02-13 2004-02-13 Image forming system and image forming method Pending JP2004265396A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004036616A JP2004265396A (en) 2003-02-13 2004-02-13 Image forming system and image forming method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003035776 2003-02-13
JP2004036616A JP2004265396A (en) 2003-02-13 2004-02-13 Image forming system and image forming method

Publications (1)

Publication Number Publication Date
JP2004265396A true JP2004265396A (en) 2004-09-24

Family

ID=33133961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004036616A Pending JP2004265396A (en) 2003-02-13 2004-02-13 Image forming system and image forming method

Country Status (1)

Country Link
JP (1) JP2004265396A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006082773A1 (en) * 2005-02-04 2006-08-10 Iwate University Object measurement method and computer software program for measuring 3-dimensional shape of object by using computer system
JP2009511965A (en) * 2005-10-17 2009-03-19 テレ アトラス ノース アメリカ インコーポレイテッド How to generate an enhanced map
JP2010507127A (en) * 2006-10-20 2010-03-04 テレ アトラス ベスローテン フエンノートシャップ Computer apparatus and method for matching position data of different sources
JP2011059121A (en) * 2010-10-01 2011-03-24 Mitsubishi Electric Corp Measurement truck and base
JP2013090257A (en) * 2011-10-21 2013-05-13 Dainippon Printing Co Ltd Free view point image display device
JP2013161133A (en) * 2012-02-01 2013-08-19 Toshiba Plant Systems & Services Corp Three-dimensional data processing device, three-dimensional data processing program and three-dimensional data processing method
JP2015056873A (en) * 2013-09-13 2015-03-23 株式会社ドッドウエル ビー・エム・エス Apparatus and method for video display
JP2016134651A (en) * 2015-01-15 2016-07-25 大日本印刷株式会社 Imaging system, editing device, editing method, and program
WO2016157277A1 (en) * 2015-03-27 2016-10-06 株式会社日立製作所 Method and device for generating travelling environment abstract image
JP2017125790A (en) * 2016-01-15 2017-07-20 株式会社Ihi Measurement device
WO2019050038A1 (en) * 2017-09-11 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image generation method and image generation device
KR20190048953A (en) * 2017-10-31 2019-05-09 현대자동차주식회사 Vehicle heading estimating apparatus and method
US10510111B2 (en) 2013-10-25 2019-12-17 Appliance Computing III, Inc. Image-based rendering of real spaces
JP2020004121A (en) * 2018-06-28 2020-01-09 大日本印刷株式会社 Information processor, information processing method, and program
JP2020521955A (en) * 2017-05-15 2020-07-27 アウスター インコーポレイテッド Enhance panoramic LIDAR results with color
JP2020535407A (en) * 2017-09-28 2020-12-03 ウェイモ エルエルシー Synchronous spinning LIDAR and rolling shutter camera system
JP2021022912A (en) * 2019-07-30 2021-02-18 国立大学法人 東京大学 Video compositing device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124328A (en) * 1992-10-13 1994-05-06 G T B:Kk Image display device
JPH09284809A (en) * 1996-04-18 1997-10-31 Canon Inc Image processing apparatus and image processing method
JPH10214069A (en) * 1997-01-29 1998-08-11 Nippon Telegr & Teleph Corp <Ntt> Video integration device
JP2000074669A (en) * 1998-08-28 2000-03-14 Zenrin Co Ltd Method and device for generating 3-dimension map database
JP2000172337A (en) * 1998-12-07 2000-06-23 Mitsubishi Electric Corp Autonomous mobile robot
JP2001290820A (en) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp Video collection device, video search device, and video collection and search system
JP2002031528A (en) * 2000-07-14 2002-01-31 Asia Air Survey Co Ltd Spatial information generator for mobile mapping
JP2002269590A (en) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc Image producing device and method
JP2002269591A (en) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc Image reproducing device, and image processing device and method
JP2003006680A (en) * 2001-06-20 2003-01-10 Zenrin Co Ltd Method for generating three-dimensional electronic map data

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124328A (en) * 1992-10-13 1994-05-06 G T B:Kk Image display device
JPH09284809A (en) * 1996-04-18 1997-10-31 Canon Inc Image processing apparatus and image processing method
JPH10214069A (en) * 1997-01-29 1998-08-11 Nippon Telegr & Teleph Corp <Ntt> Video integration device
JP2000074669A (en) * 1998-08-28 2000-03-14 Zenrin Co Ltd Method and device for generating 3-dimension map database
JP2000172337A (en) * 1998-12-07 2000-06-23 Mitsubishi Electric Corp Autonomous mobile robot
JP2001290820A (en) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp Video collection device, video search device, and video collection and search system
JP2002031528A (en) * 2000-07-14 2002-01-31 Asia Air Survey Co Ltd Spatial information generator for mobile mapping
JP2002269590A (en) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc Image producing device and method
JP2002269591A (en) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc Image reproducing device, and image processing device and method
JP2003006680A (en) * 2001-06-20 2003-01-10 Zenrin Co Ltd Method for generating three-dimensional electronic map data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
遠藤隆明, 外3名: ""写実的な広域仮想空間構築のための画像補間手法"", 日本バーチャルリアリティ学会論文誌, vol. 第7巻, 第2号, JPN6009018890, 30 June 2002 (2002-06-30), JP, pages 185 - 192, ISSN: 0001304855 *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006082773A1 (en) * 2005-02-04 2006-08-10 Iwate University Object measurement method and computer software program for measuring 3-dimensional shape of object by using computer system
JP2009511965A (en) * 2005-10-17 2009-03-19 テレ アトラス ノース アメリカ インコーポレイテッド How to generate an enhanced map
US8884962B2 (en) 2006-10-20 2014-11-11 Tomtom Global Content B.V. Computer arrangement for and method of matching location data of different sources
JP2010507127A (en) * 2006-10-20 2010-03-04 テレ アトラス ベスローテン フエンノートシャップ Computer apparatus and method for matching position data of different sources
JP2011059121A (en) * 2010-10-01 2011-03-24 Mitsubishi Electric Corp Measurement truck and base
JP2013090257A (en) * 2011-10-21 2013-05-13 Dainippon Printing Co Ltd Free view point image display device
JP2013161133A (en) * 2012-02-01 2013-08-19 Toshiba Plant Systems & Services Corp Three-dimensional data processing device, three-dimensional data processing program and three-dimensional data processing method
JP2015056873A (en) * 2013-09-13 2015-03-23 株式会社ドッドウエル ビー・エム・エス Apparatus and method for video display
US11062384B1 (en) 2013-10-25 2021-07-13 Appliance Computing III, Inc. Image-based rendering of real spaces
US12266011B1 (en) 2013-10-25 2025-04-01 Appliance Computing III, Inc. User interface for image-based rendering of virtual tours
US11948186B1 (en) 2013-10-25 2024-04-02 Appliance Computing III, Inc. User interface for image-based rendering of virtual tours
US11783409B1 (en) 2013-10-25 2023-10-10 Appliance Computing III, Inc. Image-based rendering of real spaces
US11610256B1 (en) 2013-10-25 2023-03-21 Appliance Computing III, Inc. User interface for image-based rendering of virtual tours
US10510111B2 (en) 2013-10-25 2019-12-17 Appliance Computing III, Inc. Image-based rendering of real spaces
US11449926B1 (en) 2013-10-25 2022-09-20 Appliance Computing III, Inc. Image-based rendering of real spaces
US10592973B1 (en) 2013-10-25 2020-03-17 Appliance Computing III, Inc. Image-based rendering of real spaces
JP2016134651A (en) * 2015-01-15 2016-07-25 大日本印刷株式会社 Imaging system, editing device, editing method, and program
WO2016157277A1 (en) * 2015-03-27 2016-10-06 株式会社日立製作所 Method and device for generating travelling environment abstract image
JP2017125790A (en) * 2016-01-15 2017-07-20 株式会社Ihi Measurement device
JP7189156B2 (en) 2017-05-15 2022-12-13 アウスター インコーポレイテッド Augmenting Panoramic LIDAR Results with Color
JP7534377B2 (en) 2017-05-15 2024-08-14 アウスター インコーポレイテッド Enhancing Panoramic LIDAR Results with Color
JP2020521955A (en) * 2017-05-15 2020-07-27 アウスター インコーポレイテッド Enhance panoramic LIDAR results with color
US12061261B2 (en) 2017-05-15 2024-08-13 Ouster, Inc. Augmenting panoramic LIDAR results with color
JP2023022237A (en) * 2017-05-15 2023-02-14 アウスター インコーポレイテッド Augmenting Panoramic LIDAR Results with Color
JPWO2019050038A1 (en) * 2017-09-11 2020-10-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image generation method and image generation device
WO2019050038A1 (en) * 2017-09-11 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image generation method and image generation device
JP2021105611A (en) * 2017-09-28 2021-07-26 ウェイモ エルエルシー Synchronous spinning LIDAR and rolling shutter camera system
JP7146004B2 (en) 2017-09-28 2022-10-03 ウェイモ エルエルシー Synchronous spinning LIDAR and rolling shutter camera system
JP2020535407A (en) * 2017-09-28 2020-12-03 ウェイモ エルエルシー Synchronous spinning LIDAR and rolling shutter camera system
KR20190048953A (en) * 2017-10-31 2019-05-09 현대자동차주식회사 Vehicle heading estimating apparatus and method
KR102406515B1 (en) * 2017-10-31 2022-06-10 현대자동차주식회사 Vehicle heading estimating apparatus and method
JP2020004121A (en) * 2018-06-28 2020-01-09 大日本印刷株式会社 Information processor, information processing method, and program
JP7059829B2 (en) 2018-06-28 2022-04-26 大日本印刷株式会社 Information processing equipment, information processing methods and programs
JP7480941B2 (en) 2019-07-30 2024-05-10 国立大学法人 東京大学 Video composition equipment
JP2021022912A (en) * 2019-07-30 2021-02-18 国立大学法人 東京大学 Video compositing device

Similar Documents

Publication Publication Date Title
US10848732B2 (en) Free viewpoint movement display device
JP4284644B2 (en) 3D model construction system and 3D model construction program
US8531449B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
JP5058364B2 (en) Overhead image generation device, overhead image generation method of overhead image generation device, and overhead image generation program
JP5208203B2 (en) Blind spot display device
US8000895B2 (en) Navigation and inspection system
JP3437555B2 (en) Specific point detection method and device
US20110211040A1 (en) System and method for creating interactive panoramic walk-through applications
JP4273074B2 (en) Planar development image processing method of plane object video such as road surface, reverse development image conversion processing method, plane development image processing device thereof, and reverse development image conversion processing device
JP2004265396A (en) Image forming system and image forming method
Zhu et al. Monocular 3d vehicle detection using uncalibrated traffic cameras through homography
JP2010533282A (en) Method and apparatus for generating a multi-view panorama
JP2005056295A (en) 360-degree image conversion processing apparatus
JP6616967B2 (en) Map creation apparatus and map creation method
WO2018134897A1 (en) Position and posture detection device, ar display device, position and posture detection method, and ar display method
JP6110780B2 (en) Additional information display system
JP4272966B2 (en) 3DCG synthesizer
CN108447042B (en) Fusion method and system of urban landscape image data
JP4008686B2 (en) Texture editing apparatus, texture editing system and method
WO2009069165A2 (en) Transition method between two three-dimensional geo-referenced maps
Bui et al. Integrating videos with LIDAR scans for virtual reality
Rawlinson Design and implementation of a spatially enabled panoramic virtual reality prototype
Amini et al. Evaluating a new stereo panorama system based on stereo cameras
JPH1132250A (en) Voice-guided landscape labeling device and system
Zheng et al. Scanning and rendering scene tunnels for virtual city traversing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070323

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081118

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20081118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090915