[go: up one dir, main page]

JP2017099790A - Traveling object operation system - Google Patents

Traveling object operation system Download PDF

Info

Publication number
JP2017099790A
JP2017099790A JP2015237339A JP2015237339A JP2017099790A JP 2017099790 A JP2017099790 A JP 2017099790A JP 2015237339 A JP2015237339 A JP 2015237339A JP 2015237339 A JP2015237339 A JP 2015237339A JP 2017099790 A JP2017099790 A JP 2017099790A
Authority
JP
Japan
Prior art keywords
orientation
virtual
obstacle
traveling object
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015237339A
Other languages
Japanese (ja)
Inventor
英之 吉川
Hideyuki Yoshikawa
英之 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2015237339A priority Critical patent/JP2017099790A/en
Publication of JP2017099790A publication Critical patent/JP2017099790A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation system for a model vehicle, robot, etc. that enables an operator to perform operation with a feeling as if the operator rides on the vehicle or the like, and has a simple structure.SOLUTION: An operator performs operation using an operation device such as a handle, operation pedal, and the like; and an operation signal from the operation device turns to a radio signal to control a model vehicle or the like. The model vehicle or the like comprises "coordinate position and direction" detection means; on the basis of the coordinate position and direction orientation, a virtual camera position is determined. In addition to the model vehicle, each of many structures such as a road, building, and tree has prepared computer graphic data on its external view and has a detected position; for the external view, CG data is used together with position data. An imaged picture on CG external view data from a virtual camera is calculated and displayed as a picture at a driver seat.SELECTED DRAWING: Figure 1

Description

本発明は、模型自動車や模型ロボットなどを、操縦するシステムに関するものである。同時に、本物の自動車や人乗りロボットなどの運転を、仮想的に体感、または、訓練させるシステムに関するものである。
もしくは、模型自動車や模型ロボットなどを、操縦して遊ぶゲームに関するものである。
人乗ロボットとは、模型ロボットを大型化し、人が乗って操縦可能なロボットであり、本発明では仮想空間内で存在させるものである。
模型自動車や模型ロボットなどの総称を走行物体とする。
The present invention relates to a system for manipulating model cars, model robots, and the like. At the same time, the present invention relates to a system for virtually experiencing or training driving of a real car or a human-sitting robot.
Or, it relates to a game in which a model car or a model robot is controlled and played.
The person-seat robot is a robot that is a model robot that can be enlarged and operated by a person. In the present invention, the person-seat robot is present in a virtual space.
A generic term for model cars and model robots is used as a traveling object.

模型自動車や模型ロボットなどを操縦するシステムとして、ラジコンシステムがある。ラジコンコントローラについている操縦レバーなどを動かすと、その操作は無線信号として模型自動車などに送られ、模型自動車はその信号を受信解読して、操舵モーターや走行モーターなどを制御し、走行方向や走行速度などをコントロールする。
このラジコン方式の欠点は、操縦者は、操縦対象の模型自動車を遠くから眺めて操縦するので、操縦に直感性が感じられないことである。
また、操縦方法自体が本物の自動車の操縦とは違うので、模型自動車をラジコンで操縦する練習をしても、本物の自動車を操縦する訓練にはならないし、本物の自動車操縦の楽しさを味わうこともできない。
There is a radio control system as a system for manipulating model cars and model robots. When the control lever attached to the radio controller is moved, the operation is sent as a radio signal to the model car, etc., and the model car receives and decodes the signal and controls the steering motor and travel motor, etc., and the travel direction and speed Control etc.
The drawback of this radio control system is that the pilot cannot see the intuition for maneuvering because he / she steers the model car to be manipulated from a distance.
Also, since the maneuvering method itself is different from maneuvering a real car, even if you practice practicing a model car with a radio control, it will not be a practice to maneuver a real car, and you will enjoy the fun of maneuvering a real car I can't do that either.

この改良案として次の試みがなされた。模型自動車の運転席にビデオカメラを搭載し、その映像を電波で送信する。操縦者は、送られてきた映像をモニター画面で見ながら、模型自動車に乗っている感覚になって、本物に類似の操縦装置を操縦し、その操縦信号を模型自動車に送信する。 The following attempt was made as an improvement plan. A video camera is installed in the driver's seat of the model car and the image is transmitted by radio waves. The operator feels as if he is riding a model car while watching the transmitted video on the monitor screen, and controls a maneuver similar to the real car and transmits the control signal to the model car.

しかし、このシステムのように、模型自動車にビデオカメラを積むと、模型自動車が大きくなると同時に、走行コースも大きくなってしまい、さらに、すべての模型自動車に広帯域な映像通信が必要であるなど問題が多い。さらに自動車の横や後の様子も見たいし、立体映像も見たいが、カメラを増やすのは難しい。
さらに、道路の映像を本物らしく見せるためには、道路の周囲に、建物や風景などの本物そっくりな立体模型を、作りこむ必要があり、さらに、費用や手間がかかる。
However, when a model camera is loaded with a video camera as in this system, the model car grows and at the same time the driving course increases, and all model cars require broadband video communication. Many. I also want to see the side and behind the car, and I want to see 3D images, but it is difficult to increase the number of cameras.
Furthermore, in order to make the road image look authentic, it is necessary to create a real three-dimensional model such as a building or a landscape around the road, which further costs and takes time.

模型自動車以外にも、ラジコンロボットを使った格闘技ゲームやサッカーゲームも一般的に行われている。
しかし、いずれも操縦者の視点が、客観的視点なので、操縦が難しく、操縦にリアルさが味わえない欠点がある。
In addition to model cars, martial arts games and soccer games using radio controlled robots are also commonly used.
However, since the driver's point of view is an objective point of view, the maneuvering is difficult and the maneuvering cannot be realistic.

特開平2001−187279号公報Japanese Patent Laid-Open No. 2001-187279 特開平2004―298538号公報Japanese Patent Laid-Open No. 2004-298538 特開平2014−187279号公報Japanese Patent Laid-Open No. 2014-187279

本発明は、ラジコンシステムのこれらの欠点をなくすことが課題であり、模型自動車を、本物の自動車を運転する感覚で運転させ、または、模型ロボットと組み合わせて、操縦者がロボットになった感覚で楽しく操縦させ、しかも、コンピュータグラフィック技術を使うことで、それを簡単な装置で提供することが課題である。   An object of the present invention is to eliminate these drawbacks of the radio-controlled system, and it is possible to drive a model car as if driving a real car, or in combination with a model robot, as if the operator became a robot. The challenge is to make it fun to drive and provide it with simple equipment by using computer graphics technology.

課題を解決するために、現実空間のラジコン技術と、仮想空間のコンピュータグラフィックス技術とを、次のように融合させる。
現実空間に、模型自動車の走る実フィールドを作成する。そして仮想空間にも、実フィールドと同様の仮想フィールドを作成する。
次に、実フィールド上に模型自動車があるときは、模型自動車の少なくとも2点の位置検出手段を設け、得られた2点の位置から「代表位置と向き」を求め、「代表位置と向き」データに基づいて、仮想フィールド上に仮想自動車を設置する。その仮想自動車の運転者の目に相当する位置に、仮想カメラを設定する。
In order to solve the problem, the radio control technology in the real space and the computer graphics technology in the virtual space are fused as follows.
Create a real field where the model car will run in real space. Then, a virtual field similar to the real field is created in the virtual space.
Next, when there is a model car on the real field, position detection means for at least two points of the model car are provided, and “representative position and orientation” are obtained from the obtained two positions, and “representative position and orientation” Based on the data, a virtual car is installed on the virtual field. A virtual camera is set at a position corresponding to the eyes of the driver of the virtual car.

そうすれば、その仮想カメラから得られる映像は、まさに、模型自動車の運転席から見えるはずの景色である。
もしも、運転席の運転者の目よりも、もっとふさわしい位置があれば、そこに仮想カメラを設定しても良く、そこからの景色を、ディスプレイに表示する。
操縦者は、そのディスプレイを見て、模型自動車の運転席にいる感覚で、もしくは、運転に都合のよい視点からみた感覚で、模型自動車を操縦する。
Then, the image obtained from the virtual camera is exactly the scenery that should be seen from the driver's seat of the model car.
If there is a more suitable position than the driver's eyes, a virtual camera may be set there, and the scenery from there is displayed on the display.
The operator looks at the display and steers the model car as if he was in the model car's driver's seat or from a viewpoint that is convenient for driving.

自分の自動車は、運転席を視点とするときは、ボンネットだけしか見えないが、視点を変えて、仮想カメラ位置を自分の自動車の後方位置とする場合は、自分の自動車全体を含めた像が、画面に見えることになる。 When your car is viewed from the driver's seat, you can only see the hood, but if you change the viewpoint and set the virtual camera position behind your car, you will see an image that includes your entire car. Will be visible on the screen.

模型自動車の走行経路を変化させるために、実フィールドの中に、さまざまな形の実障害物を設置する。そして同時に、同じ輪郭線を有する仮想障害物を、仮想フィールド上に設置する。
ある障害物と他の障害物との間の空間は、模型自動車の走行する経路または道路になるので、様々な走行経路が作られる。
模型自動車が実フィールドの外に出てしまうと、位置の検出機能がなくなるので、これを防ぐために、フィールド外枠で実フィールドを囲うことが一般に必要になる。このフィールド外枠も実障害物の一種である。
模型自動車と実障害物の関係は、現実空間での現象であるから、互いに衝突したら物理法則に従い、どちらかがもしくは、双方が、押されて移動することになる。固定型の実障害物とぶつかったら明らかに、模型自動車が跳ね飛ばされる。
仮想自動車と仮想障害物の関係は、仮想空間での現象なので、単に、模型自動車と実障害物間の現実空間での物理法則による位置と向きの変化を、忠実に画像として表現するだけになる。
In order to change the travel route of the model car, various types of real obstacles are installed in the real field. At the same time, a virtual obstacle having the same contour line is placed on the virtual field.
Since the space between a certain obstacle and another obstacle becomes a route or road on which the model car travels, various travel routes are created.
If the model car goes out of the real field, the position detection function is lost, and in order to prevent this, it is generally necessary to enclose the real field with a field outer frame. This field frame is also a kind of real obstacle.
Since the relationship between the model car and the real obstacle is a phenomenon in the real space, either one or both will be pushed and moved according to the laws of physics if they collide with each other. Obviously, if you hit a stationary real obstacle, the model car will be bounced off.
Since the relationship between a virtual vehicle and a virtual obstacle is a phenomenon in a virtual space, it simply represents the change in position and orientation according to the physical law in the real space between the model vehicle and the real obstacle as an image faithfully. .

固定型の障害物(建物、草木、土手、柵、隔壁、フィールド外枠など)は、次のように設置される。
(固定型)実障害物は、「位置と向き」を予め決めて、実フィールドに固定し設置する。これは、模型自動車がぶつかっても動くことはない。
そして、その仮想障害物は、同じ「位置と向き」に、仮想フィールドに設置される。
Fixed obstacles (buildings, vegetation, banks, fences, bulkheads, field outer frames, etc.) are installed as follows.
(Fixed type) Real obstacles are fixed and installed in the actual field with the “position and orientation” determined in advance. This doesn't move even if a model car hits it.
Then, the virtual obstacle is placed in the virtual field at the same “position and orientation”.

移動型の実障害物(他の物体とぶつかると、位置や向きが変化する物、ゲームに使用するボール、その他)は、次のように設置される。
移動型の実障害物には、「少なくとも2点の位置」もしくは「位置と向き」の検出手段、または、回転体の障害物は「一点の位置」だけの検出手段を設け、実フィールド上の任意の場所に、設置される。
前記検出された「少なくとも2点の位置」から「位置と向き」を求め、または回転体の場合「一点の位置」のデータを使って、仮想障害物は仮想フィールド上に設置される。
Mobile real obstacles (objects whose position and orientation change when they collide with other objects, balls used in games, etc.) are installed as follows.
A moving type real obstacle is provided with a detecting means of “position of at least two points” or “position and orientation”, or an obstacle of a rotating body is provided with a detecting means of only “one point position”. Installed anywhere.
The virtual obstacle is placed on the virtual field by obtaining the “position and orientation” from the detected “position of at least two points” or using the data of “position of one point” in the case of a rotating body.

走行物(自動車、ロボットなど)は、次のように設置される。
現実空間での模型走行物は、操縦者(人)またはコンピュータからの無線操縦信号により操縦されて、走行する。
模型走行物には、「少なくとも2点の位置」の検出手段を設ける。2点の位置データから「代表位置と向き」を求め、
仮想空間には、前記検出された「代表位置と向き」データを使って、その仮想走行物を設置させる。
Traveling objects (automobiles, robots, etc.) are installed as follows.
The model traveling object in the real space is driven by a radio control signal from a driver (person) or a computer and travels.
The model traveling object is provided with “at least two positions” detecting means. Find the “representative position and orientation” from the position data of the two points,
The virtual traveling object is set in the virtual space using the detected “representative position and orientation” data.

一般に、現実空間での物体の「位置と向き」を求めるには、物体に2点の位置検出機能を設けるのが簡単である。任意の形状の障害物であっても、その2点の位置が分かれば、その障害物全体の位置と向きが特定できるからである。
〈例〉物体の位置座標は、2点の中点(代表点)の位置座標とする。物体の向きは、2点を結ぶ線の傾きとする。
In general, in order to obtain the “position and orientation” of an object in real space, it is easy to provide a position detection function for two points on the object. This is because even if an obstacle has an arbitrary shape, if the positions of the two points are known, the position and orientation of the entire obstacle can be specified.
<Example> The position coordinates of the object are the position coordinates of the midpoint (representative point) of the two points. The direction of the object is the slope of the line connecting the two points.

また、円柱や円錐などのような回転体の障害物の場合は、向きのデータは不要になり、障害物は中心点(1点)だけの位置検出手段で、良いことになる。 Further, in the case of an obstacle such as a cylinder or a cone, the orientation data is not necessary, and the obstacle can be obtained by a position detection means only for the center point (one point).

点の位置検出法としては、模型物体には垂直磁界のコイルを(2個)設置する。実フィールドの下には、縦横に多数の平行線を張った位置検出板を置く。前記平行線を縦横に走査して、模型物体に設置したコイルとの電磁結合による起電力と走査信号の関係を、測定し計算する方法がある。(図5)
別の方法として、実フィールドの上部にビデオカメラ置き、模型自動車や障害物を撮影し、画像を認識解析して「位置と向き」を検出する。(図16)
場合によっては、物体に2個の点光源を設置し、ビデオ画像からその点光源の位置を検出し、「位置と向き」を検出する方法等がある。
物体に2つの小円を描き、円の位置を検出する方法もある。
As a method for detecting the position of a point, two (2) vertical magnetic field coils are installed on a model object. Below the actual field, a position detection plate with a large number of parallel lines in the vertical and horizontal directions is placed. There is a method in which the parallel lines are scanned vertically and horizontally, and the relationship between the electromotive force due to electromagnetic coupling with the coil installed on the model object and the scanning signal is measured and calculated. (Fig. 5)
As another method, a video camera is placed on the upper part of the real field, a model car or an obstacle is photographed, and the image is recognized and analyzed to detect “position and orientation”. (Fig. 16)
In some cases, there are methods of installing two point light sources on an object, detecting the position of the point light source from a video image, and detecting “position and orientation”.
There is also a method of drawing two small circles on an object and detecting the position of the circle.

さらに、ロボットを操縦してゲームを楽しむ用途を考えると、ロボットの目線で操縦することは、極めて重要である。
たとえば、サッカーゲームなどで、球をシュートする場合には、ロボットの足と、ボールと、ゴールとが一直線上になるような視点で見て、蹴る動作ができるように、ロボットとボールとゴールの位置から自動的に仮想カメラ位置を決定する手段をもつことが、ゲームを面白くさせることにつながる。
Furthermore, considering the use of a robot to enjoy a game, it is extremely important to control the robot from the viewpoint of the robot.
For example, when shooting a ball in a soccer game, the robot, the ball, and the goal can be kicked so that the robot's feet, the ball, and the goal can be viewed from a straight line. Having a means for automatically determining the virtual camera position from the position leads to an interesting game.

この発明により、無線操縦の模型自動車は、今までと全く異なる製品になる。まず操縦者の視点は、従来は遠くから見る客観視であったが、この発明により、主観的視点での操縦が可能となり、しかも運転しながら、視点を切り替えることも可能となった。視点の例をあげると、
(1)運転席に座っている視点
(2)自分の自動車を後ろから追尾する視点
(3)自分の自動車を真上から見下ろす視点
(4)自動車の後方を見る視点
(5)遠方から全体を見渡す視点
By this invention, the radio controlled model car becomes a completely different product. First, the pilot's viewpoint was objectively viewed from a distance. However, according to the present invention, the pilot can be controlled from a subjective viewpoint, and the viewpoint can be switched while driving. An example of the perspective is
(1) Viewpoint of sitting in the driver's seat (2) Viewpoint of tracking his car from behind (3) Viewpoint of looking down his car from directly above (4) Viewpoint of looking behind the car (5) View from the distance Perspective to look around

このほか、さまざまな視点が可能である。両眼用として2台の仮想カメラを設定すれば、立体視も簡単に実現可能である。さらに頭の向き検出のついたヘッドマウントディスプレイを使うと、あらゆる方向が立体視で見渡せる仮想世界での運転も可能になる。
ゲームとして見た場合は、見物人は、ごまかしの無い現実空間での模型自動車のカーレースやサッカーゲームが見られ、(ビデオゲームなどでは、ソフトウエアがすべての現象を決めることができるので、人為的であり、結果を信用できない)
または、大きなディスプレイに仮想空間のカーレースの全体を見渡す映像を見られる。そして操縦者は、360度の仮想空間ディスプレイを見ながら、本物の自動車を運転して競争しているようなスリルと楽しみが得られる。
In addition, various viewpoints are possible. If two virtual cameras are set for both eyes, stereoscopic viewing can be easily realized. In addition, using a head-mounted display with head orientation detection enables driving in a virtual world where all directions can be seen in stereoscopic view.
When viewed as a game, onlookers can see car races and soccer games of model cars in a real space without deception. (In video games, software can determine all phenomena, And I can't trust the results)
Or you can watch a video showing the entire car race in the virtual space on a large display. The pilot can then enjoy the thrill and pleasure of driving a real car while watching a 360 degree virtual space display.

また、模型自動車の操縦性能を本物に近づけることで、操縦訓練にも使えるようになる。初心者にとっては、運転席からの見え方と、実際の自動車の位置関係が理解し難いが、ディスプレイによる運転席から見える光景と、同期して走行する模型自動車の客観像を、見比べることで理解が早まる。   In addition, by bringing the driving performance of a model car closer to the real thing, it can be used for driving training. For beginners, it is difficult to understand the view from the driver's seat and the actual positional relationship of the car, but it can be understood by comparing the sight seen from the driver's seat with the display and the objective image of the model car that runs synchronously. Get early.

なお、仮想カメラの高さを操縦者の眼の高さに定義することで、模型自動車の縮尺は任意に設定できる。実フィールドの縮尺は、模型自動車の縮尺に合わせて作ればよい。
大きな模型自動車を使えば、それに比例して、現実空間の実フィールドは大きくなり、小さな模型自動車を使えば、実フィールドも小さくなる。
そして、操縦席では人間が操縦するので、仮想カメラは仮想運転席にあって、そこに映し出される映像の仮想世界は、等身大の世界として認識されることになる。
Note that the scale of the model car can be set arbitrarily by defining the height of the virtual camera as the height of the eyes of the driver. The scale of the actual field may be made according to the scale of the model car.
If a large model car is used, the actual field in the real space will increase proportionally, and if a small model car is used, the actual field will also decrease.
Then, since a human is maneuvering in the cockpit, the virtual camera is in the virtual driver's seat, and the virtual world of the video displayed there is recognized as a life-size world.

模型自動車の走行は、正常な道路走行のほかに、誤って道路の側壁などとぶつかったり、他の模型自動車と衝突することが起こる。これらの現象に起因して、模型自動車は、向きや速度を変化させる。そしてこれは、模型自動車の位置検出を通して、仮想空間に引き継がれて、ディスプレイ映像として、操縦者に見えることになる。
そして、操縦者は、ディスプレイに映った仮想空間内での衝突を避けるように操縦する。もしも、操縦を間違えたためにぶつかっても、ぶつかったために起こるべき現象は、すべてニュートン力学が支配する現実空間で起こり、これに起因する仮想空間の映像も矛盾が無く進行する。
In addition to normal road driving, the model car may accidentally collide with the side walls of the road or collide with other model cars. Due to these phenomena, the model car changes its direction and speed. And this is taken over to the virtual space through the position detection of the model car, and appears to the operator as a display image.
Then, the pilot operates to avoid a collision in the virtual space reflected on the display. Even if a collision occurs due to a mistake in maneuvering, all the phenomena that should occur due to the collision occur in the real space governed by Newtonian mechanics, and the video of the virtual space resulting from this progresses without contradiction.

このことは、現実空間に於けるフィールドと、仮想空間に於けるフィールドは、模型自動車が、障害物や他の模型自動車などと、接触または衝突しうる位置でのみ、関連があり、同一の形状物であることが要求されることになる。
このことを実際例で示す。図19(A)現実空間で、模型自動車1のバンパー120が道路脇の隔壁6(地点125)にぶつかり、進行方向が点線の模型自動車1aのように変わって、走行を続けたとする。
すなわち、「現実空間」に於ける模型自動車や障害物の形状デザインと、「仮想空間」に於ける「模型自動車や障害物のデザイン」は、衝突など接触しうる部分(バンパーやガードレールなど)の形状のみが似ていることが必要であり、ぶつかる可能性がない障害物の上部などの形状は、全く似ている必要がなく、自由な形状が許されるということである。
図19(B)仮想空間の樹木6などは、自動車の衝突とは無関係の位置なので、現実世界には無くても、仮想空間には、自由に存在させることができる。
This is because the field in the real space and the field in the virtual space are related only at the position where the model car can contact or collide with an obstacle or another model car, and the same shape. It is required to be a thing.
This is shown by an actual example. In FIG. 19A, it is assumed that the bumper 120 of the model car 1 hits the partition wall 6 (point 125) beside the road and the traveling direction changes like the model car 1a with a dotted line in the real space, and the vehicle continues to run.
In other words, the shape design of model cars and obstacles in "real space" and the "model car and obstacle design" in "virtual space" are the parts that can come into contact with each other (such as bumpers and guardrails). Only the shapes need to be similar, and shapes such as the top of an obstacle that cannot be bumped do not have to be similar at all, and free shapes are allowed.
Since the tree 6 and the like in the virtual space shown in FIG. 19 (B) are unrelated to the collision of the automobile, they can be freely present in the virtual space even if they are not in the real world.

また、物理的衝突に関係の無い、表面の色や表面の描画デザインに関しては、すべての部分で類似である必要はない。
さらに発展させて、仮想空間での形状は、形状の輪郭線のみ描画して、面は透明または半透明にすること等も可能である。
たとえば、マイ・ロボットを透明にして、輪郭線のみで描画し、仮想カメラをマイ・ロボットの後方に設置すると、マイ・ロボットの前にあるボールの位置と、マイ・ロボットの足と、敵ロボットと、ゴールが、透明で輪郭だけのマイ・ロボット越しに一直線状に見えるので、正確なシュートやパスすることができる。
Also, regarding the surface color and surface drawing design that are not related to physical collision, it is not necessary to be similar in all parts.
Further, the shape in the virtual space can be drawn only by the outline of the shape, and the surface can be made transparent or translucent.
For example, if you make my robot transparent, draw only the outline, and place a virtual camera behind my robot, the position of the ball in front of my robot, my robot's legs, and enemy robot And the goal looks straight through my robot with a transparent outline, so you can shoot and pass accurately.

自動車の場合は、仮想空間のマイ自動車を透明にすると運転席から、自分の自動車のバンパーや前輪が見えることになり、より正確な運転ができる。また運転が易しくなり、ゲームとして、より楽しくすることもできる。 In the case of a car, if you make your car in the virtual space transparent, you can see the bumper and front wheels of your car from the driver's seat, and you can drive more accurately. In addition, driving becomes easier, and it can be made more fun as a game.

仮想空間の高い部分の遠景等も、自動車などとの接触はあり得ないので、任意のデザインの遠景を使うことができる。山々の景色やビル群や雲のかかった空など何でも入れられる。
仮想空間での遠景を図20で説明する。
遠景は、仮想カメラの位置には関係せず、仮想カメラの向きによって、遠景の切り取り方が変化するので、遠景画像を水平に360度回転させた横長のパノラマ画像(図20)とし、そのパノラマ画像の左端と右端を論理的に繋いでエンドレスの画像にしたものを、仮想カメラの向きにつれて、スクロールし、カメラ画角で切り取った画像153を、遠景として使用するのが、簡便な方法である。また、図22仮想空間図のように、遠景152を大半径の円形幕と考え、仮想フィールド120を遠くから囲んでいるように表現することもできる。
ただし、実際に操縦者が見る図形は、仮想自動車100#1または、100#2の後から追尾する仮想カメラ141#1または、141#2に映る映像である。
もちろん、仮想カメラの位置は、前に図9で説明したように、自動車を追尾する他に、運転者の目の位置に置いたり、様々な位置に置くことができる。
Since a distant view of a high part of the virtual space cannot be in contact with an automobile or the like, a distant view of any design can be used. You can enter anything from mountain views, buildings, and cloudy skies.
A distant view in the virtual space will be described with reference to FIG.
The distant view is not related to the position of the virtual camera, and the way to cut the distant view changes depending on the orientation of the virtual camera. Therefore, the distant view is a horizontally long panorama image (FIG. 20) rotated 360 degrees horizontally. It is a simple method to use an image 153 that is obtained by logically connecting the left and right edges of the image as an endless image, scrolling according to the direction of the virtual camera, and cropped at the camera angle of view as a distant view. . Further, as in the virtual space diagram of FIG. 22, the distant view 152 can be considered as a circular curtain with a large radius, and the virtual field 120 can be expressed as surrounding from a distance.
However, the figure actually seen by the operator is a video image displayed on the virtual camera 141 # 1 or 141 # 2 that is tracked after the virtual car 100 # 1 or 100 # 2.
Of course, as described above with reference to FIG. 9, the position of the virtual camera can be placed at the position of the driver's eyes or at various positions in addition to tracking the automobile.

一般的に、現実空間での実フィールドは、実作業として物を作ることであるため、複雑なものを作りにくい。
図21は自動車レースの例であり、図21の(A)は現実空間の平面図、正面図である。(A)の周囲4つのフィールド外壁5と、中央の数個の隔壁6は自動車の走行コースを形造っているが、これらはすべて一定の厚さの板材で作られている。
In general, the real field in the real space is to make a thing as an actual work, so it is difficult to make a complicated thing.
FIG. 21 is an example of an automobile race, and FIG. 21A is a plan view and a front view of a real space. The four outer field walls 5 and several central partition walls 6 around (A) form a traveling course of an automobile, all of which are made of a plate material having a constant thickness.

したがって、現実空間での隔壁6や外壁5や簡単な障害物などは、模型自動車のバンパー120の高さを越える厚さの平板を、隔壁や障害物の平面図通り切取り、実フィールドに貼付けて作られている。(現実空間の参照図:図21(A)現実空間 平面図、正面図)
他方、仮想空間での仮想フィールドの隔壁や障害物などは、デザインとして美しく、緻密に作る必要がある。出来上がったものは、単にCGデーターであるから、いくら複雑になっても、大量に作れば一台あたりの単価は、安価に製造できる。(仮想空間の参照図:図22(B)仮想空間の平面図、正面図 土手121 50 122 60、樹木123、 )
Therefore, for the partition 6 in the real space, the outer wall 5 and simple obstacles, cut a flat plate with a thickness exceeding the height of the bumper 120 of the model car as shown in the plan view of the partition and the obstacle, and paste it on the actual field. It is made. (Reference drawing of real space: Fig. 21 (A) Real space plan view, front view)
On the other hand, partition walls and obstacles in the virtual field in the virtual space need to be beautifully and precisely designed. Since the finished product is simply CG data, no matter how complicated it is, if it is made in large quantities, the unit price per unit can be manufactured inexpensively. (Reference view of the virtual space: Fig. 22 (B) Plan view of the virtual space, front view Bank 121 50 122 60, Tree 123,)

カメラを位置検出に使用した例の説明をする。
図16の全体図例は、フィールド中央上部に固定されたカメラ110を位置検出用に使った例である。模型自動車1#1には、前後に赤外線発光素子111と112が付いていてこれらから出る光線をカメラ110がとらえ、模型自動車の位置と向きを検出している。
カメラで模型自動車の形状をとらえ、この図形を処理して位置と向きを計算することもできるが、処理に時間がかかる恐れがある。
また初期時点では、複数の自動車の使用の場合、自動車制御用のアドレスコマンドに合わせて赤外線を発光させ、カメラによる発光素子の位置特定を行う。
そして赤外線カメラ110で模型自動車の2点の位置を検出し、CPUで位置と向きに変換されて、仮想カメラを設定し、仮想空間で映像処理されて、ディスプレイに映像を出力する。
An example in which a camera is used for position detection will be described.
16 is an example in which the camera 110 fixed at the upper center of the field is used for position detection. The model car 1 # 1 is provided with infrared light emitting elements 111 and 112 on the front and rear, and the camera 110 detects the light rays emitted from them, and detects the position and orientation of the model car.
Although it is possible to capture the shape of a model car with a camera and process this figure to calculate the position and orientation, it may take time.
At the initial time, when a plurality of automobiles are used, infrared light is emitted in accordance with an address command for automobile control, and the position of the light emitting element is determined by the camera.
Then, the infrared camera 110 detects the position of two points of the model car, and the CPU converts the position into the position and orientation, sets the virtual camera, performs image processing in the virtual space, and outputs the image to the display.

コンピュータ内の自動車レース(仮想空間)の正面図は、図18に示す。
実空間の自動車レースの図17(A)、(B)と、仮想空間の図18の違いを説明する。
現実空間の周囲を囲む4枚のフィールド外壁5については、前に述べたように実空間では、簡単に作成できるように、一定の厚さの板材が使われている。図17(A)(B)に示す。
他方、仮想空間に於いては、図18のように、隔壁5の代わりに、全く異なるデザインの大きな土手121が描かれ、さらに土手の上には樹木123が植えられている。
A front view of the car race (virtual space) in the computer is shown in FIG.
The difference between FIGS. 17A and 17B of the real space automobile race and FIG. 18 of the virtual space will be described.
Regarding the four field outer walls 5 surrounding the real space, a plate material of a certain thickness is used in the real space so that it can be easily created as described above. It shows to FIG. 17 (A) (B).
On the other hand, in the virtual space, as shown in FIG. 18, a large bank 121 having a completely different design is drawn instead of the partition wall 5 and a tree 123 is planted on the bank.

図17(B)の実空間では、模型自動車1のバンパー120は隔壁5の隔壁横面5aとのみ接触するので、それと同じ役割の部分のみ、同じ形状であればよいのである。
それが、仮想空間の図18の土手横面121aである。
図17(B)の隔壁横面5aと、図18の土手横面121aは、類似位置関係にあるので、それ以外の隔壁5と土手121は形状が異なっていても、自動車の運転には全く問題は無いのである。
In the real space of FIG. 17B, the bumper 120 of the model automobile 1 is in contact with only the partition wall lateral surface 5a of the partition wall 5, and therefore only the portion having the same role needs to have the same shape.
This is the bank lateral surface 121a in FIG. 18 of the virtual space.
Since the partition horizontal surface 5a in FIG. 17B and the bank horizontal surface 121a in FIG. 18 are in a similar positional relationship, even if the other partition walls 5 and the bank 121 are different in shape, it is completely impossible to drive a car. There is no problem.

中央部の隔壁5についても同様であり、図17(B)の隔壁横面5aと図18の中土手横面122aは類似位置にあるので、他の上部部分は、形状が異なっても問題は起こらない。 The same applies to the partition wall 5 in the central portion, and the partition side surface 5a in FIG. 17B and the middle bank side surface 122a in FIG. 18 are in similar positions. Does not happen.

走行自体は、物理法則が適応されるので、部分的に道路を滑りやすい素材で作ると、その場所に来るとタイアが滑りやすくなり 、操縦に技術を必要になり、興味深いものになる。 As the driving itself is subject to the laws of physics, if the road is partially made of a slippery material, the tire will be slippery when it comes to that place, and it will require skills for maneuvering and will be interesting.

運転席から見る景色は、コンピュータグラフィックスで描かれるので、周回毎に、設定場所や季節や天候を変えることができるので、様々な演出が可能である。
位置検出機能付の障害物は、走行路上を、CG画像内も含めて存在し、かつ、移動可能になるので、モーター仕掛けで向きや位置や形状を変化させて、難易度やゲーム性を上げることにも使える。
The scenery seen from the driver's seat is drawn with computer graphics, so the setting location, season, and weather can be changed for each lap, so various effects are possible.
Obstacles with a position detection function exist on the road, including in the CG image, and can be moved, so the orientation, position, and shape are changed by a motor to increase the difficulty and gameplay. Can also be used.

模型自動車の走行自体は、ごまかしのないメカニズムの物理現象であるから、性能によってクラス分けしたグローバルなカーレースになりうるものである。しかも、運転席は、ほんもののレーシングカーのようなデザインも可能であり、自動車は、縮尺比を大きくとれば、時速200kmくらいの高速なカーレースも可能である。そして、操縦の仕方や景観が本物の自動車に近いので、本物のカーレーサーが実際に優勝するような大会を行うことも可能である。さらに、ゲーム性も組み込めば、極めて安全で、かつ、スリリングで、興味深い装置を作ることができる。 Since the model car itself is a physical phenomenon with no deception, it can be a global car race classified according to performance. In addition, the driver's seat can be designed like a real racing car, and if the scale ratio is large, a car race of about 200 km / h is possible. And since the way of maneuvering and scenery are close to real cars, it is possible to hold competitions where real car racers actually win. Furthermore, if game characteristics are incorporated, an extremely safe, thrilling and interesting device can be created.

模型自動車1台の場合の実施例1の全体図Overall view of Example 1 with one model car 実施例1の実フィールドを側面から見た図The figure which looked at the real field of Example 1 from the side 実施例1の仮想空間の平面図(A)と側面図(B)Plan view (A) and side view (B) of the virtual space of the first embodiment 模型自動車2台の場合の実施例1の全体図Overall view of Example 1 with two model cars コイル位置検出原理図Coil position detection principle diagram 2点位置データを位置姿勢データに変換説明図Illustration of converting 2-point position data into position and orientation data 映像コンピュータ15の内部ブロック図Internal block diagram of video computer 15 仮想カメラの説明図Illustration of virtual camera 仮想カメラの位置説明Virtual camera position description 仮想カメラの立体視説明図Stereoscopic illustration of virtual camera スマートフォンまたはタブレット端末機の使用例Example of smartphone or tablet terminal usage 回転体型の障害物説明図Rotating body type obstacle explanatory diagram 回転体型の障害物の利用例Example of using a rotating body type obstacle 直方体型の障害物説明図Illustration of a rectangular parallelepiped obstacle トンネル型の障害物説明図Illustration of tunnel type obstacle カメラによる位置検出の全体図Overall view of camera position detection カメラによる位置検出の原理図Principle of position detection by camera カメラによる2点位置検出の映像Video of two-point position detection by camera 模型自動車の側壁衝突図Model car side wall collision diagram 遠景CG図CG image of distant view 模型自動車レースの平面図と正面図Top view and front view of model car race 図21のCG図。近景、中景、遠景合成CGの正面図The CG figure of FIG. Front view of foreground, middle, and distant view composite CG

図1は、模型自動車が1台、操縦者1人の場合の一実施例の全体ブロック図である。
図1は、大きく分けて、走行部45と操縦部46の二つのグループから構成される。
上部の走行部45は、模型自動車1を走らせる場所である。実フィールド12は、フィールド外壁5と隔壁6によって構成されて、図の平面図のように、模型自動車1が周回走行するコースが形作られている。
FIG. 1 is an overall block diagram of an embodiment in which there is one model car and one driver.
FIG. 1 is roughly divided into two groups, a traveling unit 45 and a control unit 46.
The upper traveling unit 45 is a place where the model automobile 1 is driven. The actual field 12 is composed of the field outer wall 5 and the partition wall 6, and forms a course in which the model automobile 1 runs around as shown in the plan view of the figure.

実フィールド12上を、模型自動車1が走行しているところが、図1の走行部45に描いてあり、これを横から見たAA'断面側面図が、図2である。
図2の模型自動車1の下部に、コイル3とコイル4が縦向きに設置してあり、発信器33からの交流信号を適当な時間間隔で、コイルに流し、垂直磁界M1、M2を発生させる。
この磁界は、図2の実フィールド12の下にある位置検出板11を透過する。
位置検出板11は、図1上部のように、実フィールド12全体を覆う大きさであり、この原理構造は、図5に示すように直交する多数の平行導線をスイッチ回路31,32で走査できるように構成されている。(実際のスイッチ回路は、電子回路で構成される。)
この位置検出板11と、コイル位置検出器13とが組み合わされて、模型自動車の各コイルの位置を検出するように働き、2点のコイル位置データが検出される。
但し、コイル位置データは、位置検出板11による平面位置の検出を基準にしたものである。図5の位置検出板11を使用することで考えると、横方向はx軸であり、縦方向はy軸である。また、高さz軸は検出しないので、z軸位置は地面の高さとし、z=0とする。
この2点のデータは、次の位置姿勢演算器14に入って、位置姿勢データに変換される。
The place where the model car 1 is traveling on the actual field 12 is depicted in the traveling part 45 of FIG. 1, and FIG. 2 is a side view of the AA ′ cross section viewed from the side.
A coil 3 and a coil 4 are installed vertically in the lower part of the model car 1 in FIG. 2, and an AC signal from the transmitter 33 is passed through the coil at appropriate time intervals to generate vertical magnetic fields M1 and M2. .
This magnetic field passes through the position detection plate 11 below the actual field 12 in FIG.
As shown in the upper part of FIG. 1, the position detection plate 11 is sized to cover the entire real field 12, and this principle structure can scan a number of orthogonal parallel conductors with switch circuits 31 and 32 as shown in FIG. It is configured as follows. (A real switch circuit is an electronic circuit.)
The position detection plate 11 and the coil position detector 13 are combined to operate so as to detect the position of each coil of the model automobile, and two coil position data are detected.
However, the coil position data is based on the detection of the planar position by the position detection plate 11. Considering the use of the position detection plate 11 of FIG. 5, the horizontal direction is the x axis and the vertical direction is the y axis. Also, since the height z-axis is not detected, the z-axis position is the height of the ground, and z = 0.
These two points of data enter the next position / orientation calculator 14 and are converted into position / orientation data.

2点の位置座標から位置姿勢データへの変換は、次のように行う。
図6の(A)に於いて、前側のコイル3の位置がP(xp,yp,0)であり、後側のコイル4の位置が、Q(xq,yq,0)と測定されたとする。次に図6の(B)で自動車の代表位置をコイル3とコイル4の中間点とし、自動車の代表位置座標をS(xs、ys、0) とすれば、
(1)代表点S(xs,ys、zs)は、2個のコイルの位置座標の中点なので、
xs=(xp+xq)/2
ys=(yp+yq)/2
zs=0
となる。
(2)水平姿勢角θは、コイル4の位置からコイル3の位置を結んだ線の向きである。
そうすると、図6(B)を参照して
θ=ATN((yp−yq)/(xp−xq))
実フィールド12は水平であるから、垂直姿勢角ηは0とする。
η=0
このようにして、代表点(xs、ys、zs)と姿勢角(θ,η)は計算される。
Conversion from the position coordinates of the two points to the position and orientation data is performed as follows.
In FIG. 6A, it is assumed that the position of the front coil 3 is P (xp, yp, 0) and the position of the rear coil 4 is measured as Q (xq, yq, 0). . Next, in FIG. 6B, if the representative position of the automobile is the intermediate point between the coils 3 and 4, and the representative position coordinates of the automobile are S (xs, ys, 0),
(1) The representative point S (xs, ys, zs) is the midpoint of the position coordinates of the two coils.
xs = (xp + xq) / 2
ys = (yp + yq) / 2
zs = 0
It becomes.
(2) The horizontal posture angle θ is the direction of a line connecting the position of the coil 3 to the position of the coil 3.
Then, referring to FIG. 6B, θ = ATN ((yp−yq) / (xp−xq))
Since the actual field 12 is horizontal, the vertical attitude angle η is set to zero.
η = 0
In this way, the representative point (xs, ys, zs) and the posture angle (θ, η) are calculated.

図1下部にある操縦部46は、操縦者30がディスプレイ画像9を見ながら、操縦装置2に向かって操縦するところである。
操縦部46内のディスプレイ9の画像は次のようにして作られる。
映像コンピュータ15は、コンピュータグラフィックス技術を使い、CGデータ14のメモリーに入っている物体データに基づいて、走行部45の情景と類似の仮想情景を作り出す。これを、図3(A)CG平面図、(B)CG正面図に示す。
そして自動車の運転席等にあると仮定する仮想カメラの位置姿勢Pθkを、模型自動車1の位置姿勢データPθ1に基づいて、計算し、前記仮想カメラに映るであろう映像を、ディスプレイ9に描画する。
CGデータ14のメモリーに入っている内容は、走行部45(図1上部)にある現実世界の模型物体を、映像コンピュータ15が仮想物体に置き換えるために必要なデータである。
The maneuvering unit 46 at the bottom of FIG. 1 is where the pilot 30 steers toward the control device 2 while viewing the display image 9.
The image of the display 9 in the control unit 46 is created as follows.
The video computer 15 uses computer graphics technology to create a virtual scene similar to the scene of the traveling unit 45 based on the object data stored in the memory of the CG data 14. This is shown in FIG. 3 (A) CG plan view and (B) CG front view.
Then, the position / orientation Pθk of the virtual camera that is assumed to be in the driver's seat of the car is calculated based on the position / orientation data Pθ1 of the model car 1, and an image that will appear in the virtual camera is drawn on the display 9. .
The contents of the CG data 14 in the memory are data necessary for the video computer 15 to replace the real world model object in the traveling unit 45 (upper part of FIG. 1) with a virtual object.

図3は、映像コンピュータ15が、コンピュータグラフィックス技術で作り出した走行部45と類似の仮想情景モデルである。
図1のCGデータ15欄の右に書いてあるのが、データの詳細例であり、映像コンピュータ15は、このデータを使用して図3(A)(B)の仮想立体モデルを構成している。
CGデータ15のCGフィールド外壁50やCG隔壁60には、図3のようなデザイン模様が貼り付けられているとする例である。
この仮想モデルのCG自動車#1の位置姿勢データPθ1に基づいて仮想カメラの位置姿勢データを決め、映像を計算し、作成することになる。
FIG. 3 shows a virtual scene model similar to the traveling unit 45 created by the video computer 15 using computer graphics technology.
The right example of the CG data 15 column in FIG. 1 is a detailed example of the data, and the video computer 15 uses this data to construct the virtual stereo model of FIGS. 3 (A) and 3 (B). Yes.
This is an example in which the design pattern as shown in FIG. 3 is pasted on the CG field outer wall 50 and the CG partition wall 60 of the CG data 15.
Based on the position / orientation data Pθ1 of the virtual model CG car # 1, the position / orientation data of the virtual camera is determined, and the image is calculated and created.

現実世界の模型物体は、通常は、現実世界の本物の物体を何らかの縮尺で、縮めた世界である。そして、映像コンピュータ15が作る仮想世界は、模型の縮尺寸法に基づいて作ることになる。しかし、操縦者にとっては、操縦装置2の大きさや、ディスプレイ9の映像の大きさのみを、触れたり見たりする、感覚の基準になるため、ディスプレイ内の仮想世界の映像は、等身大の本物の大きさの世界に感じられることになる。 A real-world model object is usually a world where a real object in the real world is reduced to some scale. The virtual world created by the video computer 15 is created based on the scale size of the model. However, for the pilot, the size of the control device 2 and the size of the image on the display 9 are the basis of sensation to touch and see, so the image of the virtual world in the display is life-size real. It will be felt in the world of the size.

操縦部46の操縦者30は、ディスプレイ9を見ながら、操縦装置2を操縦する。
操縦装置2は、この操縦内容を無線操縦信号41として、模型自動車1に向けて送信する。
このようにして、操縦者30は、本物の自動車を操縦しているような感覚で、模型自動車1を操縦することができる。
The operator 30 of the control unit 46 controls the control device 2 while looking at the display 9.
The control device 2 transmits this control content as a wireless control signal 41 toward the model vehicle 1.
In this way, the pilot 30 can steer the model car 1 as if he were driving a real car.

図4は、図1と類似のシステムの実施例であるが、模型自動車が2台、操縦者2人の場合である。
なお、これは、操縦者が3人以上の一般的システムにも、拡張することが可能である。
図4は、図1の実施例1と同様に、走行部45と操縦部46の二つのグループから構成される。
但し、図1の実施例1と違って、走行部45には、2台の模型自動車1#1と1#2とが走っている。そして、操縦部は、操縦部46#1と操縦部46#2の2つあり、第1の操縦者30#1は、操縦部46#1に属し、模型自動車1#1を操縦する。
また、第2の操縦者30#2は、操縦部46#2に属し、模型自動車1#2を操縦する。
FIG. 4 shows an embodiment of a system similar to that of FIG. 1, except that there are two model cars and two pilots.
Note that this can be extended to a general system with three or more pilots.
FIG. 4 is composed of two groups, a traveling unit 45 and a control unit 46, as in the first embodiment of FIG.
However, unlike the first embodiment of FIG. 1, the traveling unit 45 has two model cars 1 # 1 and 1 # 2 running. There are two control units, the control unit 46 # 1 and the control unit 46 # 2, and the first operator 30 # 1 belongs to the control unit 46 # 1 and controls the model car 1 # 1.
The second operator 30 # 2 belongs to the control unit 46 # 2 and controls the model car 1 # 2.

走行部45には模型自動車は、1#1と1#2の2台が走るので、模型自動車が2台分のコイルの位置検出機能が働き、コイル位置検出器13と位置姿勢演算部14を通って、2台分の位置姿勢データPθ1とPθ2が出力される。
これらのデータPθ1とPθ2とは、2つの操縦部46#1と46#2の両方に、出力される。
Since the model car has two 1 # 1 and 1 # 2 cars running in the running unit 45, the model car has the function of detecting the position of the coil for two cars, and the coil position detector 13 and the position / attitude calculation unit 14 As a result, position and orientation data Pθ1 and Pθ2 for two units are output.
These data Pθ1 and Pθ2 are output to both of the two control units 46 # 1 and 46 # 2.

第1の操縦部46#1について説明する。
CGデータ15#1には、[1]CG自動車100#1と[2]CG自動車100#2との2台のCG自動車を描画するために必要な、(a)構造データ(b)デザインデータ(c)位置姿勢データが、設置されている。
この中で、位置姿勢データPθ1、Pθ2は、2台分とも、走行部で絶えず位置検出が繰り返されて、位置姿勢演算器14を通って、更新されている。
The first control unit 46 # 1 will be described.
CG data 15 # 1 includes (a) structural data and (b) design data required to draw two CG cars, [1] CG car 100 # 1 and [2] CG car 100 # 2. (c) Position and orientation data are installed.
Among them, the position / orientation data Pθ1 and Pθ2 are updated through the position / orientation calculator 14 after the position detection is continuously repeated in the traveling unit.

CGデータ15#1には、[3]CGフィールド外壁50、[4]CG隔壁60、[5]CG実フィールド120を描画するためのデータも、位置姿勢が固定されたCG物体として、設置されている。
映像コンピュータ16#1は、これらの設置されたCGデータ15#1に基づいて、全体の情景を描画する。
その時に使用される仮想カメラ110の位置姿勢は、CG自動車100#1の運転席などに、設置されていると仮定したものであるので、CG自動車100#1の位置姿勢Pθ1に基づいて、仮想カメラ位置姿勢を計算したものである。
Pθ1は、走行部45の模型自動車1#1の位置姿勢であるから、この模型自動車の運転席から見える視覚A#1の映像が、ディスプレイ9#1に映ることになる。
このとき、前を走っている模型自動車1#2は、位置姿勢はPθ2であり、これは位置検出、位置姿勢演算され、更新されて、CGデータ15#1に設置されているので、映像コンピュータ16#1による映像としては、ディスプレイ9#1の映像の中に100#2として映りこんでいる。
この映像を見ながら操縦者30#1は、操縦装置2#1を操縦し、その無線操縦信号41#1は模型自動車1#1に送られ、模型自動車1#1は操縦走行を続けることができる。
In CG data 15 # 1, [3] CG field outer wall 50, [4] CG partition wall 60, and [5] CG actual field 120 data are also installed as CG objects with fixed positions and orientations. ing.
The video computer 16 # 1 draws the entire scene based on the installed CG data 15 # 1.
Since the position and orientation of the virtual camera 110 used at that time are assumed to be installed in the driver's seat of the CG automobile 100 # 1, etc., the virtual camera 110 is virtually based on the position and orientation Pθ1 of the CG automobile 100 # 1. The camera position and orientation are calculated.
Since Pθ1 is the position and orientation of the model car 1 # 1 of the traveling unit 45, the image of the visual A # 1 that can be seen from the driver's seat of the model car is displayed on the display 9 # 1.
At this time, the position of the model car 1 # 2 running in front is Pθ2, which is detected, calculated and updated, and installed in the CG data 15 # 1, so that the video computer The image by 16 # 1 is reflected as 100 # 2 in the image of display 9 # 1.
While watching this video, the pilot 30 # 1 controls the control device 2 # 1, the radio control signal 41 # 1 is sent to the model car 1 # 1, and the model car 1 # 1 continues to drive. it can.

第2の操縦部46#2についても、同様である。
なお、操縦部46#2に関しては、Pθ1の代わりにPθ2に基づいて、仮想カメラ位置姿勢を計算し、前記仮想カメラによる映像を、ディスプレイ9#2に表示し、操縦者30#2が、操縦装置2#2を操縦する。
The same applies to the second control section 46 # 2.
Regarding the control unit 46 # 2, the virtual camera position and orientation is calculated based on Pθ2 instead of Pθ1, and the video by the virtual camera is displayed on the display 9 # 2. Maneuver device 2 # 2.

このように、自動車2台、操縦者2人のシステムでは、迫力のあるカーチェイスが楽しめることがわかる。
また、自動車が何台のカーレースであっても、すべての模型自動車の位置検出などを行い、同様な方法でシステムを拡張すれば、対処することができることも推定できる。
In this way, it can be seen that a powerful car chase can be enjoyed with the system of two cars and two pilots.
It can also be estimated that no matter how many car races there are cars, it can be dealt with by detecting the position of all model cars and expanding the system in the same way.

図8は、CG自動車の位置姿勢Pθ1から、仮想カメラの位置姿勢Pθkを求める例を示す。
図8(A)は前に説明したように、自動車の代表点S(xs,ys,0)と同じ平面位置に、仮想カメラを置いたときの図である。
仮想カメラの高さについては、図8(D)のように運転者の目の高さである。zs=hcとして、仮想カメラの位置はS(xs,ys,zs)である。
FIG. 8 shows an example in which the position and orientation Pθk of the virtual camera is obtained from the position and orientation Pθ1 of the CG car.
FIG. 8A is a diagram when the virtual camera is placed at the same plane position as the representative point S (xs, ys, 0) of the automobile as described above.
The height of the virtual camera is the height of the driver's eyes as shown in FIG. 8 (D). As zs = hc, the position of the virtual camera is S (xs, ys, zs).

もしも、左側に運転席があり、映像を運転者目線に合わせるとすれば、図8(B)の図になるので、自動車の水平姿勢角をθとすれば、図8(C)を参照して計算すると、この仮想カメラの位置は、D(xd,yd,zd)となる。
但し、
xd=xs+dd*sinθ
yd=ys+dd*cosθ
zd=hc
である。
もし、右側に運転席がある場合は、dd<0とすればよい。
このように、カメラ位置の計算式を変えれば、大型トラックやバスなどを含め、どんな自動車にも対応できる。
If there is a driver's seat on the left side and the image is aligned with the driver's line of sight, it will be as shown in Fig. 8 (B). If the horizontal attitude angle of the car is θ, see Fig. 8 (C). The position of this virtual camera is D (xd, yd, zd).
However,
xd = xs + dd * sinθ
yd = ys + dd * cosθ
zd = hc
It is.
If there is a driver's seat on the right side, set dd <0.
In this way, by changing the camera position calculation formula, it can be used with any vehicle, including large trucks and buses.

仮想カメラの位置の別例を、図9に示す。
図の105は、仮想カメラの(運転者目線)通常位置であり、図の101は、自動車の後方を映す仮想カメラであり、いわゆるバックミラーの役割を果たす。この映像は、運転者の後方に専用ディスプレイを置けば、運転者が振り向けば、見ることができる。
または、前方を映すディスプレイの中に、小さなバックミラー映像として映すこともできる。
Another example of the position of the virtual camera is shown in FIG.
105 in the figure is the normal position of the virtual camera (driver's view), and 101 in the figure is a virtual camera that reflects the back of the automobile, and plays the role of a so-called rearview mirror. This video can be seen if a dedicated display is placed behind the driver and the driver turns around.
Alternatively, it can be projected as a small rearview mirror image in the display that projects the front.

102は、自分の自動車を後方から追尾した映像を作り出す。この映像は、自分の自動車と道路の関係が分かりやすい。 102 creates an image of tracking his car from the rear. This video makes it easy to understand the relationship between your car and the road.

103は自動車の真上から見た映像が得られるので、車庫入れなど、さらに周囲の細かい状況把握に便利である。また、この場合は、カメラ映像ではなく、ゆがみのない平面図的な映像を、自動車の近くのみ切り取って使うこともできる。
これらの映像は、操縦者の操作で切り替える仕様も可能である。
いずれにしても、これらの仮想カメラの位置姿勢は、「CG自動車100#1の位置姿勢Pθn」に基づいており、すなわち「模型自動車1#1の検出された位置姿勢Pθn」に基づいていることになる。
Since 103 can be viewed from directly above the car, it is convenient for grasping the surrounding situation, such as in a garage. In this case, not a camera image but a plan view image without distortion can be cut and used only near the car.
These videos can be switched by the operator's operation.
In any case, the position and orientation of these virtual cameras are based on “the position and orientation Pθn of the CG automobile 100 # 1”, that is, based on “the detected position and orientation Pθn of the model automobile 1 # 1”. become.

図10(A)は、2台の仮想カメラ110,111を左右の目に相当させ、立体視の映像を発生させる例である。
図10(B)は、立体視の映像を見る装置の例であり、ディスプレイ9は、毎フレームごとに左目用画像と右目用画像を切換える。操縦者は、それに同期して左右が交互にON,OFFする3D眼鏡120を使用して、ディスプレイ9を見る例である。
FIG. 10A shows an example in which two virtual cameras 110 and 111 correspond to the left and right eyes to generate a stereoscopic image.
FIG. 10B shows an example of an apparatus for viewing a stereoscopic image. The display 9 switches between a left-eye image and a right-eye image every frame. The pilot is an example of viewing the display 9 using 3D glasses 120 whose left and right are alternately turned on and off in synchronization with the pilot.

図10(C)は、別の立体像を見る例であり、左右の眼が直接左右の映像を見れるようなヘッドマウントディスプレイ122を使用する。 FIG. 10C is an example of viewing another stereoscopic image, and uses a head mounted display 122 that allows the left and right eyes to directly view the left and right images.

さらに、ヘッドマウントディスプレイ122に頭の向きのセンサーが備えられている場合は、この検知向きφに合わせて、図10(D)のように、仮想カメラの向きφを変化させるようにすると、頭の向きを変えて、360度すべての方向が見渡すことも可能になる。 Furthermore, if the head-mounted display 122 is provided with a head orientation sensor, the virtual camera orientation φ is changed according to the detection orientation φ as shown in FIG. It is also possible to look over all directions by changing the direction of.

図1の操縦部46全体を、スマートフォン29などの複合電子機器1台で構成する例を、図11に示す。
すなわち、無線通信のインターフェース22からの入力信号を映像コンピュータ13に送り、映像コンピュータ13で作成した映像を、ディスプレイ9に表示し、ディスプレイ9に表示されたハンドルやアクセルやブレーキを指で入力可能にして、操縦器21を構成し、操縦器21からの出力信号をインターフェース22から走行部45と、電波で通信する。
操縦信号26は、送信器28を通って、模型自動車1を操縦する。
走行部45のコイル位置検出器13からの位置データ23は、インタフェース23、22を逆に通って映像コンピュータ15で出力映像となって、図11のように、スマートフォンのディスプレイ9に表示される。
操縦者31#1は、小さなスマートフォンだけを使って操縦できることになる。また、ハンドル操作は、スマートフォンを左右に傾けて入力操作することも可能である。
An example in which the entire control unit 46 of FIG. 1 is configured by one composite electronic device such as a smartphone 29 is shown in FIG.
That is, an input signal from the wireless communication interface 22 is sent to the video computer 13 and the video created by the video computer 13 is displayed on the display 9 so that the handle, accelerator or brake displayed on the display 9 can be input with a finger. Thus, the controller 21 is configured, and an output signal from the controller 21 is communicated with the traveling unit 45 from the interface 22 by radio waves.
The control signal 26 controls the model car 1 through the transmitter 28.
The position data 23 from the coil position detector 13 of the traveling unit 45 passes through the interfaces 23 and 22 in reverse to become an output image by the video computer 15 and is displayed on the display 9 of the smartphone as shown in FIG.
The pilot 31 # 1 can control using only a small smartphone. In addition, the handle operation can be performed by tilting the smartphone left and right.

図1や図4の走行部は、複数の隔壁6を実フィールド12に貼り付けて、固定位置の障害物として使っているが、半固定型の障害物を使用する例を図12で説明する。
図12は、円柱7と半球3を組み合わせた回転体形状の障害物を使っている。図12(A)は、走行フィールドの平面図であり、図12(B)は、側面断面図である。
回転体形状の障害物は、向きを検出する必要がないので、中心線上の下部に位置検知コイル3が一個だけ搭載されている。
1 and 4 use a plurality of partition walls 6 attached to an actual field 12 as obstacles at a fixed position. An example of using a semi-fixed obstacle will be described with reference to FIG. .
In FIG. 12, a rotating body-shaped obstacle in which the cylinder 7 and the hemisphere 3 are combined is used. FIG. 12A is a plan view of the traveling field, and FIG. 12B is a side sectional view.
Since there is no need to detect the direction of the obstacle in the form of a rotating body, only one position detection coil 3 is mounted on the lower part on the center line.

そして、障害物7の置く位置を変えることにより、任意に走行路を変えることができる。通常はゲームを始める前に、障害物7の設置位置は決めるので、障害物7の位置検出は、ゲーム開始時の一回だけでよい。
障害物7の位置が検出されると、映像コンピュータ15ではその位置を記憶し、そこに障害物があるとして、障害物CG像70を画像データに書き込み、ディスプレイ9にその透視図を表示する。
図では、さらに、2台の模型自動車1#1,1#2が障害物の間を走行するところを示している。ディスプレイ9には、それぞれのマイカー位置に基づいて置かれた仮想カメラに映った模型自動車や障害物や周囲の隔壁の映像が映し出され、操縦者はそれを見て操縦を行う。
And by changing the position where the obstacle 7 is placed, the travel path can be changed arbitrarily. Normally, the installation position of the obstacle 7 is determined before the game is started, so that the position of the obstacle 7 need only be detected once at the start of the game.
When the position of the obstacle 7 is detected, the video computer 15 stores the position, writes the obstacle CG image 70 in the image data and displays the perspective view on the display 9 assuming that there is an obstacle.
The figure further shows that two model cars 1 # 1, 1 # 2 travel between obstacles. On the display 9, images of model cars, obstacles, and surrounding partition walls reflected on virtual cameras placed based on the respective car positions are displayed.

回転体以外の障害物には、設置するときの姿勢(向き)を表現できるように、2個(以上)の位置検出用コイルを使用する。縦長の直方体の隔壁に適応させた例を、図14に示す。
模型図は図14(A)である。正面断面図に示すように、2個の位置検知コイル3,4が模型の前後の下部に設置してあり、アンテナ21とコイル駆動回路がつながり、この位置検知コイルを駆動する。
この2個のコイル位置の中間点Pが、この障害物の代表点となり、位置検知コイル4から3に引いた直線の向きが、この障害物の姿勢ということになる。
外観CGデータは、図14(B)のようになり、直方体の3辺の長さLk、Hk,Wkなどはプロパテイとして入力される。この例では、模型の寸法とCG外観の寸法とは同じとした例であり、CG外観は、質感だけは、煉瓦造りのような装飾を施してある。
これも、図12の例と同様に、障害物の上部に関しては、デザインは任意であり、様々な装飾の形状が可能である。
For obstacles other than the rotating body, two (or more) position detection coils are used so that the posture (orientation) at the time of installation can be expressed. FIG. 14 shows an example of adaptation to a vertically long rectangular parallelepiped partition wall.
The model diagram is shown in FIG. As shown in the front sectional view, two position detection coils 3 and 4 are installed in the lower part of the front and rear of the model, and the antenna 21 and the coil drive circuit are connected to drive the position detection coil.
The intermediate point P between the two coil positions becomes the representative point of the obstacle, and the direction of the straight line drawn from the position detection coil 4 to 3 is the posture of the obstacle.
The appearance CG data is as shown in FIG. 14B, and the lengths Lk, Hk, Wk, etc. of the three sides of the rectangular parallelepiped are input as properties. In this example, the dimension of the model is the same as the dimension of the CG appearance, and the CG appearance is decorated like a brick structure only in the texture.
Similarly to the example of FIG. 12, the design of the upper part of the obstacle is arbitrary, and various decoration shapes are possible.

さらに複雑な構造物も同様に、定義することができる。図15は、トンネルの例を示す。(A)は模型図の正面図、(B)は模型図の側面図、(C)は模型図の斜視図である。トンネル模型には、内部に2個の位置検出用コイル3、4が設置してあり、代表点と姿勢を検出することが可能である。
(D)はトンネルの外形CG図であり、検出されたコイル位置データに基づいて、このような図形をディスプレイ9に描かせることができる。
自動車がトンネルの中に入ると、ディスプレイには、トンネルの外部は視界からは消え、内壁の映像になり、自動車がトンネル内を走っている映像が映される。模型自動車はトンネルに入ると外部からは見えなくなるが、コイルによる位置検出は続けられ、トンネル内を走っている映像も正常に作られるので、操縦者の運転に支障は生じない。
More complex structures can be defined as well. FIG. 15 shows an example of a tunnel. (A) is a front view of the model diagram, (B) is a side view of the model diagram, and (C) is a perspective view of the model diagram. The tunnel model is provided with two position detection coils 3 and 4 inside, and can detect a representative point and an attitude.
(D) is an outline CG diagram of the tunnel, and such a figure can be drawn on the display 9 based on the detected coil position data.
When the car enters the tunnel, the outside of the tunnel disappears from view and becomes an image of the inner wall, and the image of the car running inside the tunnel is shown on the display. When the model car enters the tunnel, it cannot be seen from the outside, but the position detection by the coil is continued, and the image running in the tunnel is normally created, so that the driver's driving is not hindered.

模型自動車や障害物の位置検出に、ビデオカメラを使用する例を図16に示す。上部は、走行部45の斜視図である。
四角枠形のフィールド外枠5に、図のように底板を貼り付ける。
障害物6は、次のように作成する。
フィールド外枠5の厚さをhとすると、それと同じhの厚さの板を、希望の形状で切り取った障害物6A,6B,6C(任意数)を、底板の上に、図のように任意の位置と向きに張り付けて、実フィールド12を作る。
その実フィールド12の上に、模型自動車1を載せて、操縦をして走らせる。
その模型自動車1は、車体の前後に、図のように位置検出用の円図形もしくは発光素子を備える。
その2個の円図形もしくは発光素子の高さは、図のように地面からの高さがフィールド外枠5の高さと同じく h になるようにする。
An example in which a video camera is used to detect the position of a model car or an obstacle is shown in FIG. The upper part is a perspective view of the traveling unit 45.
A bottom plate is affixed to the field frame 5 having a square frame shape as shown in the figure.
The obstacle 6 is created as follows.
Assuming that the thickness of the field outer frame 5 is h, obstructions 6A, 6B, 6C (arbitrary number) obtained by cutting out the same thickness h plate in the desired shape on the bottom plate as shown in the figure Paste in any position and orientation to make a real field 12.
The model car 1 is placed on the actual field 12 and is driven to run.
The model automobile 1 includes a position detecting circular figure or a light emitting element as shown in the figure before and after the vehicle body.
The height of the two circular figures or light-emitting elements is set so that the height from the ground is h as the height of the field outer frame 5 as shown in the figure.

図17(A)は、位置検出カメラ110と、システム全体の横面断面図である。
この図で、分かるように、底板の上に、フィールド外枠5と、障害物6A、6B
,6Cと、模型自動車1用の2個の位置検出用円図形もしくは発光素子3、4とが、載せてあり、これらはいずれも、底板から等しい高さhである。
位置検出カメラ110は、レンズを垂直下向にして固定されている。この位置検出カメラ110は、実フィールド全体を視界に入れて撮影する。
すなわち、理想的なカメラを使用したとすれば、外枠5及び、3つの障害物6のすべての上面と、模型自動車1用の2個の円図形もしくは位置検出用発光素子3、4とは、すべて、同一平面上にあるので、これと並行に置かれたカメラの受光板に映る像は、相似形となり、ひずみなく撮影できるはずである。
実際には、受光膜に映る映像には、カメラのレンズによるひずみが生じるが、このひずみは予め測定しておき、映像を補正することはできる。
FIG. 17A is a lateral cross-sectional view of the position detection camera 110 and the entire system.
As can be seen in this figure, the field outer frame 5 and the obstacles 6A and 6B are placed on the bottom plate.
6C and two position detection circles or light emitting elements 3 and 4 for the model car 1 are mounted, both of which have an equal height h from the bottom plate.
The position detection camera 110 is fixed with the lens vertically downward. The position detection camera 110 takes an image of the entire real field in view.
That is, if an ideal camera is used, the outer frame 5 and all the top surfaces of the three obstacles 6 and the two circular figures or the position detecting light emitting elements 3 and 4 for the model car 1 are Since they are all on the same plane, the image displayed on the light receiving plate of the camera placed in parallel with this should be similar and should be able to be photographed without distortion.
Actually, the image reflected on the light receiving film is distorted by the lens of the camera, but this distortion can be measured in advance to correct the image.

また、外枠5の大きさはシステムごとに一定の寸法に決められているので、カメラの映像の大きさを変化させ、外枠5の大きさを実寸に合わせると、すべての映像は、実寸に合うことになる。
外枠5も障害物6A、6B、6Cも上面と下面は同じ形状なので、前期補正したカメラの映像は、胃を基準とした図形と考えることができる。また模型自動車1の2個の円図形もしくは位置検出用発光素子3、4の位置も同じく高さhの図形であるから、底板を基準とした図形位置と考えることができる。
すなわち、カメラの映像は、すべて、底板の上面を基準にして、描かれたものと考えられる。
たとえば、障害物模型の上面だけ特別な色に着色しておくと、カメラ映像は、障害物の上面のみ映るようにできる。すべての上面は、同じ高さhであるから、カメラの中心軸からの距離に関係なく相似形となるので、外枠5の上面の四角形映像を基準にして、すべての寸法を正しく補正することができる。
In addition, since the size of the outer frame 5 is determined to be a fixed size for each system, if the size of the camera image is changed and the size of the outer frame 5 is adjusted to the actual size, all the images are the actual size. Will fit.
Since both the outer frame 5 and the obstacles 6A, 6B, and 6C have the same shape on the upper and lower surfaces, the camera image corrected in the previous period can be considered as a figure based on the stomach. Further, since the two circular figures of the model automobile 1 or the positions of the position detecting light emitting elements 3 and 4 are also figures of the height h, it can be considered as a figure position with reference to the bottom plate.
That is, all the images of the camera are considered to be drawn with reference to the upper surface of the bottom plate.
For example, if only the upper surface of the obstacle model is colored in a special color, the camera image can be displayed only on the upper surface of the obstacle. Since all the upper surfaces have the same height h, they have a similar shape regardless of the distance from the center axis of the camera. Therefore, correct all dimensions correctly based on the rectangular image on the upper surface of the outer frame 5. Can do.

外枠5も障害物6A、6B、6Cも最初決めると、動かさないものであるから、測定は電源を入れた最初だけ測定を行う。そして、十分に時間をかけて測定できるので、形状に添ってコンピュータで、走査し、全体の形状を測量し、置かれている位置と方向を測定し、コンピュータグラフィックスのデータに作り上げ、CGデータ15に挿入する。   If both the outer frame 5 and the obstacles 6A, 6B, 6C are determined at first, they are not moved. And since it can be measured over time, the computer scans along the shape, surveys the entire shape, measures the position and direction, puts it into computer graphics data, and creates CG data Insert into 15.

他方、模型自動車1は、動き回るものなので、画面の変わる速度(通常1/60秒)ごとに計算しなければならない。
計算時間を節約するために、2点の位置を検出して対応する。まず、電源投入時の初期状態では、画面全体をサーチして自動車の2点を探し出す。次にその2点の位置座標を計算する。
通常状態の処理では、位置座標がひとつ前から大きく離れることは無いので、前の位置の近傍を走査して2点を探す、見つかったら位置座標を計算する。
2点の位置座標から、代表位置と姿勢を計算する。
予め作ってある自動車の基本CGデータと、今回得られた「代表位置と姿勢」から、CGの立体全体像を作る。さらに自動車の「代表位置と姿勢」と操縦者位置データから仮想カメラの位置姿勢を求める。
仮想カメラ位置姿勢とCGの立体全体像から、仮想カメラの映像を計算し、ディスプレイ9に運転席の映像を映し出す。そして操縦者は、それを見て操縦し、無線操縦信号は、模型自動車を動かす。
このようにして図16の操縦システムは動作することが出来る。
On the other hand, since the model car 1 moves around, it must be calculated every time the screen changes (usually 1/60 second).
To save computation time, detect and respond to two points. First, in the initial state when the power is turned on, the entire screen is searched to find two points of the car. Next, the position coordinates of the two points are calculated.
In the processing in the normal state, the position coordinates are not greatly different from the previous position, so the vicinity of the previous position is scanned to find two points. If found, the position coordinates are calculated.
The representative position and orientation are calculated from the position coordinates of the two points.
From the basic CG data of the car made in advance and the “representative position and posture” obtained this time, a CG 3D overall image is created. Further, the position and orientation of the virtual camera are obtained from the “representative position and orientation” of the car and the driver position data.
The image of the virtual camera is calculated from the virtual camera position and orientation and the CG stereoscopic image, and the image of the driver's seat is displayed on the display 9. The pilot then looks at it and steers it, and the radio steering signal moves the model car.
In this way, the steering system of FIG. 16 can operate.

図16は、障害物6A、6B、6Cは、任意の外観形状の部品を作成し、それを、底面(実フィールド)に貼り付ける。そしてその障害物部品個々の形状を、位置検出カメラ100の映像から初期状態で読取り、その形状データをCGデータとして使用する例である。 In FIG. 16, obstacles 6A, 6B, and 6C create a part having an arbitrary external shape, and paste it on the bottom surface (actual field). In this example, the shape of each obstacle part is read from the image of the position detection camera 100 in the initial state, and the shape data is used as CG data.

図18は、障害物形状を、予め、CGデータとして、コンピュータに読み込ませておく例である。
障害物部品には、2点以上の印を、位置読取用円形印もしくは発光素子により、図18のように付けておく。
場合によっては、識別番号コードも、部品の色もしくはバーコードにより付けておく。
そうすると、コンピュータによる読取は、2点の位置と部品番号のみの読取となり、代表位置と姿勢のみ計算すればよいので、より単純化高速化できる。
FIG. 18 is an example in which an obstacle shape is read in advance as CG data by a computer.
The obstacle parts are marked with two or more marks as shown in FIG. 18 by circular marks for position reading or light emitting elements.
In some cases, the identification number code is also given by the color of the part or the barcode.
Then, reading by the computer is only reading of the position of two points and the part number, and only the representative position and orientation need be calculated, so that simplification and higher speed can be achieved.

実フィールドの面積が大きい場合は、いくつかの場所に区分けをし、多くの位置検出カメラを場所ごとに少し重複するように設置して計算処理を行い、それらの情報を、一つの情報にまとめて処理を行う。   If the area of the actual field is large, divide it into several locations, install many position detection cameras so that they overlap a little at each location, perform calculation processing, and combine those information into one information Process.

ラジコン模型自動車、ロボット模型関係の製造、販売、アミューズメントパークなどで利用される。
自動車運転教習所でも使用できる。
Used in radio controlled model cars, robot model related manufacturing, sales, amusement parks, etc.
Can also be used in driving school.

1 1#1 1#2:模型自動車
2 2#1 2#2:操縦装置
3 4:位置検出コイル
5: フィールド外壁
50: CGフィールド外壁
6: 隔壁
60:CG隔壁
100 100#1 100#2:CG自動車
7: 回転体型障害物
70:CG回転体型障害物
8: 隔壁型障害物
80:CG隔壁型障害物
9 9#1 9#2 :ディスプレイ
10 10#1 10#2:アンテナ
11:位置検出板
12:実フィールド
120:仮想フィールド
13:コイル位置検出器
14:CGデーター
15 15 15#1 15#2:映像コンピュータ
16:仮想フィールドを作成
17:外観CGデータ用メモリー(自動車#1、#2の外観データ)
18:仮想自動車#1、#2を再作成(新たな位置姿勢に変更)
19:仮想カメラの位置姿勢計算手段
20:仮想カメラの画像発生器
21:操縦信号出力
22、23:インターフェース
25: 位置データ
26:操縦信号
27:送信器
28:ハンドル
29:ペダル
30:操縦者
31:Y軸走査スイッチ
32:X軸走査スイッチ
33:X平行線
34:Y平行線
42:タイミング信号
85: トンネル型障害物
85CG:CGトンネル型障害物
90:コイル駆動回路
100: 仮想カメラ(前方運転手目線位置)
101: 仮想カメラ(後方運転手目線位置)
102: 仮想カメラ(追尾位置)
103: 仮想カメラ(後方追尾位置)
104: 仮想カメラ(頭上位置姿勢位置)
P(xp,yp):コイル3の位置座標
Q(xq,yq):コイル4の位置座標
S S(xs,ys):P,Qの中間点 又は、代表点
θ:物体の向き
δ:仮想カメラの画角
φ:ヘッドマウントディスプレイの向き
A A#1 A#2 仮想カメラの画角
1 1 # 1 1 # 2: Model car 2 2 # 1 2 # 2: Control device
3 4: Position detection coil 5: Field outer wall
50: CG field outer wall 6: Bulkhead
60: CG bulkhead
100 100 # 1 100 # 2: CG car 7: Rotating obstacle
70: CG rotating body type obstacle 8: Bulkhead type obstacle
80: CG bulkhead type obstacle 9 9 # 1 9 # 2: Display
10 10 # 1 10 # 2: Antenna
11: Position detection plate
12: Real field
120: Virtual field
13: Coil position detector
14: CG data
15 15 15 # 1 15 # 2: Video computer
16: Create virtual field
17: Memory for appearance CG data (appearance data for cars # 1 and # 2)
18: Recreate virtual cars # 1 and # 2 (change to new position and orientation)
19: Virtual camera position and orientation calculation means
20: Virtual camera image generator
21: Steering signal output
22, 23: Interface
25: Position data
26: Control signal
27: Transmitter
28: Handle
29: Pedal
30: Pilot
31: Y-axis scan switch
32: X-axis scan switch
33: X parallel line
34: Y parallel line
42: Timing signal
85: Tunnel-type obstacle
85CG: CG tunnel type obstacle
90: Coil drive circuit
100: Virtual camera (front driver eye position)
101: Virtual camera (rear driver's eye position)
102: Virtual camera (tracking position)
103: Virtual camera (rear tracking position)
104: Virtual camera (overhead position / posture position)
P (xp, yp): Coordinate position of coil 3
Q (xq, yq): Coordinate position of coil 4
SS (xs, ys): Intermediate point of P, Q or representative point θ: Object orientation δ: Virtual camera angle of view φ: Head mounted display orientation A A # 1 A # 2 Virtual camera angle of view

Claims (7)

実フィールド上を走行する走行物体を、操縦者が無線操縦装置により操縦する操縦システムに於いて、
前記「実フィールド」上に、前記走行物体が乗り越えられない高さの外壁で囲まれた実障害物を設置することと、
前記「実フィールド」上の、前記実障害物の設置していない領域は、前記走行物体が走行可能な領域であることと、
前記「実フィールド」上にある前記走行物体は、「位置座標と向き」を検出する手段を設けることと、
前記実フィールドに対応する仮想世界の仮想フィールドを、コンピュータ内に作成し、
前記実障害物の外壁と同じ輪郭形状を有する仮想障害物を、前記実障害物と同じ「位置座標と向き」の仮想世界に設置し、
前記検出された走行物体の「位置座標と向き」のデータに基づいて、仮想カメラ用の「位置座標と向き」を計算し、前記仮想カメラ用の「位置座標と向き」に基づいて、前記コンピュータ内の仮想世界に、仮想カメラを設置することと、
前記仮想カメラは、前記仮想世界を撮影し、撮影された映像は、前記走行物体を操縦するために有効な映像であることと、
前記映像は、ディスプレイに映されることと、
前記操縦者は、前記ディスプレイを見ることのできる状態で、前記無線操縦装置を操縦することを特徴とする走行物体の操縦システム。
In a control system in which a pilot maneuvering a traveling object traveling on a real field with a wireless control device,
On the “real field”, installing an actual obstacle surrounded by an outer wall with a height that the traveling object cannot get over;
On the "real field", the area where the actual obstacle is not installed is an area where the traveling object can travel,
The traveling object on the “real field” is provided with means for detecting “positional coordinates and orientation”;
Creating a virtual field of the virtual world corresponding to the real field in the computer;
A virtual obstacle having the same contour shape as the outer wall of the real obstacle is installed in a virtual world of the same “position coordinates and orientation” as the real obstacle,
Based on the “position coordinates and orientation” data of the detected traveling object, “position coordinates and orientation” for the virtual camera is calculated, and based on the “position coordinates and orientation” for the virtual camera, the computer Installing a virtual camera in the virtual world,
The virtual camera images the virtual world, and the captured image is an image effective for maneuvering the traveling object;
The video is shown on a display;
The traveling object steering system, wherein the pilot controls the wireless control device in a state where the display can be seen.
請求項1において、前記走行物体の仮想世界で対応する走行物を仮想走行物体とすると、前記検出された走行物体の「位置座標と向き」と同じ「位置座標と向き」で、前記仮想フィールド上に前記仮想走行物体を設置することを特徴とする走行物体の操縦システム。   In Claim 1, if the traveling object corresponding to the virtual world of the traveling object is a virtual traveling object, the "position coordinates and orientation" is the same as the "position coordinates and orientation" of the detected traveling object. The virtual traveling object is installed in a traveling object maneuvering system. 請求項1、2において、前記実障害物は「位置座標と向き」を検出する手段を備えることと、前記実障害物の仮想世界での対応する物体を仮想障害物とすると、前記検出された実障害物の「位置座標と向き」と同じ「位置座標と向き」で、前記仮想フィールド上に前記仮想障害物を設置することを特徴とする請求項第1項及び第2項記載の走行物体の操縦システム。   In Claim 1, 2, the said real obstacle is provided with a means for detecting "position coordinates and orientation", and the detected object is a virtual obstacle as a corresponding object in the virtual world of the real obstacle. 3. The traveling object according to claim 1, wherein the virtual obstacle is installed on the virtual field with the same “position coordinates and orientation” as the “position coordinates and orientation” of the real obstacle. Piloting system. 請求項1、2、3に於いて、走行物体の「位置座標と向き」検出手段は、走行物体の「少なくとも2点の位置」検出手段であることを特徴とする請求項第1,2,3項記載の走行物体の操縦システム。   2. The position coordinates and orientation detection means for a traveling object according to claim 1, wherein the "position coordinates and orientation" detection means is a "position of at least two points" detection means for the traveling object. 4. A traveling object steering system according to item 3. 請求項1、2、3、4に於いて、実障害物の「位置座標と向き」検出手段は、実障害物の「少なくとも2点の位置」検出手段であるであることを特徴とする請求項第1,2,3、4項記載の走行物体の操縦システム。   Claims 1, 2, 3, and 4 are characterized in that the "position coordinates and orientation" detecting means for an actual obstacle is "at least two positions" detecting means for the actual obstacle. Item 5. A driving system for a traveling object according to any one of items 1, 2, 3, and 4. 前記仮想カメラおよび前記ディスプレイは、それぞれ左眼用と右眼用の2台ずつ設置し、立体映像を見れることを特徴とする請求項第1、2、3,4、5項記載の走行物体の操縦システム。 6. The traveling object according to claim 1, wherein each of the virtual camera and the display is installed for each of the left eye and the right eye so that a stereoscopic image can be viewed. Steering system. 前記ディスプレイには、ヘッドマウントディスプレイを使用し、操縦者の頭の向きを検出する手段を設け、前記頭の向きに基づいて、前記仮想カメラの向きを変えることを特徴とする請求項第6項記載の走行物体の操縦システム。 7. The display according to claim 6, wherein a head mounted display is used as the display, and means for detecting the orientation of the head of the operator is provided, and the orientation of the virtual camera is changed based on the orientation of the head. The traveling object steering system described.
JP2015237339A 2015-12-04 2015-12-04 Traveling object operation system Pending JP2017099790A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015237339A JP2017099790A (en) 2015-12-04 2015-12-04 Traveling object operation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237339A JP2017099790A (en) 2015-12-04 2015-12-04 Traveling object operation system

Publications (1)

Publication Number Publication Date
JP2017099790A true JP2017099790A (en) 2017-06-08

Family

ID=59015912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237339A Pending JP2017099790A (en) 2015-12-04 2015-12-04 Traveling object operation system

Country Status (1)

Country Link
JP (1) JP2017099790A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021111765A1 (en) * 2019-12-06 2021-06-10
CN116153021A (en) * 2022-12-26 2023-05-23 歌尔科技有限公司 Collision warning method, device, head-mounted device, head-mounted system and medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021111765A1 (en) * 2019-12-06 2021-06-10
WO2021111765A1 (en) * 2019-12-06 2021-06-10 株式会社デンソー Vehicle driving system
JP7322971B2 (en) 2019-12-06 2023-08-08 株式会社デンソー vehicle driving system
CN116153021A (en) * 2022-12-26 2023-05-23 歌尔科技有限公司 Collision warning method, device, head-mounted device, head-mounted system and medium

Similar Documents

Publication Publication Date Title
US10981055B2 (en) Position-dependent gaming, 3-D controller, and handheld as a remote
JP6761340B2 (en) Simulation system and program
EP2039402B1 (en) Input instruction device, input instruction method, and dancing simultation system using the input instruction device and method
CN110199325B (en) Simulation system, processing method, and information storage medium
RU2754992C2 (en) System and method for managing supplemented riding attractions
KR101480994B1 (en) Method and system for generating augmented reality with a display of a moter vehicle
JP5410710B2 (en) Program, information storage medium, game system
US9244525B2 (en) System and method for providing user interaction with projected three-dimensional environments
US20190105572A1 (en) Drivable vehicle augmented reality game
JP5759110B2 (en) Ferris wheel
CN111107911A (en) competition simulation
US20130176206A1 (en) Camera based sensing in handheld, mobile, gaming, or other devices
JPH06176131A (en) Picture synthesis device and virtual reality device using the same
JP2020204856A (en) Image generation system and program
CN116850602A (en) Mixed reality dodgem recreation system
JP3273038B2 (en) Virtual experience type game device
JP7484210B2 (en) Game System
JP7778286B2 (en) Systems and methods for mediated augmented physical interaction
JP2017099790A (en) Traveling object operation system
CN116850575A (en) An entertainment system that can realize virtual and real interaction
JP5649846B2 (en) Program and image generation system
JP6918189B2 (en) Simulation system and program
JP3273017B2 (en) Image synthesis device and virtual experience device using the same
JP2002224434A (en) Image synthesis device, virtual experience device, and image synthesis method
JP7232613B2 (en) Track builder for car toy with camera