JP2005148844A - Display system - Google Patents
Display system Download PDFInfo
- Publication number
- JP2005148844A JP2005148844A JP2003381499A JP2003381499A JP2005148844A JP 2005148844 A JP2005148844 A JP 2005148844A JP 2003381499 A JP2003381499 A JP 2003381499A JP 2003381499 A JP2003381499 A JP 2003381499A JP 2005148844 A JP2005148844 A JP 2005148844A
- Authority
- JP
- Japan
- Prior art keywords
- display
- virtual reality
- information
- input
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 claims abstract description 73
- 238000012545 processing Methods 0.000 claims abstract description 58
- 238000000034 method Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 22
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 9
- 239000011521 glass Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000007796 conventional method Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 241001422033 Thestylus Species 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005389 magnetism Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000009416 shuttering Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、オブジェクトを表示させるための表示システムに関し、特に、使用者が表示システムにより体感し遠隔地にいながら各種操作を行うことができる表示システムに関する。 The present invention relates to a display system for displaying an object, and more particularly to a display system in which a user can experience various operations with a display system and perform various operations while in a remote place.
背景技術としては、表示システムがあり、以下説明する。表示システムは、表示対象となるオブジェクトの画像情報を表示情報にして出力する表示処理手段111を有するホスト101と、表示処理部111が出力した表示情報を表示する表示装置102とを備え、このホスト101が操作者が表示の形態の変更を指示するための表示変更入力手段112を有する構成である。この構成によれば、表示処理手段111が表示対象となるオブジェクトを表示情報にし表示装置102に出力し、表示装置102が入力された表示情報を表示し、操作者がキーボード等の入力機器を介して必要に応じて表示変更入力手段112に表示の形態の変更を指示し、表示変更入力手段112からの表示の形態の変更に基づき表示処理手段111が表示情報を出力し、表示装置が入力された表示情報を表示しており、操作者はホストの表示変更入力手段112が実装されるコンピュータ近辺にいれば、キーボード等の入力機器を介して表示変更入力手段112により変更できることが必要に応じてでき、それに合わせて表示装置102での表示の形態が変化させることができる。 As a background art, there is a display system, which will be described below. The display system includes a host 101 having a display processing unit 111 that outputs image information of an object to be displayed as display information, and a display device 102 that displays the display information output by the display processing unit 111. Reference numeral 101 denotes a configuration having display change input means 112 for the operator to instruct a change in display form. According to this configuration, the display processing unit 111 converts the object to be displayed into display information and outputs the display information to the display device 102. The display device 102 displays the input display information, and the operator uses an input device such as a keyboard. If necessary, the display change input means 112 is instructed to change the display form. Based on the change of the display form from the display change input means 112, the display processing means 111 outputs the display information, and the display device is input. If the operator is in the vicinity of the computer on which the host display change input means 112 is mounted, the display change input means 112 can be changed via an input device such as a keyboard as necessary. The display form on the display device 102 can be changed accordingly.
ここで、表示システムにおいては、自己も仮想現実を体験しながら操作する仮想現実内操作者と、仮想現実を体験せずに操作する仮想現実外操作者とがおり、操作者が操作できる内容は仮想現実表示システムにもよるが、一般的には、仮想現実内操作者が表示されているオブジェクトに対して手でハンドリングしたり体を動かしてナビゲーションしたり表示の形態を変更する操作ができ、仮想現実外操作者が表示されているオブジェクトを変更したり背景色を変えたり等の操作ができる。また、仮想現実外操作者は、仮想現実内にいないために仮想現実を体験しながらはできないが、ハンドリングやナビゲーションによる表示の形態の変更を直接パラメータを変更することにより行うことができる。仮想現実外操作者が行える仮想現実外操作は、仮想現実内操作者が行える仮想現実内操作を包含するものである。ホストはPC(Personal Computer)等のコンピュータ上に実装され、仮想現実外操作者はPCの画面を見ながらキーボードを用いて操作する。表示変更入力手段112は、キーボードからの入力を表示処理手段に対する表示制御情報に変換して表示処理手段111に出力する。仮想現実内操作者に携帯されるデータ・グローブ等の各種センサは、仮想現実内操作者により操作されると予め対応付けられた情報が仮想現実内操作受付手段113に出力する。仮想現実内操作受付手段113は、各種センサからの入力を表示処理手段111に対する表示制御情報に変換して表示処理手段111に出力する。 Here, in the display system, there are operators in virtual reality who operate while experiencing virtual reality, and operators outside virtual reality who operate without experiencing virtual reality. Although it depends on the virtual reality display system, in general, the operator in the virtual reality can handle the displayed object by hand, move the body to navigate and change the display form, The non-virtual reality operator can perform operations such as changing the displayed object and changing the background color. Further, an operator outside the virtual reality cannot experience the virtual reality because it is not in the virtual reality, but can change the display form by handling or navigation by directly changing the parameters. Non-virtual reality operations that can be performed by an operator outside virtual reality include operations within virtual reality that can be performed by an operator within virtual reality. The host is mounted on a computer such as a PC (Personal Computer), and a non-virtual reality operator operates using a keyboard while viewing the PC screen. The display change input unit 112 converts the input from the keyboard into display control information for the display processing unit and outputs the display control information to the display processing unit 111. Various sensors such as a data glove carried by the operator in the virtual reality, when operated by the operator in the virtual reality, output information associated in advance to the operation accepting unit 113 in the virtual reality. The virtual reality operation accepting unit 113 converts the input from various sensors into display control information for the display processing unit 111 and outputs the display control information to the display processing unit 111.
前記背景技術は以上のように構成され、仮想現実内で仮想現実内操作者が各種センサを用いてハンドリング、ナビゲーションして表示されているオブジェクトを移動させたり、回転させたり、仮想現実外で仮想現実外操作者が表示されているオブジェクトを変更したりすることができるものの、仮想現実内操作者がオブジェクトを変更しようとする場合には仮想現実外操作者に対してその旨を伝えて仮想現実外操作者に行ってもらうか、仮想現実内操作者がホストの表示変更入力手段まで移動して操作して行う必要があり、非常に手間がかかり折角仮想現実にいるのにも拘らず実現実の人と会話でやりとりしたり実現実の空間を意識してホストを操作する必要があり、仮想現実の体感を損なうという課題を有する。 The background art is configured as described above, and an operator in the virtual reality moves and rotates an object displayed by handling and navigation using various sensors in the virtual reality, and the virtual object outside the virtual reality. Although the non-real operator can change the displayed object, if the virtual reality operator wants to change the object, the virtual reality is notified to the non-virtual operator. It must be performed by an outside operator, or the operator in virtual reality must move to the host display change input means and operate it. It is necessary to interact with other people in conversation and to operate the host in consideration of the real space, which has the problem of impairing the virtual reality experience.
また、仮想現実内操作者は、データ・グローブ、フィードバック・マウス、Wanda等の入力機器を用いて仮想現実内で表示されているオブジェクトを操作することができるが、新たな操作を加えようとする場合には汎用的な用い方ができる入力機器が存在しないため入力機器を製造するか改造する必要があり、それに伴う開発期間及びコストが莫大にかかるという課題を有する。また、現行の入力機器は、ユーザインタフェースに優れているとは言えず、使用するためには慣れが必要となる。 In addition, an operator in virtual reality can operate an object displayed in virtual reality using an input device such as a data glove, feedback mouse, or Wanda, but tries to add a new operation. In some cases, there is no input device that can be used for general purposes, and thus it is necessary to manufacture or remodel the input device, which entails a problem of enormous development time and cost. Moreover, it cannot be said that the current input device is excellent in the user interface, and it is necessary to get used to using it.
そこで、本発明は前記課題を解決するために、仮想現実内操作者が仮想現実内で迅速且つ容易に用いることができる入力機器を導入し、この入力機器を汎用的に用いて表示されているオブジェクトに対して操作を行ったり、表示されているオブジェクト自体を変更する操作を行ったりすることができる表示システムを提供することを目的とする。 Therefore, in order to solve the above-described problem, the present invention introduces an input device that can be used quickly and easily in the virtual reality by the operator in the virtual reality, and is displayed using this input device for general purposes. It is an object of the present invention to provide a display system capable of performing an operation on an object or an operation of changing a displayed object itself.
本発明に係る表示システムは、表示対象となるオブジェクトを表示情報にして出力する表示処理手段を有するホストと、当該表示処理部が出力した表示情報を表示する表示装置とを備える表示システムにおいて、前記ホストが表示の形態の変更を受け付ける表示変更受付手段を有し、操作者が表示の形態の変更を指示するための入力情報出力手段を有し、当該入力情報出力手段に入力された指示を入力情報として送信する携帯端末を備えるものである。 The display system according to the present invention is a display system comprising: a host having a display processing unit that outputs an object to be displayed as display information; and a display device that displays the display information output by the display processing unit. The host has a display change accepting means for accepting a change in display form, and the operator has an input information output means for instructing a change in the display form, and inputs an instruction input to the input information output means A portable terminal that transmits as information is provided.
このように本発明においては、ホストが表示の形態の変更を受け付ける表示変更受付手段を有し、仮想現実内操作者が表示の形態の変更を指示するための入力情報出力手段を有し、この入力情報出力手段に入力された指示を入力情報として送信する携帯端末とを備えるので、仮想現実内操作者が携帯端末を用いて意図した入力をし、入力情報出力手段がこの入力に対応した入力情報を表示変更受付手段に送信し、表示変更受付手段が受信した入力情報に対応した処理を表示処理手段に要請し、この要請に基づき表示処理手段が処理を行っており、従来から仮想現実内操作者が携帯されるデータ・グローブ等のセンサにより可能である操作に加えて、汎用的に操作を容易に加えることができる携帯端末に他の操作を加えるだけで、仮想現実内操作者が仮想現実にいながら他の人の手を借りることなくかかる操作を行うことができ、仮想現実の体感を損わずにより効果的な操作を迅速に行うことができる。 As described above, in the present invention, the host has a display change accepting unit that accepts a change in the display form, and an operator in virtual reality has an input information output means for instructing the change in the display form. And a portable terminal that transmits the instruction input to the input information output means as input information. Therefore, the operator in virtual reality makes an intended input using the portable terminal, and the input information output means corresponds to the input. The information is transmitted to the display change accepting means, the processing corresponding to the input information received by the display change accepting means is requested to the display processing means, and the display processing means performs processing based on this request. In addition to operations that can be performed by sensors such as data globes that are carried by the operator, just by adding other operations to the mobile terminal that can be easily operated in general, Who can perform an operation that takes without borrow the hands of other people while are in virtual reality, it is possible to quickly carry out an effective operation by the loss WAS the experience of virtual reality.
場合によって、仮想現実内操作者がホストの入力機器と離れていても仮想現実内で全ての操作を行えることができる。携帯端末は、携帯可能な端末であればよく、PDAがその代表であるが、携帯電話、サブノート等も該当する。表示装置はどのようなものでもよく、大型ディスプレイ、立体ディスプレイでもよい。表示装置によっては、対となって仮想現実内操作者がVRを体感するために携帯するための機器が必要となり、例えば、CAVEでいえば、立体視用シャッタメガネである。 In some cases, all operations can be performed in the virtual reality even if the operator in the virtual reality is away from the input device of the host. The portable terminal may be any portable terminal, and a PDA is a representative example, but a mobile phone, a sub-note, and the like are also applicable. The display device may be any device, and may be a large display or a three-dimensional display. Depending on the display device, a pair of devices for carrying the VR in order for the operator in virtual reality to experience VR is required. For example, CAVE is stereoscopic shutter glasses.
また、本発明に係る表示システムは必要に応じて、前記携帯端末が、表示装置に表示されている表示の形態に付加情報を付加するための入力情報出力手段の一つである付加情報出力手段を有し、当該付加情報出力手段に入力された付加情報を表示付加情報として送信し、前記ホストが、表示付加情報を受け付ける表示変更受付手段の一つである付加入力情報受付手段を有するものである。このように本発明においては、前記携帯端末が、表示装置に表示されている表示の形態に付加情報を付加するための入力情報出力手段の一つである付加情報出力手段を有し、この付加情報出力手段に入力された付加情報を表示付加情報として送信し、前記ホストが、表示付加情報を受け付ける表示変更受付手段の一つである付加情報受付手段を有するので、仮想現実内操作者が携帯端末を用いて付加情報を入力し、この付加情報が付加情報出力手段で表示付加情報となり付加情報受付手段に出力され、付加情報受付手段で表示付加情報が表示制御情報とし表示処理手段に出力され、表示処理手段で表示処理がなされ表示情報が表示装置で表示されており、仮想現実内操作者が積極的に現在表示されている対象オブジェクト等に対して付加情報を付加することができ、より付加価値の高いVRを実現することができ、さらに、仮想現実内操作者が複数いる場合に、その中の仮想現実内操作者が付加情報を表示させることで、他の仮想現実内操作者と共通に付加情報が表示された付加価値のある対象オブジェクトを共有して体感することができる。 The display system according to the present invention is an additional information output unit that is one of the input information output units for adding the additional information to the display form displayed on the display device by the portable terminal, if necessary. Additional information input to the additional information output means is transmitted as display additional information, and the host has additional input information reception means which is one of display change reception means for receiving display additional information. is there. Thus, in the present invention, the portable terminal has additional information output means that is one of the input information output means for adding additional information to the display form displayed on the display device. Additional information input to the information output means is transmitted as display additional information, and the host has additional information reception means that is one of display change reception means for receiving display additional information. Additional information is input using a terminal, and this additional information is displayed as additional display information by the additional information output unit and output to the additional information receiving unit. The additional information receiving unit outputs the display additional information as display control information to the display processing unit. The display processing means performs display processing and the display information is displayed on the display device, and the additional information for the target object etc. that is currently displayed by the operator in virtual reality is actively displayed. It is possible to add a VR with higher added value. Further, when there are a plurality of operators in virtual reality, the operator in virtual reality can display additional information by displaying other information. It is possible to share and experience a value-added target object on which additional information is displayed in common with an operator in virtual reality.
また、本発明に係る表示システムは必要に応じて、メモ、マーク、アンダーライン、付箋、リンクを少なくとも1つ前記付加情報とするものである。このように本発明においては、付加情報を具体的にメモ、マーク、アンダーライン、付箋、リンク等と示したが、メモ、マーク、アンダーラインであれば再び同一オブジェクトをVR体感する場合に参照でき、また、複数の使用者と共有できる。付箋は、メモと貼着した位置を記憶しており、例えば、ある付箋を選択することでメモが表示されると共に、付箋を貼着した位置、方向の視点で見ることができ、VR内では慣れたものでさえ実現実内と同様に動くことができず、初心者ならなお更であり、このような場合に付箋を基準に移動・操作することなく視点位置を変えられることは重宝する。リンクは他のVRに移動したり、現在表示されているオブジェクト以外のオブジェクトを表示させたり、他の仮想現実内操作者を呼び出したりすることができ、操作を埋め込むこともできる。また、付箋に限らず、メモ、マーク、アンダーラインに触れることで最適な視点及び/又は位置に変更することもできる。 In addition, the display system according to the present invention uses at least one memo, mark, underline, tag, or link as the additional information as necessary. As described above, in the present invention, the additional information is specifically shown as memo, mark, underline, tag, link, etc., but if it is a memo, mark, or underline, it can be referred to when experiencing the same object VR again. And can be shared with multiple users. The sticky note stores the position where the memo is attached. For example, by selecting a certain sticky note, the memo is displayed and can be viewed from the viewpoint of the position and direction where the sticky note is attached. Even familiar ones cannot move in the same way as in realization, even for beginners, and it is useful to be able to change the viewpoint position without moving / operating on sticky notes in such cases. The link can move to another VR, display an object other than the currently displayed object, call another virtual reality operator, and embed an operation. Further, not only the sticky note but also a memo, a mark, and an underline can be touched to change to an optimal viewpoint and / or position.
また、本発明に係る表示システムは必要に応じて、前記付加情報を階層的に取り扱うものである。このように本発明においては、仮想現実内のオブジェクトと付加情報に係る仮想現実内の表示とを階層的に取り扱うので、付加情報のない表示と、付加情報のある表示の切り換えを迅速に行え、付加情報の削除を一気に行うこともでき、また、使用者毎に付加情報に係る仮想現実内の表示を階層的に取り扱うことでより利便性を上げることができ、操作性と表示がよくなるだけでなく、付加情報を個別に管理することができ、表示するのが好ましくない情報を隠蔽することもできる。 Moreover, the display system according to the present invention handles the additional information in a hierarchical manner as necessary. As described above, in the present invention, since the objects in the virtual reality and the display in the virtual reality related to the additional information are handled hierarchically, the display without additional information and the display with additional information can be quickly switched, Additional information can be deleted all at once, and the display within the virtual reality related to additional information can be handled hierarchically for each user, making it more convenient and improving operability and display. In addition, additional information can be managed individually, and information that is not desirable to be displayed can be hidden.
また、本発明に係る表示システムは必要に応じて、複数の前記ホスト、当該ホストに対応する前記表示装置及び少なくとも1つの前記携帯端末を備えるものである。このように本発明においては、複数のホスト、当該ホストに対応する表示装置及び少なくとも1つの携帯端末を備え、当該携帯端末が各ホストに対して入力情報を送信するので、複数のホスト1を1つの携帯端末で操作することができ、それぞれのホストの近くまで行く必要がなく、迅速に管理することができ、他のホスト及び表示装置により仮想現実を体感している仮想現実内操作者に対しても迅速に対応することができる。具体的には、この表示システムを適用する事例としては、全国的な授業を医師である1人の講師が行う場合に、VR内に患者の脳を立体的に表示し教授する場合が該当する。他の事例としては、英会話を自宅で行うときに、1人の外国人講師が複数の日本人受講者を相手に授業を行う場合が該当し、詳細には、外国人講師及び複数の日本人受講者それぞれにホスト及び表示装置が割り当てられ、実際に管理的な操作をするのは外国人講師のみとすることができ、日本人受講者が何ら操作的な負担無く授業を受けることができる。ここで、日本人受講者も管理的な操作ができない携帯端末を持たせ、対象となるオブジェクトに対して操作できるようにすることもできる。 Moreover, the display system according to the present invention includes a plurality of the hosts, the display device corresponding to the hosts, and at least one portable terminal as necessary. Thus, in the present invention, a plurality of hosts, a display device corresponding to the host, and at least one portable terminal are provided, and the portable terminal transmits input information to each host. It is possible to operate with one mobile terminal, it is not necessary to go close to each host, it can be managed quickly, and the virtual reality operator who is experiencing virtual reality with other hosts and display devices Even we can respond quickly. Specifically, a case where this display system is applied corresponds to a case where a lecturer who is a doctor conducts a nationwide class to display and teach a patient's brain three-dimensionally in a VR. . Another example is a case where one foreign instructor conducts classes with multiple Japanese students when conducting an English conversation at home. For details, refer to foreign instructors and multiple Japanese. Each student is assigned a host and a display device, and only a foreign instructor can actually perform a management operation. Japanese students can take classes without any operational burden. Here, a Japanese student can also have a portable terminal that cannot be managed, so that the target object can be operated.
(本発明の第1の実施形態)
本発明の第1の実施形態に係る表示システムについて図1に基づき説明する。図1は本実施形態に係る表示システムの全体ブロック図である。
(First embodiment of the present invention)
A display system according to a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is an overall block diagram of a display system according to this embodiment.
前記図1において本実施形態に係る表示システムは、従来どおり、表示対象となるオブジェクトの画像情報を表示情報にして出力する表示処理手段11及び操作者が表示の形態の変更を指示するための表示変更入力手段12を有するホスト1と、表示処理部11が出力した表示情報を表示する表示装置2とを備え、これらに加えて本表示システムにおいては、ホスト1が表示の形態の変更を受け付ける表示変更受付手段14を有し、仮想現実内操作者が表示の形態の変更を指示するための入力情報出力手段31を有し、この入力情報出力手段に入力された指示を入力情報として送信する携帯端末3とを備える構成である。 In FIG. 1, the display system according to the present embodiment includes a display processing unit 11 that outputs image information of an object to be displayed as display information and a display for an operator to instruct a change in display form. A host 1 having a change input unit 12 and a display device 2 for displaying display information output from the display processing unit 11 are provided. In addition to this, in this display system, the host 1 displays a display for accepting a change in display form. A mobile phone which has a change receiving unit 14 and has an input information output unit 31 for an operator in virtual reality to instruct a change in display form, and transmits an instruction input to the input information output unit as input information The terminal 3 is provided.
以下の説明をわかりやすくするために、本実施形態に係る表示システムで用いるVRの画像情報について説明する。しかし、ここで説明する画像情報は一例にすぎず、VRを実現する方法は既にいくつも提案されており、ここで説明した画像情報以外の画像情報を本表示システムで用いるこができる。作成者は、モデリングツールなどを用いて球、直方体、円柱等のプリミティブを組み合わせ、オブジェクトを作成する。組み合わせるだけでなく、回転、並行移動、拡大縮小の操作を加え、所望のオブジェクトを作成する。さらに、プリミティブそれぞれの色、材質、光源の設定を行う。すなわち、オブジェクトの画像情報は少なくとも1つのプリミティブの画像情報からなり、プリミティブの画像情報がプリミティブの種類の情報、位置の情報、拡大縮小の情報、回転の情報、並行移動の情報、色の情報、材質の情報及び光源の情報からなる。具体的には、オブジェクトの画像情報は、VRML(Virtual Reality Modeling Language)の形式、DXF(Drawing Interchange File)形式があり、他にも多種の形式が用意されている。 In order to make the following description easy to understand, VR image information used in the display system according to the present embodiment will be described. However, the image information described here is only an example, and a number of methods for realizing VR have already been proposed, and image information other than the image information described here can be used in the present display system. The creator creates an object by combining primitives such as a sphere, a rectangular parallelepiped, and a cylinder using a modeling tool or the like. In addition to combining them, operations such as rotation, parallel movement, and enlargement / reduction are added to create a desired object. Furthermore, the color, material, and light source of each primitive are set. That is, the image information of the object includes image information of at least one primitive, and the primitive image information includes primitive type information, position information, enlargement / reduction information, rotation information, parallel movement information, color information, It consists of material information and light source information. Specifically, the image information of an object includes a VRML (Virtual Reality Modeling Language) format and a DXF (Drawing Interchange File) format, and various other formats are prepared.
ここで、VRMLはインターネット上で取り扱う3DCGを記述するための仕様であり、DXFはCADや3Dデータのデファクトスタンダードな形式である。このオブジェクトの画像情報だけでは、表示装置2に表示することはできず、さらに、視点の情報が必要となる。視点の位置、向きに応じて表示されるオブジェクトは変化しなければならないからである。オブジェクトをモデリングする場合の空間をモデリング空間といい、このモデリング空間で用いる座標をオブジェクト座標という。視点の位置、向きを決める場合の空間を仮想空間といい、この仮想空間で用いる座標を視界座標という。 Here, VRML is a specification for describing 3DCG handled on the Internet, and DXF is a de facto standard format for CAD and 3D data. Only the image information of this object cannot be displayed on the display device 2, and further, viewpoint information is required. This is because the displayed object must change according to the position and orientation of the viewpoint. A space for modeling an object is called a modeling space, and coordinates used in this modeling space are called object coordinates. A space for determining the position and orientation of the viewpoint is called a virtual space, and the coordinates used in this virtual space are called view coordinates.
オブジェクトの画像情報での位置の情報等はオブジェクト座標上のものであるので、視界座標上のものに座標変換をする必要がある。ただし、表示画面を通して見える範囲である視体積内のオブジェクトの画像情報について座標変換がなされればよい。表示装置2に表示されないオブジェクトの画像情報について座標変換しても無駄であるからである。座標変換後のオブジェクトの画像情報を実画像情報とする。次に通常の表示装置であれば表示装置2の2次元平面上の座標に変換され、特殊な表示装置であればその表示装置2に応じた座標に変換される。この表示装置2に応じた座標に変換後の情報を表示情報とする。この表示情報により表示装置2にはオブジェクトが表示されるのであるが、全てのワイヤーフレームが見えた状態となっているので、ワイヤーフレームで隠れた線を描かないようにする陰線消去、面の隠れた部分を描かないようにする陰面消去、色や陰影を付加するシェーディング等の処理を行う。 Since the position information in the image information of the object is on the object coordinates, it is necessary to perform coordinate conversion to those on the view coordinates. However, it is only necessary to perform coordinate conversion on the image information of the object in the viewing volume that is the range visible through the display screen. This is because it is useless even if coordinate conversion is performed on image information of an object that is not displayed on the display device 2. The image information of the object after coordinate conversion is used as real image information. Next, if it is a normal display device, it is converted into coordinates on the two-dimensional plane of the display device 2, and if it is a special display device, it is converted into coordinates according to the display device 2. Information converted into coordinates corresponding to the display device 2 is used as display information. Objects are displayed on the display device 2 by this display information, but since all the wire frames are visible, hidden line elimination and surface hiding are performed so as not to draw hidden lines in the wire frames. Processes such as shading to prevent the drawing of the shaded area, shading to add color and shading, etc. are performed.
仮想現実外操作者が行える操作(以下、仮想現実外操作とする。)としては、視点変更、オブジェクトの移動、オブジェクトの変形、オブジェクトの拡大縮小、オブジェクトの色の変更、視界座標の原点の変更、オブジェクト以外の色である背景色変更、オブジェクトの追加・削除、仮想現実空間の切り換えを行うことができる。仮想現実外操作者は、直接ホスト1を操作することができ、あらゆる操作が可能となる。 The operations that can be performed by the non-virtual reality operator (hereinafter referred to as non-virtual reality operations) include changing the viewpoint, moving the object, transforming the object, scaling the object, changing the color of the object, and changing the origin of the view coordinates. The background color, which is a color other than the object, can be changed, the object can be added / deleted, and the virtual reality space can be switched. The non-virtual reality operator can directly operate the host 1 and can perform all operations.
一方、仮想現実内操作者は、ホスト1に行かない限りは直接ホスト1を操作することができないため、仮想現実外操作の一部しか操作(仮想現実内操作)できず、一般的な仮想現実内操作は、仮想現実内操作者が携帯しているセンサにもよるが、オブジェクトの移動、オブジェクトの変形、オブジェクトの拡大縮小ぐらいである。センサとしては、磁気センサ、超音波センサ、光学センサ、データグローブぐらいである。仮想現実内操作者が、仮想現実内操作のみでき、仮想現実内操作を除く仮想現実外操作ができないのは、仮想現実を実現実に近づけるために、仮想現実内操作者の操作を限定したためだと考えられる。 On the other hand, since the operator in virtual reality cannot directly operate the host 1 unless he / she goes to the host 1, only a part of the operation outside virtual reality (operation in virtual reality) can be performed. Although the internal operation depends on the sensor carried by the operator in the virtual reality, it is about the movement of the object, the deformation of the object, the enlargement / reduction of the object. Sensors include magnetic sensors, ultrasonic sensors, optical sensors, and data gloves. The reason why an operator in virtual reality can only perform operations in virtual reality and cannot perform operations outside virtual reality except for operations in virtual reality is that the operations of operators in virtual reality are limited in order to make virtual reality closer to reality. Conceivable.
すなわち、実現実ではオブジェクトを拡大縮小したり、オブジェクトの色を変更したりすることができないからである。しかし、実現実では実際にできない操作を、仮想現実内でできるようにすることが有効な場合も存在する。このような場合にセンサの入力に操作を対応付けることもでき、例えば、データグローブを用い、データグローブを強く握ることでオブジェクトの次の色に変更するようにすることができる。しかし、仮想現実内で仮想現実内操作者が実際にデータグローブを、オブジェクトを次の色に変更する以外の目的で行った場合にも、オブジェクトが次の色に変更され、仮想現実内操作者の意図と反する場合もあり、対応づける操作が多くなればなるほど、このような事態が考えられる。やはり、データグローブはデータグローブが当初目的した範囲で使用することが好ましく、追加的に操作を対応づけるのは好ましくなく、別途入力手段を設ける必要がある。また、入力手段としては、ある操作に特化した入力手段でもよいが、このような入力手段は製造するにもコストがかかり、購入しても高価であり、他の操作を対応させる拡張性に欠けることから、携帯端末3を選定した。 That is, in reality, the object cannot be scaled or the color of the object cannot be changed. However, there are cases where it is effective to be able to perform operations in virtual reality that cannot be performed in actuality. In such a case, an operation can be associated with an input of the sensor. For example, a data glove can be used, and the data can be changed to the next color of the object by firmly grasping the data glove. However, even if an operator in virtual reality actually performs a data glove in the virtual reality for a purpose other than changing the object to the next color, the object is changed to the next color, and the operator in virtual reality This situation may be contrary to the intention, and this situation can be considered as the number of operations to be associated increases. After all, it is preferable to use the data glove within the range originally intended by the data glove, and it is not preferable to additionally associate the operations with each other, and it is necessary to provide a separate input means. Further, as the input means, an input means specialized for a certain operation may be used, but such an input means is expensive to manufacture, is expensive to purchase, and is scalable to accommodate other operations. Since it lacks, the portable terminal 3 was selected.
携帯端末3は、例えば、PDA(Personal Digital Assistant)や携帯電話等が該当する。PDAは片方の手で持って片方の手で操作することができ操作性が高く(片手で操作できるタイプのものもある)、且つ、通信手段を内蔵するものもある。通信手段を内蔵していないPDAであっても、インタフェースにより通信機器で接続することで通信することができる。PDAには、幾つかのスイッチが備えられており、さらに、タッチスクリーン上で操作することができる。携帯電話と比べPDAを用いる場合のメリットとしては、視覚性と操作性の面だけでなく、PDAの場合には多種の通信機器を用いることもメリットであり拡張性に優れる。 The portable terminal 3 corresponds to, for example, a PDA (Personal Digital Assistant) or a cellular phone. Some PDAs can be held with one hand and operated with one hand and have high operability (some types can be operated with one hand), and some have built-in communication means. Even a PDA that does not include a communication means can communicate by connecting with a communication device through an interface. The PDA is equipped with several switches and can be operated on a touch screen. As a merit when using a PDA as compared with a mobile phone, not only in terms of visibility and operability, but also in the case of a PDA, using various communication devices is an advantage and excellent extensibility.
すなわち、赤外線ポートにより通信をピアツーピアにでき、無線LANを用いる場合には更に通信範囲も広がり仮想現実内操作者の移動範囲も広くなる。携帯電話を用いる場合には、携帯の通信手段を用いる必要があり、パケット課金により通信費が膨大となり、特に、マルチメディアの場合には取り扱うデータ量が膨大となりパケット料金も甚大となる。PHSを用いることで、定額でパケット通信を行うこともできるが、無線LAN等の通信事業者を介しない通信(ISMバンドを用いる無線LAN等)と比べるとやはり通信費用がかかる。また、通信は、ここに挙げた赤外線による通信、並びに、無線LANで使用する帯域の無線通信以外にも、他の帯域での無線通信でも構わない(例えば、Bluetoothでもよい)。無線通信について説明したが、これは仮想現実内操作者が身動きする上で通信ケーブルが弊害とならず自由に動くことができる移動性の向上のためになされたものであるが、通信ケーブルを用いる有線通信であっても移動性の弊害とならなければ用いることができる。 In other words, communication can be made peer-to-peer with an infrared port, and when a wireless LAN is used, the communication range is further expanded and the movement range of the operator in the virtual reality is also widened. In the case of using a mobile phone, it is necessary to use a mobile communication means, and the communication cost becomes enormous due to packet charging. In particular, in the case of multimedia, the amount of data handled becomes enormous and the packet fee becomes enormous. By using PHS, it is possible to perform packet communication for a fixed amount, but communication costs are still higher compared to communication not via a communication carrier such as a wireless LAN (wireless LAN using an ISM band). Further, the communication may be wireless communication in another band (for example, Bluetooth may be used) other than the infrared communication and the wireless communication in the band used in the wireless LAN. Although wireless communication was explained, this was made to improve mobility so that the communication cable can move freely without causing any adverse effects when the operator in virtual reality moves. Even if it is wired communication, it can be used if it does not cause adverse effects on mobility.
前記携帯端末3の入力情報出力手段31は、スイッチやタッチスクリーンからの仮想現実内操作者の入力に応じて、入力情報を生成し、図示しない通信手段を用いてホストの表示変更受付手段に出力する。入力情報出力手段31が生成する入力情報は、いくつかの形式を考えることができ、この形式によって表示変更受付手段14が行う処理も異なってくる。入力情報は、スイッチやタッチスクリーン等の携帯端末3上の入力機器に対してどのような操作をしたかの操作形式の入力情報が該当し、この入力情報は、例えば、どのスイッチが何回押下されてタッチスクリーンのどの部分が押下されたかという情報である。他の形式の入力情報としては、制御形式の入力情報が該当し、この入力情報は、例えば、表示制御情報とすることもできる。他には、表示形式の入力情報が該当し、この入力情報は、例えば、表示情報とすることもできる。各形式によって、入力情報出力手段の処理だけでなく、表示変更受付手段14の処理、表示処理手段11の処理も異なってくる。 The input information output means 31 of the portable terminal 3 generates input information according to the input of the operator in virtual reality from a switch or a touch screen, and outputs it to the host display change accepting means using a communication means (not shown). To do. The input information generated by the input information output means 31 can be considered in several formats, and the processing performed by the display change receiving means 14 varies depending on this format. The input information corresponds to input information in an operation format indicating what operation has been performed on the input device on the portable terminal 3 such as a switch or a touch screen. For example, which switch is pressed by how many times This is information indicating which part of the touch screen has been pressed. The input information in the other format corresponds to the input information in the control format, and this input information can be, for example, display control information. In addition, input information in a display format is applicable, and this input information can be, for example, display information. Depending on the format, not only the processing of the input information output means but also the processing of the display change receiving means 14 and the processing of the display processing means 11 are different.
操作形式の入力情報の場合には、入力情報出力手段31は、どのような操作がされたかの入力情報を表示変更受付手段14に出力するだけである。表示変更受付手段14は、予め、携帯端末3のどのような表示状態であるときにどのスイッチ、タッチスクリーンを操作されればどのような表示制御情報を生成するばよいかが分かるテーブルである表示制御情報変換テーブルを持ち(ロジックで実現してもよい)、このテーブルを参照して表示制御情報を生成する。表示処理手段11は、この場合は従来通りに動作するだけである。本実施形態においては、この操作形式の入力情報を用いることとする。 In the case of operation type input information, the input information output unit 31 only outputs the input information indicating what operation has been performed to the display change receiving unit 14. The display change accepting unit 14 is a display control that is a table that knows in advance what kind of display control information should be generated if any switch or touch screen is operated when the mobile terminal 3 is in any display state. It has an information conversion table (may be realized by logic), and generates display control information with reference to this table. In this case, the display processing means 11 only operates in the conventional manner. In this embodiment, input information in this operation format is used.
制御形式の入力情報の場合には、入力情報出力手段31が、表示制御情報変換テーブルを有し、この表示制御情報変換テーブルを用いて表示制御情報を生成し、表示変更受付手段14に出力する。表示変更受付手段14は、単に、入力情報出力手段31が出力した表示制御情報を表示処理手段11に出力するだけであり、表示処理手段11も従来通りに動作するだけである。 In the case of the input information in the control format, the input information output means 31 has a display control information conversion table, generates display control information using this display control information conversion table, and outputs it to the display change accepting means 14. . The display change accepting unit 14 simply outputs the display control information output from the input information output unit 31 to the display processing unit 11, and the display processing unit 11 also operates as usual.
表示形式の入力情報の場合には、入力情報出力手段31が、表示制御情報変換テーブルを有し、この表示制御情報変換テーブルを用いて表示制御情報とし、さらに、通常であれば表示処理手段11が行う実際の画像情報から表示情報へのデータ変換を表示制御情報に基づき行い、表示変更受付手段14及び表示処理手段11を介して表示装置2に出力する。 In the case of display format input information, the input information output means 31 has a display control information conversion table, which is used as display control information using the display control information conversion table. Is performed based on the display control information, and is output to the display device 2 via the display change receiving means 14 and the display processing means 11.
前記ホスト1は、表示処理手段11及び表示変更受付手段14を有していれば、具体的に実現される機器は様々あり、一般的にはPC等のコンピュータ上にプログラムを作成して実現される。コンピュータの種類には特に制約はなく、ワークステーション、スーパーコンピュータでもよく、グラフィック処理に特化し一部をハードウェアー化し高速処理を実現したグラフィック専用コンピュータでもよい。また、1つのコンピュータからなる必要もなく、複数のコンピュータからなるクラスタ構成でもよい。 As long as the host 1 has the display processing means 11 and the display change accepting means 14, there are various devices that can be specifically realized. Generally, the host 1 is realized by creating a program on a computer such as a PC. The There are no particular restrictions on the type of computer, and it may be a workstation or a supercomputer, or may be a graphic-dedicated computer that specializes in graphic processing and realizes high-speed processing by partially implementing hardware. Further, it is not necessary to consist of one computer, and a cluster configuration consisting of a plurality of computers may be used.
前記特殊な表示装置2としては大型ディスプレイのCAVE(没入型3次元可視化装置)、HMD(Head Mounted Display)、立体ディスプレイがある。このCAVEシステムはステレオプロジェクタ、このプロジェクタから照射される光を反射する反射鏡、投射するためのスクリーンからなり、仮想現実内操作者が携帯するセンサとしては立体視用シャッタメガネ、頭部連動表示のための磁気センサがある。CAVEを用いる場合には、表示処理手段11が出力する表示情報は、CAVEに対応した表示情報となる。すなわち、CAVEは、具体的には、立体視用シャッタメガネが左レンズと右レンズとが交互シャッタを毎秒数十回ずつ行い、ステレオプロジェクタからそれに応じて左レンズ用の画像、右レンズ用の画像が出力されており、表示情報としてもこのようなレンズ毎のフレームを毎秒数十回出力しなければならない。 Examples of the special display device 2 include a large display CAVE (immersive 3D visualization device), an HMD (Head Mounted Display), and a stereoscopic display. This CAVE system is composed of a stereo projector, a reflecting mirror that reflects the light emitted from the projector, and a projection screen. The sensors carried by the operator in virtual reality include stereoscopic shutter glasses and head-linked display. There are magnetic sensors for. When CAVE is used, the display information output from the display processing unit 11 is display information corresponding to CAVE. Specifically, in CAVE, specifically, the stereoscopic shutter glasses perform alternate shuttering of the left lens and the right lens several tens of times per second, and the image for the left lens and the image for the right lens are accordingly received from the stereo projector. As a display information, such a frame for each lens must be output several tens of times per second.
次に、本実施形態に係る表示システムの動作について説明する。仮想現実外操作者の操作によりホスト1及び表示装置2を起動状態にする。次に、仮想現実外操作者がホスト1が実装されているPCのキーボードを用いて、対象オブジェクトを選択し表示装置2に表示するように操作する。この操作が表示変更入力手段12に入力され、操作に対応する表示制御情報を生成し、表示処理手段11に出力する。表示処理手段11は、入力された表示制御情報に基づき、対象オブジェクトの画像情報を表示情報にデータ変換して表示装置2に出力する。表示装置2は、表示情報に基づき表示を行う。仮想現実内操作者は、表示が行われることでVRを体感することができるようになる。 Next, the operation of the display system according to this embodiment will be described. The host 1 and the display device 2 are activated by the operation of the non-virtual reality operator. Next, the non-virtual reality operator operates to select the target object and display it on the display device 2 using the keyboard of the PC on which the host 1 is mounted. This operation is input to the display change input unit 12, display control information corresponding to the operation is generated, and output to the display processing unit 11. The display processing unit 11 converts the image information of the target object into display information based on the input display control information and outputs the display information to the display device 2. The display device 2 performs display based on the display information. The virtual reality operator can experience VR by performing the display.
仮想空間内を仮想現実内操作者は、動くことで視点がの位置及び向きが変わり、この情報が仮想現実内操作受付手段13に入力され、視点の変位量を求め表示制御情報として表示処理手段11に出力される。表示処理手段11は入力された表示制御情報に基づき対象となるオブジェクトの画像情報を表示情報にして表示装置2に出力し、表示装置2はその表示情報を表示する。このようにして仮想現実内操作を行う。 As the operator in the virtual space moves in the virtual space, the position and orientation of the viewpoint changes, and this information is input to the virtual reality operation accepting means 13 to obtain the displacement of the viewpoint and display processing information as display control information. 11 is output. Based on the input display control information, the display processing means 11 converts the image information of the target object as display information and outputs it to the display device 2, and the display device 2 displays the display information. Thus, the virtual reality operation is performed.
仮想現実内操作者は、仮想現実外操作をしたくなったとする、例えば、仮想現実内で現在対象となっているオブジェクト以外のオブジェクトを仮想空間内に表示させようとしたとする。この場合、仮想現実内操作者は、携帯端末3のタッチスクリーン等の入力機器を用いて表示させたいオブジェクトを選択し表示するように操作する。入力情報出力手段31は、どのような操作がされたかの入力情報を表示変更受付手段14に出力する。表示変更受付手段14は、表示制御情報変換テーブルを参照して表示制御情報を生成する。表示処理手段11は、入力された表示制御情報に基づき、対象オブジェクトの画像情報を表示情報にデータ変換して表示装置に出力する。 Assume that an operator in virtual reality wants to perform an operation outside virtual reality, for example, an attempt is made to display an object other than the current target object in virtual reality in the virtual space. In this case, the operator in virtual reality operates to select and display an object to be displayed using an input device such as a touch screen of the mobile terminal 3. The input information output unit 31 outputs input information indicating what operation has been performed to the display change receiving unit 14. The display change receiving unit 14 generates display control information with reference to the display control information conversion table. Based on the input display control information, the display processing means 11 converts the image information of the target object into display information and outputs it to the display device.
このように本実施形態に係る表示システムによれば、ホスト1が表示の形態の変更を受け付ける表示変更受付手段14を有し、仮想現実内操作者が表示の形態の変更を指示するための入力情報出力手段31を有し、この入力情報出力手段31に入力された指示を入力情報として送信する携帯端末3とを備えるので、仮想現実内操作者が携帯端末3を用いて意図した入力をし、入力情報出力手段31がこの入力に対応した入力情報を表示変更受付手段14に送信し、表示変更受付手段14が受信した入力情報に対応した処理を表示処理手段11に要請し、この要請に基づき表示処理手段11が処理を行っており、従来から仮想現実内操作者が携帯されるデータ・グローブ等のセンサにより可能である操作に加えて、汎用的に操作を容易に加えることができる携帯端末3に他の操作を加えるだけで、仮想現実内操作者が仮想現実にいながら他の人の手を借りることなくかかる操作を行うことができ、仮想現実の体感を損わずにより効果的な操作を迅速に行うことができる。 As described above, according to the display system according to the present embodiment, the host 1 has the display change accepting unit 14 that accepts the change of the display form, and the input for the operator in virtual reality to instruct the change of the display form. And a portable terminal 3 having the information output means 31 and transmitting the instruction input to the input information output means 31 as input information, so that an operator in virtual reality makes an intended input using the portable terminal 3. The input information output means 31 transmits the input information corresponding to this input to the display change accepting means 14, and requests the display processing means 11 to perform the process corresponding to the input information received by the display change accepting means 14. The display processing means 11 performs processing based on the above, and in addition to operations that can be conventionally performed by a sensor such as a data glove that is carried by an operator in virtual reality, operations can be easily performed on a general basis. By simply performing another operation on the portable terminal 3 that can be operated, the operator in the virtual reality can perform the operation without taking the help of another person while in the virtual reality, and the virtual reality experience is impaired. Therefore, more effective operation can be performed quickly.
ここで、付加的ではあるが、仮想現実外操作者と仮想現実内操作者とが離れた位置にいる場合には、携帯端末3とホストを実装しているコンピュータとの間で文字や音声のやり取りをすることもできる。また、仮想現実外操作の略全ての操作を携帯端末3から行うことができるようにした場合に、仮想現実内操作者、携帯端末3又は対象オブジェクト毎に操作を限定することができる。例えば、ある大切なオブジェクトを表示装置2に表示させている場合に、限定した仮想現実内操作者のみ削除の操作をすることができるに設定することができる。 Here, in addition, when the non-virtual reality operator and the virtual reality operator are located at a distance from each other, characters and voices are transmitted between the portable terminal 3 and the computer on which the host is mounted. You can also exchange. Further, when almost all the operations outside the virtual reality can be performed from the mobile terminal 3, the operations can be limited for each operator in the virtual reality, the mobile terminal 3, or the target object. For example, when a certain important object is displayed on the display device 2, only a limited virtual reality operator can perform the deletion operation.
なお、本実施形態に係る表示システムにおいては、起動部分を仮想現実外操作者がホスト1を操作して行ったが、起動部分の操作も携帯端末3で操作するように実装することもでき、仮想現実内操作者が移動することなくVRを実現することができ、従来までであれば複数の人間が共同してVRを実現していたが、それに比べ人手も要らず迅速に起動することができる。 In the display system according to the present embodiment, the activation part is performed by operating the host 1 by the non-virtual reality operator. However, the activation part can also be implemented so as to be operated by the mobile terminal 3. VR can be realized without moving in the virtual reality operator, and until now, VR has been realized jointly by a plurality of humans, but it can be started quickly without requiring any manpower. it can.
(本発明の第2の実施形態)
本発明の第2の実施形態に係る表示システムについて図2に基づき説明する。図2は本実施形態に係る表示システムの全体ブロック図である。
(Second embodiment of the present invention)
A display system according to a second embodiment of the present invention will be described with reference to FIG. FIG. 2 is an overall block diagram of the display system according to the present embodiment.
本実施形態に係る表示システムは、前記第1の実施形態に係る表示システムと同様に、表示対象となるオブジェクトの画像情報を表示情報にして出力する表示処理手段11、操作者が表示の形態の変更を指示するための表示変更入力手段12及び表示の形態の変更を受け付ける表示変更受付手段14を有するホスト1と、表示処理部11が出力した表示情報を表示する表示装置2と、仮想現実内操作者が表示の形態の変更を指示するための入力情報出力手段31を有し、この入力情報出力手段に入力された指示を入力情報として送信する携帯端末3とを備え、これに加えて、前記携帯端末3が、表示装置に表示されている表示の形態に付加情報を付加するための入力情報出力手段31の一つである付加情報出力手段31aを有し、この付加情報出力手段31aに入力された付加情報を表示付加情報として送信し、前記ホスト1が、表示付加情報を受け付ける表示変更受付手段14の一つである付加情報受付手段14aを有する構成である。 Similar to the display system according to the first embodiment, the display system according to the present embodiment is a display processing unit 11 that outputs image information of an object to be displayed as display information. Host 1 having display change input means 12 for instructing change and display change accepting means 14 for accepting a change in display form, display device 2 for displaying display information output by display processing section 11, and virtual reality The mobile terminal 3 includes an input information output unit 31 for an operator to instruct a change in display form, and transmits an instruction input to the input information output unit as input information. In addition, The portable terminal 3 has additional information output means 31a which is one of input information output means 31 for adding additional information to the display form displayed on the display device. Sending the additional information input to the output unit 31a as the display additional information, the host 1 is the configuration with is one additional information receiving means 14a of the display change receiving unit 14 for receiving the display additional information.
前記付加情報は、表示装置2により表示されている仮想現実に必要なオブジェクト等以外のものであり、体感するためだけの仮想現実に必ずしも必要ではないが、体感する以外に他の部分と際立たせたり、目印にしたり、説明したりするために用いるものであり、具体的には、メモ、マーク、アンダーライン、付箋等が該当する。 The additional information is something other than an object or the like necessary for the virtual reality displayed by the display device 2 and is not necessarily required for the virtual reality only for experiencing, but makes it stand out from other parts other than experiencing it. Or a mark, or a description, and specifically, a memo, a mark, an underline, a sticky note, or the like.
前記付加情報出力手段31aは、携帯端末3のタッチスクリーン等の入力機器を用いて入力される付加情報を入力情報の1つである表示付加情報にして付加情報受付手段14aに出力する。 The additional information output means 31a converts the additional information input using an input device such as a touch screen of the portable terminal 3 to the additional information receiving means 14a as display additional information that is one of the input information.
付加情報受付手段14aは、入力される表示付加情報に基づき表示制御情報変換テーブルを参照して表示制御情報を表示処理手段11に出力する。 The additional information receiving unit 14a refers to the display control information conversion table based on the input display additional information and outputs the display control information to the display processing unit 11.
前記付加情報出力手段31aは仮想現実内操作者の操作により呼び出されるので入力情報出力手段31が付加情報出力手段31a以外に他の操作に対応した手段を付加している場合であっても問題がない。しかし、付加情報受付手段14aは、仮想現実内操作者の操作により呼び出されるわけでなく、付加情報を表示させる以外の操作が対応づけられていない表示変更受付手段14であれば問題ないが、他の操作が対応づけられている場合には複数の入力情報の中の表示付加情報であることがわかるように識別する仕組みが必要となり、送信する表示付加情報に識別できる情報を埋め込むか、通信により識別する必要がある。通信による識別とは、付加情報受付手段14a専用にセッションを立てるということである。 Since the additional information output unit 31a is called by an operation in the virtual reality operator, there is a problem even when the input information output unit 31 adds a unit corresponding to another operation in addition to the additional information output unit 31a. Absent. However, the additional information receiving unit 14a is not called by the operation of the operator in the virtual reality, and there is no problem if the display change receiving unit 14 is not associated with any operation other than displaying the additional information. If the operation is associated, a mechanism for identifying the display additional information in a plurality of pieces of input information is necessary, and information that can be identified is embedded in the display additional information to be transmitted, or by communication. Need to identify. The identification by communication means that a session is established exclusively for the additional information receiving means 14a.
次に、本実施形態に係る表示システムの動作について説明する。既に、前記第1の実施形態で仮想現実内操作者がVRを体感することができるようになるまでの動作、仮想現実内操作による動作については説明したので、ここでは、付加情報を表示させる動作についてのみ説明する。 Next, the operation of the display system according to this embodiment will be described. The operation until the virtual reality operator can experience VR in the first embodiment and the operation based on the virtual reality operation have already been described. Here, the operation for displaying additional information is performed. Only will be described.
仮想現実内操作者は、仮想現実内に表示されている対象オブジェクトのある部分に付加情報を付加して表示させようとして、携帯端末3の入力機器を用いてかかる部分を指定し付加情報を入力する。付加情報出力手段31がかかる入力を表示付加情報にし付加情報受付手段14aに出力する。ここでは、対象オブジェクトのある部分に付加情報を付加していえるために、表示付加情報はかかる部分の座標情報と付加情報からなる。付加情報受付手段14aは、入力される表示付加情報に基づき表示制御情報変換テーブルを参照して表示制御情報を表示処理手段11に出力する。表示処理手段11は、入力された表示制御情報に基づき、対象オブジェクトの画像情報を付加情報と共に表示情報にデータ変換して表示装置2に出力する。表示装置2は、表示情報に基づき表示を行う。仮想現実内操作者は、対象オブジェクトと共に、かかる部分に付加情報が表示されることでVRを体感することができるようになる。 The operator in the virtual reality inputs the additional information by using the input device of the portable terminal 3 to add the additional information to the certain part of the target object displayed in the virtual reality for display. To do. The additional information output unit 31 converts the input into display additional information and outputs it to the additional information receiving unit 14a. Here, since it can be said that additional information is added to a certain part of the target object, the display additional information includes coordinate information and additional information of the part. The additional information receiving unit 14a refers to the display control information conversion table based on the input display additional information and outputs the display control information to the display processing unit 11. The display processing unit 11 converts the image information of the target object into display information together with additional information based on the input display control information, and outputs the display information to the display device 2. The display device 2 performs display based on the display information. The operator in virtual reality can experience VR by displaying additional information along with the target object in such a portion.
このように本実施形態に係る表示システムによれば、前記携帯端末3が、表示装置に表示されている表示の形態に付加情報を付加するための入力情報出力手段31の一つである付加情報出力手段31aを有し、この付加情報出力手段31aに入力された付加情報を表示付加情報として送信し、前記ホスト1が、表示付加情報を受け付ける表示変更受付手段14の一つである付加情報受付手段14aを有するので、仮想現実内操作者が携帯端末3を用いて付加情報を入力し、この付加情報が付加情報出力手段31aで表示付加情報となり付加情報受付手段14aに出力され、付加情報受付手段14aで表示付加情報が表示制御情報とし表示処理手段11に出力され、表示処理手段11で表示処理がなされ表示情報が表示装置2で表示されており、仮想現実内操作者が積極的に現在表示されている対象オブジェクト等に対して付加情報を付加することができ、より付加価値の高いVRを実現することができ、さらに、仮想現実内操作者が複数いる場合に、その中の仮想現実内操作者が付加情報を表示させることで、他の仮想現実内操作者と共通に付加情報が表示された付加価値のある対象オブジェクトを共有して体感することができる。 As described above, according to the display system according to the present embodiment, the mobile terminal 3 is one of the input information output means 31 for adding the additional information to the display form displayed on the display device. Additional information received as one of display change receiving means 14 that has output means 31a, transmits the additional information input to the additional information output means 31a as display additional information, and the host 1 receives the display additional information. Since the means 14a is provided, the operator in the virtual reality inputs additional information using the portable terminal 3, and this additional information is displayed as additional display information by the additional information output means 31a and is output to the additional information receiving means 14a. The display additional information is output as display control information to the display processing means 11 by the means 14a, the display processing means 11 performs display processing, and the display information is displayed on the display device 2. The virtual reality operator can positively add additional information to the currently displayed target object, etc., and can realize a VR with higher added value. When there are a plurality of virtual reality operators, additional information is displayed by the operator within the virtual reality so that a shared object with a value-added target object in which additional information is displayed can be shared and experienced. be able to.
また、本実施形態に係る表示システムでは、付加情報を具体的にメモ、マーク、アンダーライン、付箋等と示したが、メモ、マーク、アンダーラインであれば再び同一オブジェクトをVR体感する場合に参照でき、また、複数の使用者と共有できる。付箋は、メモと貼着した位置を記憶しており、例えば、ある付箋を選択することでメモが表示されると共に、付箋を貼着した位置、方向の視点で見ることができる。 Further, in the display system according to the present embodiment, the additional information is specifically shown as memo, mark, underline, sticky note, etc., but if it is a memo, mark, or underline, it is referred to when experiencing the same object again in VR. And can be shared with multiple users. The sticky note stores the position where the memo is attached, and for example, by selecting a certain sticky note, the memo is displayed and can be viewed from the viewpoint of the position and direction where the sticky note is attached.
なお、本実施形態に係る表示システムにおいては、付加情報を仮想現実内に付加しているが、仮想現実内のオブジェクトと付加情報に係る仮想現実内の表示とを階層的に取り扱うこともでき、付加情報のない表示と、付加情報のある表示の切り換えを迅速に行え、付加情報の削除を一気に行うこともできる。また、使用者毎に付加情報に係る仮想現実内の表示を階層的に取り扱うことでより利便性を上げることができ、操作性と表示がよくなるだけでなく、付加情報を個別に管理することができ、表示するのが好ましくない情報を被覆することもできる。 In the display system according to the present embodiment, the additional information is added in the virtual reality, but the objects in the virtual reality and the display in the virtual reality related to the additional information can be handled hierarchically. The display without additional information and the display with additional information can be quickly switched, and the additional information can be deleted at once. In addition, it is possible to improve the convenience by handling the display in the virtual reality related to the additional information for each user in a hierarchical manner, and not only the operability and the display are improved, but also the additional information can be managed individually. It is also possible to cover information that is not desirable to display.
(本発明の第3の実施形態)
本発明の第3の実施形態に係る表示システムについて図3に基づき説明する。図3は本実施形態に係る表示システムのシステム構成図である。
本実施形態に係る表示システムは、前記第1の実施形態に係る表示システムのホスト1及び表示装置2を複数備え、1つの携帯端末3が各ホスト1に対して入力情報を送信するを構成である。
(Third embodiment of the present invention)
A display system according to a third embodiment of the present invention will be described with reference to FIG. FIG. 3 is a system configuration diagram of the display system according to the present embodiment.
The display system according to this embodiment includes a plurality of hosts 1 and display devices 2 of the display system according to the first embodiment, and one mobile terminal 3 transmits input information to each host 1. is there.
前記各実施形態に係る表示システムでは、ホスト1と携帯端末3とが1対1か1対多の構成であったが、本実施形態に係る表示システムではホスト1と携帯端末3とが多対1の構成となる。携帯端末3から入力情報がホスト1に送信される場合に、1つのホスト1だけに入力情報を送信するとき、複数のホスト1に入力情報を送信するときがある。前者を単独送信とし、後者を同報送信とする。 In the display system according to each of the embodiments, the host 1 and the mobile terminal 3 have a one-to-one or one-to-many configuration. However, in the display system according to the present embodiment, the host 1 and the mobile terminal 3 have a multi-pair. 1 configuration. When the input information is transmitted from the portable terminal 3 to the host 1, the input information may be transmitted to a plurality of hosts 1 when the input information is transmitted to only one host 1. The former is single transmission and the latter is broadcast transmission.
本実施形態に係る表示システムの動作について説明する。既に、前記第1の実施形態で仮想現実内操作者がVRを体感することができるようになるまでの動作、仮想現実内操作による動作については説明したので、単独送信及び同報送信について説明する。 An operation of the display system according to the present embodiment will be described. Since the operation until the virtual reality operator can experience VR and the operation based on the virtual reality operation have already been described in the first embodiment, single transmission and broadcast transmission will be described. .
仮想現実内操作者は、あるホスト1と表示装置2により表示された仮想現実内にいるとする。自己がいる仮想現実を表示しているホスト1(自ホストとする)と表示装置2(自表示装置とする)の操作は第1の実施形態に係る表示システムで説明した動作なので省略する。自ホスト1及び自表示装置2以外のホスト1について操作する場合で、単独送信の場合には、自己が操作を与えたいホスト1をまず選択し、意図した操作を携帯端末3を介して行う。自ホスト1及び自表示装置2以外のホスト1について操作する場合で、同報送信の場合には、同報送信であることを指定し、意図した操作を携帯端末3を介して行う。 It is assumed that the operator in virtual reality is in the virtual reality displayed by a certain host 1 and display device 2. Since the operations of the host 1 (referred to as the own host) and the display device 2 (referred to as the own display device) displaying the virtual reality where the user is present are the operations described in the display system according to the first embodiment, the description thereof will be omitted. In the case of operating on the host 1 other than the own host 1 and the own display device 2 and in the case of single transmission, the host 1 that the user wants to give an operation is first selected and the intended operation is performed via the portable terminal 3. In the case of operating on the host 1 other than the own host 1 and the own display device 2, in the case of broadcast transmission, the broadcast transmission is designated and the intended operation is performed via the portable terminal 3.
このように本実施形態に係る表示システムによれば、ホスト1を複数備え、1つの携帯端末3が各ホスト1に対して入力情報を送信するので、複数のホスト1を1つの携帯端末3で操作することができ、それぞれのホスト1の近くまで行く必要がなく、迅速に管理することができ、他のホスト1及び表示装置2により仮想現実を体感している仮想現実内操作者に対しても迅速に対応することができる。 As described above, according to the display system according to the present embodiment, a plurality of hosts 1 are provided, and one mobile terminal 3 transmits input information to each host 1. It is possible to operate, it is not necessary to go to the vicinity of each host 1, it can be managed quickly, and an operator in virtual reality who is experiencing virtual reality with another host 1 and display device 2 Can also respond quickly.
なお、本実施形態に係る表示システムにおいては、各ホスト1に対して入力情報を送信するとしたが、さらに、単独送信の場合には選択したホスト1により表示されている仮想現実を自表示装置2により表示することでより操作を行い易くなる。同報送信の場合には、各ホスト毎に仮想現実を自表示装置2で切り換えて表示させるか、分割表示することで操作をし易くすることができる。 In the display system according to the present embodiment, input information is transmitted to each host 1, but in the case of single transmission, the virtual reality displayed by the selected host 1 is further displayed on the display device 2 itself. It becomes easier to perform the operation by displaying. In the case of broadcast transmission, the virtual reality can be switched and displayed on the own display device 2 for each host, or can be easily operated by split display.
以下、本表示システムの実施例について実験と併せて図4ないし図10に基づき説明する。図4は本実施例に係る表示装置及び携帯端末の外観斜視図(ホストは一般的なPCであるため省略する)、図5は本実施例に係る携帯端末の外観斜視図、図6は本実施例に係る用立体視シャッタメガネの外観斜視図、図7はPDA上に実装したGUI、図8は本実施例に係るVR内でメニューが表示された形態図、図9はGUIに関する評価結果である棒グラフ、図10は描画に関する評価である複数の表である。 Hereinafter, embodiments of the present display system will be described based on FIGS. 4 to 10 together with experiments. 4 is an external perspective view of the display device and the mobile terminal according to the present embodiment (the host is a general PC and is omitted), FIG. 5 is an external perspective view of the mobile terminal according to the present embodiment, and FIG. 7 is an external perspective view of the stereoscopic shutter glasses for use according to the embodiment, FIG. 7 is a GUI mounted on the PDA, FIG. 8 is a configuration diagram in which a menu is displayed in the VR according to the embodiment, and FIG. 9 is an evaluation result regarding the GUI. FIG. 10 shows a plurality of tables that are evaluations related to drawing.
ホスト1を実装するホストコンピュータは、CPUにIntel PentiumIII(1[GHx]
)を2つ、ビデオボードにATI FireGL4を用いたPCである。このホストコンピュータには、OSにRedHat7.1、可視化ライブラリにVTK、グラフィックライブラリにOpenGL Performer、VRライブラリにCAVEライブラリを用い、OSはPCにインストールし、各種ライブラリは適切な位置に配置した。
The host computer on which the host 1 is mounted has an Intel Pentium III (1 [GHx]) in the CPU.
), And a PC using ATI FireGL4 on the video board. This host computer used RedHat 7.1 for the OS, VTK for the visualization library, OpenGL Performer for the graphic library, and CAVE library for the VR library, the OS was installed on the PC, and various libraries were arranged at appropriate positions.
VTKはデータを可視化するためのUnix、Windows、Linux上で稼動するオープンソースのクラスライブラリである。VTKは等値面やボリュームレンダリング、ベクトル場の表示など様々な可視化手法を提供する。コア部分はC++で実装されているが、Java、Tck/TK又はPythonによる処理も可能である。VTKはが元来複数のView Portによる表示をサポートしていない。そこでCAVEライブラリとVTKを連携させるためにPerformerを用いる。 VTK is an open source class library that runs on Unix, Windows, and Linux to visualize data. VTK provides various visualization methods such as isosurfaces, volume rendering, and vector field display. The core part is implemented in C ++, but processing by Java, Tck / TK or Python is also possible. VTK originally does not support display with multiple View Ports. Therefore, Performer is used to link the CAVE library and VTK.
Performerは3Dグラフィックスで広く利用されCAVEライブラリにもPerformerバージョン(pfCAVEライブラリ)がある。Performerは複数のView Port又はマルチチャンネルをマルチプロセスで制御することに長けている。VTKで生成されたジオメトリはvtkPolyDataと呼ばれるデータ構造で格納される。vtkPolyDataはvtkActToPFを用いてPerformerのノードの1つであるpfGeodeに変換されPerformerのシーングラフの一部として組み込まれる。 Performer is widely used in 3D graphics, and the CAVE library has a Performer version (pfCAVE library). Performer is good at controlling multiple View Ports or multiple channels in multiple processes. The geometry generated by VTK is stored in a data structure called vtkPolyData. vtkPolyData is converted to pfGeode, which is one of Performer nodes, using vtkActToPF and incorporated as part of the Performer scene graph.
変換はVTKパイプラインの部分が再実行する場合のみ実行されるので、VRで視点変換や移動する場合にはストレス無くVTKのデータをPerformerで表示できる。一度変換されればPerformerとVTKは相互にオブジェクトを操作できる。Performerでは明示的にVTKのパイプラインの更新が無いかをチェックさせる。VTKパイプラインが更新されれば再びvtkActorToPFのvtkActorToPF-Translatorオブジェクトによって、新たなpfGeodeを生成しVRが更新される。 Since the conversion is executed only when the VTK pipeline part is re-executed, the VTK data can be displayed by the Performer without stress when the viewpoint is changed or moved by the VR. Once converted, Performer and VTK can manipulate objects with each other. Performer explicitly checks for VTK pipeline updates. When the VTK pipeline is updated, a new pfGeode is generated by the vtkActorToPF-Translator object of vtkActorToPF again and the VR is updated.
表示装置2には、CAVEのImmesaDeskを用いた。ImmesaDeskは、ステレオプロジェクタ(図示しない)、このプロジェクタから照射される光を反射する反射鏡(図示しない)、投射するためのスクリーン2aからなる。スクリーン2aは傾斜可能に保持されている。このImmesaDeskで、仮想現実内操作者がVRを体感するための立体視用シャッタメガネ2bを用い、この立体視用シャッタメガネ2bのアーム部分にFastrak(Polhemus)という空間センサ2cを配設した。空間センサ2cによる計測範囲を広くするために、LongRanger2dをImmesaDeskの前方方向に配設した。この空間センサとホストコンピュータとは、RS−232ケーブル2eにより接続している。 As the display device 2, CAVE ImmesaDesk was used. ImmesaDesk includes a stereo projector (not shown), a reflecting mirror (not shown) that reflects light emitted from the projector, and a screen 2a for projection. The screen 2a is tiltably held. With this ImmesaDesk, stereoscopic shutter glasses 2b for an operator in virtual reality to experience VR are used, and a spatial sensor 2c called Fastrak (Polhemus) is disposed on the arm portion of the stereoscopic shutter glasses 2b. In order to widen the measurement range by the space sensor 2c, the LongRanger 2d is disposed in the forward direction of ImmesaDesk. The space sensor and the host computer are connected by an RS-232 cable 2e.
携帯端末3にはPDA3a(東芝製Genio e550GX OS:PocketPC2002)を用いた。PDA3aには、無線LANアダプタ3bを装着し、アクセスポイント(図示しない)及びスイッチングハブ(図示しない)を介してホストコンピュータと通信する。通信規約としてはTCP/IPを用いる。前記空間センサ2cと同様にFastrak(Polhemus)を空間センサ3cとして、PDA3aの背面に装着した離間板3dの背面の先端方向に取り付けた。空間センサ3cも、空間センサ2cと同様にLongRanger2dにより計測範囲が広くなる。 The PDA 3a (Toshiba Genio e550GX OS: PocketPC2002) was used for the portable terminal 3. A wireless LAN adapter 3b is attached to the PDA 3a, and communicates with a host computer via an access point (not shown) and a switching hub (not shown). TCP / IP is used as the communication protocol. As with the space sensor 2c, Fastrac (Polhemus) was used as the space sensor 3c and attached to the back end of the separation plate 3d attached to the back surface of the PDA 3a. The spatial range of the spatial sensor 3c is widened by the LongRanger 2d similarly to the spatial sensor 2c.
この空間センサ3cを取り付けた離間板3dはPDA3dと脱着可能なようにマジックテープにより装着されている。離間板3dはPDA3aに装着状態でPDA3aの先端よりさらに10[cm]程度先に先端があり、PDA3aと空間センサ3cが離間状態を保つようにしている。これは、空間センサ3cが磁気の影響を受け、現在位置のための情報(空間センサの位置及び傾き)を正しく測定することができなくなるからである。磁気の影響は、PDA3aを形成する金属板及びPDA3aの内部に配設された電源部(図示しない)及びトランス(図示しない)からだと考えられる。 The separation plate 3d to which the space sensor 3c is attached is attached with velcro so as to be detachable from the PDA 3d. The separation plate 3d is attached to the PDA 3a and has a tip about 10 [cm] ahead of the tip of the PDA 3a so that the PDA 3a and the space sensor 3c are kept separated. This is because the space sensor 3c is affected by magnetism, and information for the current position (the position and inclination of the space sensor) cannot be measured correctly. The influence of magnetism is considered to be from a metal plate forming the PDA 3a, a power supply unit (not shown) and a transformer (not shown) disposed inside the PDA 3a.
前記したようにPDA3aから脱着可能なように離間板をしていれば、PDA3aで単体で使用する場合に空間センサ3cに接続されるRS−232ケーブル3eが使用の弊害とならない。PDA3aには上部に4.0型の液晶画面3fが配置され、下方に複数のプログラムボタン3g、下部中央にカーソルボタン3hが配置されている。液晶画面3fはタッチスクリーンとなっており、よりタッチスクリーン操作を容易に行うことができるように、スタイラスペン3iが備わっている。 As described above, if the separation plate is detachable from the PDA 3a, the RS-232 cable 3e connected to the space sensor 3c does not cause any adverse effects when used alone with the PDA 3a. The PDA 3a has a 4.0 type liquid crystal screen 3f at the top, a plurality of program buttons 3g at the bottom, and a cursor button 3h at the bottom center. The liquid crystal screen 3f is a touch screen, and a stylus pen 3i is provided so that the touch screen operation can be performed more easily.
以上のような構成であり、前記各実施形態に係る表示システムと実施例との対応を説明する。ホスト1を実装する表示処理手段11は一般的なライブラリ、VTK及びOpenGL Performer内の関数呼び出しにより実現し、表示変更入力手段12、仮想現実内操作受付手段13及び表示変更受付手段14は、一般的なライブラリ、OSに用意されるAPI、VTK、OpenGL Performer内の関数を呼び出すことで実現されている。仮想現実内操作受付手段13においては、CAVEライブラリの関数呼び出しも用いている。但し、このように実装されるのは一例であり、他のライブラリを用いて実装することもできる。 With the configuration as described above, the correspondence between the display system according to each embodiment and the examples will be described. The display processing means 11 for mounting the host 1 is realized by a function call in a general library, VTK and OpenGL Performer. The display change input means 12, the virtual reality operation receiving means 13 and the display change receiving means 14 are generally used. This is realized by calling a function in an API, VTK, and OpenGL Performer prepared for a simple library and OS. The virtual reality operation accepting means 13 also uses a CAVE library function call. However, mounting in this way is an example, and mounting using other libraries is also possible.
次に、携帯端末3の入力情報出力手段31は、PDA3aのOSであるPocketPC2002が用意するAPI、一般的なライブラリの関数呼び出しにより実現している。携帯端末3は仮想現実内操作者が迅速且つ円滑に使えるように、図7に示すGUIを用意している。このGUIを介して入力情報出力手段が仮想現実内操作者の入力を入力情報にしてホスト1に出力する。図7(a)ないし図7(d)までのページの切り換えは、画面の上部に並べられているタブを切り換えることにより行う。各ページはそれぞれ「Button page」、「Slider page」、「Drawing page」、「File I/O page」といい、「Button page」でボタンが選択されたときに対応するコマンドがホスト1に送信され、「Slider page」でスライドボタンを左右に調整することで対応するスライドに対応するパラメータ変更がホスト1に送信され、「Drawing page」で描画ウィンドウで入力された付加情報がホスト1に送信され、「File I/O page」でこの付加情報を保存又は読込をすることができる。 Next, the input information output means 31 of the portable terminal 3 is realized by API prepared by PocketPC2002, which is the OS of the PDA 3a, and a general library function call. The portable terminal 3 has a GUI shown in FIG. 7 so that an operator in virtual reality can use it quickly and smoothly. Through this GUI, the input information output means outputs the input from the operator in virtual reality as input information to the host 1. Switching pages from FIG. 7A to FIG. 7D is performed by switching tabs arranged at the top of the screen. Each page is called “Button page”, “Slider page”, “Drawing page”, “File I / O page”, and the corresponding command is sent to the host 1 when the button is selected on “Button page” By adjusting the slide button left and right on the “Slider page”, the parameter change corresponding to the corresponding slide is transmitted to the host 1, and the additional information input in the drawing window is transmitted to the host 1 on the “Drawing page”. This additional information can be saved or read on the “File I / O page”.
本実施例では、PDA3aに2種類の描画方法(付加情報をVR内で表示する方法)を実装した。1つはPDA3aのプログラムボタン3gを押下しながらPDA3aを動かして描画する方法(第1の描画方法とする)と、PDA3aのタッチスクリーンに描画した後ホスト1にまとめて送信して描画する方法(第2の描画方法とする)である。 In this embodiment, two types of drawing methods (methods for displaying additional information in the VR) are mounted on the PDA 3a. One is a method of drawing by moving the PDA 3a while pressing the program button 3g of the PDA 3a (referred to as a first drawing method), and a method of drawing after drawing on the touch screen of the PDA 3a and sending to the host 1 collectively (drawing) A second drawing method).
第1の描画方法は、PDA3aのプログラムボタン3gを押下しながらPDAを動かすことによって、VRに表示されているバーチャルペンを用いてVR内に直接描画する。バーチャルペンのペン先はPDA3aの先端から奥行き15[cm]、上方向7[cm]の位置に表示される。間違った場合はPDA3aの他のプログラムボタン3gを押下することによって1本ずつ描画したデータを消去する。あるいはPDA3aの側面に配設されたプログラムボタン3gで描画した全てのデータを一度に消す。この第1の描画方法は3次元空間中にバーチャルペンを用いて描画するので描いたオブジェクトは3次元に表示される。 In the first drawing method, drawing is performed directly in the VR using the virtual pen displayed on the VR by moving the PDA while pressing the program button 3g of the PDA 3a. The pen tip of the virtual pen is displayed at a depth of 15 [cm] and an upward direction of 7 [cm] from the tip of the PDA 3a. If it is wrong, the data drawn one by one is erased by pressing another program button 3g of the PDA 3a. Alternatively, all data drawn by the program button 3g disposed on the side surface of the PDA 3a is erased at once. In this first drawing method, drawing is performed using a virtual pen in a three-dimensional space, so that the drawn object is displayed three-dimensionally.
一方、第2の描画方法は、タブで「Drawing page」を選択し、「Drawing page」内のウィンドウでスタイラスペン3iを用いて描画する。描画データをホスト1に送信する「POST IT」ボタン、描画データをVR内の任意の位置で貼り付けを決定する「OK」ボタン、「Drawing page」上で描画で間違えた時などウィンドウ内の描画を初期化する「CANSEL」ボタン、「Drawing page」上で描画データを消去する「CLEAR」ボタンを用いて描画を行う。すなわち、仮想現実内操作者は、「Drawing page」のウィンドウで描き、「POST IT」ボタンで描いた描画データをホスト1に送信し、バーチャルペンの先に付加情報が表示され自由に動かすことができ、所望の位置で「OK」ボタンを押下して貼り付けを行う。 On the other hand, in the second drawing method, “Drawing page” is selected on the tab, and drawing is performed using the stylus pen 3 i in the window in “Drawing page”. “POST IT” button to send drawing data to the host 1, “OK” button to decide to paste the drawing data at an arbitrary position in VR, drawing in the window when drawing is wrong on “Drawing page” The drawing is performed using the “CANSEL” button for initializing “CLEAR” and the “CLEAR” button for deleting drawing data on the “Drawing page”. In other words, the virtual reality operator draws in the “Drawing page” window, sends the drawing data drawn by the “POST IT” button to the host 1, and the additional information is displayed at the tip of the virtual pen and can be moved freely. You can paste it by pressing the “OK” button at the desired position.
次に、GUIに関する評価を行う。GUIに関する評価とは、GUIのユーザビリティを評価するものあり、従来の方法と本実施例で説明した方法とを比較して行う。対象となる作業は、VRの右側に表示されている緑の傾いた立方体と同じオブジェクトをVR空間のワイヤーフレームの中に生成するというものである。 Next, the GUI is evaluated. The evaluation related to the GUI is for evaluating the usability of the GUI, and is performed by comparing the conventional method with the method described in the present embodiment. The target work is to create the same object in the wire frame of the VR space as the green tilted cube displayed on the right side of the VR.
従来の方法とは、仮想現実内操作者に携帯されるデータ・グローブ等の各種センサを用いてVR内に表示されるメニューを選択していくものであり(図8を参照、このようなVR内にメニューが表れるが、2次元でなく3次元であるため奥行きあり、メニューを選択しづらい。)、ここでは、データ・グローブではなくPDA3aの空間センサ3cを用いる。本実施例で説明した方法とは、具体的には「Button page」、「Slider page」を用いて行う方法である(この場合には図8のようなVR内にメニューが表示されず、図7(a)及び図7(b)のPDAのGUIを用いて行う)。 In the conventional method, a menu displayed in the VR is selected by using various sensors such as a data glove carried by the operator in the virtual reality (see FIG. 8, such a VR is used). The menu appears inside, but it is 3D rather than 2D, so it is difficult to select the menu.) Here, the spatial sensor 3c of the PDA 3a is used instead of the data glove. The method described in the present embodiment is specifically a method performed using “Button page” and “Slider page” (in this case, the menu is not displayed in the VR as shown in FIG. 7 (a) and FIG. 7 (b) using the PDA GUI).
従来の方法では、まず、PDA3aのプログラムボタン3gを押下しメニューを表示させ、VRに表示されているポインタを空間センサ3cを動かして選択し、オブジェクトの移動、回転などのパラメータの変更はメニュー選択後のスライダーを同じくポインタでスライダーボタンを動かして行う。本実施例で説明した方法では、「Button page」のボタンが従来の方法のメニューの選択項目と対応し、ボタンを選択することでコマンドがホスト1に送信され、「Slider page」のスライドボタンでオブジェクトの移動、回転などのパラメータの変更を行う。 In the conventional method, first, the program button 3g of the PDA 3a is pressed to display a menu, the pointer displayed on the VR is selected by moving the space sensor 3c, and the parameters such as movement and rotation of the object are changed by menu selection. Move the slider button with the pointer in the same way. In the method described in this embodiment, the button of “Button page” corresponds to the selection item of the menu of the conventional method, and the command is transmitted to the host 1 by selecting the button, and the slide button of “Slider page” is used. Change parameters such as moving and rotating objects.
被験者はどちらの方法をもしたことがない男子学生7名で、作業達成時間を実際に行う前に使用方法を理解するまで3回程度練習した者達であり、実験として従来の方法と本実施例で説明した方法で前記した作業をそれぞれ行った。図9は実験の結果であり、「Using 3DMenu」というのが従来の方法で行った結果であり、「Using PDA」というのは本実施例で説明した方法で行った結果である。 The subjects were seven male students who had never used either method, who had practiced about three times until they understood how to use it before actually performing the work. Each of the operations described above was performed in the manner described in the examples. FIG. 9 shows the results of the experiment. “Using 3DMenu” is a result obtained by the conventional method, and “Using PDA” is a result obtained by the method described in this embodiment.
図9の棒グラフは、縦軸が作業にかかった時間で横軸はそれぞれの被験者を示す。この棒グラフから導き出せることは、全ての被験者で本実施例で説明した方法で行った方が、従来の方法で行った方の略60[%]の時間で行うことができるということであり、本実施例で説明した方法の有用性が分かる。 In the bar graph of FIG. 9, the vertical axis represents time taken for work, and the horizontal axis represents each subject. What can be derived from this bar graph is that it is possible to perform in approximately 60 [%] time performed by the method described in the present embodiment for all subjects in the time performed by the conventional method. The usefulness of the methods described in the examples can be seen.
最後に、描画に関する評価を行う。描画に関する評価は、本実施例で説明した第1の描画方法と第2の描画方法の2種類行ってそれぞれを比較して行う。対象となる作業は2つあり、第1の作業はVRにある一辺40[cm]のワイヤーフレームの立方体内に被験者の姓を描くというものであり、第2の作業はVRにある一辺45[cm]の立方体を3方向から円で囲むというものである。被験者は22名のPDAによる描画経験のない学生で、評価実験の前に一度だけそれぞれの描画方法により練習を行う。 Finally, the drawing is evaluated. The evaluation related to drawing is performed by comparing two types of the first drawing method and the second drawing method described in this embodiment. There are two target tasks. The first task is to draw the surname of the subject in a wire frame cube of 40 [cm] on one side in VR, and the second task is 45 [on one side in VR. cm] cubes are circled from three directions. The subjects are 22 students who have no drawing experience with PDAs and practice with each drawing method only once before the evaluation experiment.
評価は5段階(5:使いやすい、1:使いにくい)の主観評価と描画時間により行った。描画時間については、第1の描画方法で最初にボタンを押下した時点から全ての描画が完了するまでの時間を対象とし、第2の描画方法でスタイラスペン3iがタッチスクリーンに接触した時点から貼り付け位置を決定する「OK」ボタンを押下するまでの時間を対象とした。図10が実験の結果である。 The evaluation was performed based on subjective evaluation and drawing time in five stages (5: easy to use, 1: difficult to use). The drawing time is the time from when the button is first pressed in the first drawing method until all drawing is completed, and is pasted from the time when the stylus pen 3i touches the touch screen in the second drawing method. The time until the “OK” button for determining the attachment position is pressed is targeted. FIG. 10 shows the result of the experiment.
図10(a)は第1の作業に関する結果であり、主観評価と描画時間の平均とメディアンを示す。使いやすさの主観評価の値に注目すると第2の描画方法の方が有用であることが分かる。図10(b)は第2の作業に関する結果である。描画時間から第1の描画方法が文字を描く作業が早く有用であることが分かる。図10(c)は第2の手法の経験者と未経験者の描画時間の平均を示す。評価実験では第2の描画方法と同じ方法で「東和」と描画という作業を行った。被験者は4人づつの経験者と未経験者のグループに分けた。経験者は平均5.61[秒]であったが、未経験者は平均15.57[秒]も要する。 FIG. 10A shows the result of the first work, and shows the subjective evaluation, the average drawing time, and the median. When attention is paid to the value of the subjective evaluation of usability, it can be seen that the second drawing method is more useful. FIG. 10B shows the result regarding the second work. From the drawing time, it can be seen that the first drawing method is quick and useful for drawing characters. FIG. 10C shows the average drawing time of experienced and inexperienced people using the second method. In the evaluation experiment, “Towa” and drawing were performed in the same manner as the second drawing method. Subjects were divided into groups of four experienced and inexperienced people. Experienced persons averaged 5.61 [seconds], while inexperienced persons averaged 15.57 [seconds].
1 ホスト
11 表示処理手段
12 表示変更入力手段
13 仮想現実内操作受付手段
14 表示変更受付手段
14a 付加情報受付手段
2 表示装置
2a スクリーン
2b 立体視用シャッタメガネ
2c 空間センサ
2d LongRanger
2e RS−232ケーブル
3 携帯端末
3a PDA
3b 無線LANアダプタ
3c 空間センサ
3d 離間板
3e RS−232ケーブル
3f 液晶画面
3g プログラムボタン
3h カーソルボタン
3i スタイラスペン
31 入力情報出力手段
31a 付加情報出力手段
101 ホスト
111 表示処理手段
112 表示変更入力手段
113 仮想現実内操作受付手段
102 表示装置
DESCRIPTION OF SYMBOLS 1 Host 11 Display processing means 12 Display change input means 13 Virtual reality operation acceptance means 14 Display change acceptance means 14a Additional information acceptance means 2 Display device 2a Screen 2b Stereoscopic shutter glasses 2c Spatial sensor 2d LongRanger
2e RS-232 cable 3 Mobile terminal 3a PDA
3b Wireless LAN adapter 3c Spatial sensor 3d Spacer plate 3e RS-232 cable 3f LCD screen 3g Program button 3h Cursor button 3i Stylus pen 31 Input information output means 31a Additional information output means 101 Host 111 Display processing means 112 Display change input means 113 Virtual Real operation reception means 102 Display device
Claims (5)
前記ホストが表示の形態の変更を受け付ける表示変更受付手段を有し、
操作者が表示の形態の変更を指示するための入力情報出力手段を有し、当該入力情報出力手段に入力された指示を入力情報として送信する携帯端末を備えることを
特徴とする表示システム。 In a display system comprising a host having display processing means for outputting an object to be displayed as display information, and a display device for displaying display information output by the display processing unit,
The host has a display change accepting means for accepting a change in display form;
A display system comprising an input information output unit for an operator to instruct a change in display form, and transmitting an instruction input to the input information output unit as input information.
前記携帯端末が、表示装置に表示されている表示の形態に付加情報を付加するための入力情報出力手段の一つである付加情報出力手段を有し、当該付加情報出力手段に入力された付加情報を表示付加情報として送信し、
前記ホストが、表示付加情報を受け付ける表示変更受付手段の一つである付加入力情報受付手段を有することを
特徴とする表示システム。 The display system according to claim 1,
The portable terminal has additional information output means that is one of input information output means for adding additional information to the display form displayed on the display device, and the additional information input to the additional information output means Send information as additional display information,
The display system, wherein the host has additional input information receiving means which is one of display change receiving means for receiving display additional information.
メモ、マーク、アンダーライン、付箋、リンクを少なくとも1つ前記付加情報とすることを
特徴とする表示システム。 In the display system according to claim 1 or 2,
A display system comprising at least one memo, mark, underline, tag, and link as the additional information.
前記付加情報を階層的に取り扱うことを
特徴とする表示システム。 The display system according to claim 3, wherein
A display system characterized in that the additional information is handled hierarchically.
当該携帯端末が各ホストに対して入力情報を送信することを
特徴とする表示システム。
A display system comprising a plurality of hosts according to claim 1, a display device corresponding to the host, and at least one portable terminal.
A display system, wherein the portable terminal transmits input information to each host.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003381499A JP2005148844A (en) | 2003-11-11 | 2003-11-11 | Display system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003381499A JP2005148844A (en) | 2003-11-11 | 2003-11-11 | Display system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005148844A true JP2005148844A (en) | 2005-06-09 |
Family
ID=34690857
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003381499A Pending JP2005148844A (en) | 2003-11-11 | 2003-11-11 | Display system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005148844A (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012079211A (en) * | 2010-10-05 | 2012-04-19 | Hitachi Ltd | Display system and display method of stereoscopic image |
| JP2012513063A (en) * | 2008-12-18 | 2012-06-07 | マイクロソフト コーポレーション | Data visualization interactive architecture |
| JP2017084214A (en) * | 2015-10-30 | 2017-05-18 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, and program |
| JP2018041341A (en) * | 2016-09-08 | 2018-03-15 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
| JP2020074108A (en) * | 2019-12-24 | 2020-05-14 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, and program |
| JPWO2019102825A1 (en) * | 2017-11-21 | 2020-12-03 | 株式会社ワコム | Rendering device and rendering method |
| US10897530B2 (en) | 2017-06-06 | 2021-01-19 | Goertek Inc. | Input method, device and system |
| JP2023535904A (en) * | 2020-07-21 | 2023-08-22 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Mobile device based VR control |
| JP2024128115A (en) * | 2017-09-04 | 2024-09-20 | 株式会社ワコム | Coordinate calculation system and coordinate calculation method |
| WO2025028569A1 (en) * | 2023-07-31 | 2025-02-06 | 株式会社ワコム | Input system and input method |
-
2003
- 2003-11-11 JP JP2003381499A patent/JP2005148844A/en active Pending
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012513063A (en) * | 2008-12-18 | 2012-06-07 | マイクロソフト コーポレーション | Data visualization interactive architecture |
| JP2012079211A (en) * | 2010-10-05 | 2012-04-19 | Hitachi Ltd | Display system and display method of stereoscopic image |
| JP2017084214A (en) * | 2015-10-30 | 2017-05-18 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, and program |
| JP2018041341A (en) * | 2016-09-08 | 2018-03-15 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
| WO2018047384A1 (en) * | 2016-09-08 | 2018-03-15 | 株式会社コロプラ | Information processing method, program for causing computer to execute information processing method, and information processing device and information processing system whereupon information processing method is executed |
| CN108027987A (en) * | 2016-09-08 | 2018-05-11 | Colopl株式会社 | Information processing method, the program for making the computer-implemented information processing method, the information processor and information processing system for implementing the information processing method |
| CN108027987B (en) * | 2016-09-08 | 2020-01-17 | Colopl株式会社 | Information processing method, information processing device, and information processing system |
| US10897530B2 (en) | 2017-06-06 | 2021-01-19 | Goertek Inc. | Input method, device and system |
| JP7720965B2 (en) | 2017-09-04 | 2025-08-08 | 株式会社ワコム | Coordinate calculation system and coordinate calculation method |
| JP2024128115A (en) * | 2017-09-04 | 2024-09-20 | 株式会社ワコム | Coordinate calculation system and coordinate calculation method |
| JPWO2019102825A1 (en) * | 2017-11-21 | 2020-12-03 | 株式会社ワコム | Rendering device and rendering method |
| JP7345396B2 (en) | 2017-11-21 | 2023-09-15 | 株式会社ワコム | Rendering device and rendering method |
| JP2023164499A (en) * | 2017-11-21 | 2023-11-10 | 株式会社ワコム | Computers, rendering methods, and programs |
| JP2023166504A (en) * | 2017-11-21 | 2023-11-21 | 株式会社ワコム | Position indication device and computer |
| JP7692962B2 (en) | 2017-11-21 | 2025-06-16 | 株式会社ワコム | Computer, rendering method, and program |
| JP7642748B2 (en) | 2017-11-21 | 2025-03-10 | 株式会社ワコム | Position indicating device and computer |
| JP2020074108A (en) * | 2019-12-24 | 2020-05-14 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, and program |
| JP2023535904A (en) * | 2020-07-21 | 2023-08-22 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Mobile device based VR control |
| JP7725155B2 (en) | 2020-07-21 | 2025-08-19 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Mobile device-based VR control |
| WO2025028569A1 (en) * | 2023-07-31 | 2025-02-06 | 株式会社ワコム | Input system and input method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Grossman et al. | Multi-finger gestural interaction with 3d volumetric displays | |
| Benko et al. | Collaborative mixed reality visualization of an archaeological excavation | |
| CN108762482B (en) | A method and system for data interaction between large screen and augmented reality glasses | |
| JP5304341B2 (en) | Information visualization system, method and program | |
| CN104081307A (en) | Image processing apparatus, image processing method, and program | |
| Thomas et al. | Spatial augmented reality—A tool for 3D data visualization | |
| JPWO2002069276A1 (en) | Display control device, information terminal device provided with the display control device, and viewpoint position control device | |
| JP3376593B2 (en) | Map data display device | |
| US6714198B2 (en) | Program and apparatus for displaying graphical objects | |
| JPH07271546A (en) | Image display control method | |
| Englmeier et al. | Feel the globe: Enhancing the perception of immersive spherical visualizations with tangible proxies | |
| CN115328304A (en) | 2D-3D fused virtual reality interaction method and device | |
| JP2005148844A (en) | Display system | |
| Regenbrecht et al. | A tangible AR desktop environment | |
| Steinicke et al. | A generic virtual reality software system's architecture and application | |
| JP2002351309A (en) | City VR map linked information display device | |
| JP2009193471A (en) | Display control device, display processing device, application server, display control method, display processing method, application execution method, control program, and recording medium | |
| JP3551184B2 (en) | Guidance system, map data server device, map data display terminal device | |
| US11875465B2 (en) | Virtual reality data-processing device, system and method | |
| JP3939444B2 (en) | Video display device | |
| CN108920598A (en) | Panorama sketch browsing method, device, terminal device, server and storage medium | |
| JPH11203038A (en) | Mobile terminal device | |
| Miguel et al. | A PDA-based see-through interface within an immersive environment | |
| JP2001092579A (en) | Information display device | |
| Choi et al. | Optimal close‐up views for precise 3D manipulation |