JP2025114374A - Information processing system, output method, and program - Google Patents
Information processing system, output method, and programInfo
- Publication number
- JP2025114374A JP2025114374A JP2024009033A JP2024009033A JP2025114374A JP 2025114374 A JP2025114374 A JP 2025114374A JP 2024009033 A JP2024009033 A JP 2024009033A JP 2024009033 A JP2024009033 A JP 2024009033A JP 2025114374 A JP2025114374 A JP 2025114374A
- Authority
- JP
- Japan
- Prior art keywords
- control unit
- virtual
- user
- instructor
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】一方の仮想空間に配置されたアバターを操作中のユーザに、他方の仮想空間に関する情報を通知すること。【解決手段】仮想空間に配置されたアバターの視界情報を、ネットワークを介して端末装置に送信する情報処理システムであって、バーチャル会議サーバ1は、第1のユーザ(講師)の複数のアバターを異なる仮想空間に配置するアバター管理部と、第1のユーザの端末装置に表示されていない仮想空間に関する情報を生成するバーチャル表示制御部26と、仮想空間に関する情報を第1のユーザの端末装置に送信する通信制御部23と、を有する。【選択図】図5[Problem] To notify a user operating an avatar placed in one virtual space of information about another virtual space. [Solution] An information processing system transmits visibility information of avatars placed in virtual spaces to terminal devices via a network, in which a virtual conference server (1) has an avatar management unit that places multiple avatars of a first user (lecturer) in different virtual spaces, a virtual display control unit (26) that generates information about virtual spaces not displayed on the first user's terminal device, and a communication control unit (23) that transmits information about the virtual spaces to the first user's terminal device. [Selected Figure] Figure 5
Description
本発明は、情報処理システム、出力方法、及びプログラムに関する。 The present invention relates to an information processing system, an output method, and a program.
PC(パーソナル・コンピュータ)等がサーバと通信することで、ユーザがオンライン会議に参加したり、イーラーニングを受講したりすることが可能になっている。また、参加者が仮想空間に配置されたアバターを、VR(バーチャル・リアリティ)用の端末装置に表示させ、仮想空間で会議等を行うことも可能になっている。 By communicating with a server via a PC (personal computer), users can participate in online meetings and take e-learning courses. It is also possible for participants to display avatars placed in a virtual space on a VR (virtual reality) terminal device, allowing them to hold meetings and other events in the virtual space.
端末装置を装着した参加者が仮想空間で授業を受ける技術が考案されている(例えば、特許文献1参照)。特許文献1には、1人の講師が複数のアバターを操作して複数の授業を仮想空間で行うための構成が開示されている。 Technology has been devised that allows participants wearing terminal devices to take lessons in a virtual space (see, for example, Patent Document 1). Patent Document 1 discloses a configuration in which one instructor controls multiple avatars to conduct multiple lessons in a virtual space.
しかしながら、従来の技術では、一方の仮想空間に配置されたアバターを操作中のユーザに、他方の仮想空間に関する情報を通知する機能がないという問題があった。例えば、一方の仮想空間に配置されたアバターの視点で該仮想空間を表示させているユーザを、他方の仮想空間に呼び出したいような場合に、ユーザに通知する機能がなかった。 However, conventional technology has the problem of not having a function to notify a user operating an avatar placed in one virtual space of information about the other virtual space. For example, if a user who is viewing a virtual space from the viewpoint of an avatar placed in one virtual space wants to be called into the other virtual space, there is no function to notify the user.
本発明は、上記課題に鑑み、一方の仮想空間に配置されたアバターを操作中のユーザに、他方の仮想空間に関する情報を通知する技術を提供する。 In consideration of the above-mentioned problems, the present invention provides a technology that notifies a user operating an avatar placed in one virtual space of information related to the other virtual space.
上記課題に鑑み、本発明は、仮想空間に配置されたアバターの視界情報を、ネットワークを介して端末装置に送信する情報処理システムであって、第1のユーザの複数のアバターを異なる仮想空間に配置するアバター管理部と、前記第1のユーザの端末装置に表示されていない前記仮想空間に関する情報を生成するバーチャル表示制御部と、前記仮想空間に関する情報を前記第1のユーザの前記端末装置に送信する通信制御部と、を有する。 In consideration of the above-mentioned problems, the present invention provides an information processing system that transmits view information of avatars placed in a virtual space to a terminal device via a network, and includes an avatar management unit that places multiple avatars of a first user in different virtual spaces, a virtual display control unit that generates information about the virtual space that is not displayed on the terminal device of the first user, and a communication control unit that transmits information about the virtual space to the terminal device of the first user.
一方の仮想空間に配置されたアバターを操作中のユーザに、他方の仮想空間に関する情報を通知する技術を提供できる。 This technology allows a user operating an avatar placed in one virtual space to be notified of information about another virtual space.
以下、本発明を実施するための形態の一例として仮想空間システムと、仮想空間システムが行う出力方法について図面を参照しながら説明する。 Below, a virtual space system and the output method performed by the virtual space system will be described as an example of an embodiment of the present invention, with reference to the drawings.
<用語について>
視界情報とは、アバターの視点から見た仮想空間の様子を視覚化した情報である。本実施形態では、視界情報を視界画面という用語で説明する。VRゴーグルはジャイロセンサ及び加速度センサによりユーザの視点方向を監視しており、ユーザの視点の方向にある仮想空間に構築された3DモデルをVRゴーグルのディスプレイに表示する。あるいは、ユーザの視点はVR用操作コントローラにてユーザが操作することもできる。3Dモデルとは、3次元の座標を持つポリゴンなどで立体のサーフェイスを現したデータである。本実施形態の3Dモデルには机、電子黒板、他のユーザのアバター等がある。
<Terminology>
View information is information that visualizes the state of the virtual space as seen from the viewpoint of an avatar. In this embodiment, view information is described using the term view screen. The VR goggles monitor the user's viewpoint using a gyro sensor and an acceleration sensor, and a 3D model constructed in the virtual space in the direction of the user's viewpoint is displayed on the VR goggles' display. Alternatively, the user can control the user's viewpoint using a VR operation controller. A 3D model is data that represents a three-dimensional surface using polygons or the like with three-dimensional coordinates. 3D models in this embodiment include desks, electronic whiteboards, and other users' avatars.
仮想空間とは、例えば360°の3次元空間をコンピュータで再現した仮想的な空間である。仮想空間は、ネットワーク上で人々が現実世界のように交流を持ったり社会的な営みを行ったりする場であることを、物理的な空間に例えた用語である。本実施形態では、主に仮想空間により会議室が再現されるが、仮想空間は任意の3次元空間を再現できる。また、本実施形態では、平面的である表示データが表示されればよいので仮想空間は2次元空間でもよい。 A virtual space is a virtual space that recreates, for example, a 360° three-dimensional space on a computer. The term virtual space is a place where people interact and engage in social activities over a network, just as they would in the real world, and is likened to a physical space. In this embodiment, a conference room is primarily recreated in the virtual space, but any three-dimensional space can be recreated in the virtual space. Furthermore, in this embodiment, the virtual space can also be two-dimensional, as it is sufficient for planar display data to be displayed.
ポインターとは、コンピュータの操作画面で入力位置を示すカーソルのひとつで、例えば矢印の形をしたアイコンのことをいう。ポインターは、通常は矢印の形をしている場合が多いが、コンピュータの状態やマウスポインタの位置に応じてカーソルの形状が変化することもある。 A pointer is a type of cursor that indicates the input position on a computer screen, and is, for example, an arrow-shaped icon. Pointers are usually arrow-shaped, but the shape of the cursor can change depending on the state of the computer or the position of the mouse pointer.
仮想空間をユーザが閲覧するための表示装置は、本実施形態では、VRゴーグルという用語で説明される。VRゴーグルはAR(Augmented Reality)ゴーグル、又は、MR(Mixed Reality)ゴーグルでもよい。 In this embodiment, the display device that allows the user to view the virtual space is referred to as VR goggles. VR goggles may be AR (Augmented Reality) goggles or MR (Mixed Reality) goggles.
アバターとは、コンピューターグラフィックスで生成された参加者の分身をいう。参加者はVRゴーグルを装着することで、バーチャル会議スペースに存在する各参加者のアバターが現実の空間に存在するかのように把握できる。 An avatar is a participant's alter ego generated using computer graphics. By wearing VR goggles, participants can perceive each participant's avatar in the virtual meeting space as if they were actually in real space.
<システム構成例>
図1は、仮想空間システム300のシステム構成図である。仮想空間システム300には、バーチャル会議サーバ1がネットワークNを介して、Wi-Fiルータ3,7、8と通信可能に接続されている。また、Wi-Fiルータ3,7,8にはノートPC4,11,14が通信可能に接続できる。ネットワークNは例えばインターネットであるが、社内ネットワークなどオンプレミスネットワークでもよい。
<System configuration example>
1 is a system configuration diagram of a virtual space system 300. In the virtual space system 300, a virtual conference server 1 is communicably connected to Wi-Fi routers 3, 7, and 8 via a network N. Notebook PCs 4, 11, and 14 can also be communicably connected to the Wi-Fi routers 3, 7, and 8. The network N is, for example, the Internet, but may also be an on-premise network such as an in-house network.
バーチャル会議サーバ1は一台以上の情報処理装置を有する情報処理システムである。バーチャル会議サーバ1はメモリ上にバーチャル会議スペース8のデータを記憶してバーチャル会議アプリを実行する。以降、バーチャル会議サーバ1にて実行されるバーチャル会議アプリが提供するサービスをバーチャル会議サービスと称する。また、バーチャル会議スペース8とは、会議室を仮想空間で模倣した例えば360°の3次元空間である。VRゴーグル5,12,15(端末装置の一例)は仮想空間にある任意の表示データ9を表示するものであり、会議の参加者はVRゴーグル5,12,15によりバーチャル会議スペース8の任意の視点を閲覧できる。参加者はあたかも会議室に入室しているかのように会議室内に配置された機器の画面を見ることができる。 The virtual conference server 1 is an information processing system having one or more information processing devices. The virtual conference server 1 stores data for the virtual conference space 8 in memory and executes a virtual conference app. Hereinafter, the service provided by the virtual conference app executed by the virtual conference server 1 will be referred to as the virtual conference service. The virtual conference space 8 is, for example, a 360° three-dimensional space that simulates a conference room in a virtual space. VR goggles 5, 12, and 15 (an example of a terminal device) display any display data 9 in the virtual space, and conference participants can view any viewpoint of the virtual conference space 8 using the VR goggles 5, 12, and 15. Participants can view the screens of devices located in the conference room as if they were actually in the conference room.
バーチャル会議スペース8は、ノートPC4,11,14から取得した画面であってこの画面と同期する仮想空間上のノートPC(以降、仮想ノートPCと呼ぶ)の画面を有する。ノートPC4,11,14の画面データをPC表示データ9a,9bという。また、バーチャル会議スペース8は、仮想的な電子黒板の表示データとして仮想電子黒板表示データ9c,9dを管理する。PC表示データ9a,9b及び仮想電子黒板表示データ9c,9dを区別しない場合、バーチャル会議スペース8に表示されるデータを表示データ9という。 The virtual conference space 8 has a screen acquired from the notebook PCs 4, 11, and 14 and synchronized with the screen of a notebook PC (hereafter referred to as a virtual notebook PC). The screen data of the notebook PCs 4, 11, and 14 is referred to as PC display data 9a and 9b. The virtual conference space 8 also manages virtual electronic whiteboard display data 9c and 9d as display data for a virtual electronic whiteboard. When there is no distinction between the PC display data 9a and 9b and the virtual electronic whiteboard display data 9c and 9d, the data displayed in the virtual conference space 8 is referred to as display data 9.
そして、バーチャル会議スペース8にはルームがあり、会議への参加者(講師Z、ユーザA、Bはアバターを使って各ルームに入ることができる。図1ではルームAとルームBがある。ルームA,B内にある表示データ9はそのルームに入った参加者が共有できる。PC表示データ9a,9bに関しては自分のものしか見えないように制御されてもよい。 The virtual conference space 8 has rooms, and conference participants (lecturer Z, users A and B) can enter each room using avatars. In Figure 1, there are rooms A and B. The display data 9 in rooms A and B can be shared by participants who enter those rooms. PC display data 9a and 9b can be controlled so that only the participant's own data is visible.
図1では、講師ZがノートPC4、VRゴーグル5、及びVR用操作コントローラ6を使用している。ノートPC4とVRゴーグル5はWi-Fiルータ3と無線LANで通信可能に接続されている。VRゴーグル5とVR用操作コントローラ6はBluetooth(登録商標。以下省略する。)で接続されている。ノートPC4とVRゴーグル5間もBluetoothで接続されている。ノートPC4ではバーチャル会議アプリが起動されている。 In Figure 1, instructor Z is using a laptop PC 4, VR goggles 5, and a VR operation controller 6. The laptop PC 4 and VR goggles 5 are connected to a Wi-Fi router 3 via wireless LAN so that they can communicate with each other. The VR goggles 5 and VR operation controller 6 are connected via Bluetooth (registered trademark; hereafter omitted). The laptop PC 4 and VR goggles 5 are also connected via Bluetooth. A virtual conference app is running on the laptop PC 4.
ユーザAはWi-Fiルータ7が設置されている環境でノートPC11、VRゴーグル12、及び、VR用操作コントローラ13を使用している。ユーザBはWi-Fiルータ8が設置されている環境でノートPC14、VRゴーグル15、及び、VR用操作コントローラ16を使用している。 User A uses a laptop PC 11, VR goggles 12, and a VR operation controller 13 in an environment where a Wi-Fi router 7 is installed. User B uses a laptop PC 14, VR goggles 15, and a VR operation controller 16 in an environment where a Wi-Fi router 8 is installed.
ユーザAとユーザBのノートPC11,14とVRゴーグル12,15はWi-Fiルータ7,8と無線LANで接続されており、VRゴーグル12、15とVR用操作コントローラ13,16はBluetoothで接続されている。また、ノートPC11,14とVRゴーグル12,15間もBluetoothで接続されている。ユーザAとユーザBのノートPC11,14ではバーチャル会議アプリが起動されている。 User A's and User B's laptop PCs 11, 14 and VR goggles 12, 15 are connected to Wi-Fi routers 7, 8 via wireless LAN, and the VR goggles 12, 15 and VR operation controllers 13, 16 are connected via Bluetooth. The laptop PCs 11, 14 and VR goggles 12, 15 are also connected via Bluetooth. A virtual conference app is running on User A's and User B's laptop PCs 11, 14.
<ハードウェア構成例>
<<バーチャル会議サーバ及びノートPC>>
図2Aは、バーチャル会議サーバ1の一例のハードウェア構成を示す図である。図2Aに示されているように、バーチャル会議サーバ1はコンピュータ500によって構築されており、CPU501、ROM502、RAM503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、光学ドライブ514、メディアI/F516を備えている。
<Hardware configuration example>
<<Virtual conference server and laptop PC>>
Fig. 2A is a diagram showing an example of the hardware configuration of the virtual conference server 1. As shown in Fig. 2A, the virtual conference server 1 is constructed by a computer 500 and includes a CPU 501, a ROM 502, a RAM 503, a hard disk (HD) 504, a hard disk drive (HDD) controller 505, a display 506, an external device connection I/F (Interface) 508, a network I/F 509, a bus line 510, a keyboard 511, an optical drive 514, and a media I/F 516.
これらのうち、CPU501は、バーチャル会議サーバ1全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやマウス等である。ネットワークI/F509は、ネットワークを利用してデータ通信をするためのインターフェースである。バスライン510は、図2Aに示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Of these, the CPU 501 controls the overall operation of the virtual conference server 1. The ROM 502 stores programs used to drive the CPU 501, such as IPL. The RAM 503 is used as a work area for the CPU 501. The HDD 504 stores various data, such as programs. The HDD controller 505 controls the reading and writing of various data from the HDD 504 under the control of the CPU 501. The display 506 displays various information, such as a cursor, menu, window, text, or image. The external device connection I/F 508 is an interface for connecting various external devices. In this case, external devices include, for example, a USB (Universal Serial Bus) memory or a mouse. The network I/F 509 is an interface for data communication using a network. The bus line 510 is an address bus, data bus, or the like, for electrically connecting the various components, such as the CPU 501, shown in FIG. 2A.
また、キーボード511は、文字、数値、又は各種指示などの入力に使用される複数のキーを備えた入力手段の一種である。光学ドライブ514は、着脱可能な記録媒体の一例としての光記憶媒体513に対する各種データの読み出し又は書き込みを制御する。なお、光記憶媒体513は、CD,DVD、Blu-ray(登録商標)等でよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。
<<ノートPC>>
図2Bは、ノートPC4,11,14の一例のハードウェア構成を示す図である。図2Bに示されているように、ノートPC4,11,14はコンピュータ600によって構築されており、CPU521、ROM522、RAM523、HD(Hard Disk)524、HDD(Hard Disk Drive)コントローラ525、ディスプレイ526、外部機器接続I/F(Interface)528、ネットワークI/F529、バスライン530、キーボード531、ポインティングデバイス532、メディアI/F536を備えている。
The keyboard 511 is a type of input means having multiple keys used to input characters, numbers, various instructions, etc. The optical drive 514 controls reading and writing of various data from an optical storage medium 513, which is an example of a removable storage medium. The optical storage medium 513 may be a CD, DVD, Blu-ray (registered trademark), etc. The media I/F 516 controls reading and writing (storing) of data from a storage medium 515, such as a flash memory.
<<Notebook PC>>
2B is a diagram showing an example of the hardware configuration of the notebook PCs 4, 11, and 14. As shown in Fig. 2B, the notebook PCs 4, 11, and 14 are constructed by a computer 600, and include a CPU 521, a ROM 522, a RAM 523, a HD (Hard Disk) 524, a HDD (Hard Disk Drive) controller 525, a display 526, an external device connection I/F (Interface) 528, a network I/F 529, a bus line 530, a keyboard 531, a pointing device 532, and a media I/F 536.
これらのうち、CPU521は、ノートPC4,11,14全体の動作を制御する。ROM522は、IPL等のCPU521の駆動に用いられるプログラムを記憶する。RAM523は、CPU521のワークエリアとして使用される。HD524は、プログラム等の各種データを記憶する。HDDコントローラ525は、CPU521の制御にしたがってHD524に対する各種データの読み出し又は書き込みを制御する。ディスプレイ526は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F528は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F529は、ネットワークを利用してデータ通信をするためのインターフェースである。バスライン530は、図2Bに示されているCPU521等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Of these, the CPU 521 controls the overall operation of the notebook PC 4, 11, or 14. The ROM 522 stores programs used to drive the CPU 521, such as IPL. The RAM 523 is used as a work area for the CPU 521. The HDD 524 stores various data, such as programs. The HDD controller 525 controls the reading and writing of various data from the HDD 524 under the control of the CPU 521. The display 526 displays various information, such as a cursor, menus, windows, text, or images. The external device connection I/F 528 is an interface for connecting various external devices. In this case, external devices include, for example, USB (Universal Serial Bus) memory and printers. The network I/F 529 is an interface for data communication using a network. The bus line 530 is an address bus, data bus, etc., for electrically connecting the various components, such as the CPU 521, shown in FIG. 2B.
また、キーボード531は、文字、数値、又は各種指示などの入力に使用される複数のキーを備えた入力手段の一種である。ポインティングデバイス532は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。メディアI/F536は、フラッシュメモリ等の記録メディア535に対するデータの読み出し又は書き込み(記憶)を制御する。 The keyboard 531 is a type of input means equipped with multiple keys used to input characters, numbers, various instructions, etc. The pointing device 532 is a type of input means used to select and execute various instructions, select processing targets, move the cursor, etc. The media I/F 536 controls the reading and writing (storage) of data from and to the recording media 535, such as flash memory.
<<VRゴーグル>>
図3は、VRゴーグル5,12,15のハードウェア構成図である。VRゴーグル5,12,15は、バス94を介して接続されたCPU80、メインメモリ81、ROM82、表示コントローラ86、無線LANコントローラ88、音声コーデック90、及び動画像コーデック93を有する。
<<VR goggles>>
3 is a diagram showing the hardware configuration of the VR goggles 5, 12, and 15. The VR goggles 5, 12, and 15 each include a CPU 80, a main memory 81, a ROM 82, a display controller 86, a wireless LAN controller 88, an audio codec 90, and a video codec 93, all of which are connected via a bus 94.
CPU80は、ROM82からメインメモリ81に読み出されたOSや制御処理プログラムを実行し、処理する。メインメモリ81は、DRAMを有し、CPU80のワークエリア等で使用される。 The CPU 80 executes and processes the OS and control processing programs read from the ROM 82 into the main memory 81. The main memory 81 includes DRAM and is used as a work area for the CPU 80, etc.
ROM82は、OS及び電源オン時のシステムプログラム、及び、VRゴーグル5,12,15を制御するプログラムが予め書き込まれている。 ROM 82 is pre-loaded with the OS, system programs that run when the power is turned on, and programs that control the VR goggles 5, 12, and 15.
CPU80にはUART83が接続されている。UART83は、CPU80とBluetoothモジュール84との間でシリアルデータの授受を行うインターフェースであり、FIFO(First In, First Out)やシフトレジスタ等から構成される。 A UART 83 is connected to the CPU 80. The UART 83 is an interface that exchanges serial data between the CPU 80 and the Bluetooth module 84, and is composed of a FIFO (First In, First Out) and a shift register, etc.
Bluetoothモジュール84は、RF部とベースバンド部から構成されており、またアンテナ85が接続されており、Bluetooth規格に準拠した無線通信を実行する。 The Bluetooth module 84 consists of an RF section and a baseband section, and is connected to an antenna 85, performing wireless communication in accordance with the Bluetooth standard.
表示コントローラ86は文字データやグラフィックデータ、画像データ等をD/A変換すると共に、これらのデータをLCD87に表示するための制御を行う。 The display controller 86 performs D/A conversion of character data, graphic data, image data, etc., and controls the display of this data on the LCD 87.
無線LANコントローラ88は、IEEE(Institute of Electrical and Electronics Engineers)802.11ax規格に準拠した通信プロトコルを実行して、アンテナ89を介した電波の送受信により他の機器との通信を制御する。 The wireless LAN controller 88 executes a communication protocol compliant with the IEEE (Institute of Electrical and Electronics Engineers) 802.11ax standard, controlling communication with other devices by sending and receiving radio waves via the antenna 89.
マイク91から入力された音声信号はA/D(Analog/Digital)変換回路により音声データに変換され、この音声データは音声コーデック90によりAAC(Advanced Audio Coding)方式で符号化される。また、外部の機器から受信したAACの符号化データは音声コーデック90により復号され、D/A変換回路によりアナログに変換された音声がスピーカー92から出力される。動画像コーデック93は外部の機器から受信した動画像圧縮データ(例えば、ITU-T勧告H.264に準拠した方式)を復号する。上記の各構成要素間はバス94を介してデータの受け渡しを行う。 Audio signals input from microphone 91 are converted into audio data by an A/D (Analog/Digital) conversion circuit, and this audio data is encoded by audio codec 90 using the AAC (Advanced Audio Coding) method. Furthermore, AAC-encoded data received from an external device is decoded by audio codec 90, converted to analog by a D/A conversion circuit, and the resulting audio is output from speaker 92. Video codec 93 decodes compressed video data (for example, a method compliant with ITU-T Recommendation H.264) received from an external device. Data is exchanged between the above components via bus 94.
<<VR用操作コントローラ>>
図4は、VR用操作コントローラ6,13,16のハードウェア構成図である。VR用操作コントローラ6,13,16は、CPU110に接続された、UART117、メインメモリ111、ROM112、6軸加速度・角速度センサ113、メニュー表示ボタン114、ポインター表示ボタン115、及び、確定ボタン116を有する。
<<VR operation controller>>
4 is a hardware configuration diagram of the VR operation controllers 6, 13, and 16. The VR operation controllers 6, 13, and 16 each have a UART 117, a main memory 111, a ROM 112, a 6-axis acceleration/angular velocity sensor 113, a menu display button 114, a pointer display button 115, and a confirm button 116, all of which are connected to a CPU 110.
CPU110は、ROM112からメインメモリ111に読み出された制御処理プログラムを実行し、処理する。メインメモリ111は、DRAMを有し、CPU110のワークエリア等として使用される。 The CPU 110 executes and processes the control processing program read from the ROM 112 into the main memory 111. The main memory 111 includes DRAM and is used as a work area for the CPU 110, etc.
ROM112には、電源オン時のシステムプログラム、メニュー表示ボタン114、ポインター表示ボタン115、及び、確定ボタン116の押下情報をBluetoothにより送信するプログラムが予め書き込まれている。 ROM 112 is pre-loaded with a system program that runs when the power is turned on, and a program that transmits information via Bluetooth when the menu display button 114, pointer display button 115, and confirm button 116 are pressed.
6軸加速度・角速度センサ113は加速度と角速度の測定データを出力する。UART117は、CPU110とBluetoothモジュール118との間でシリアルデータの授受を行うインターフェースであり、FIFOやシフトレジスタ等から構成される。Bluetoothモジュール118は、RF部とベースバンド部から構成されており、またアンテナ119が接続されており、Bluetooth規格に準拠した無線通信を実行する。 The six-axis acceleration/angular velocity sensor 113 outputs measurement data on acceleration and angular velocity. The UART 117 is an interface that exchanges serial data between the CPU 110 and the Bluetooth module 118, and is composed of a FIFO, shift register, etc. The Bluetooth module 118 is composed of an RF section and a baseband section, and is connected to an antenna 119, which performs wireless communication in accordance with the Bluetooth standard.
<機能について>
次に、図5を参照して、仮想空間システム300が有する機能構成について説明する。図5は、仮想空間システム300におけるバーチャル会議サーバ1、ノートPC4,11,14、VRゴーグル5,12,15、及び、VR用操作コントローラ6,13,16の機能をブロックに分けて説明する機能ブロック図の一例である。
<About the function>
Next, the functional configuration of the virtual space system 300 will be described with reference to Fig. 5. Fig. 5 is an example of a functional block diagram that explains the functions of the virtual conference server 1, the notebook PCs 4, 11, and 14, the VR goggles 5, 12, and 15, and the VR operation controllers 6, 13, and 16 in the virtual space system 300, divided into blocks.
<<バーチャル会議サーバ>>
バーチャル会議サーバ1は、バーチャル会議制御部20、ホワイトボード生成・管理部21、画面同期制御部22、通信制御部23、会議データ記憶部24、ルーム管理部41、出力制御部43、表示データ生成部25、バーチャル表示制御部26、ポインター位置算出部27、ユーザ認証部28、ユーザ情報記憶部29、音声認識部42、アバター管理部44を有する。バーチャル会議サーバ1が有するこれら各部は、図2Aに示されている各構成要素のいずれかが、HD504からRAM503に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。
<<Virtual conference server>>
The virtual conference server 1 includes a virtual conference control unit 20, a whiteboard generation and management unit 21, a screen synchronization control unit 22, a communication control unit 23, a conference data storage unit 24, a room management unit 41, an output control unit 43, a display data generation unit 25, a virtual display control unit 26, a pointer position calculation unit 27, a user authentication unit 28, a user information storage unit 29, a voice recognition unit 42, and an avatar management unit 44. Each of these units included in the virtual conference server 1 is a function or a means for performing a function that is realized when any of the components shown in FIG. 2A operates in response to an instruction from the CPU 501 in accordance with a program loaded from the HD 504 to the RAM 503.
バーチャル会議制御部20は、会議の参加者と会議に接続する機器(ノートPC4,11,14、VRゴーグル5,12,15)を会議の識別情報(会議ID)と対応付けて会議データ記憶部24に記憶させる。バーチャル会議制御部20は、会議IDごとに、各機器との間でリモート会議を実行する。また、バーチャル会議制御部20は、仮想電子黒板表示データ9c,9d、PC表示データ9a,9bやバーチャル会議に接続する機器から受信する音声データ等を会議データ記憶部24に記憶させる。 The virtual conference control unit 20 associates conference participants and devices connected to the conference (notebook PCs 4, 11, 14, VR goggles 5, 12, 15) with conference identification information (conference ID) and stores them in the conference data storage unit 24. The virtual conference control unit 20 runs a remote conference with each device for each conference ID. The virtual conference control unit 20 also stores virtual electronic whiteboard display data 9c, 9d, PC display data 9a, 9b, audio data received from devices connected to the virtual conference, and so on in the conference data storage unit 24.
ホワイトボード生成・管理部21は、バーチャル会議スペース8内に仮想電子黒板を生成したり、仮想電子黒板表示データ9c,9dを管理したりする。 The whiteboard generation and management unit 21 generates a virtual electronic whiteboard within the virtual conference space 8 and manages the virtual electronic whiteboard display data 9c and 9d.
画面同期制御部22は、物理的な存在の電子黒板を参加者が使用する場合、電子黒板の画面データと仮想電子黒板表示データ9c,9dが同じになるように、両者を同期させる手段である。なお、画面同期制御部22はアプリケーションレイヤーとして動作する。 When a participant uses a physical electronic whiteboard, the screen synchronization control unit 22 synchronizes the electronic whiteboard screen data with the virtual electronic whiteboard display data 9c, 9d so that they are the same. The screen synchronization control unit 22 operates as an application layer.
通信制御部23とは、グループに関する情報を講師ZのVRゴーグル5に送信する手段である。また、通信制御部23は、バーチャル表示制御部26が生成したアバターの視界情報を講師のVRゴーグル5に送信する手段である。具体的には、通信制御部23は、ノートPC4,11,14、及びVRゴーグル5,12,15との間でデータの送受信を実行する。 The communication control unit 23 is a means for transmitting information about the group to instructor Z's VR goggles 5. The communication control unit 23 is also a means for transmitting avatar visibility information generated by the virtual display control unit 26 to the instructor's VR goggles 5. Specifically, the communication control unit 23 transmits and receives data between the laptop PCs 4, 11, and 14 and the VR goggles 5, 12, and 15.
会議データ記憶部24は、仮想電子黒板表示データ9c,9d、PC表示データ9a,9b、及び、バーチャル会議に接続する機器から受信する音声データ等を記憶する。会議データ記憶部24は、グループ間の通知メッセージ等も記憶している。 The conference data storage unit 24 stores virtual electronic whiteboard display data 9c, 9d, PC display data 9a, 9b, and audio data received from devices connected to the virtual conference. The conference data storage unit 24 also stores notification messages between groups.
ルーム管理部41は、バーチャル会議スペース8における会議をルームという単位で管理する。バーチャル会議スペース8では同時に複数の会議が開催可能である。1つのルームで1つの会議が開催され、それぞれバーチャル会議スペース8が構築される。 The room management unit 41 manages conferences in the virtual conference space 8 in units called rooms. Multiple conferences can be held simultaneously in the virtual conference space 8. One conference is held in one room, and a virtual conference space 8 is created for each room.
出力制御部とは、視界情報が講師のVRゴーグル5に表示されていない仮想空間に関する情報を講師のVRゴーグル5に出力させる。具体的には、出力制御部43は、ユーザ操作を解析して会議において適切な通知メッセージを、表示データ生成部25に生成させる。例えば、出力制御部43は、会議で一定時間発言がない場合、講師Zに通知メッセージを通知する。また、出力制御部43は、講師Zが手を離せない場合に、講師Zに代わって通知メッセージをグループの参加者に送信する。 The output control unit outputs information about the virtual space where field of view information is not displayed on the instructor's VR goggles 5 to the instructor's VR goggles 5. Specifically, the output control unit 43 analyzes user operations and causes the display data generation unit 25 to generate appropriate notification messages for the conference. For example, if no one speaks during a certain period of time in the conference, the output control unit 43 sends a notification message to instructor Z. Furthermore, if instructor Z is busy, the output control unit 43 sends a notification message to the group participants on behalf of instructor Z.
表示データ生成部25は、バーチャル会議スペース8に表示されるメニューやVR用操作コントローラ6,13,16によって表示指示されたポインター170等を生成する。 The display data generation unit 25 generates the menus displayed in the virtual conference space 8, the pointer 170 displayed by the VR operation controllers 6, 13, and 16, and the like.
バーチャル表示制御部26は、VR用操作コントローラ6,13,16から送信された操作情報に基づいて、仮想電子黒板表示データを指し示すポインター170をバーチャル会議スペース8に表示させる手段である。バーチャル表示制御部26は、具体的には、バーチャル会議スペース8に種々の表示データを表示させる。バーチャル表示制御部26は、表示データ生成部25によって生成されたメニュー、ポインター170、ホワイトボード生成・管理部21によって生成された仮想電子黒板に関する仮想電子黒板表示データ9c,9d、及び、ノートPC4,11,14に関するPC表示データ9a,9b等をバーチャル会議スペース8に表示させる。バーチャル表示制御部26はバーチャル会議スペース8の表示データをVRゴーグル5,12,15に通信制御部23を介して送信して、VRゴーグル5,12,15にバーチャル会議スペース8が表示される。 The virtual display control unit 26 is a means for displaying a pointer 170 indicating virtual electronic whiteboard display data in the virtual conference space 8 based on operation information transmitted from the VR operation controllers 6, 13, and 16. Specifically, the virtual display control unit 26 displays various display data in the virtual conference space 8. The virtual display control unit 26 displays in the virtual conference space 8 the menu and pointer 170 generated by the display data generation unit 25, virtual electronic whiteboard display data 9c and 9d related to the virtual electronic whiteboard generated by the whiteboard generation and management unit 21, and PC display data 9a and 9b related to the laptop PCs 4, 11, and 14. The virtual display control unit 26 transmits the display data for the virtual conference space 8 to the VR goggles 5, 12, and 15 via the communication control unit 23, and the virtual conference space 8 is displayed on the VR goggles 5, 12, and 15.
ポインター位置算出部27は、VR用操作コントローラ6,13,16の向きと動きによって指し示されたポインター170の位置(バーチャル会議スペース8における)を算出する。 The pointer position calculation unit 27 calculates the position (in the virtual conference space 8) of the pointer 170 indicated by the orientation and movement of the VR operation controllers 6, 13, and 16.
ユーザ認証部28は、通信制御部23を介して受信するユーザ名・パスワードと、ユーザ情報記憶部29に記憶されたユーザ名・パスワードとを照合して、バーチャル会議に参加するユーザを認証する。 The user authentication unit 28 compares the username and password received via the communication control unit 23 with the username and password stored in the user information storage unit 29 to authenticate users participating in the virtual conference.
ユーザ情報記憶部29はバーチャル会議に参加するユーザのユーザ名及びパスワードを記憶している。 The user information storage unit 29 stores the usernames and passwords of users participating in the virtual conference.
音声認識部42は、バーチャル会議内の各アバターに対応したユーザの発言(音声)を認識すし、ユーザの識別情報と共に記録する。音声データと認識結果が対応付けて会議データ記憶部24に保存される。音声認識は専用のサーバによって実施されてもよい。 The voice recognition unit 42 recognizes the utterances (voice) of users corresponding to each avatar in the virtual conference and records them together with the user's identification information. The voice data and recognition results are associated and stored in the conference data storage unit 24. Voice recognition may be performed by a dedicated server.
アバター管理部44とは、第1のユーザ(講師の一例)の複数の講師アバターZ1~Z3を異なる仮想空間に配置する手段である。具体的には、アバター管理部44は、ユーザA,Bに対応したアバター、及び、講師Zに対応したアバターを生成する。講師Zについては複数のアバターが生成される。アバター管理部44は、グループとアバターの対応を管理している。 The avatar management unit 44 is a means for placing multiple instructor avatars Z1 to Z3 of a first user (an example of an instructor) in different virtual spaces. Specifically, the avatar management unit 44 generates avatars corresponding to users A and B, and an avatar corresponding to instructor Z. Multiple avatars are generated for instructor Z. The avatar management unit 44 manages the correspondence between groups and avatars.
<<ノートPC>>
ノートPC4,11,14は、バーチャル会議接続部30、リモートデスクトップ制御部31、無線LAN通信制御部32、Bluetooth通信制御部33、表示制御部34、及び、データ記憶部35を有している。ノートPC4,11,14が有するこれら各部は、図2Bに示されている各構成要素のいずれかが、HD504からRAM503に展開されたプログラム(バーチャル会議アプリ)に従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。
<<Notebook PC>>
The notebook PCs 4, 11, and 14 each have a virtual conference connection unit 30, a remote desktop control unit 31, a wireless LAN communication control unit 32, a Bluetooth communication control unit 33, a display control unit 34, and a data storage unit 35. Each of these units in the notebook PCs 4, 11, and 14 is a function or a means for performing the function, which is realized when any of the components shown in Fig. 2B operates in response to an instruction from the CPU 501 in accordance with a program (virtual conference application) loaded from the HD 504 to the RAM 503.
バーチャル会議接続部30は、バーチャル会議サーバ1のバーチャル会議サービスに接続して、認証用データであるユーザ名とパスワードを送信する。また、バーチャル会議接続部30は、バーチャル会議サービスから受信するバーチャル会議スペース8のURLと会議IDを管理すると共に、バーチャル会議スペース8のURLに接続して、バーチャル会議に参加する処理を行う。更に、バーチャル会議接続部30は、バーチャル会議スペース8のURLと会議IDをVRゴーグル5,12,15へBluetooth通信制御部33を介して送信する。 The virtual conference connection unit 30 connects to the virtual conference service of the virtual conference server 1 and transmits the authentication data, which is a username and password. The virtual conference connection unit 30 also manages the URL and conference ID of the virtual conference space 8 received from the virtual conference service, and connects to the URL of the virtual conference space 8 to participate in the virtual conference. Furthermore, the virtual conference connection unit 30 transmits the URL and conference ID of the virtual conference space 8 to the VR goggles 5, 12, and 15 via the Bluetooth communication control unit 33.
リモートデスクトップ制御部31は、ノートPC4,11,14の画面データをバーチャル会議スペース8に表示させるためにバーチャル会議サービスに送信する。 The remote desktop control unit 31 transmits screen data from the notebook PCs 4, 11, and 14 to the virtual conference service for display in the virtual conference space 8.
無線LAN通信制御部32は、Wi-Fiルータ3,7,8を介したバーチャル会議サーバ1との通信を実行する。 The wireless LAN communication control unit 32 communicates with the virtual conference server 1 via Wi-Fi routers 3, 7, and 8.
Bluetooth通信制御部33は、VRゴーグル5,12,15とBluetooth規格に準拠した通信を実行する。表示制御部34は画面データをディスプレイ(LCD)に表示するための制御を行う。 The Bluetooth communication control unit 33 performs communication with the VR goggles 5, 12, and 15 in accordance with the Bluetooth standard. The display control unit 34 controls the display of screen data on the display (LCD).
データ記憶部35は、バーチャル会議サーバ1にて提供されるバーチャル会議サービスのアドレス(URL)や、バーチャル会議サービスから受信するバーチャル会議スペース8のURL、会議ID、ノートPC4,11,14を使用するユーザのユーザ名、及び、パスワード等を記憶する。 The data storage unit 35 stores the address (URL) of the virtual conference service provided by the virtual conference server 1, the URL of the virtual conference space 8 received from the virtual conference service, the conference ID, the username and password of the user using the notebook PC 4, 11, 14, etc.
<<VRゴーグル>>
VRゴーグル5,12,15は、表示制御部100、無線LAN通信制御部101、Bluetooth通信制御部102、バーチャル会議接続部103、ボタン情報転送部104、及び、データ記憶部105を有している。VRゴーグル5,12,15が有するこれら各部は、図3に示されている各構成要素のいずれかが、ROM82からメインメモリ81に展開されたプログラム(バーチャル会議アプリ)に従ったCPU80からの命令によって動作することで実現される機能、又は機能する手段である。
<<VR goggles>>
The VR goggles 5, 12, and 15 each have a display control unit 100, a wireless LAN communication control unit 101, a Bluetooth communication control unit 102, a virtual conference connection unit 103, a button information transfer unit 104, and a data storage unit 105. Each of these units in the VR goggles 5, 12, and 15 is a function or a means for performing a function that is realized when any of the components shown in Fig. 3 operates in response to an instruction from the CPU 80 in accordance with a program (virtual conference application) loaded from the ROM 82 to the main memory 81.
表示制御部100は、バーチャル会議サービスから送信される表示データをLCD87に表示させるための制御を行う。無線LAN通信制御部101は、Wi-Fiルータ3,7,8を介したバーチャル会議サーバ1との通信を実行する。 The display control unit 100 controls the display of display data sent from the virtual conference service on the LCD 87. The wireless LAN communication control unit 101 communicates with the virtual conference server 1 via Wi-Fi routers 3, 7, and 8.
Bluetooth通信制御部102は、VR用操作コントローラ6,13,16とBluetooth規格に準拠した通信を実行する。バーチャル会議接続部103はノートPC4から送信されるバーチャル会議サービスのURLと会議IDを使用して、バーチャル会議サーバ1にて実行されるバーチャル会議サービスに接続するための制御を行う。 The Bluetooth communication control unit 102 communicates with the VR operation controllers 6, 13, and 16 in accordance with the Bluetooth standard. The virtual conference connection unit 103 uses the URL and conference ID of the virtual conference service sent from the laptop PC 4 to perform control for connecting to the virtual conference service executed by the virtual conference server 1.
ボタン情報転送部104は、VR用操作コントローラ6,13,16からボタン押下情報を受信して、押下されたボタンに関する情報を、無線LAN通信制御部101を介して、バーチャル会議サーバ1へ送信する。 The button information transfer unit 104 receives button press information from the VR operation controllers 6, 13, and 16, and transmits information about the pressed button to the virtual conference server 1 via the wireless LAN communication control unit 101.
データ記憶部105はバーチャル会議サーバ1にて提供されるバーチャル会議サービスのアドレス(URL)や会議ID、VRゴーグル5,12,15を使用するユーザのユーザ名、及び、パスワード等を記憶する。 The data storage unit 105 stores the address (URL) of the virtual conference service provided by the virtual conference server 1, the conference ID, the username and password of the user using the VR goggles 5, 12, 15, etc.
<<VR用操作コントローラ>>
VR用操作コントローラ6,13,16は、Bluetooth通信制御部120、ボタン情報送信部121、及び、向き・動き検出部122を有している。VR用操作コントローラ6,13,16が有するこれらの機能は、図4に示したROM112からメインメモリ111に展開されたプログラムに従ったCPU110からの命令によって動作することで実現される機能、又は機能する手段である。
<<VR operation controller>>
The VR operation controllers 6, 13, and 16 have a Bluetooth communication control unit 120, a button information transmission unit 121, and a direction/movement detection unit 122. These functions of the VR operation controllers 6, 13, and 16 are functions or means that are realized by operating in accordance with instructions from the CPU 110 in accordance with the program loaded from the ROM 112 to the main memory 111 shown in FIG.
Bluetooth通信制御部120は、VRゴーグル5,12,15とBluetooth規格に準拠した通信を実行する。ボタン情報送信部121は、メニュー表示ボタン114、ポインター表示ボタン115、確定ボタン116の押下情報をBluetooth通信制御部120へ渡す。 The Bluetooth communication control unit 120 communicates with the VR goggles 5, 12, and 15 in accordance with the Bluetooth standard. The button information transmission unit 121 passes press information for the menu display button 114, pointer display button 115, and confirm button 116 to the Bluetooth communication control unit 120.
向き・動き検出部122は、6軸加速度・角速度センサ113から得られた加速度と角速度のデータからVR用操作コントローラ6,13,16の向き(3次元空間の姿勢)と動きを検出して、これらの情報をBluetooth通信制御部120へ渡す。 The orientation/movement detection unit 122 detects the orientation (posture in three-dimensional space) and movement of the VR operation controllers 6, 13, 16 from the acceleration and angular velocity data obtained from the 6-axis acceleration/angular velocity sensor 113, and passes this information to the Bluetooth communication control unit 120.
<動作又は処理>
続いて、図6を参照して、講師ZとユーザAがノートPC4,11とVRゴーグル5,12を使用してバーチャル会議サーバ1にあるバーチャル会議スペース8に参加して、仮想空間における会議を開始するまでの手順について説明する。図6は、講師Zがバーチャル会議スペース8における会議を開始するまでの処理を説明するシーケンス図である。
<Operation or Processing>
Next, referring to Figure 6, we will explain the procedure until instructor Z and user A use the laptop PCs 4, 11 and VR goggles 5, 12 to participate in the virtual conference space 8 on the virtual conference server 1 and start a conference in the virtual space. Figure 6 is a sequence diagram explaining the process until instructor Z starts a conference in the virtual conference space 8.
会議主催者である講師ZはノートPC4のバーチャル会議アプリを起動すると、バーチャル会議接続部30はバーチャル会議サーバ1のバーチャル会議サービスに接続して、ユーザ名とパスワードの入力画面を表示する。以下では、バーチャル会議サーバ1とバーチャル会議サービスを特に区別せず、主にバーチャル会議サービスを用いて説明する。なお、バーチャル会議サービスのURLはバーチャル会議アプリの設定データとしてノートPC4に予め登録されている。 When Lecturer Z, the conference organizer, launches the virtual conference app on his laptop PC 4, the virtual conference connection unit 30 connects to the virtual conference service on the virtual conference server 1 and displays a screen for entering a username and password. In the following, no distinction is made between the virtual conference server 1 and the virtual conference service, and the explanation will mainly focus on the virtual conference service. The URL of the virtual conference service is pre-registered in the laptop PC 4 as setting data for the virtual conference app.
講師Zがユーザ名とパスワードを入力すると、バーチャル会議接続部30は、無線LAN通信制御部32を介して、ユーザ名とパスワードをバーチャル会議サービスへ送信する。バーチャル会議サービスはこのユーザを認証して認証OKのレスポンスをノートPC4に送信する。 When instructor Z enters his/her username and password, the virtual conference connection unit 30 sends the username and password to the virtual conference service via the wireless LAN communication control unit 32. The virtual conference service authenticates the user and sends an authentication OK response to the laptop PC 4.
S1:バーチャル会議接続部30が無線LAN通信制御部32を介して、認証OKのレスポンスを受信すると、ノートPC4で動作するバーチャル会議アプリの表示制御部34はバーチャル会議の開始ボタンと参加ボタンを表示する。講師Zは主催者なので開始ボタンを選択する。 S1: When the virtual conference connection unit 30 receives an authentication OK response via the wireless LAN communication control unit 32, the display control unit 34 of the virtual conference app running on the laptop PC 4 displays a start button and a join button for the virtual conference. Since instructor Z is the organizer, he selects the start button.
S2:バーチャル会議接続部30は無線LAN通信制御部32を介して、バーチャル会議の開始コマンドをバーチャル会議サービスへ送信する。この送信は例えばHTTPが使用される。 S2: The virtual conference connection unit 30 sends a virtual conference start command to the virtual conference service via the wireless LAN communication control unit 32. This transmission uses, for example, HTTP.
S3:バーチャル会議サービスのバーチャル会議制御部20は通信制御部23を介してこの開始コマンドを受信すると、バーチャル会議スペース8と会議IDを生成する。 S3: When the virtual conference control unit 20 of the virtual conference service receives this start command via the communication control unit 23, it generates a virtual conference space 8 and a conference ID.
S4:通信制御部23は、バーチャル会議スペース8のURLと会議IDをノートPC4へ送信する。 S4: The communication control unit 23 sends the URL of the virtual conference space 8 and the conference ID to the notebook PC 4.
S5:ノートPC4の無線LAN通信制御部32がこれらのデータを受信すると、バーチャル会議接続部30は、無線LAN通信制御部32を介してバーチャル会議スペース8のURLに接続して、受信した会議IDを含めた会議参加コマンドを送信する。 S5: When the wireless LAN communication control unit 32 of the notebook PC 4 receives this data, the virtual conference connection unit 30 connects to the URL of the virtual conference space 8 via the wireless LAN communication control unit 32 and sends a conference participation command including the received conference ID.
S6:バーチャル会議サービスのバーチャル会議制御部20は、この会議IDをステップS3で生成した会議IDと照合して一致を確認すると、ノートPC4とバーチャル会議スペース8との接続(会議IDに対応したバーチャル会議への参加)を許可する。 S6: The virtual conference control unit 20 of the virtual conference service compares this conference ID with the conference ID generated in step S3, and if they match, allows the connection between the laptop PC 4 and the virtual conference space 8 (participation in the virtual conference corresponding to the conference ID).
S7:バーチャル会議制御部20は通信制御部23を介して、レスポンスOKをノートPC4に送信する。 S7: The virtual conference control unit 20 sends a response OK to the notebook PC 4 via the communication control unit 23.
S8:ノートPC4の無線LAN通信制御部32がレスポンスOKを受信すると、バーチャル会議接続部30は、Bluetooth通信制御部33を介して、バーチャル会議スペース8のURLと会議IDを講師ZのVRゴーグル5へBluetoothで送信する。 S8: When the wireless LAN communication control unit 32 of the notebook PC 4 receives the response OK, the virtual conference connection unit 30 transmits the URL and conference ID of the virtual conference space 8 to instructor Z's VR goggles 5 via Bluetooth via the Bluetooth communication control unit 33.
S9:VRゴーグル5のBluetooth通信制御部102がこれらのデータを受信すると、バーチャル会議接続部103は無線LAN通信制御部101を介して、バーチャル会議スペース8のURLに接続して、受信した会議IDを含めた会議参加コマンドを送信する。 S9: When the Bluetooth communication control unit 102 of the VR goggles 5 receives this data, the virtual conference connection unit 103 connects to the URL of the virtual conference space 8 via the wireless LAN communication control unit 101 and sends a conference participation command including the received conference ID.
S10:バーチャル会議サービスのバーチャル会議制御部20は、この会議IDをステップS3で生成した会議IDと照合して一致を確認すると、VRゴーグル5とバーチャル会議スペース8との接続(会議IDに対応したバーチャル会議への参加)を許可する。 S10: The virtual conference control unit 20 of the virtual conference service compares this conference ID with the conference ID generated in step S3, and if they match, authorizes connection between the VR goggles 5 and the virtual conference space 8 (participation in the virtual conference corresponding to the conference ID).
S11:バーチャル会議制御部20は通信制御部23を介してレスポンスOKをVRゴーグル5に送信する。 S11: The virtual conference control unit 20 sends a response OK to the VR goggles 5 via the communication control unit 23.
S12:バーチャル会議サービスのバーチャル表示制御部26はバーチャル会議スペース8の3Dモデルを講師のアバターから見える視界画面に変換し、VRゴーグル5に通信制御部23を介して送信する。視界画面には表示データ9が含まれてよい。 S12: The virtual display control unit 26 of the virtual conference service converts the 3D model of the virtual conference space 8 into a view screen visible from the instructor's avatar and transmits it to the VR goggles 5 via the communication control unit 23. The view screen may include display data 9.
S13:VRゴーグル5の無線LAN通信制御部101が視界画面の画面情報を受信すると、表示制御部100が受信したバーチャル会議スペース8の視界画面をLCD87に表示する。 S13: When the wireless LAN communication control unit 101 of the VR goggles 5 receives the screen information of the field of view screen, the display control unit 100 displays the received field of view screen of the virtual conference space 8 on the LCD 87.
S14:次に、ノートPC4のバーチャル会議アプリの表示制御部34は、リモートデスクトップの選択ボタンを表示する。 S14: Next, the display control unit 34 of the virtual conference app on the notebook PC 4 displays a remote desktop selection button.
S15:講師Zがリモートデスクトップの選択ボタンを押下する。 S15: Instructor Z presses the selection button on the remote desktop.
S16:リモートデスクトップ制御部31は、無線LAN通信制御部32を介して、ノートPC4の画面データをバーチャル会議サービスに送信する。 S16: The remote desktop control unit 31 transmits the screen data of the notebook PC 4 to the virtual conference service via the wireless LAN communication control unit 32.
S17:バーチャル会議サービスのバーチャル表示制御部26は通信制御部23が受信したこの画面データをバーチャル会議スペース8に表示する(PC表示データ9a)。 S17: The virtual display control unit 26 of the virtual conference service displays the screen data received by the communication control unit 23 in the virtual conference space 8 (PC display data 9a).
S18:バーチャル会議サービスのバーチャル表示制御部26はPC表示データ9aをVRゴーグル5へ送信する。 S18: The virtual display control unit 26 of the virtual conference service sends the PC display data 9a to the VR goggles 5.
S19:VRゴーグル5の表示制御部100は、このPC表示データ9aをLCD87に表示させる。 S19: The display control unit 100 of the VR goggles 5 displays this PC display data 9a on the LCD 87.
以上で、講師Zがバーチャル会議に参加し、VRゴーグル5にバーチャル会議スペース8の視界画面が表示された(ノートPC4の画面データも表示される)。なお、バーチャル会議スペース8に表示されるノートPC4の画面データは講師ZのVRゴーグル5にしか表示させないように、バーチャル会議サービスのバーチャル表示制御部26が制御する。 With this, instructor Z has joined the virtual conference, and the field of view screen of the virtual conference space 8 is displayed on the VR goggles 5 (screen data from the laptop PC 4 is also displayed). Note that the virtual display control unit 26 of the virtual conference service controls the screen data of the laptop PC 4 displayed in the virtual conference space 8 so that it is only displayed on instructor Z's VR goggles 5.
<<ユーザA,Bバーチャル会議への参加>>
続いて、講師ZはノートPC4からバーチャル会議スペース8のURLと会議IDを会議の他の参加者のノートPCにメールやインスタントメッセージで送信する。会議の参加者であるユーザAはノートPC11のバーチャル会議アプリを起動すると、バーチャル会議接続部30はバーチャル会議サービスに接続して、ユーザ名とパスワードの入力画面を表示する。なお、バーチャル会議サービスのURLはバーチャル会議アプリの設定データとしてノートPC11に予め登録されている。
<<Users A and B participate in a virtual conference>>
Next, instructor Z sends the URL of the virtual conference space 8 and the conference ID from his/her laptop PC 4 to the laptop PCs of the other conference participants by email or instant message. When user A, a conference participant, starts the virtual conference app on his/her laptop PC 11, the virtual conference connection unit 30 connects to the virtual conference service and displays a screen for entering a username and password. The URL of the virtual conference service is pre-registered in laptop PC 11 as setting data for the virtual conference app.
ユーザAがユーザ名とパスワードを入力すると、バーチャル会議接続部30はこれらのデータをバーチャル会議サービスへ送信する。バーチャル会議サービスはこのユーザを認証して認証OKのレスポンスをノートPC11に送信する。ノートPC11のバーチャル会議アプリはバーチャル会議の開始ボタンと参加ボタンを表示する。 When User A enters their username and password, the virtual conference connection unit 30 sends this data to the virtual conference service. The virtual conference service authenticates the user and sends an authentication OK response to the notebook PC 11. The virtual conference app on the notebook PC 11 displays a button to start the virtual conference and a button to join.
図7は、ユーザAがバーチャル会議スペース8における会議に参加するまでの処理を説明するシーケンス図である。 Figure 7 is a sequence diagram that explains the process up to when user A joins a conference in virtual conference space 8.
S21:ユーザAは参加者なので参加ボタンを選択する。 S21: User A is a participant, so he selects the join button.
S22:ノートPC11の表示制御部34は、バーチャル会議スペース8のURLと会議IDの入力画面を表示する。 S22: The display control unit 34 of the notebook PC 11 displays a screen for inputting the URL of the virtual conference space 8 and the conference ID.
S23:ユーザAは講師Zから通知されたバーチャル会議スペース8のURLと会議IDを入力してOKボタンを押下する。 S23: User A enters the URL and conference ID of virtual conference space 8 notified by instructor Z and presses the OK button.
S24:バーチャル会議接続部30は無線LAN通信制御部32を介して、この会議IDを含めた接続コマンドをバーチャル会議スペース8のURLに送信する。 S24: The virtual conference connection unit 30 sends a connection command including this conference ID to the URL of the virtual conference space 8 via the wireless LAN communication control unit 32.
S25:バーチャル会議サービスのバーチャル会議制御部20は、この会議IDをステップS3で生成した会議IDと照合して一致を確認すると、ノートPC11とバーチャル会議スペース8との接続を許可する。 S25: The virtual conference control unit 20 of the virtual conference service compares this conference ID with the conference ID generated in step S3, and if they match, allows the notebook PC 11 to connect to the virtual conference space 8.
S26:バーチャル会議制御部20は通信制御部23を介して、レスポンスOKをノートPC11に送信する。 S26: The virtual conference control unit 20 sends a response OK to the notebook PC 11 via the communication control unit 23.
S27:続いて、ノートPC11のBluetooth通信制御部33は、バーチャル会議スペース8のURLと会議IDをユーザAのVRゴーグル12へBluetoothで送信する。 S27: Next, the Bluetooth communication control unit 33 of the notebook PC 11 transmits the URL and conference ID of the virtual conference space 8 to user A's VR goggles 12 via Bluetooth.
S28:VRゴーグル12のBluetooth通信制御部102がこれらのデータを受信すると、バーチャル会議接続部103が無線LAN通信制御部101を介して、この会議IDを含めた接続コマンドをバーチャル会議スペース8のURLに送信する。 S28: When the Bluetooth communication control unit 102 of the VR goggles 12 receives this data, the virtual conference connection unit 103 sends a connection command including this conference ID to the URL of the virtual conference space 8 via the wireless LAN communication control unit 101.
S29:バーチャル会議サービスのバーチャル会議制御部20は、この会議IDをステップS3で生成した会議IDと照合して一致を確認すると、VRゴーグル12とバーチャル会議スペース8との接続を許可する。 S29: The virtual conference control unit 20 of the virtual conference service compares this conference ID with the conference ID generated in step S3, and if they match, allows the connection between the VR goggles 12 and the virtual conference space 8.
S30:バーチャル会議制御部20は通信制御部23を介して、レスポンスOKをVRゴーグル12に送信する。 S30: The virtual conference control unit 20 sends a response OK to the VR goggles 12 via the communication control unit 23.
S30-2:バーチャル会議サービスのバーチャル表示制御部26はバーチャル会議スペース8の3DモデルをユーザAのアバターから見える視界画面に変換し、VRゴーグル12に通信制御部23を介して送信する。視界画面には表示データ9が含まれてよい。 S30-2: The virtual display control unit 26 of the virtual conference service converts the 3D model of the virtual conference space 8 into a view screen visible from User A's avatar and transmits it to the VR goggles 12 via the communication control unit 23. The view screen may include display data 9.
S30-3:VRゴーグル12の無線LAN通信制御部101が視界画面の画面情報を受信すると、表示制御部100が受信したバーチャル会議スペース8の視界画面をLCD87に表示する。 S30-3: When the wireless LAN communication control unit 101 of the VR goggles 12 receives the screen information of the field of view screen, the display control unit 100 displays the received field of view screen of the virtual conference space 8 on the LCD 87.
S31:ノートPC11で動作するバーチャル会議アプリのバーチャル会議接続部30は、バーチャル会議スペース8に接続すると、表示制御部34がリモートデスクトップの選択ボタンを表示する。 S31: When the virtual conference connection unit 30 of the virtual conference app running on the notebook PC 11 connects to the virtual conference space 8, the display control unit 34 displays a remote desktop selection button.
S32:ユーザAがリモートデスクトップの選択ボタンを選択する。 S32: User A selects the remote desktop selection button.
S33:ノートPC11のリモートデスクトップ制御部31が無線LAN通信制御部32を介して、ノートPC11の画面データをバーチャル会議サービスに送信する。 S33: The remote desktop control unit 31 of the notebook PC 11 transmits the screen data of the notebook PC 11 to the virtual conference service via the wireless LAN communication control unit 32.
S34:バーチャル会議サービスのバーチャル表示制御部26は、ノートPC11の画面データをバーチャル会議スペース8に表示する(PC表示データ9b)。 S34: The virtual display control unit 26 of the virtual conference service displays the screen data of the notebook PC 11 in the virtual conference space 8 (PC display data 9b).
S35:バーチャル会議サービスのバーチャル表示制御部26は、PC表示データ9bをVRゴーグル12へ送信する。 S35: The virtual display control unit 26 of the virtual conference service transmits the PC display data 9b to the VR goggles 12.
S36:VRゴーグル12の表示制御部100は、PC表示データ9bをLCD87に表示させる。 S36: The display control unit 100 of the VR goggles 12 displays the PC display data 9b on the LCD 87.
なお、バーチャル会議スペース8に表示されるノートPC11の画面データはユーザAのVRゴーグル12にしか表示させないように、バーチャル会議サービスのバーチャル表示制御部26が制御する。 The virtual display control unit 26 of the virtual conference service controls the screen data of the notebook PC 11 displayed in the virtual conference space 8 so that it is only displayed on User A's VR goggles 12.
会議の他の参加者も上記のユーザAと同様な操作を行い、各参加者のノートPCとVRゴーグルをバーチャル会議スペース8に接続させる。 Other participants in the conference perform the same operations as User A above, connecting their laptops and VR goggles to the virtual conference space 8.
<VR用操作コントローラの操作>
講師Z又はユーザA,BがVR用操作コントローラ6,13,16にあるメニュー表示ボタン114を押すと、VR用操作コントローラ6,13,16のBluetooth通信制御部120はメニュー表示コマンドをVRゴーグル5,12,15へBluetoothで送信する。
<Operation of the VR control controller>
When the instructor Z or the users A and B press the menu display button 114 on the VR operation controller 6, 13, 16, the Bluetooth communication control unit 120 of the VR operation controller 6, 13, 16 transmits a menu display command to the VR goggles 5, 12, 15 via Bluetooth.
VRゴーグル5,12,15の無線LAN通信制御部101はこのコマンドをバーチャル会議サービスへ送信する。バーチャル会議サービスはこのコマンドを受信すると、表示データ生成部25がバーチャル会議に関するメニュー一覧を生成し、バーチャル会議スペース8に表示させる。このメニュー一覧の例を図8に示す。 The wireless LAN communication control unit 101 of the VR goggles 5, 12, and 15 sends this command to the virtual conference service. When the virtual conference service receives this command, the display data generation unit 25 generates a menu list related to the virtual conference and displays it in the virtual conference space 8. An example of this menu list is shown in Figure 8.
図8は、バーチャル会議スペース8に表示されるメニュー一覧画面200を示す。メニュー一覧画面200は、参加者一覧ボタン201、ホワイトボード生成ボタン202、及び、設定ボタン203を有する。参加者一覧ボタン201は、現在、会議IDで特定される会議に参加している参加者の一覧を表示させるボタンである。ホワイトボード生成ボタン202は、バーチャル会議スペース8に仮想電子黒板を生成するためのボタンである。設定ボタン203は言語や文字サイズなど各種の設定画面を表示させるボタンである。 Figure 8 shows the menu list screen 200 displayed in the virtual conference space 8. The menu list screen 200 has a participant list button 201, a whiteboard generation button 202, and a settings button 203. The participant list button 201 is a button that displays a list of participants currently attending a conference identified by a conference ID. The whiteboard generation button 202 is a button for generating a virtual electronic whiteboard in the virtual conference space 8. The settings button 203 is a button that displays various setting screens such as language and font size.
また、講師Z又はユーザA、BがVR用操作コントローラ6,13,16にあるポインター表示ボタン115を押下すると、VR用操作コントローラ6,13,16のBluetooth通信制御部120は、自デバイスの向きと動きの情報を含めたポインター表示コマンドをVRゴーグル5,12,15へBluetoothで送信する。VRゴーグル5,12,15の無線LAN通信制御部101は、このコマンドをバーチャル会議サービスへ送信する。バーチャル会議サービスはこのコマンドを受信すると、ポインター位置算出部27がVR用操作コントローラ6,13,16の向きと動きの情報を基にポインター170の表示位置を算出する。バーチャル表示制御部26は、バーチャル会議スペース8の算出された表示位置にポインター170を表示させる。 Furthermore, when instructor Z or users A and B press the pointer display button 115 on the VR operation controller 6, 13, 16, the Bluetooth communication control unit 120 of the VR operation controller 6, 13, 16 transmits a pointer display command including information about the orientation and movement of the device to the VR goggles 5, 12, 15 via Bluetooth. The wireless LAN communication control unit 101 of the VR goggles 5, 12, 15 transmits this command to the virtual conference service. When the virtual conference service receives this command, the pointer position calculation unit 27 calculates the display position of the pointer 170 based on the orientation and movement information of the VR operation controller 6, 13, 16. The virtual display control unit 26 displays the pointer 170 at the calculated display position in the virtual conference space 8.
なお、ユーザがポインター表示ボタン115を押している間、VR用操作コントローラ6,13,16のBluetooth通信制御部120は自デバイスの向きと動きの情報を含めたポインター表示コマンドを定期的に(例えば100ミリ秒毎)VRゴーグル5,12,15へ送信する。VRゴーグル5,12,15の無線LAN通信制御部101はこのコマンドをバーチャル会議サービスへ送信する。ポインター位置算出部27がVR用操作コントローラ6,13,16の向きと動きの情報を基にポインター170の表示位置を算出する。バーチャル会議サービスのバーチャル表示制御部26は、ポインター170が移動してバーチャル会議スペース8の表示に変化があると、バーチャル会議スペース8の表示データをVRゴーグル5,12,15に送信する。したがって、バーチャル会議スペース8をポインター170が移動するように制御される。 While the user is pressing the pointer display button 115, the Bluetooth communication control unit 120 of the VR operation controller 6, 13, 16 periodically (e.g., every 100 milliseconds) sends a pointer display command including information about the orientation and movement of its own device to the VR goggles 5, 12, 15. The wireless LAN communication control unit 101 of the VR goggles 5, 12, 15 sends this command to the virtual conference service. The pointer position calculation unit 27 calculates the display position of the pointer 170 based on the orientation and movement information of the VR operation controller 6, 13, 16. When the pointer 170 moves and the display of the virtual conference space 8 changes, the virtual display control unit 26 of the virtual conference service sends display data of the virtual conference space 8 to the VR goggles 5, 12, 15. Therefore, the pointer 170 is controlled to move within the virtual conference space 8.
講師Z又はユーザA,BがVR用操作コントローラ6,13,16にある確定ボタン116を押すと、VR用操作コントローラ6,13,16のBluetooth通信制御部120は確定コマンドをVRゴーグル5,12,15へBluetoothで送信する。VRゴーグル5,12,15の無線LAN通信制御部101はこのコマンドをバーチャル会議サービスへ送信する。バーチャル会議サービスはこのコマンドを受信すると、ポインター170の表示位置に該当するメニューが選択(押下)されたと判断して、そのメニューに従った動作を行う。 When instructor Z or users A and B press the confirm button 116 on the VR operation controller 6, 13, 16, the Bluetooth communication control unit 120 of the VR operation controller 6, 13, 16 sends a confirm command to the VR goggles 5, 12, 15 via Bluetooth. The wireless LAN communication control unit 101 of the VR goggles 5, 12, 15 sends this command to the virtual conference service. When the virtual conference service receives this command, it determines that the menu item corresponding to the display position of the pointer 170 has been selected (pressed), and performs the operation according to that menu.
講師Z(又はユーザA,B)が図8に示されたホワイトボード生成ボタン202にポインター170を移動して確定ボタン116を押下すると、VR用操作コントローラ6,13,16は確定コマンドを、VRゴーグル5,12,15を介してバーチャル会議サービスに送信する。バーチャル会議サービスはこのコマンドを受信するとホワイトボード生成・管理部21が仮想電子黒板を生成し、バーチャル表示制御部26がバーチャル会議スペース8に表示する。なお、仮想電子黒板の生成時の画面は白紙である。つまり、白紙の仮想電子黒板表示データがバーチャル会議スペース8に表示される。 When instructor Z (or user A or B) moves the pointer 170 to the whiteboard generation button 202 shown in Figure 8 and presses the confirm button 116, the VR operation controllers 6, 13, and 16 send a confirm command to the virtual conference service via the VR goggles 5, 12, and 15. When the virtual conference service receives this command, the whiteboard generation and management unit 21 generates a virtual electronic whiteboard, and the virtual display control unit 26 displays it in the virtual conference space 8. Note that the screen when the virtual electronic whiteboard is generated is blank. In other words, blank virtual electronic whiteboard display data is displayed in the virtual conference space 8.
<仮想電子黒板表示データの生成>
この仮想電子黒板にユーザは、ノートPC4,11,14の画面データを表示させたり、任意の表示コンテンツ(写真や図形等)を表示させたりすることができる。図1では2つの仮想電子黒板(仮想電子黒板表示データ9c、仮想電子黒板表示データ9d)の画面が表示されている。仮想電子黒板表示データ9cには、バーチャル会議に参加しているユーザBが操作するノートPC14の画面データが表示されている。仮想電子黒板表示データ9dには、ノートPC4,11,14の画面データでない表示データ(キーボード入力、音声認識結果、手書きデータ等)が表示されている。
<Generation of virtual electronic whiteboard display data>
On this virtual electronic whiteboard, users can display screen data from the laptop PCs 4, 11, and 14, as well as any display content (photos, graphics, etc.). In Fig. 1, the screens of two virtual electronic whiteboards (virtual electronic whiteboard display data 9c and virtual electronic whiteboard display data 9d) are displayed. The virtual electronic whiteboard display data 9c displays screen data from the laptop PC 14 operated by User B, who is participating in the virtual conference. The virtual electronic whiteboard display data 9d displays display data that is not screen data from the laptop PCs 4, 11, and 14 (keyboard input, voice recognition results, handwritten data, etc.).
ユーザBのノートPC14の画面データを仮想電子黒板に表示させる処理及び動作について説明する。ユーザBがノートPC14のバーチャル会議アプリを起動して、上記のユーザAと同様な操作を行うと、ノートPC14とVRゴーグル15がバーチャル会議スペース8に接続する。そして、ユーザBがノートPC14に表示されたリモートデスクトップの選択ボタンを選択すると、ノートPC14の画面データがバーチャル会議サービスに送信され、バーチャル会議スペース8にノートPC14の画面データが表示される。 The following describes the process and operation for displaying the screen data of user B's laptop 14 on the virtual electronic whiteboard. When user B launches the virtual conference app on his or her laptop 14 and performs the same operations as user A above, the laptop 14 and VR goggles 15 connect to the virtual conference space 8. When user B then selects the remote desktop selection button displayed on the laptop 14, the screen data of the laptop 14 is sent to the virtual conference service, and the screen data of the laptop 14 is displayed in the virtual conference space 8.
図9は、バーチャル会議スペース8に表示されたノートPC14のノートPC表示データ210を示す。ノートPC表示データ210は、バーチャル会議スペース8のノートPC14の画面データが表示される画面表示領域212に移動用バー211が付加されている。画面表示領域212に仮想電子黒板表示データ9cが表示されている。ユーザBがVR用操作コントローラ16にあるポインター表示ボタン115を押してポインター170をこの移動用バー211に重ねて長押しすると、ノートPC14の画面表示領域212を移動できる状態となる。ユーザBがポインター表示ボタン115を押下しながらポインター170を移動させると、ノートPC14の画面表示領域212もそれに追従して移動する。 Figure 9 shows the notebook PC display data 210 of the notebook PC 14 displayed in the virtual conference space 8. In the notebook PC display data 210, a movement bar 211 is added to the screen display area 212 where the screen data of the notebook PC 14 in the virtual conference space 8 is displayed. The virtual electronic whiteboard display data 9c is displayed in the screen display area 212. When user B presses the pointer display button 115 on the VR operation controller 16 and holds the pointer 170 over the movement bar 211, the screen display area 212 of the notebook PC 14 becomes movable. When user B moves the pointer 170 while pressing the pointer display button 115, the screen display area 212 of the notebook PC 14 also moves accordingly.
ユーザBがこの操作によりノートPC14の画面表示領域212を仮想電子黒板(白紙の仮想電子黒板表示データ)に重ねると、バーチャル会議サービスのバーチャル表示制御部26はノートPC14の画面データを仮想電子黒板の画面にコピーして、バーチャル会議スペース8にノートPC14の画面データ(仮想電子黒板表示データ9c)が表示される。また、バーチャル表示制御部26は、ノートPC14の画面データが表示されていた画面表示領域212及び移動用バー211を削除する。 When User B performs this operation to overlay the screen display area 212 of the laptop PC 14 onto the virtual electronic whiteboard (blank virtual electronic whiteboard display data), the virtual display control unit 26 of the virtual conference service copies the screen data of the laptop PC 14 onto the virtual electronic whiteboard screen, and the screen data of the laptop PC 14 (virtual electronic whiteboard display data 9c) is displayed in the virtual conference space 8. The virtual display control unit 26 also deletes the screen display area 212 and the movement bar 211 that were displaying the screen data of the laptop PC 14.
<バーチャル会議スペースにおけるグループワーク>
次に、図10を参照し、バーチャル会議スペース8におけるグループワークについて説明する。グループワークとは、複数人でグループを作り、テーマに沿って議論や制作作業を行い、最終的に結論や成果物を発表する作業である。グループワークを単に会議と称してもよい。図10は、バーチャル会議スペース8で開催されている3つのグループ1~3に配置されたアバターを模式的に示す。
<Group work in a virtual meeting space>
Next, group work in the virtual conference space 8 will be described with reference to Figure 10. Group work is work in which multiple people form a group, discuss and create work based on a theme, and finally present their conclusions or deliverables. Group work may also be simply called a meeting. Figure 10 shows a schematic diagram of avatars arranged in three groups 1 to 3 held in the virtual conference space 8.
参加者は、3つのグループに分かれてグループワークを実施している。各グループのための仮想空間がそれぞれバーチャル会議スペース8に相当する。アバターA~Kは参加者(第2のユーザの一例)のアバターである。以下では、ユーザをグループワークへの参加者という。アバターA~Dがグループ1(第1の仮想空間の一例)、アバターE~Hがグループ2(第2の仮想空間の一例)、アバターI~Kがグループ3に振り分けられている。各グループのアバターの数は1人以上であればよい。振り分けは、例えば参加者がバーチャル会議サービスにログインする際に行われている。講師Z(第1のユーザの一例)は1人である。1人の同じ講師Zが、グループ1~3のグループワークを司会する。講師Zもアバターとして参加するが、区別するために講師アバターZ1~Z3という。 Participants are divided into three groups and conduct group work. The virtual space for each group corresponds to virtual conference space 8. Avatars A to K are the avatars of participants (an example of a second user). Hereinafter, users will be referred to as participants in the group work. Avatars A to D are assigned to Group 1 (an example of a first virtual space), avatars E to H are assigned to Group 2 (an example of a second virtual space), and avatars I to K are assigned to Group 3. Each group may have one or more avatars. This assignment is made, for example, when participants log in to the virtual conference service. There is one instructor Z (an example of a first user). The same instructor Z moderates the group work for groups 1 to 3. Although instructor Z also participates as an avatar, they are referred to as instructor avatars Z1 to Z3 to distinguish them from each other.
説明の便宜上、グループ2のユーザが使用するVRゴーグルをVRゴーグル12、グループ3のユーザが使用するVRゴーグルをVRゴーグル15として説明する。 For ease of explanation, the VR goggles used by users in Group 2 will be referred to as VR goggles 12, and the VR goggles used by users in Group 3 will be referred to as VR goggles 15.
各アバターA~Kは、例えば顔や服装など数種類のテンプレートを参加者が選択して参加者の好みの見た目にカスタマイズしたものとし、バーチャル会議サービスを始めて利用する際に生成される。また、会議への参加中は各アバターA~Kの上部に参加者名が表示される。 Each avatar A-K is created when participants first use the virtual conference service, customizing their appearance by selecting from several templates, such as face and clothing, to suit their preferences. In addition, while participating in a conference, the participant's name will be displayed above each avatar A-K.
現実世界では講師Zは同時に1つのグループにしか参加できないが、バーチャル会議スペース8では自身のアバターを複数生成することも可能であるため、各グループに同時に講師アバターZ1~Z3がそれぞれ存在するシーンを例に説明する。 In the real world, instructor Z can only participate in one group at a time, but in virtual conference space 8, it is possible to generate multiple avatars of himself, so we will explain an example scene in which instructor avatars Z1 to Z3 are present in each group at the same time.
図11に示すように、アバター管理部44は、グループ、参加者、及び、講師アバターを対応付けて管理する。図11は、グループ、参加者及び講師アバターの対応情報である。まず、参加者1~11は自分に割り当てられたグループにログインするので、参加者1~11とグループが対応付けられる。講師Zは各グループに自分の講師アバター1~3を配置する。講師アバター1~3は図10の講師アバターZ1~Z3に対応する。アバター管理部44は、各グループに対応する仮想空間(グループごとに用意されたバーチャル会議スペース8)に参加者1~11のアバターA~Kを配置し、講師アバターZ1~Z3を対応する仮想空間に配置する。 As shown in Figure 11, the avatar management unit 44 manages groups, participants, and instructor avatars in association with each other. Figure 11 shows association information between groups, participants, and instructor avatars. First, participants 1 to 11 log in to the group assigned to them, so participants 1 to 11 are associated with the group. Instructor Z places his or her own instructor avatars 1 to 3 in each group. Instructor avatars 1 to 3 correspond to instructor avatars Z1 to Z3 in Figure 10. The avatar management unit 44 places avatars A to K of participants 1 to 11 in the virtual space corresponding to each group (virtual conference space 8 prepared for each group), and places instructor avatars Z1 to Z3 in the corresponding virtual space.
バーチャル表示制御部26は、グループ内のアバターと講師アバター、机、電子黒板(
仮想電子黒板表示データ9c,9d)、ノートPC(PC表示データ9a,9b)などの3Dモデルを、透視投影することで視界画面を生成する。視界画面が各参加者及び講師ZのVRゴーグル5,12,15に表示される。音声データに関しては、通信制御部23がグループに対応付けられる参加者と講師Zに基づいて、これを1つのセッションとして、グループ内のある参加者の音声を同じグループ内の全ての参加者と講師Zに送信する。通信制御部23は講師Zの音声データをグループ内の全ての参加者のVRゴーグルに送信する。講師Zが任意の参加者を指定して音声データ(秘話通話)を送信できてもよい。
The virtual display control unit 26 displays the avatars in the group, the instructor avatar, the desk, the electronic blackboard (
A field of view screen is generated by perspectively projecting 3D models such as virtual electronic whiteboard display data 9c, 9d) and a notebook PC (PC display data 9a, 9b). The field of view screen is displayed on the VR goggles 5, 12, 15 of each participant and instructor Z. Regarding audio data, the communication control unit 23 regards the participants and instructor Z associated with a group as one session and transmits the audio of a participant in the group to all participants in the same group and instructor Z. The communication control unit 23 transmits instructor Z's audio data to the VR goggles of all participants in the group. Instructor Z may also be able to specify any participant to send audio data (private conversation).
講師ZのVRゴーグル5には同時には1つのグループの音声データと視界画面しか送信されない。後述するように講師Zはこのグループを任意に切り替えることができる。複数のグループ(複数の仮想空間)のうち、講師のVRゴーグル5に視界画面と音声データが送信されているグループを、講師が「司会」しているグループという場合がある。また、司会することを、講師がVRゴーグル5を「操作」すると称してもよい。現在、VRゴーグル5で視界画面が表示され音声データを出力しているグループの講師アバターを「マスター」という。講師は常にマスターを操作している。 Only one group's audio data and view screen are sent to Instructor Z's VR goggles 5 at a time. As described below, Instructor Z can switch between these groups at will. Of multiple groups (multiple virtual spaces), the group for which the view screen and audio data are sent to the instructor's VR goggles 5 is sometimes referred to as the group that the instructor is "moderating." Moderating can also be referred to as the instructor "operating" the VR goggles 5. The instructor avatar of the group for which the view screen is currently being displayed and audio data is being output on the VR goggles 5 is called the "master." The instructor always operates the master.
また、講師Zが同時に複数のグループの音声データ及び視界画面を自分のVRゴーグル5に送信させる設定が可能でもよい。講師Zが異なるグループの音声データ及び異なる視界画面を自分のVRゴーグル5に送信させる設定が可能でもよい。 Instructor Z may also be able to set up his/her VR goggles 5 to simultaneously transmit audio data and view screens from multiple groups. Instructor Z may also be able to set up his/her VR goggles 5 to transmit audio data and different view screens from different groups.
講師ZのVRゴーグル5に音声データと視界画面が送信されていないグループの参加者には、講師アバターZ1~Z3が表示されてもされなくてもよい。表示されないことで、講師Zが別のグループを司会していることがわかる。あるいは、表示される場合でも、講師Zが現在別のグループを司会していることが分かる態様で講師アバターZ1~Z3が表示されてもよい。 Instructor avatars Z1-Z3 may or may not be displayed to participants in groups for which audio data and a visual display screen are not transmitted to instructor Z's VR goggles 5. By not displaying them, participants can see that instructor Z is currently moderating another group. Alternatively, even if instructor avatars Z1-Z3 are displayed, they may be displayed in a manner that shows that instructor Z is currently moderating another group.
図12は、グループ1における講師アバターZ1の視界を示す。講師アバターZ1の視界とは、講師ZのVRゴーグル5に表示される視界画面である。より詳細には、視界画面は、グループ1が構築された仮想的な360°の仮想空間において、講師Zが見ている方向に投影された画像である。したがって、視界画面は360°の任意の空間を表示しうる。講師アバターの視界にはアバターA~Dが写っている。講師Zは、初めはグループ1の講師アバターZ1を操作していることを想定して説明する。すなわち、講師ZのVRゴーグル5にはグループ1の視界画面が表示され、グループ1の音声データが出力される。 Figure 12 shows the field of view of instructor avatar Z1 in Group 1. The field of view of instructor avatar Z1 is the field of view screen displayed on instructor Z's VR goggles 5. More specifically, the field of view screen is an image projected in the direction instructor Z is looking in the virtual 360-degree virtual space in which Group 1 is constructed. Therefore, the field of view screen can display any 360-degree space. Avatars A to D appear in the field of view of the instructor avatar. The following explanation assumes that instructor Z is initially operating instructor avatar Z1 in Group 1. That is, the field of view screen of Group 1 is displayed on instructor Z's VR goggles 5, and audio data for Group 1 is output.
視界画面には、アバターA~Dがグループワークをしている様子に加え、分身切替ボタン131及び通知ボタン132が表示されている。分身切替ボタン131は、講師ZのVRゴーグル5に表示させる視界画面及び出力される音声データを別のグループのものに切り替えるためのボタンである。通知ボタン132は、現在、VRゴーグル5が視界画面を表示し音声データを出力しているグループの講師アバターZ1に通知があることを表示するボタンである。なお、他の講師アバターZ2,Z3から見ることができる視界画面は図12と同様でよい(ただし、視界に入るアバター、通知ボタンの状態が異なる)。 In addition to showing avatars A to D doing group work, the view screen also displays an avatar switch button 131 and a notification button 132. The avatar switch button 131 is a button for switching the view screen displayed on instructor Z's VR goggles 5 and the audio data output to that of another group. The notification button 132 is a button that indicates that there is a notification for instructor avatar Z1 of the group whose VR goggles 5 are currently displaying the view screen and outputting audio data. The view screen that can be seen by the other instructor avatars Z2 and Z3 may be the same as in Figure 12 (however, the avatars in view and the state of the notification button will differ).
<グループ2で会話が行われていない場合の講師アバターへの通知>
例えば、会話が行われていないグループがあっても、そのグループを講師Zが司会していないと、講師Zが気づくことができない。このような場合、表示中の視界画面にその旨が通知されると便利である。
<Notification to the instructor avatar when no conversation is taking place in Group 2>
For example, even if there is a group where no conversation is taking place, if instructor Z is not the moderator of that group, instructor Z will not be able to notice. In such cases, it would be convenient if a notification to that effect was displayed on the field of view screen.
一定時間、会話が行われていないことを検知する方法としては、出力制御部43が音声認識部42の音声認識結果を利用する方法がある。グループ内でアバターが発言した場合、音声認識部42が音声データを音声認識するため、グループ内で発言があったと判断でき、音声認識部42が一定時間、グループ内の参加者の音声を認識できなかった場合はその間に該当するグループに発言がないと判断することが可能となる。 One method for detecting that no conversation has taken place for a certain period of time is for the output control unit 43 to use the voice recognition results of the voice recognition unit 42. When an avatar speaks within a group, the voice recognition unit 42 recognizes the voice data and can therefore determine that a speech has taken place within the group. If the voice recognition unit 42 is unable to recognize the voices of participants within a group for a certain period of time, it can determine that no speech has taken place within the group during that time.
出力制御部43が一定時間、グループ内で会話が行われていないことを検知した場合、バーチャル会議サーバのバーチャル表示制御部26に対し、講師ZのVRゴーグル5の視界画面に議論が滞っている旨の通知メッセージの追加を要求する。バーチャル表示制御部26は、通知メッセージの追加の要求を受け、講師Zが司会しているグループの視界画面に通知メッセージを表示させる。このようにして、講師Zは、現在視界画面で表示し音声データを出力していない他のグループで議論が滞っている(発言がない)ことを自身の視界画面の通知メッセージとして確認することができる。 If the output control unit 43 detects that no conversation has taken place within a group for a certain period of time, it requests the virtual display control unit 26 of the virtual conference server to add a notification message to the field of view of instructor Z's VR goggles 5, indicating that the discussion has stalled. The virtual display control unit 26 receives the request to add a notification message and displays the notification message on the field of view of the group chaired by instructor Z. In this way, instructor Z can confirm from the notification message on his or her field of view that the discussion has stalled (no comments) in other groups that are currently displayed on the field of view but not outputting audio data.
図13は、議論が滞っている旨の通知メッセージ133が表示された講師アバターZ1の視界画面の一例である。視界画面の上部に「議論が滞っています。 Group2」という通知メッセージ133が表示されている。講師Zは、通知メッセージ133により、グループ2で議論が滞っていることを確認し、通知メッセージ133を押下する。「議論が滞っています。 Group2」という通知メッセージ133は、音声により出力されてもよい(通知メッセージ133は表示されてもされなくてもよい)。 Figure 13 shows an example of the field of view screen of instructor avatar Z1, displaying a notification message 133 indicating that the discussion is stalled. The notification message 133 reads "The discussion is stalled. Group 2" at the top of the field of view screen. Instructor Z confirms from the notification message 133 that the discussion in Group 2 is stalled, and presses the notification message 133. The notification message 133, "The discussion is stalled. Group 2," may be output by voice (the notification message 133 may or may not be displayed).
図14は、講師Zによる通知メッセージ133の押下を説明する図である。講師ZはVR用操作コントローラ6を操作し、ポインター170を通知メッセージ133まで移動させ、確定ボタン116を押下する。通知メッセージ133が押下されると、バーチャル表示制御部26が今すぐ切替ボタン134と後で切替ボタン135を表示させる。 Figure 14 is a diagram illustrating instructor Z pressing the notification message 133. Instructor Z operates the VR operation controller 6, moves the pointer 170 to the notification message 133, and presses the confirm button 116. When the notification message 133 is pressed, the virtual display control unit 26 displays the now switch button 134 and the later switch button 135.
図15は、今すぐ切替ボタン134と後で切替ボタン135が表示された視界画面の一例である。講師ZのVRゴーグル5が表示しているグループ1の視界画面に、今すぐ切替ボタン134と後で切替ボタン135が表示されるので、講師Zは今すぐ切替ボタン134を押下することで、グループ2の視界画面を表示させることができる。今すぐ切替ボタン134が押下された場合を図16に示し、後で切替ボタン135が押下された場合を図17に示す。 Figure 15 is an example of a field of view screen displaying the Switch Now button 134 and Switch Later button 135. The Switch Now button 134 and Switch Later button 135 are displayed on the field of view screen for Group 1 displayed by Instructor Z's VR goggles 5, so Instructor Z can display the field of view screen for Group 2 by pressing the Switch Now button 134. Figure 16 shows the case where the Switch Now button 134 has been pressed, and Figure 17 shows the case where the Switch Later button 135 has been pressed.
図16は、今すぐ切替ボタン134の押下によりVRゴーグル5が表示させたグループ2の視界画面を示す。講師Zがグループ2に関する通知メッセージについて表示された今すぐ切替ボタン134を押下したので、バーチャル表示制御部26はグループ2の視界画面をVRゴーグル5に表示させる。司会していないグループでは講師アバターZ2が表示されない設定では、バーチャル表示制御部26がグループ2に講師アバターZ2を配置する。バーチャル表示制御部26はグループ2の3DモデルをVRゴーグル5に表示させる。よって、この視界画面は、グループ2の講師アバターZ2が見ている視界画面である。このため、アバターE~Hが表示されている。なお、グループ3も一定時間会話が行われていない場合は、今すぐ切替ボタン134の押下でグループ2、3のリストが表示され、その中から講師Zが表示させるグループ2又は3を選択してもよい。 Figure 16 shows the field of view screen for Group 2 displayed by the VR goggles 5 upon pressing the Switch Now button 134. Because instructor Z pressed the Switch Now button 134 displayed in response to the notification message for Group 2, the virtual display control unit 26 displays the field of view screen for Group 2 on the VR goggles 5. In a setting where instructor avatar Z2 is not displayed in groups that are not moderated, the virtual display control unit 26 places instructor avatar Z2 in Group 2. The virtual display control unit 26 displays a 3D model of Group 2 on the VR goggles 5. Therefore, this field of view screen is the field of view screen seen by instructor avatar Z2 of Group 2. Therefore, avatars E to H are displayed. Note that if no conversation has taken place in Group 3 for a certain period of time, a list of Groups 2 and 3 is displayed by pressing the Switch Now button 134, and instructor Z may select Group 2 or 3 to display from the list.
図17は、後で切替ボタン135の押下によりVRゴーグル5が表示させたグループ1の視界画面を示す。講師Zはグループ1を司会しているままなので、この視界画面は、グループ1の3DモデルがVRゴーグル5に表示されている。バーチャル表示制御部26は、後で切替ボタン135が押下(対応の先送りの一例)されたので、通知メッセージ133を消去し、通知ボタン132上に通知があることを示すマーク136を表示する。なお、出力制御部43は後で切替ボタン135が押下されると通知メッセージを会議データ記憶部24に記憶しておく。会議データ記憶部24には通知メッセージそのもの、発言が一定時間なかったグループ名、時刻等が保存される。 Figure 17 shows the field of view screen for Group 1 displayed on the VR goggles 5 when the "later" switch button 135 is pressed. Since Instructor Z is still moderating Group 1, this field of view screen displays a 3D model of Group 1 on the VR goggles 5. Because the "later" switch button 135 was pressed (an example of postponing a response), the virtual display control unit 26 erases the notification message 133 and displays a mark 136 on the notification button 132 indicating that a notification is available. Note that when the "later" switch button 135 is pressed, the output control unit 43 stores the notification message in the conference data storage unit 24. The conference data storage unit 24 stores the notification message itself, the name of the group that did not speak for a certain period of time, the time, etc.
また、バーチャル表示制御部26は、図14のように通知メッセージが表示されてから一定時間が経過すると、講師Zが後で切替ボタン135を押下しなくても、通知メッセージ133を非表示にして、通知ボタン132上に通知があることを示すマーク136の表示に切り替える。 In addition, after a certain period of time has passed since the notification message was displayed as shown in Figure 14, the virtual display control unit 26 will hide the notification message 133 and switch to displaying a mark 136 indicating that a notification is available on the notification button 132, even if instructor Z does not later press the switch button 135.
図18は、講師Zが後で切替ボタン135を押下した場合に、グループ2のアバターE(青森さん)の視界画面を示す。図18は、一例として、グループ2の青森さんというアバターEの視界画面を示す。講師Zが後で切替ボタン135を押下したので、出力制御部43は講師アバターZ2の方向から聞こえるように音声データを出力する。バーチャル表示制御部26は、講師アバターZ2の口を動かしてもよいし、講師アバターZ2からの発言を吹き出しなどに表示してもよい。発言の内容は、例えば「後ほど議論に参加します」である。「後ほど議論に参加します」は定型文であり出力制御部が生成する。講師Zの音声はグループ1に伝わってしまうので、定型文とすることで、講師Zが発言しないでよい。グループ1の視界画面に定型文の選択肢が表示され、その中から講師Zが選択してもよい。 Figure 18 shows the field of view screen of avatar E (Aomori-san) in group 2 when instructor Z presses the "later" switch button 135. As an example, Figure 18 shows the field of view screen of avatar E, Aomori-san, in group 2. Because instructor Z pressed the "later" switch button 135, the output control unit 43 outputs audio data so that it can be heard from the direction of instructor avatar Z2. The virtual display control unit 26 may move the mouth of instructor avatar Z2 or display a statement from instructor avatar Z2 in a speech bubble or the like. The content of the statement is, for example, "I will join the discussion later." "I will join the discussion later" is a standard phrase generated by the output control unit. Because instructor Z's voice will be transmitted to group 1, making it a standard phrase prevents instructor Z from making any statements. A selection of standard phrases is displayed on the field of view screen of group 1, from which instructor Z may select.
以上により、一定時間、会話がないグループ2のアバターE~Hは、後ほど講師本人が議論に参加する旨を他のアバターと共に共有することが可能となる。 As a result, avatars E to H in Group 2, who have not spoken for a certain period of time, can share with the other avatars that the instructor will join the discussion later.
図18ではグループ2に講師アバターZ2が表示されている。このように、後で切替ボタン135が押下された場合、バーチャル表示制御部26が一時的に講師アバターZ2を表示させてよい。あるいは、バーチャル表示制御部26が出力制御部用のアバター(ボット用のアバター)を表示させて、伝言という形式で、講師Zからの発言を音声データで出力してもよい。あるいは、バーチャル表示制御部26は、講師アバターZ2やボット用のアバターを表示せずに、生成された音声のみが出力されてもよい。 In Figure 18, instructor avatar Z2 is displayed in group 2. In this way, if the switching button 135 is pressed later, the virtual display control unit 26 may temporarily display instructor avatar Z2. Alternatively, the virtual display control unit 26 may display an avatar for the output control unit (an avatar for a bot) and output a statement from instructor Z as audio data in the form of a message. Alternatively, the virtual display control unit 26 may output only the generated audio without displaying instructor avatar Z2 or an avatar for a bot.
また、図14~図18では、グループ内で発言が滞っていることを出力制御部43が検出したが、出力制御部43は各参加者ごとに発言が滞っていることを検出し、講師アバターZ1に通知してもよい。 In addition, in Figures 14 to 18, the output control unit 43 detects a delay in speech within the group, but the output control unit 43 may also detect a delay in speech for each participant and notify the instructor avatar Z1.
<動作又は処理>
図19は、出力制御部43が通知メッセージを講師ZのVRゴーグル5に表示させる処理を説明するシーケンス図である。図19の説明の前提として、講師Zの講師アバターZ1がグループ1に配置され、1人以上の参加者のアバターがグループ2に配置されている。グループ2において参加者の発言が検出されない場合、バーチャル表示制御部26は、グループ2において参加者の発言が検出されない旨のメッセージを生成し、通信制御部23がグループ1の視界情報を表示している講師のVRゴーグル5に送信する。
<Operation or Processing>
19 is a sequence diagram illustrating the process in which the output control unit 43 displays a notification message on the VR goggles 5 of instructor Z. As a premise for the explanation of FIG. 19, instructor avatar Z1 of instructor Z is placed in group 1, and one or more participant avatars are placed in group 2. If no participant utterance is detected in group 2, the virtual display control unit 26 generates a message indicating that no participant utterance is detected in group 2, and the communication control unit 23 transmits this message to the instructor's VR goggles 5 that are displaying the field of view information for group 1.
S51:出力制御部43は常にグループごとにアバターの会話を待機している。出力制御部43はグループごとにタイマーを有し、会話があるとタイマーをリセットして、タイマーがタイムアウトすると会話がなく一定時間が経過したと判断する。 S51: The output control unit 43 is always on standby for conversations between avatars in each group. The output control unit 43 has a timer for each group, and resets the timer when there is conversation. When the timer times out, it determines that a certain period of time has passed without any conversation.
S52:一定時間、会話がない場合、議論が滞っている旨の通知メッセージの生成要求を表示データ生成部25に送信する。 S52: If there is no conversation for a certain period of time, a request to generate a notification message indicating that the discussion is stalling is sent to the display data generation unit 25.
S53:表示データ生成部25は、要求を受けると議論が滞っている旨の通知メッセージを生成する。 S53: Upon receiving the request, the display data generation unit 25 generates a notification message indicating that the discussion is stalled.
S54:表示データ生成部25は通知メッセージを合成した視界画面の生成をバーチャル表示制御部26に要求する。 S54: The display data generation unit 25 requests the virtual display control unit 26 to generate a field of view screen onto which the notification message is synthesized.
S55:バーチャル表示制御部26は通知メッセージを合成した視界画面を生成する。 S55: The virtual display control unit 26 generates a field of view screen that combines the notification message.
S56:バーチャル表示制御部26は通信制御部23を介して、通知メッセージを合成した視界画面の画面情報をVRゴーグル5に送信する。VRゴーグル5の無線LAN通信制御部32が視界画面の画面情報を受信し、表示制御部34がVRゴーグル5のLCD87に表示させる(図13参照)。 S56: The virtual display control unit 26 transmits screen information of the field of view screen onto which the notification message has been combined to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 32 of the VR goggles 5 receives the screen information of the field of view screen, and the display control unit 34 displays it on the LCD 87 of the VR goggles 5 (see Figure 13).
図20は、講師Zが通知メッセージに対応する際の処理を説明するシーケンス図である。
S61:講師Zが通知メッセージ133にポインター170を合わせて確定ボタン116を押下する(図14参照)。
FIG. 20 is a sequence diagram illustrating the process when instructor Z responds to a notification message.
S61: Instructor Z points the pointer 170 to the notification message 133 and presses the confirm button 116 (see FIG. 14).
S62-1:VR用操作コントローラ6は確定ボタン116の押下を受け付け、ボタン情報送信部121がBluetooth通信制御部120を介して、通知メッセージが押下された旨をVRゴーグル5に送信する。
S62-2:VRゴーグル5の無線LAN通信制御部101は通知メッセージが押下された旨をバーチャル会議サーバ1に送信する。
S62-1: The VR operation controller 6 receives a press of the confirmation button 116, and the button information transmission unit 121 transmits a notification message to the VR goggles 5 via the Bluetooth communication control unit 120 to the effect that the confirmation button 116 has been pressed.
S62-2: The wireless LAN communication control unit 101 of the VR goggles 5 transmits to the virtual conference server 1 a notification that the notification message has been pressed.
S63:バーチャル会議サーバの通信制御部23は通知メッセージが押下された旨を受信し、バーチャル会議制御部20が今すぐ切替ボタン134と後で切替ボタン135の生成要求を表示データ生成部25に送信する。 S63: The communication control unit 23 of the virtual conference server receives the notification message indicating that the button has been pressed, and the virtual conference control unit 20 sends a request to generate the Now switch button 134 and Later switch button 135 to the display data generation unit 25.
S64:表示データ生成部25は、この要求に応じて、今すぐ切替ボタン134と後で切替ボタン135を生成する。 S64: In response to this request, the display data generation unit 25 generates a now switch button 134 and a later switch button 135.
S65:また、表示データ生成部25は、今すぐ切替ボタン134と後で切替ボタン135を含む視界画面の生成をバーチャル表示制御部26に要求する。 S65: The display data generation unit 25 also requests the virtual display control unit 26 to generate a field of view screen including a now switch button 134 and a later switch button 135.
S66:バーチャル表示制御部26は現在の講師アバターの視界画面に、今すぐ切替ボタン134と後で切替ボタン135を合成する。 S66: The virtual display control unit 26 combines the now switch button 134 and the later switch button 135 into the current instructor avatar's field of view screen.
S67:バーチャル表示制御部26は、通信制御部23を介して、VRゴーグル5に今すぐ切替ボタン134と後で切替ボタン135が合成された視界画面の画面情報を送信する。VRゴーグル5の無線LAN通信制御部101はこの画面情報を受信し、表示制御部100が今すぐ切替ボタン134と後で切替ボタン135が合成された視界画面を表示させる(図15参照)。 S67: The virtual display control unit 26 transmits screen information of a field of view screen on which the Now switch button 134 and Later switch button 135 are combined to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 101 of the VR goggles 5 receives this screen information, and the display control unit 100 displays the field of view screen on which the Now switch button 134 and Later switch button 135 are combined (see Figure 15).
続いて、講師Zが視界画面で今すぐ切替ボタン134を押下した場合を説明する。ステップS70で、講師Zは今すぐ切替ボタン134までポインター170を移動させる。通知メッセージ133を出力した講師のVRゴーグル5がグループ2の視界情報を表示させる操作を受け付けた場合、バーチャル表示制御部26は、グループ2に配置された講師Zの講師アバターZ2の視界情報を生成し、通信制御部23が講師ZのVRゴーグル5に送信する。 Next, we will explain what happens when instructor Z presses the Switch Now button 134 on the field of view screen. In step S70, instructor Z moves the pointer 170 to the Switch Now button 134. When the VR goggles 5 of the instructor that output the notification message 133 accepts an operation to display field of view information for group 2, the virtual display control unit 26 generates field of view information for instructor avatar Z2 of instructor Z who is placed in group 2, and the communication control unit 23 sends this information to instructor Z's VR goggles 5.
S71:講師Zは今すぐ切替ボタン134にポインター170を合わせて確定ボタン116を押下する。 S71: Instructor Z positions the pointer 170 on the Now switch button 134 and presses the Confirm button 116.
S72-1:VR用操作コントローラ6は確定ボタン116の押下を受け付け、ボタン情報送信部121がBluetooth通信制御部120を介して、今すぐ切替ボタン134が押下された旨をVRゴーグル5に送信する。
S72-2:VRゴーグル5の無線LAN通信制御部101は今すぐ切替ボタン134が押下された旨をバーチャル会議サーバ1に送信する。
S72-1: The VR operation controller 6 receives a press of the confirmation button 116, and the button information transmission unit 121 transmits to the VR goggles 5 via the Bluetooth communication control unit 120 a message indicating that the switch now button 134 has been pressed.
S72-2: The wireless LAN communication control unit 101 of the VR goggles 5 immediately transmits to the virtual conference server 1 a message that the switching button 134 has been pressed.
S73:バーチャル会議サーバの通信制御部23は今すぐ切替ボタン134が押下された旨を受信し、バーチャル会議制御部20はグループ2を指定した視界画面の切替要求をバーチャル表示制御部26に送信する。 S73: The communication control unit 23 of the virtual conference server receives the notification that the switch now button 134 has been pressed, and the virtual conference control unit 20 sends a request to switch the field of view screen specifying group 2 to the virtual display control unit 26.
S74:バーチャル表示制御部26は、この要求に応じて、講師アバターの視界画面をグループ2の視界画面に切り替える。詳細には、視界画面は、グループ2が構築された仮想的な360°の仮想空間において、講師Zが見ている方向に投影された画像である。 S74: In response to this request, the virtual display control unit 26 switches the field of view screen of the instructor avatar to the field of view screen of group 2. In detail, the field of view screen is an image projected in the direction that instructor Z is looking in the virtual 360° virtual space in which group 2 is constructed.
S75:バーチャル表示制御部26は、通信制御部23を介して、VRゴーグル5にグループ2の視界画面の画面情報を送信する。VRゴーグル5の無線LAN通信制御部101はこの画面情報を受信し、表示制御部100がグループ2の視界画面を表示させる(図16参照)。 S75: The virtual display control unit 26 transmits screen information of the field of view screen for group 2 to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 101 of the VR goggles 5 receives this screen information, and the display control unit 100 displays the field of view screen for group 2 (see Figure 16).
続いて、講師Zが図15の視界画面で、後で切替ボタン135を押下した場合を説明する。ステップS80で、講師Zは後で切替ボタン135までポインター170を移動させる。通知メッセージ133を表示した講師ZのVRゴーグル5がグループ2の視界情報を表示させる操作でなく通知メッセージの対応を先送りする操作を受け付けた場合、出力制御部43が後で対応する旨の音声データを生成する。通信制御部23は、音声データをグループ2のVRゴーグル12に送信する。 Next, we will explain what happens when instructor Z presses the "later" switch button 135 on the field of view screen in Figure 15. In step S80, instructor Z moves the pointer 170 to the "later" switch button 135. If instructor Z's VR goggles 5, which are displaying the notification message 133, receive an operation to postpone responding to the notification message rather than an operation to display the field of view information for group 2, the output control unit 43 generates audio data indicating that the response will be made later. The communication control unit 23 transmits the audio data to the VR goggles 12 of group 2.
S81:講師Zは後で切替ボタン135にポインター170を合わせて確定ボタン116を押下する。 S81: Instructor Z later aligns the pointer 170 with the switch button 135 and presses the confirm button 116.
S82-1:VR用操作コントローラ6は確定ボタン116の押下を受け付け、ボタン情報送信部121がBluetooth通信制御部120を介して、後で切替ボタン135が押下された旨をVRゴーグル5に送信する。
S82-2:VRゴーグル5の無線LAN通信制御部101は後で切替ボタン135が押下された旨をバーチャル会議サーバ1に送信する。
S82-1: The VR operation controller 6 accepts the pressing of the confirmation button 116, and the button information transmission unit 121 later transmits to the VR goggles 5 via the Bluetooth communication control unit 120 that the switching button 135 has been pressed.
S82-2: The wireless LAN communication control unit 101 of the VR goggles 5 later transmits to the virtual conference server 1 a message that the switching button 135 has been pressed.
S83:バーチャル会議サーバの通信制御部23が後で切替ボタン135が押下された旨を受信し、バーチャル会議制御部20はマーク136が追加された通知ボタン132の生成要求を表示データ生成部25に送信する。 S83: The communication control unit 23 of the virtual conference server later receives information that the switch button 135 has been pressed, and the virtual conference control unit 20 sends a request to the display data generation unit 25 to generate a notification button 132 with the mark 136 added.
S84:表示データ生成部25は、この要求に応じて、マーク136が追加された通知ボタン132を生成する。 S84: In response to this request, the display data generation unit 25 generates a notification button 132 with a mark 136 added.
S85:また、表示データ生成部25は、マーク136が追加された通知ボタン132を含む視界画面の生成をバーチャル表示制御部26に要求する。 S85: The display data generation unit 25 also requests the virtual display control unit 26 to generate a field of view screen including the notification button 132 to which the mark 136 has been added.
S86:バーチャル表示制御部26は現在の講師アバターZ1の視界画面に、マーク136が追加された通知ボタン132を合成する。 S86: The virtual display control unit 26 composites the notification button 132 with the mark 136 added onto the current field of view screen of the instructor avatar Z1.
S87:バーチャル表示制御部26は、通信制御部23を介して、VRゴーグル5にマーク136が追加された通知ボタン132が合成された視界画面の画面情報を送信する。VRゴーグル5の無線LAN通信制御部101はこの画面情報を受信し、表示制御部100が、マーク136が追加された通知ボタン132が合成された視界画面を表示させる(図17参照)。 S87: The virtual display control unit 26 transmits screen information of the field of view screen onto which the notification button 132 with the mark 136 added has been superimposed to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 101 of the VR goggles 5 receives this screen information, and the display control unit 100 displays the field of view screen onto which the notification button 132 with the mark 136 added has been superimposed (see FIG. 17).
S88:また、後で切替ボタン135が押下されたので、バーチャル会議制御部20は、「後ほど議論に参加します」という発話を出力制御部43に要求する。 S88: Also, since the "later" switch button 135 was pressed, the virtual conference control unit 20 requests the output control unit 43 to utter the utterance "I will join the discussion later."
S89:出力制御部43はこの要求に応じて、「後ほど議論に参加します」という発話の音声データを生成する。また、出力制御部43は通知メッセージ133を会議データ記憶部24に保存しておく。 S89: In response to this request, the output control unit 43 generates voice data for the utterance "I will join the discussion later." The output control unit 43 also stores the notification message 133 in the conference data storage unit 24.
S90:出力制御部43は通信制御部23を介して、音声データをグループ2の各参加者のVRゴーグル12に送信する。 S90: The output control unit 43 transmits the audio data to the VR goggles 12 of each participant in Group 2 via the communication control unit 23.
S91:VRゴーグル12の無線LAN通信制御部101は音声データを受信し、スピーカー92から「後ほど議論に参加します」という音声を出力する。なお、VRゴーグル12が音声で「後ほど議論に参加します」を出力しているが、同様の内容を言語情報で表示してもよい。この場合、グループ2の視界画面に通知メッセージが合成される。 S91: The wireless LAN communication control unit 101 of the VR goggles 12 receives the audio data and outputs the audio "I will join the discussion later" from the speaker 92. Note that although the VR goggles 12 outputs the audio "I will join the discussion later", similar content may be displayed using linguistic information. In this case, a notification message is synthesized on the field of view screen of Group 2.
<主な効果>
本実施形態の仮想空間システム300は、講師Zとしてグループワークに参加し各グループに自身の分身となる講師アバターZ1~Z3を配置しているような状況において、講師Zが司会していないグループの状況に応じた通知が講師アバターZ1に通知されるので、講師Zが現在はVRゴーグル5に表示しておらず音声データを出力していないグループの状態を把握できる。
<Major Effects>
In the virtual space system 300 of this embodiment, in a situation where instructor Z participates in group work and places instructor avatars Z1 to Z3 that represent instructor Z in each group, notifications according to the status of groups that instructor Z is not moderating are sent to instructor avatar Z1, so that instructor Z can understand the status of groups for which instructor Z is not currently displayed on the VR goggles 5 and for which no audio data is being output.
[第2実施形態]
本実施形態では、司会していないグループから司会しているグループ1の講師アバターZ1に対して質問などの問い合わせがあることを通知するバーチャル会議サーバ1について説明する。
Second Embodiment
In this embodiment, a virtual conference server 1 is described in which a group not being moderated notifies the instructor avatar Z1 of the group 1 being moderated that there is an inquiry such as a question.
図21は、グループ内のアバターが発言した場合の発言例を示す。図21では、グループ3のアバターJ(千葉さん)から講師アバターZ3に対して「中澤さん、私が説明した内容は合っていますか?」という発言161があったとする。図21の吹き出し内の発言161の内容は説明のためのものであって実際には表示されなくてよい。 Figure 21 shows an example of a statement made by an avatar in a group. In Figure 21, avatar J (Mr. Chiba) from Group 3 makes a statement 161 to instructor avatar Z3: "Mr. Nakazawa, is what I explained correct?" The content of statement 161 in the speech bubble in Figure 21 is for explanatory purposes and does not need to be actually displayed.
講師ZのVRゴーグル5にはグループ1の視界画面が表示されており、スピーカー92からはグループ1の音声が出力されるので、講師Zはグループ3の発言には気づかない。 Instructor Z's VR goggles 5 display the field of view for Group 1, and the audio for Group 1 is output from the speaker 92, so Instructor Z is unaware of what Group 3 is saying.
そこで、音声認識部42は各グループの発言を常時、音声認識しており、認識結果である発言データを出力制御部43に送信する。発言161に含まれる「中澤さん」とは講師Zの氏名(氏のみ名のみでもよい)であり、出力制御部43が講師Zの名前を含んだ発言161があったことを検出すると、講師Zに対する問い合わせがあったと判断する。出力制御部43はバーチャル会議サーバ1のバーチャル表示制御部26に対して、講師Zのグループ1の視界画面へ問い合わせがある旨の通知メッセージの追加要求を出す。バーチャル表示制御部26は、通知メッセージの追加要求を受け、講師Zのグループ1の視界画面に通知メッセージを合成する。 The voice recognition unit 42 constantly recognizes the speech of each group and transmits the speech data resulting from the recognition to the output control unit 43. "Nakazawa-san" included in speech 161 is the name of instructor Z (or just the first or last name would be acceptable), and when the output control unit 43 detects that speech 161 containing instructor Z's name has been made, it determines that an inquiry has been made to instructor Z. The output control unit 43 issues a request to the virtual display control unit 26 of the virtual conference server 1 to add a notification message indicating that an inquiry has been made to the field of view screen of instructor Z's group 1. The virtual display control unit 26 receives the request to add the notification message and synthesizes the notification message on the field of view screen of instructor Z's group 1.
図22は、問い合わせの通知メッセージが表示されたグループ1の講師アバターの視界画面の一例である。視界画面の上部に「問いかけがあります。from千葉 Group3」という通知メッセージ137が表示されている。通知メッセージ137が有する「from千葉 Group3」によりグループ3の千葉さんから問い合わせがあったことが分かる。なお、音声認識部42はどのVRゴーグル15からの音声データかにより発言者を識別しているので、「中澤さん」と発言した参加者を判断できる。「問いかけがあります。from千葉 Group3」という通知メッセージ137は、音声により出力されてもよい(通知メッセージ137は表示されてもされなくてもよい)。 Figure 22 is an example of the field of view screen of the instructor avatar of Group 1 on which a notification message for an inquiry is displayed. A notification message 137 reading "We have a question for you. From Chiba, Group 3" is displayed at the top of the field of view screen. The "from Chiba, Group 3" in the notification message 137 indicates that an inquiry has been made by Chiba of Group 3. Note that the voice recognition unit 42 identifies the speaker based on which VR goggles 15 the voice data is from, so it can determine the participant who said "Nakazawa-san." The notification message 137 reading "We have a question for you. From Chiba, Group 3" may be output by voice (the notification message 137 may or may not be displayed).
なお、アバターJの発言には、問い合わせでなくても「中澤さん」を含む場合があるので、出力制御部43は文脈を解析して、問い合わせかどうか判断し、問い合わせの場合に講師アバターZ1に通知することが好ましい。 Note that avatar J's statement may include "Nakazawa-san" even if it is not an inquiry, so it is preferable for the output control unit 43 to analyze the context, determine whether it is an inquiry, and notify instructor avatar Z1 if it is an inquiry.
このようにして、講師Zは、現在VRゴーグル5が視界画面を表示及び音声出力していない他のグループから問い合わせがあったことを、現在VRゴーグル5に表示している視界画面に合成された通知メッセージ137により確認することができる。 In this way, instructor Z can confirm that there has been an inquiry from another group whose VR goggles 5 are not currently displaying a view screen or outputting audio, by checking the notification message 137 superimposed on the view screen currently displayed on the VR goggles 5.
図22の通知メッセージ137に対する講師Zのアクションについては、第1実施形態の図15と同様に、講師Zが今すぐ切替ボタン134又は後で切替ボタン135を選択することで、すぐに切り替えるか後で切り替えるかのアクションが選択可能となる。 As for the action taken by instructor Z in response to the notification message 137 in Figure 22, similar to Figure 15 in the first embodiment, instructor Z can select whether to switch immediately or later by selecting the switch now button 134 or the switch later button 135.
また、視界画面には、図23に示すように、複数の通知メッセージ133,137を同時に表示することも可能である。図23では、出力制御部43が、グループ2で議論が滞っている旨の通知メッセージ133と、グループ3からの問い合わせがある旨の通知メッセージ137とが表示されている。 It is also possible to simultaneously display multiple notification messages 133, 137 on the field of view screen, as shown in Figure 23. In Figure 23, the output control unit 43 displays notification message 133 indicating that the discussion in Group 2 is stalled, and notification message 137 indicating that there is an inquiry from Group 3.
複数の通知メッセージ133,137が同時に表示される場合、古いものほど上側に表示されたり、一定時間が経過すると赤などの強調色で表示されたり、点滅したりしてもよい。 When multiple notification messages 133, 137 are displayed simultaneously, the older ones may be displayed at the top, or after a certain period of time they may be displayed in a highlighted color such as red or may flash.
<動作又は処理>
図24は、出力制御部43が、現在VRゴーグル5で視界画面を表示しておらず音声データを出力していないグループからの問い合わせを講師アバターに通知する処理を説明するシーケンス図である。図24の前提として、講師の講師アバターZ1がグループ1に配置され、1人以上の参加者のアバターがグループ3に配置されている。グループ3における参加者の発言が講師Zに関するものである場合、バーチャル表示制御部26は、参加者から問い合わせがある旨の通知メッセージを生成し、通信制御部23がグループ1の視界情報を表示している講師のVRゴーグル5に送信する。
<Operation or Processing>
24 is a sequence diagram illustrating the process in which the output control unit 43 notifies the instructor avatar of an inquiry from a group that is not currently displaying a field of view screen or outputting audio data on the VR goggles 5. As a premise of FIG. 24, the instructor's instructor avatar Z1 is placed in group 1, and one or more participant avatars are placed in group 3. If a participant in group 3 makes a comment about instructor Z, the virtual display control unit 26 generates a notification message indicating that there is an inquiry from the participant, and the communication control unit 23 sends this to the instructor's VR goggles 5 that are displaying the field of view information for group 1.
S101:例えば、グループ3の千葉さんが発言した。 S101: For example, Mr. Chiba from Group 3 spoke.
S102:千葉さんのVRゴーグルのマイク91は、発言を取得し音声データに変換する。VRゴーグル15の無線LAN通信制御部101は音声データをバーチャル会議サーバに送信する。 S102: The microphone 91 in Chiba's VR goggles captures what he says and converts it into voice data. The wireless LAN communication control unit 101 in the VR goggles 15 transmits the voice data to the virtual conference server.
S103:バーチャル会議サーバの通信制御部23が音声データを受信し、音声認識部42を使用して音声認識する(文字に変換する)。音声認識部42は発言があったグループ名と発言者の氏名を出力制御部43に通知する。 S103: The communication control unit 23 of the virtual conference server receives the voice data and uses the voice recognition unit 42 to recognize the voice (convert it into text). The voice recognition unit 42 notifies the output control unit 43 of the name of the group that made the comment and the name of the speaker.
出力制御部43は発言内容が講師への問い合わせか判断し(講師の氏又は名が含まれるか)、発言が講師Zへの問い合わせの場合、以下の処理を行う。すなわち、バーチャル表示制御部26は、グループ3における参加者に講師Zの氏又は名が含まれる場合、別のグループの参加者から問い合わせがある旨の通知メッセージを生成し、通信制御部23がグループ1の視界情報を表示している講師のVRゴーグル5に送信する。 The output control unit 43 determines whether the statement is an inquiry to the instructor (whether the instructor's first or last name is included), and if the statement is an inquiry to instructor Z, the following processing is performed. That is, if the last name or first name of instructor Z is included among the participants in group 3, the virtual display control unit 26 generates a notification message indicating that there is an inquiry from a participant in another group, and the communication control unit 23 sends this to the instructor's VR goggles 5 displaying the field of view information for group 1.
S104:出力制御部43は、問い合わせがある旨の通知メッセージの生成を表示データ生成部25に要求する。なお、出力制御部43は発言があったグループ名と発言者の氏名を添付する。 S104: The output control unit 43 requests the display data generation unit 25 to generate a notification message indicating that an inquiry has been received. The output control unit 43 also attaches the name of the group that made the comment and the name of the person who made the comment.
S105:表示データ生成部25は、この要求に応じて、問い合わせがある旨の通知メッセージを生成する。 S105: In response to this request, the display data generation unit 25 generates a notification message indicating that an inquiry has been made.
S106:また、表示データ生成部25は、問い合わせがある旨の通知メッセージを合成した視界画面の生成をバーチャル表示制御部26に要求する。この視界画面は、現在、講師ZのVRゴーグル5に表示されているグループの視界画面である。 S106: The display data generation unit 25 also requests the virtual display control unit 26 to generate a field of view screen that combines a notification message indicating that an inquiry has been received. This field of view screen is the field of view screen of the group that is currently being displayed on instructor Z's VR goggles 5.
S107:バーチャル表示制御部26は現在の講師アバターの視界画面に、問い合わせがある旨の通知メッセージが合成された視界画面を生成する。 S107: The virtual display control unit 26 generates a view screen in which a notification message indicating that an inquiry has been received is superimposed on the view screen of the current instructor avatar.
S108:バーチャル表示制御部26は、通信制御部23を介して、VRゴーグル5に問い合わせがある旨の通知メッセージが合成された視界画面の画面情報を送信する。VRゴーグル5の無線LAN通信制御部101はこの画面情報を受信し、表示制御部100は問い合わせがある旨の通知メッセージが合成された視界画面を表示させる(図22参照)。 S108: The virtual display control unit 26 transmits screen information of the field of view screen onto which a notification message indicating that an inquiry has been received to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 101 of the VR goggles 5 receives this screen information, and the display control unit 100 displays the field of view screen onto which a notification message indicating that an inquiry has been received (see Figure 22).
<主な効果>
本実施形態によれば、第1実施形態の効果に加え、1人の講師Zが複数のグループに講師アバターZ1~Z3を配置し、VRゴーグル5で視界画面を表示していないグループから問い合わせがあっても、問い合わせに気付き迅速に対応することができる。
<Major Effects>
According to this embodiment, in addition to the effects of the first embodiment, one instructor Z places instructor avatars Z1 to Z3 in multiple groups, and even if an inquiry comes from a group that is not displaying the field of view screen on the VR goggles 5, the inquiry can be noticed and responded to quickly.
[第3実施形態]
本実施形態では、分身切替ボタン131の押下による講師アバターの分身切替について説明する。分身切替とは、VRゴーグル5にどのグループの視界画面を表示させるかを講師Zが任意に切り替えることをいう。
[Third embodiment]
In this embodiment, an explanation will be given of the alter ego switching of the instructor avatar by pressing the alter ego switching button 131. Alter ego switching refers to the instructor Z arbitrarily switching which group's field of view screen is displayed on the VR goggles 5.
図25は、講師ZのVRゴーグル5が表示する分身切替ボタン131の一例を示す。講師Zがポインター170を移動させ、分身切替ボタン131を押下する。これにより、バーチャル表示制御部26は図26のように切替可能な講師アバターの一覧141を合成した視界画面を表示する。 Figure 25 shows an example of the avatar switching button 131 displayed on instructor Z's VR goggles 5. Instructor Z moves the pointer 170 and presses the avatar switching button 131. This causes the virtual display control unit 26 to display a field of view screen that combines a list 141 of switchable instructor avatars, as shown in Figure 26.
図26は、講師アバターの一覧141を表示する視界画面を示す。講師アバターの一覧141には、各グループに配置されている全ての講師アバターについて講師アバターボタン141a~141cが表示される。現在、VRゴーグル5で視界画面が表示され音声データを出力しているグループの講師アバターを「マスター」という。マスターは講師アバターボタン141aにおいてアイコン143で明示される。アイコン143が付いているグループの視界画面と音声データが講師ZのVRゴーグル5に送信されている(講師Zが司会している)。また、講師アバターボタン141a~141cには、講師アバターZ1~Z3が配置されているグループ名が表示される。これらは図11の対応情報に登録されている。 Figure 26 shows a view screen displaying a list 141 of instructor avatars. The list 141 of instructor avatars displays instructor avatar buttons 141a-141c for all instructor avatars assigned to each group. The instructor avatar of the group whose view screen is currently being displayed on the VR goggles 5 and whose audio data is being output is called the "master." The master is indicated by icon 143 on the instructor avatar button 141a. The view screen and audio data of the group with icon 143 are being sent to instructor Z's VR goggles 5 (instructor Z is moderating). The instructor avatar buttons 141a-141c also display the names of the groups in which instructor avatars Z1-Z3 are assigned. These are registered in the correspondence information in Figure 11.
講師アバターの一覧141から講師Zが例えばグループ2の講師アバターボタン141bを選択すると、バーチャル表示制御部26は、講師ZのVRゴーグル5の視界画面をグループ2の講師アバターZ2から見える視界画面に切り替える。 When instructor Z selects, for example, the instructor avatar button 141b for group 2 from the list of instructor avatars 141, the virtual display control unit 26 switches the field of view screen of instructor Z's VR goggles 5 to the field of view screen seen by instructor avatar Z2 for group 2.
<動作又は処理>
図27は、講師ZのVRゴーグル5が表示する視界画面を切り替える処理を説明するシーケンス図である。
<Operation or Processing>
FIG. 27 is a sequence diagram illustrating the process of switching the view screen displayed by the instructor Z's VR goggles 5.
S121:講師Zはポインター表示ボタン115を押しながらポインター170を分身切替ボタン131に移動させる。 S121: Instructor Z moves the pointer 170 to the ghost switch button 131 while pressing the pointer display button 115.
S121-2:講師Zがポインター表示ボタン115を押している間、VR用操作コントローラ6のBluetooth通信制御部120はポインターの移動に関する情報(自デバイスの向きと動きの情報)を定期的に(例えば100ミリ秒毎)VRゴーグル5へ送信する。
S122:VRゴーグル5の無線LAN通信制御部101はポインターの移動に関する情報に基づいた位置算出要求をバーチャル会議サービスへ送信する。
S121-2: While instructor Z is pressing the pointer display button 115, the Bluetooth communication control unit 120 of the VR operation controller 6 periodically (for example, every 100 milliseconds) transmits information regarding the movement of the pointer (information regarding the orientation and movement of the device) to the VR goggles 5.
S122: The wireless LAN communication control unit 101 of the VR goggles 5 transmits a position calculation request based on information regarding the movement of the pointer to the virtual conference service.
S123:バーチャル会議サービスの通信制御部23が位置算出要求を受信する。バーチャル会議サービスのポインター位置算出部27がVR用操作コントローラ6の向きと動きの情報を基にポインター170の表示位置を算出する。 S123: The communication control unit 23 of the virtual conference service receives the position calculation request. The pointer position calculation unit 27 of the virtual conference service calculates the display position of the pointer 170 based on the orientation and movement information of the VR operation controller 6.
S124:ポインター位置算出部27は、算出した位置と共にポインター170の生成を表示データ生成部25に要求する。 S124: The pointer position calculation unit 27 requests the display data generation unit 25 to generate a pointer 170 along with the calculated position.
S125:表示データ生成部25は、この要求に応じて、算出された位置にポインター170を生成する。 S125: In response to this request, the display data generation unit 25 generates a pointer 170 at the calculated position.
S126:また、表示データ生成部25は、移動後のポインター170を合成した視界画面の生成をバーチャル表示制御部26に要求する。この視界画面は、現在、講師ZのVRゴーグル5に表示されているグループの視界画面である。 S126: The display data generation unit 25 also requests the virtual display control unit 26 to generate a field of view screen that combines the moved pointer 170. This field of view screen is the field of view screen of the group currently displayed on instructor Z's VR goggles 5.
S127:バーチャル表示制御部26は現在の講師アバターの視界画面に、移動後のポインター170が合成された視界画面を生成する。 S127: The virtual display control unit 26 generates a field of view screen in which the moved pointer 170 is superimposed on the current field of view screen of the instructor avatar.
S128:バーチャル表示制御部26は通信制御部23を介して、移動後のポインター170が合成された視界画面の画面情報をVRゴーグル5に送信する。VRゴーグル5の無線LAN通信制御部101はこの画面情報を受信し、表示制御部100が移動後のポインター170が合成された視界画面を表示させる(図25参照)。 S128: The virtual display control unit 26 transmits screen information of the field of view screen onto which the moved pointer 170 is superimposed to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 101 of the VR goggles 5 receives this screen information, and the display control unit 100 displays the field of view screen onto which the moved pointer 170 is superimposed (see Figure 25).
S129:講師Zが、ポインター170が分身切替ボタン131に重なった状態で確定ボタン116を押下する。 S129: Instructor Z presses the confirm button 116 with the pointer 170 overlapping the ghost switch button 131.
S130-1:VR用操作コントローラ6のBluetooth通信制御部120は確定コマンドをVRゴーグル5へBluetoothで送信する。
S130-2:VRゴーグル5の無線LAN通信制御部101はこのコマンドをバーチャル会議サービスへ送信する。
S130-1: The Bluetooth communication control unit 120 of the VR operation controller 6 transmits a confirmation command to the VR goggles 5 via Bluetooth.
S130-2: The wireless LAN communication control unit 101 of the VR goggles 5 sends this command to the virtual conference service.
S131:バーチャル会議サービスの通信制御部23がこの確定コマンドを受信すると、バーチャル会議制御部20は、表示データ生成部25に講師アバターの一覧141の生成を要求する。 S131: When the communication control unit 23 of the virtual conference service receives this confirmation command, the virtual conference control unit 20 requests the display data generation unit 25 to generate a list 141 of instructor avatars.
S132:表示データ生成部25は、この要求に応じて、講師アバターの一覧141を生成する。アバター管理部44がグループ1~3と講師アバターZ1~Z3の対応を管理しており、講師アバターが現在どのグループに配置されているかの情報も管理している。表示データ生成部25はアバター管理部44から各グループに配置されている講師アバターZ1~Z3に関する情報を取得する。 S132: In response to this request, the display data generation unit 25 generates a list 141 of instructor avatars. The avatar management unit 44 manages the correspondence between groups 1 to 3 and instructor avatars Z1 to Z3, and also manages information about which group the instructor avatar is currently assigned to. The display data generation unit 25 obtains information about instructor avatars Z1 to Z3 assigned to each group from the avatar management unit 44.
S133:また、表示データ生成部25は、講師アバターの一覧141を合成した視界画面の生成をバーチャル表示制御部26に要求する。この視界画面は、現在、講師ZのVRゴーグル5に表示されているグループの視界画面である。 S133: The display data generation unit 25 also requests the virtual display control unit 26 to generate a field of view screen that combines the list 141 of instructor avatars. This field of view screen is the field of view screen of the group currently displayed on instructor Z's VR goggles 5.
S134:バーチャル表示制御部26は現在の講師アバターの視界画面に、講師アバターの一覧141が合成された視界画面を生成する。 S134: The virtual display control unit 26 generates a field of view screen in which the list of instructor avatars 141 is superimposed on the field of view screen of the current instructor avatar.
S135:バーチャル表示制御部26は通信制御部23を介して、講師アバターの一覧141が合成された視界画面の画面情報をVRゴーグル5に送信する。VRゴーグル5の無線LAN通信制御部101はこの画面情報を受信し、表示制御部100が講師アバターの一覧141が合成された視界画面を表示させる(図26参照)。 S135: The virtual display control unit 26 transmits screen information of the field of view screen onto which the list of instructor avatars 141 has been superimposed to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 101 of the VR goggles 5 receives this screen information, and the display control unit 100 displays the field of view screen onto which the list of instructor avatars 141 has been superimposed (see Figure 26).
ステップS136では、講師ZがVR用操作コントローラ6を操作して、ポインター170を講師アバターの一覧141に移動させたとする。この処理はステップS121~S128と同様でよい。 In step S136, instructor Z operates the VR operation controller 6 to move the pointer 170 to the list of instructor avatars 141. This process may be similar to steps S121 to S128.
S137:講師Zが、ポインター170が講師アバターボタン141bに重なった状態で確定ボタン116を押下する。このように、VRゴーグル5が、グループ1~3に配置されている講師Zのアバターの一覧から、任意のアバターの選択を受け付けた場合、バーチャル表示制御部26は、選択されたアバターが配置されているグループの視界情報を生成し、通信制御部23が、該視界情報を講師ZのVRゴーグル5に送信する。 S137: Instructor Z presses the confirm button 116 with the pointer 170 overlapping the instructor avatar button 141b. In this way, when the VR goggles 5 accepts the selection of an avatar from the list of instructor Z's avatars placed in groups 1 to 3, the virtual display control unit 26 generates field of view information for the group in which the selected avatar is placed, and the communication control unit 23 transmits the field of view information to instructor Z's VR goggles 5.
S138-1:VR用操作コントローラ6のBluetooth通信制御部120は選択された講師アバターボタン141bの識別情報と共に確定コマンドをVRゴーグル5へBluetoothで送信する。
S138-2:VRゴーグル5の無線LAN通信制御部101はこの確定コマンドをバーチャル会議サービスへ送信する。
S138-1: The Bluetooth communication control unit 120 of the VR operation controller 6 transmits a confirmation command together with the identification information of the selected instructor avatar button 141b to the VR goggles 5 via Bluetooth.
S138-2: The wireless LAN communication control unit 101 of the VR goggles 5 transmits this confirmation command to the virtual conference service.
S139:バーチャル会議サービスの通信制御部23が講師アバターボタン141bの識別情報と確定コマンドを受信すると、バーチャル会議制御部20は、バーチャル表示制御部26にグループを指定して視界画面の切替を要求する。 S139: When the communication control unit 23 of the virtual conference service receives the identification information and confirmation command of the lecturer avatar button 141b, the virtual conference control unit 20 requests the virtual display control unit 26 to specify a group and switch the field of view screen.
S140:バーチャル表示制御部26は指定されたグループの視界画面に切り替える。 S140: The virtual display control unit 26 switches to the field of view screen of the specified group.
S141:バーチャル表示制御部26は通信制御部23を介して、切り替え先のグループの視界画面の画面情報をVRゴーグル5に送信する。VRゴーグル5の無線LAN通信制御部101はこの画面情報を受信し、表示制御部100が切り替え先のグループの視界画面を表示させる。 S141: The virtual display control unit 26 transmits screen information of the field of view screen of the switched-to group to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 101 of the VR goggles 5 receives this screen information, and the display control unit 100 displays the field of view screen of the switched-to group.
<主な効果>
本実施形態によれば、講師Zの講師アバターZ1~Z3がグループ1~3に配置されている場合に、講師Zが任意のグループの視界画面を切り替えることができる。
<Major Effects>
According to this embodiment, when instructor Z's instructor avatars Z1 to Z3 are arranged in groups 1 to 3, instructor Z can switch the field of view screen of any group.
[第4実施形態]
本実施形態では、通知ボタン132の押下による通知メッセージの再表示について説明する。
[Fourth embodiment]
In this embodiment, the re-display of the notification message by pressing the notification button 132 will be described.
図28は、マーク136が追加された状態の通知ボタン132を含む視界画面を示す。講師Zが通知ボタン132を押下すると、会議データ記憶部24から通知メッセージの内容をバーチャル表示制御部26が取得し、バーチャル表示制御部26は図22のように通知メッセージ133を合成した視界画面を生成する。 Figure 28 shows a field of view screen including a notification button 132 with a mark 136 added. When lecturer Z presses the notification button 132, the virtual display control unit 26 obtains the contents of the notification message from the conference data storage unit 24, and the virtual display control unit 26 generates a field of view screen with the notification message 133 superimposed on it, as shown in Figure 22.
<動作又は処理>
図29は、講師ZがVRゴーグル5に再度、通知メッセージを表示させる処理を説明するシーケンス図である。講師ZのVR用操作コントローラ6が通知メッセージを表示させる操作を受け付けた場合、通信制御部23は、会議データ記憶部24から取得した通知メッセージを、グループ1の視界情報を表示している講師ZのVRゴーグル5に送信する。
<Operation or Processing>
29 is a sequence diagram illustrating the process in which instructor Z causes the VR goggles 5 to display the notification message again. When the VR operation controller 6 of instructor Z receives an operation to display the notification message, the communication control unit 23 transmits the notification message obtained from the conference data storage unit 24 to instructor Z's VR goggles 5, which are displaying the field of view information of group 1.
S151:講師Zが、ポインター170が通知ボタン132に重なった状態で確定ボタン116を押下する。 S151: Instructor Z presses the confirm button 116 with the pointer 170 overlapping the notification button 132.
S152-1:VR用操作コントローラ6のBluetooth通信制御部120は通知ボタン132が押下された旨と共に確定コマンドをVRゴーグル5へBluetoothで送信する。
S152-2:VRゴーグル5の無線LAN通信制御部101はこの確定コマンドをバーチャル会議サービスへ送信する。
S152-1: The Bluetooth communication control unit 120 of the VR operation controller 6 transmits a confirmation command to the VR goggles 5 via Bluetooth, along with a notice that the notification button 132 has been pressed.
S152-2: The wireless LAN communication control unit 101 of the VR goggles 5 transmits this confirmation command to the virtual conference service.
S153:バーチャル会議サービスの通信制御部23が確定コマンドを受信すると、バーチャル会議制御部20はバーチャル表示制御部26に通知メッセージの再表示を要求する。 S153: When the communication control unit 23 of the virtual conference service receives the confirmation command, the virtual conference control unit 20 requests the virtual display control unit 26 to re-display the notification message.
S154:バーチャル表示制御部26はこの要求に応じて会議データ記憶部24から、講師Zが今すぐ切替ボタン134を押下していない通知メッセージを取得する。今すぐ切替ボタン134を押下していないとは、講師Zがグループからの問い合わせに対応していない(該グループの視界画面を表示していない)ことをいう。 S154: In response to this request, the virtual display control unit 26 obtains from the conference data storage unit 24 a notification message indicating that instructor Z has not pressed the switch button 134 now. "Not pressing the switch button 134 now" means that instructor Z is not responding to inquiries from the group (is not displaying the field of view screen for that group).
S155:バーチャル表示制御部26は現在の講師アバターの視界画面に、通知メッセージが合成された視界画面を生成する。 S155: The virtual display control unit 26 generates a view screen in which the notification message is superimposed on the view screen of the current instructor avatar.
S156:バーチャル表示制御部26は通信制御部23を介して、通知メッセージが合成された視界画面の画面情報をVRゴーグル5に送信する。VRゴーグル5の無線LAN通信制御部101はこの画面情報を受信し、表示制御部100が、通知メッセージが合成された視界画面を表示させる。 S156: The virtual display control unit 26 transmits screen information of the field of view screen onto which the notification message has been combined to the VR goggles 5 via the communication control unit 23. The wireless LAN communication control unit 101 of the VR goggles 5 receives this screen information, and the display control unit 100 displays the field of view screen onto which the notification message has been combined.
図30は、問い合わせの通知メッセージ137が再度、表示されたグループ1の講師アバターの視界画面の一例である。図30の説明では図22との相違を主に説明する。講師Zが通知メッセージ133の表示時に後で切替ボタン135を選択した場合、通知メッセージ133が表示される場合もある。図30では、通知メッセージ137の最初の表示時刻が表示されている。これにより、講師Zは最初の表示から時間が経過したことに気づいて、早期に対応することができる。 Figure 30 is an example of the field of view screen of the instructor avatar of group 1 on which the inquiry notification message 137 is displayed again. The explanation of Figure 30 will mainly focus on the differences from Figure 22. If instructor Z selects the switch button 135 later when the notification message 133 is displayed, the notification message 133 may also be displayed. Figure 30 shows the time when the notification message 137 was first displayed. This allows instructor Z to notice that time has passed since the first display and respond promptly.
また、講師Zが通知ボタン132を押下しなくても、通知メッセージ137の最初の表示時刻から一定時間が経過した場合に、出力制御部43が自動的に通知メッセージ137を表示してもよい。こうすることで、講師Zが通知メッセージ137に対応していないことを忘れていても、出力制御部43が講師Zにリマインドできる。 Also, even if instructor Z does not press the notification button 132, the output control unit 43 may automatically display the notification message 137 when a certain amount of time has passed since the first display time of the notification message 137. In this way, even if instructor Z forgets that he or she has not responded to the notification message 137, the output control unit 43 can remind him or her.
<主な効果>
本実施形態によれば、講師Zが対応を先送りしたグループに関する、通知メッセージを再度表示させることができる。
<Major Effects>
According to this embodiment, it is possible to display again a notification message regarding a group for which instructor Z has postponed taking action.
[その他の適用例]
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
[Other application examples]
The best mode for carrying out the present invention has been described above using examples, but the present invention is not limited to these examples in any way, and various modifications and substitutions can be made within the scope that does not deviate from the gist of the present invention.
例えば、本実施形態では、講師ZのVRゴーグル5がグループの視界画面を切り替えて表示しているが、例えば視界画面を講師ZのノートPC4が表示してもよい。また、電子黒板のような大型のディスプレイに常時、各グループの講師アバターZ1~Z3の視界画面が表示されていてもよい。 For example, in this embodiment, instructor Z's VR goggles 5 switch between displaying the field of view screen for each group, but the field of view screen may also be displayed on instructor Z's laptop PC 4, for example. Also, the field of view screens of instructor avatars Z1 to Z3 for each group may be displayed constantly on a large display such as an electronic whiteboard.
また、講師Zが司会していない状態で通知される通知メッセージの内容は、議論が滞っていることや問い合わせに限らず、どのような内容でもよい。例えば、議論が白熱していることが通知されてもよいし、議論が正解からずれた方向に進んでいることを出力制御部43が検出して、通知してもよい。 Furthermore, the content of the notification message sent when instructor Z is not moderating may be anything, not just a message that the discussion is stalling or an inquiry. For example, the notification may be that the discussion is getting heated, or the output control unit 43 may detect and notify that the discussion is moving in a direction that is different from the correct answer.
また、本実施形態では、講師ZのVRゴーグル5が視界画面を表示するグループの音声データを出力しているが、VRゴーグル5は視界画面を表示するグループと音声データを出力するグループを異ならせてもよい。例えば、VRゴーグル5が、グループ1の視界画面を表示するが、グループ2の音声データを出力する等の使い方が可能になる。講師Zは視界画面を表示するグループと音声データを出力するグループを選択できる。 In addition, in this embodiment, instructor Z's VR goggles 5 output audio data for the group displaying the field of view screen, but the VR goggles 5 may display a different group for the field of view screen and output audio data. For example, the VR goggles 5 could display the field of view screen for group 1 but output audio data for group 2. Instructor Z can select the group for displaying the field of view screen and the group for outputting audio data.
また、本実施形態では、講師ZのVRゴーグル5が通知メッセージを表示し、今すぐ切替ボタン134が押下されると、グループ2の視界画面が表示されたが、VRゴーグル5がLCD87を分割してグループ1と2の視界画面を同時に表示してもよい。この場合、音声データは一時的にグループ2に切り替えたり、講師Zが選択したりする方法が考えられる。 In addition, in this embodiment, when instructor Z's VR goggles 5 displayed a notification message and the switch now button 134 was pressed, the field of view screen for group 2 was displayed, but the VR goggles 5 may also split the LCD 87 to simultaneously display the field of view screens for groups 1 and 2. In this case, it is conceivable to temporarily switch the audio data to group 2, or have instructor Z select it.
また、後で切替ボタン135が押下された場合に、VRゴーグル5が表示する視界画面はグループ1のまま、音声データのみをグループ2又は3に切り替えてもよい。この場合、VRゴーグル5はどのグループの音声データが出力されているかをLCD87に表示するとよい。講師Zは音声データを出力させるグループを任意に選択できてよい。 Furthermore, when the switching button 135 is pressed later, the field of view screen displayed by the VR goggles 5 may remain at Group 1, while only the audio data may be switched to Group 2 or 3. In this case, the VR goggles 5 may display on the LCD 87 which group's audio data is being output. Instructor Z may be able to freely select the group for which audio data will be output.
また、本実施形態では、参加者がVR用操作コントローラを操作して仮想電子黒板表示データを選択したが、音声操作が利用されてよい。 In addition, in this embodiment, participants selected the virtual electronic whiteboard display data by operating a VR operation controller, but voice operation may also be used.
また、本実施形態では実機の電子黒板について詳細には説明していないが、実空間に電子黒板がある場合は、実空間の電子黒板の画面をバーチャル会議スペース8と同期させることができる。 In addition, although this embodiment does not provide detailed information about an actual electronic whiteboard, if there is an electronic whiteboard in the real space, the screen of the electronic whiteboard in the real space can be synchronized with the virtual conference space 8.
また、図5などの構成例は、仮想空間システム300による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。仮想空間システム300の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 Furthermore, the configuration examples shown in Figure 5 and elsewhere are divided according to main functions to make it easier to understand the processing performed by the virtual space system 300. The method of dividing the processing units or their names does not limit the present invention. The processing performed by the virtual space system 300 can also be divided into even more processing units depending on the processing content. It can also be divided so that one processing unit includes even more processing.
また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Furthermore, each function of the embodiments described above can be realized by one or more processing circuits. Here, the term "processing circuit" as used herein includes processors programmed to perform each function by software, such as processors implemented by electronic circuits, as well as devices such as ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), FPGAs (Field Programmable Gate Arrays), and conventional circuit modules designed to perform each of the functions described above.
本発明の実施形態は、コンピュータの能力及び機能性に大きな改善をもたらす。これらの改善により、ユーザは、情報処理装置において情報を格納し提示する方法であるテーブルとの、より効率的で堅牢な対話を提供するコンピュータを利用することができる。更に、本発明の実施形態は、より効率的で強力かつ堅牢なユーザーインターフェイスの使用を通じて、より良いユーザ体験を提供する。このようなユーザーインターフェイスは、人間と機械との間のより良い相互作用を提供する。
<付記>
[付記1]
仮想空間に配置されたアバターの視界情報を、ネットワークを介して端末装置に送信する情報処理システムであって、
第1のユーザの複数のアバターを異なる仮想空間に配置するアバター管理部と、
前記第1のユーザの端末装置に表示されていない前記仮想空間に関する情報を生成するバーチャル表示制御部と、
前記仮想空間に関する情報を前記第1のユーザの前記端末装置に送信する通信制御部と、
を有する情報処理システム。
[付記2]
前記第1のユーザのアバターが第1の仮想空間に配置され、1人以上の第2のユーザのアバターが第2の仮想空間に配置されており、
前記第2の仮想空間において前記第2のユーザの発言が検出されない場合、
前記バーチャル表示制御部は、前記第2の仮想空間において前記第2のユーザの発言が検出されない旨のメッセージを生成し、
前記通信制御部は、前記第1の仮想空間の視界情報を表示している前記第1のユーザの前記端末装置に前記メッセージを送信する付記1に記載の情報処理システム。
[付記3]
前記第1のユーザのアバターが第1の仮想空間に配置され、1人以上の第2のユーザのアバターが第2の仮想空間に配置されており、
前記第2の仮想空間における前記第2のユーザの発言が前記第1のユーザに関するものである場合、
前記バーチャル表示制御部は、前記第2のユーザから問い合わせがある旨のメッセージを生成し、
前記通信制御部は、前記第1の仮想空間の視界情報を表示している前記第1のユーザの前記端末装置に前記メッセージを送信する付記1に記載の情報処理システム。
[付記4]
前記第2の仮想空間における前記第2のユーザの発言に前記第1のユーザの氏又は名が含まれている場合、
前記バーチャル表示制御部は前記第2のユーザから問い合わせがある旨のメッセージを生成し、
前記通信制御部は、前記第1の仮想空間の視界情報を表示している前記第1のユーザの前記端末装置に前記メッセージを送信する付記3に記載の情報処理システム。
[付記5]
前記メッセージを出力した前記第1のユーザの前記端末装置が前記第2の仮想空間の視界情報を表示させる操作を受け付けた場合、
前記バーチャル表示制御部は、前記第2の仮想空間に配置された前記第1のユーザのアバターの視界情報を生成し、
前記通信制御部は、該視界情報を前記第1のユーザの端末装置に送信する付記2~4のいずれか1項に記載の情報処理システム。
[付記6]
前記メッセージを表示した前記第1のユーザの端末装置が前記第2の仮想空間の視界情報を表示させる操作でなく前記メッセージの対応を先送りする操作を受け付けた場合、
前記メッセージに後で対応する旨の音声データを生成する出力制御部を有し、
前記通信制御部は、前記音声データを前記第2のユーザの端末装置に送信する付記2~4のいずれか1項に記載の情報処理システム。
[付記7]
前記メッセージを表示した前記第1のユーザの端末装置が前記第2の仮想空間の視界情報を表示させる操作でなく前記メッセージの対応を先送りする操作を受け付けた場合、
前記出力制御部は、前記メッセージを記憶部に保存しておき、
前記第1のユーザの前記端末装置が前記メッセージを表示させる操作を受け付けた場合、
前記通信制御部は、前記記憶部から取得した前記メッセージを、前記第1の仮想空間の視界情報を表示している前記第1のユーザの前記端末装置に送信する付記6に記載の情報処理システム。
[付記8]
前記第1のユーザの前記端末装置が表示した、前記仮想空間に配置されている前記第1のユーザのアバターの一覧から、任意のアバターの選択を受け付けた場合、
前記バーチャル表示制御部は、選択されたアバターが配置されている前記仮想空間の視界情報を生成し、
前記通信制御部は、該視界情報を前記第1のユーザの端末装置に送信する付記1~7のいずれか1項に記載の情報処理システム。
Embodiments of the present invention provide significant improvements in computer power and functionality. These improvements allow users to utilize computers that provide more efficient and robust interaction with tables, the way information is stored and presented in information processing devices. Furthermore, embodiments of the present invention provide a better user experience through the use of more efficient, powerful, and robust user interfaces. Such user interfaces provide better interaction between humans and machines.
<Additional Notes>
[Appendix 1]
An information processing system that transmits visibility information of an avatar placed in a virtual space to a terminal device via a network,
an avatar management unit that arranges a plurality of avatars of a first user in different virtual spaces;
a virtual display control unit that generates information about the virtual space that is not displayed on the terminal device of the first user;
a communication control unit that transmits information about the virtual space to the terminal device of the first user;
An information processing system having the above.
[Appendix 2]
an avatar of the first user is located in a first virtual space, and one or more avatars of second users are located in a second virtual space;
If no utterance of the second user is detected in the second virtual space,
the virtual display control unit generates a message indicating that no utterances of the second user are detected in the second virtual space;
The information processing system according to claim 1, wherein the communication control unit transmits the message to the terminal device of the first user that is displaying visibility information of the first virtual space.
[Appendix 3]
an avatar of the first user is located in a first virtual space, and one or more avatars of second users are located in a second virtual space;
If the statement of the second user in the second virtual space is related to the first user,
the virtual display control unit generates a message indicating that there is an inquiry from the second user;
The information processing system according to claim 1, wherein the communication control unit transmits the message to the terminal device of the first user that is displaying visibility information of the first virtual space.
[Appendix 4]
If the second user's comment in the second virtual space includes the first name or last name of the first user,
the virtual display control unit generates a message indicating that there is an inquiry from the second user;
The information processing system described in Appendix 3, wherein the communication control unit transmits the message to the terminal device of the first user that is displaying field of view information of the first virtual space.
[Appendix 5]
When the terminal device of the first user who output the message receives an operation to display view information of the second virtual space,
the virtual display control unit generates visibility information of an avatar of the first user arranged in the second virtual space;
The information processing system according to any one of appendices 2 to 4, wherein the communication control unit transmits the visibility information to the terminal device of the first user.
[Appendix 6]
When the terminal device of the first user that displayed the message receives an operation to postpone the response to the message instead of an operation to display the view information of the second virtual space,
an output control unit that generates voice data indicating that the message will be addressed later;
The information processing system according to any one of claims 2 to 4, wherein the communication control unit transmits the voice data to the terminal device of the second user.
[Appendix 7]
When the terminal device of the first user that displayed the message receives an operation to postpone the response to the message instead of an operation to display the view information of the second virtual space,
The output control unit stores the message in a storage unit,
When the terminal device of the first user receives an operation to display the message,
An information processing system as described in Appendix 6, wherein the communication control unit transmits the message obtained from the memory unit to the terminal device of the first user displaying field of view information of the first virtual space.
[Appendix 8]
When a selection of an arbitrary avatar is received from a list of avatars of the first user arranged in the virtual space displayed by the terminal device of the first user,
the virtual display control unit generates view information of the virtual space in which the selected avatar is placed;
The information processing system according to any one of claims 1 to 7, wherein the communication control unit transmits the visibility information to the terminal device of the first user.
1 バーチャル会議サーバ
2 電子黒板
4,11,14 ノートPC
5,12,15 VRゴーグル
6,13,16 VR用操作コントローラ
8 バーチャル会議スペース
9 表示データ
1 Virtual conference server 2 Electronic whiteboard 4, 11, 14 Notebook PC
5, 12, 15 VR goggles 6, 13, 16 VR operation controller 8 Virtual meeting space 9 Display data
Claims (10)
第1のユーザの複数のアバターを異なる仮想空間に配置するアバター管理部と、
前記第1のユーザの端末装置に表示されていない前記仮想空間に関する情報を生成するバーチャル表示制御部と、
前記仮想空間に関する情報を前記第1のユーザの前記端末装置に送信する通信制御部と、
を有する情報処理システム。 An information processing system that transmits visibility information of an avatar placed in a virtual space to a terminal device via a network,
an avatar management unit that arranges a plurality of avatars of a first user in different virtual spaces;
a virtual display control unit that generates information about the virtual space that is not displayed on the terminal device of the first user;
a communication control unit that transmits information about the virtual space to the terminal device of the first user;
An information processing system having the above.
前記第2の仮想空間において前記第2のユーザの発言が検出されない場合、
前記バーチャル表示制御部は、前記第2の仮想空間において前記第2のユーザの発言が検出されない旨のメッセージを生成し、
前記通信制御部は、前記第1の仮想空間の視界情報を表示している前記第1のユーザの前記端末装置に前記メッセージを送信する請求項1に記載の情報処理システム。 an avatar of the first user is located in a first virtual space, and one or more avatars of second users are located in a second virtual space;
If no utterance of the second user is detected in the second virtual space,
the virtual display control unit generates a message indicating that no utterances of the second user are detected in the second virtual space;
The information processing system according to claim 1 , wherein the communication control unit transmits the message to the terminal device of the first user that is displaying the field of view information of the first virtual space.
前記第2の仮想空間における前記第2のユーザの発言が前記第1のユーザに関するものである場合、
前記バーチャル表示制御部は、前記第2のユーザから問い合わせがある旨のメッセージを生成し、
前記通信制御部は、前記第1の仮想空間の視界情報を表示している前記第1のユーザの前記端末装置に前記メッセージを送信する請求項1に記載の情報処理システム。 an avatar of the first user is located in a first virtual space, and one or more avatars of second users are located in a second virtual space;
If the statement of the second user in the second virtual space is related to the first user,
the virtual display control unit generates a message indicating that there is an inquiry from the second user;
The information processing system according to claim 1 , wherein the communication control unit transmits the message to the terminal device of the first user that is displaying the field of view information of the first virtual space.
前記バーチャル表示制御部は前記第2のユーザから問い合わせがある旨のメッセージを生成し、
前記通信制御部は、前記第1の仮想空間の視界情報を表示している前記第1のユーザの前記端末装置に前記メッセージを送信する請求項3に記載の情報処理システム。 If the second user's comment in the second virtual space includes the first name or last name of the first user,
the virtual display control unit generates a message indicating that there is an inquiry from the second user;
The information processing system according to claim 3 , wherein the communication control unit transmits the message to the terminal device of the first user that is displaying the field of view information of the first virtual space.
前記バーチャル表示制御部は、前記第2の仮想空間に配置された前記第1のユーザのアバターの視界情報を生成し、
前記通信制御部は、該視界情報を前記第1のユーザの端末装置に送信する請求項2~4のいずれか1項に記載の情報処理システム。 When the terminal device of the first user who output the message receives an operation to display view information of the second virtual space,
the virtual display control unit generates visibility information of an avatar of the first user arranged in the second virtual space;
5. The information processing system according to claim 2, wherein the communication control unit transmits the visibility information to the terminal device of the first user.
前記メッセージに後で対応する旨の音声データを生成する出力制御部を有し、
前記通信制御部は、前記音声データを前記第2のユーザの端末装置に送信する請求項2~4のいずれか1項に記載の情報処理システム。 When the terminal device of the first user that displayed the message receives an operation to postpone the response to the message instead of an operation to display the view information of the second virtual space,
an output control unit that generates voice data indicating that the message will be addressed later;
5. The information processing system according to claim 2, wherein the communication control unit transmits the voice data to the terminal device of the second user.
前記出力制御部は、前記メッセージを記憶部に保存しておき、
前記第1のユーザの前記端末装置が前記メッセージを表示させる操作を受け付けた場合、
前記通信制御部は、前記記憶部から取得した前記メッセージを、前記第1の仮想空間の視界情報を表示している前記第1のユーザの前記端末装置に送信する請求項6に記載の情報処理システム。 When the terminal device of the first user that displayed the message receives an operation to postpone the response to the message instead of an operation to display the view information of the second virtual space,
The output control unit stores the message in a storage unit,
When the terminal device of the first user receives an operation to display the message,
The information processing system according to claim 6 , wherein the communication control unit transmits the message obtained from the memory unit to the terminal device of the first user that is displaying field of view information of the first virtual space.
前記バーチャル表示制御部は、選択されたアバターが配置されている前記仮想空間の視界情報を生成し、
前記通信制御部は、該視界情報を前記第1のユーザの端末装置に送信する請求項1に記載の情報処理システム。 When a selection of an arbitrary avatar is received from a list of avatars of the first user arranged in the virtual space displayed by the terminal device of the first user,
the virtual display control unit generates view information of the virtual space in which the selected avatar is placed;
The information processing system according to claim 1 , wherein the communication control unit transmits the visibility information to the terminal device of the first user.
第1のユーザの複数のアバターを異なる仮想空間に配置する処理と、
前記第1のユーザの端末装置に表示されていない前記仮想空間に関する情報を生成する処理と、
前記仮想空間に関する情報を前記第1のユーザの前記端末装置に送信する処理と、
を行う出力方法。 An output method performed by an information processing system that transmits visual field information of an avatar placed in a virtual space to a terminal device via a network, comprising:
placing a plurality of avatars of the first user in different virtual spaces;
A process of generating information about the virtual space that is not displayed on the terminal device of the first user;
transmitting information about the virtual space to the terminal device of the first user;
Output method.
第1のユーザの複数のアバターを異なる仮想空間に配置するアバター管理部と、
前記第1のユーザの端末装置に表示されていない前記仮想空間に関する情報を生成するバーチャル表示制御部と、
前記仮想空間に関する情報を前記第1のユーザの前記端末装置に送信する通信制御部、
として機能させるためのプログラム。 An information processing system that transmits visual field information of an avatar placed in a virtual space to a terminal device via a network,
an avatar management unit that arranges a plurality of avatars of a first user in different virtual spaces;
a virtual display control unit that generates information about the virtual space that is not displayed on the terminal device of the first user;
a communication control unit that transmits information about the virtual space to the terminal device of the first user;
A program to function as a
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024009033A JP2025114374A (en) | 2024-01-24 | 2024-01-24 | Information processing system, output method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024009033A JP2025114374A (en) | 2024-01-24 | 2024-01-24 | Information processing system, output method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025114374A true JP2025114374A (en) | 2025-08-05 |
Family
ID=96624774
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024009033A Pending JP2025114374A (en) | 2024-01-24 | 2024-01-24 | Information processing system, output method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2025114374A (en) |
-
2024
- 2024-01-24 JP JP2024009033A patent/JP2025114374A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11715386B1 (en) | Queuing for a video conference session | |
| JP5795335B2 (en) | Communication sessions between devices and interfaces with mixed capabilities | |
| US20120204120A1 (en) | Systems and methods for conducting and replaying virtual meetings | |
| US20160294892A1 (en) | Storage Medium Storing Program, Server Apparatus, and Method of Controlling Server Apparatus | |
| WO2022260797A1 (en) | Adjusting participant gaze in video conferences | |
| CN108702483A (en) | Communication event | |
| US20200106884A1 (en) | Information processing apparatus, information processing method, and program | |
| KR20220104772A (en) | Interaction methods and electronic devices | |
| US20220291752A1 (en) | Distributed Application Platform Projected on a Secondary Display for Entertainment, Gaming and Learning with Intelligent Gesture Interactions and Complex Input Composition for Control | |
| US20120204119A1 (en) | Systems and methods for conducting and replaying virtual meetings | |
| TWI809604B (en) | Video conference device and operation method thereof | |
| JP2023067708A (en) | Terminal, information processing method, program, and recording medium | |
| US12244770B2 (en) | Conferencing system, server, information processing device and non-transitory recording medium | |
| CN114520950B (en) | Audio output method, device, electronic equipment and readable storage medium | |
| CN107360128A (en) | Conference service provides method and its device | |
| CN110427502A (en) | Display methods, device, electronic equipment and the storage medium of virtual content | |
| JP2025114374A (en) | Information processing system, output method, and program | |
| WO2012109006A2 (en) | Systems and methods for conducting and replaying virtual meetings | |
| US20230280961A1 (en) | Device management system, information processing system, information processing device, device management method, and non-transitory recording medium | |
| TWI899578B (en) | Video conference device and operation method thereof | |
| JP7716917B2 (en) | Conference control device, conference control method, and computer program | |
| CN110413109A (en) | Method, device, system, electronic device and storage medium for generating virtual content | |
| JP7631756B2 (en) | VIDEO COMMUNICATION DEVICE AND VIDEO DISPLAY METHOD | |
| CN115052005A (en) | Synchronous display method, synchronous display device, electronic apparatus, and storage medium | |
| JP2019117997A (en) | Web conference system, control method of web conference system, and program |