WO2024100920A1 - Information processing device, information processing method, and program for information processing - Google Patents
Information processing device, information processing method, and program for information processing Download PDFInfo
- Publication number
- WO2024100920A1 WO2024100920A1 PCT/JP2023/023115 JP2023023115W WO2024100920A1 WO 2024100920 A1 WO2024100920 A1 WO 2024100920A1 JP 2023023115 W JP2023023115 W JP 2023023115W WO 2024100920 A1 WO2024100920 A1 WO 2024100920A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sound data
- electronic conference
- user
- users
- information processing
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Definitions
- This application relates to the technical field of information processing devices and the like that provide electronic conferences in which multiple users participate using terminal devices each connected to a communication line.
- Patent Document 1 discloses technology related to electronic conferences, and facial images of participants taking part in an electronic conference are displayed on the screen of a terminal device shown in Figure 18 of Patent Document 1. This allows participants to see at a glance who else is taking part in the electronic conference besides themselves.
- Patent Document 1 has the problem that it is difficult to know who else is participating in the electronic conference unless you look at the screen showing the participants during the electronic conference.
- the present invention aims to provide an information processing device or the like that allows a user to know who is participating in an electronic conference other than himself/herself, without having to look at a screen showing the participants during the electronic conference.
- the invention described in claim 1 is an information processing device that provides an electronic conference in which multiple users participate using terminal devices connected to a communication line, and is characterized by comprising: background sound data generating means that generates background sound data by synthesizing sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users; and transmission means that transmits the background sound data to the terminal devices used by each of the multiple users participating in the electronic conference.
- the invention described in claim 8 is an information processing method by an information processing device that provides an electronic conference in which multiple users participate using terminal devices connected to a communication line, and is characterized by including a background sound data generation step of generating background sound data by synthesizing sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users, and a transmission step of transmitting the background sound data to the terminal devices used by each of the multiple users participating in the electronic conference.
- the invention described in claim 9 is characterized in that a computer included in an information processing device that provides an electronic conference in which multiple users participate using terminal devices connected to a communication line functions as background sound data generating means that generates background sound data by synthesizing the sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users, and transmitting means that transmits the background sound data to the terminal devices used by each of the multiple users participating in the electronic conference.
- FIG. 1 is a block diagram showing an example of a configuration of an information processing device 10 according to an embodiment.
- 1 is a schematic diagram showing an electronic conference system S in an embodiment.
- FIG. 2 is a block diagram showing a configuration example of an electronic conference server 100 according to an embodiment.
- FIG. 2 is a block diagram showing an example of the configuration of a terminal device 200 according to an embodiment.
- 4 is a flowchart showing an example of a background sound generation process performed by the electronic conference server 100 in the embodiment.
- 13 is a schematic diagram showing the relationship between the distance between users and the volume of sounds contained in the background sound in a modified example.
- FIG. 13 is a flowchart showing an example of a sound image localization data generation process performed by the electronic conference server 100 in a modified example.
- 10 is a flowchart showing an example of a volume control data generation process performed by the electronic conference server 100 in a modified example.
- FIG. 13 is a diagram showing an example of a sound data table in a modified example.
- the information processing device 10 is an information processing device that provides an electronic conference in which multiple users participate using terminal devices each connected to a communication line, and includes a background sound data generating means 11 and a transmitting means 12.
- the background sound data generating means 11 generates background sound data by synthesizing the sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users.
- the transmission means 12 transmits the background sound data to the terminal devices used by each of the multiple users participating in the electronic conference.
- the electronic conference system S includes an electronic conference server 100 and multiple terminal devices 200, and the electronic conference server 100 and each terminal device 200 are connected via a network (not shown).
- the network is formed by communication lines such as wireless LAN, wired LAN, communication carrier lines, optical fiber lines, and telephone lines, as well as communication devices such as routers, switching hubs, firewalls, wireless antennas, optical relay devices, and cables that connect them.
- the electronic conference server 100 provides an electronic conference venue for users A, C, F, and I who are participating in the electronic conference. For example, when the electronic conference server 100 receives a new request to provide an electronic conference from the terminal device 200 used by user A, it generates an electronic conference link that users A, C, F, and I access when joining the electronic conference, and transmits it to user A's terminal device 200. User A, who receives the electronic conference link, transfers the electronic conference link to the terminal devices 200 of users C, F, and I.
- the electronic conference server 100 connects each terminal device 200 and provides a venue for the electronic conference.
- the electronic conference server 100 also stores in advance sound data assigned to each of users A-I who may participate in the electronic conference.
- each of users A-I is assigned the sound of each instrument in classical music (user A: violin, user B: cello, user C: clarinet, user D: flute, user E: trumpet, user F: horn, user G: trombone, user H: timpani, user I: marimba).
- the electronic conference server 100 generates background sound data "BGM.mp3" by synthesizing the sound data "aaa.mp3", “ccc.mp3", “fff.mp3”, and "iii.mp3" assigned to the terminal devices 200 users A, C, F, and I who have accessed the electronic conference to participate in the electronic conference, and transmits the data to the terminal devices 200 of users A, C, F, and I.
- Each terminal device 200 then plays "BGM.mp3" during the electronic conference and outputs the background sound from the speakers.
- the background sound includes the sounds of a violin, clarinet, horn, and marimba
- users A, C, F, and I can thus know who else is participating in the electronic conference besides themselves. It is preferable to inform each user in advance which instrument has been assigned to each user.
- Fig. 3 is a block diagram showing an example of the configuration of the electronic conference server 100.
- the electronic conference server 100 comprises a control unit 111, a memory unit 112 consisting of a hard disk drive (HDD) or a solid state drive (SSD), a communication unit 113, a display unit 114, and an interface (I/F) unit 115, and a display unit 116 and an operation unit 117 are connected via the I/F unit 115.
- a control unit 111 a memory unit 112 consisting of a hard disk drive (HDD) or a solid state drive (SSD)
- a communication unit 113 a communication unit 113
- a display unit 114 and an interface (I/F) unit 115
- I/F interface
- the control unit 111 is composed of a CPU 111a that controls the entire control unit 111, a ROM 111b in which control programs and the like that control the control unit 111 are prestored, and a RAM 111c that temporarily stores various data.
- the control unit 111 or the CPU 111a corresponds to a "computer.”
- the control unit 111 executes various processes (including background sound generation process described below) to provide an electronic conference venue for multiple terminal devices 200 connected via a network.
- the storage unit 112 stores various programs such as an OS (Operating System) and application programs, as well as data and information used by the various programs.
- the storage unit 112 stores a program that causes the control unit 111 to synthesize sound data assigned to users participating in the electronic conference to generate background sound data, and transmit the data to the terminal device 200 of the user participating in the electronic conference.
- the various programs may be obtained, for example, from a server device or the like via a network, or may be read from a recording medium such as a USB memory.
- the storage unit 112 stores the sound data assigned to users A-I.
- the sound data is managed in a sound data table. Sound data is assigned to users by the electronic conference server 100, for example, when the users register to use an electronic conference provided by the electronic conference server 100. Users who wish to use an electronic conference are required to register as users with the electronic conference server 100 in advance, and at this time the electronic conference server 100 assigns sound data to the users along with their accounts and passwords.
- the communication unit 113 has a communication device, etc., and communicates with the terminal device 200 to send and receive data to and from the terminal device 200.
- the display unit 114 is configured with a graphics controller 114a and a buffer memory 114b consisting of a memory such as a VRAM (Video RAM).
- the graphics controller 114a controls the display unit 114 and the display section 116 based on control information sent from the control section 111.
- the buffer memory 114b also temporarily stores image data that can be displayed immediately on the display section 116. An image is then displayed on the display section 116 based on the image data output from the graphics controller 114a.
- the I/F unit 115 has the necessary structure and functions to connect the electronic conference server 100 to external devices such as the display unit 116 and the operation unit 117, and performs data conversion between the two as necessary.
- the display unit 116 is a liquid crystal display or the like, and displays an image based on the image data received from the display unit 114.
- the operation unit 117 detects the operation of the operator and transmits operation data indicating the operation content, etc. to the control unit 111.
- the control unit 111 determines which operation has been performed based on the operation data and performs processing according to the operation content.
- Fig. 4 is a block diagram showing an example of the configuration of the terminal device 200.
- the terminal device 200 includes a control unit 211, a memory unit 212 consisting of a HDD, SSD, etc., a communication unit 213, a display unit 214, and an interface (I/F) unit 215, and is connected to a microphone 216, a speaker 217, a camera 218, a display unit 219, and an operation unit 220 via the I/F unit 215.
- a control unit 211 a memory unit 212 consisting of a HDD, SSD, etc.
- a communication unit 213, a display unit 214 a communication unit 213, a display unit 214, and an interface (I/F) unit 215, and is connected to a microphone 216, a speaker 217, a camera 218, a display unit 219, and an operation unit 220 via the I/F unit 215.
- I/F interface
- the control unit 211 is composed of a CPU 211a that controls the entire control unit 211, a ROM 211b in which control programs and the like that control the control unit 211 are stored in advance, and a RAM 211c that temporarily stores various data.
- the control unit 211 or the CPU 211a corresponds to a "computer.”
- the control unit 211 executes various processes for participating in an electronic conference provided by the electronic conference server 100.
- the storage unit 212 stores various programs such as an OS and application programs, as well as data and information used by the various programs.
- the storage unit 212 stores a program that enables the control unit 211 to participate in an electronic conference.
- the various programs may be obtained, for example, from a server device or the like via a network, or may be read from a recording medium such as a USB memory.
- the communication unit 213 has a communication device, etc., and communicates with the electronic conference server 100 and other terminal devices 200 to send and receive data to and from each other.
- the display unit 214 is configured with a graphics controller 214a and a buffer memory 214b consisting of a memory such as a VRAM.
- the graphics controller 214a controls the display unit 214 and the display section 219 based on control information sent from the control section 211.
- the buffer memory 214b also temporarily stores image data that can be displayed immediately on the display section 219. Then, an image is displayed on the display section 219 based on the image data output from the graphics controller 214a.
- the I/F unit 215 has the necessary structure and functions to connect the terminal device 200 to external devices such as the microphone 216, speaker 217, camera 218, display unit 219, and operation unit 220, and performs data conversion between the two as necessary.
- the microphone 216 converts the voice (sound) of the user, etc. into an electrical signal.
- the electrical signal is sent to the control unit 211 via the I/F unit 215.
- the speaker 217 outputs sound data (electrical signals) as sound according to the control of the control unit 211.
- the speaker 217 outputs background sound based on background sound data received from the electronic conference server 100.
- the camera 218 transmits image data captured through the lens to the control unit 211 via the I/F unit 215.
- the display unit 219 is a liquid crystal display or the like, and displays an image based on the image data received from the display unit 214.
- FIG. 4 shows an example in which the terminal device 200 is a desktop PC
- the terminal device 200 may also be a notebook PC, a smartphone, a tablet terminal, etc.
- the control unit 211, memory unit 212, communication unit 213, display unit 214, interface (I/F) unit 215, microphone 216, speaker 217, camera 218, display unit 219, and operation unit 220 may be integrated.
- the operation unit 220 detects user operations and transmits operation data indicating the operation content, etc. to the control unit 211.
- the control unit 211 determines which operation has been performed based on the operation data and performs processing according to the operation content.
- Fig. 5 is a flowchart showing an example of the background sound generation process by the electronic conference server 100. Also, before the flowchart shown in Fig. 5 starts, it is assumed that an electronic conference link is distributed to the terminal devices 200 of the users participating in the electronic conference, and the electronic conference server 100 and each terminal device 200 are connected via a login process using an account and a password.
- control unit 111 (CPU 111a) identifies users participating in the electronic conference (step S101). Specifically, the control unit 111 identifies the terminal device 200 that has connected to the electronic conference server 100 via the electronic conference link based on the account used during the login process, etc.
- control unit 111 retrieves from the storage unit 112 the sound data assigned to each user (terminal device 200) identified in the processing of step S101 (step S102).
- control unit 111 synthesizes the sound data acquired in the processing of step S102 to generate background sound data (step S103). At this time, the control unit 111 synthesizes the sound data so that the sound of each piece of sound data is included in the background sound, that is, so that the sound assigned to each user participating in the electronic conference can be heard from the background sound.
- control unit 111 transmits the background sound data generated in the process of step S103 to the terminal device 200 of each user participating in the electronic conference (each terminal device 200 identified in the process of step S101) (step S104).
- the control unit 211 of each terminal device 200 that receives the background sound data outputs background sound based on the background sound data from the speaker 217.
- step S105 determines whether the electronic conference has ended. At this time, if the control unit 111 determines that the electronic conference has ended (step S105: YES), the control unit 111 ends the background sound generation process. On the other hand, if the control unit 111 determines that the electronic conference has not ended (step S105: NO), the control unit 111 proceeds to the process of step S106.
- control unit 111 determines whether there has been a change in the users participating in the electronic conference (step S106). Changes in the users participating in the electronic conference include cases where a new user joins the electronic conference and cases where a user participating in the electronic conference leaves the electronic conference. At this time, if the control unit 111 determines that there has been no change in the users participating in the electronic conference (step S106: NO), it proceeds to the process of step S105. That is, unless the electronic conference ends or there is a change in the users participating in the electronic conference, the processes of steps S105 and S106 are repeated.
- step S106 determines that there has been a change in the users participating in the electronic conference (step S106: YES)
- it proceeds to the process of step S101, identifies the users participating in the electronic conference at that time, generates background sound data again, and transmits it to each terminal device 200 of the users participating in the electronic conference.
- background sound based on the background sound data generated from the sound data assigned to each user participating in the electronic conference at that time is always output from the speaker 217 of the terminal device 200 of each user.
- the electronic conference server 100 in this embodiment provides an electronic conference in which multiple users participate using terminal devices 200 each connected to a communication line, and the control unit 111 (an example of a "background sound data generating means” and “transmitting means") generates background sound data by synthesizing the sound data assigned to the users participating in the electronic conference from the different sound data assigned to each user, and transmits the background sound data to the terminal devices 200 used by each of the multiple users participating in the electronic conference.
- the control unit 111 an example of a "background sound data generating means” and “transmitting means”
- background sounds based on background sound data generated from sound data assigned to each user participating in the electronic conference are output from the speaker 217 of each user's terminal device 200, so that each user can tell who else is participating in the electronic conference besides themselves from the sounds contained in the background sound, without having to look at the screen.
- the user can know who is participating in the electronic conference. Also, even if materials related to the electronic conference are displayed on the entire surface of the display unit 219 and information indicating the participants in the electronic conference is not displayed on the display unit 219, the user can know who is participating in the electronic conference.
- control unit 111 of the electronic conference server 100 regenerates background sound data when a user participating in the electronic conference joins (joining midway) or leaves (leaving midway) during the electronic conference, and transmits the regenerated background sound data to the terminal devices 200 used by each of the multiple users participating in the electronic conference.
- background sound corresponding to the user participating in the electronic conference is output from the speaker 217 of each terminal device 200 as appropriate, so that the user can know that there has been a change in the participants based on the change in background sound, and further, who has joined or left midway.
- the electronic conference server 100 receives location information (latitude, longitude, altitude information, etc.) from each terminal device 200, and the control unit 111 may determine how to output the sound included in the background sound assigned to each user participating in the electronic conference according to the location of the terminal device 200 used by each user based on the location information received from each terminal device 200.
- Each terminal device 200 may acquire location information by any means.
- the terminal device 200 may be provided with a GPS receiving unit and acquire location information based on a GPS signal received by the GPS receiving unit, or the user may input location information.
- [5.1.1. Modification 1-1] 6 is an example diagram showing the positions of users C, F, and I relative to user A.
- the sound image localization of the sound data included in the background sound output from the terminal device 200 of user A and assigned to users C, F, and I is set to the positions of the terminal devices 200 used by users C, F, and I to which the sound data that is the basis of the sound is assigned, based on the position of the terminal device 200 used by user A.
- control unit 111 of the electronic conference server 100 acquires position information of the terminal device 200 used by each user participating in the electronic conference, and generates sound image localization data that localizes the sound image of the sound data assigned to each user other than one user, among the sounds included in the background sound based on the background sound data transmitted to the terminal device 200 used by one user participating in the electronic conference, to the position of the terminal device 200 used by the user to which the sound data that is the basis of the sound is assigned, based on the position of the terminal device 200 used by the one user.
- control unit 111 generates sound image localization data for the terminal device 200 used by each user participating in the electronic conference, with each user participating in the electronic conference as the one user, and further transmits the sound image localization data generated for the terminal device 200 to the terminal device 200 used by each user participating in the electronic conference.
- the control unit 111 acquires position information of the terminal device 200 used by each of the users A, C, F, and I participating in the electronic conference, and generates sound image localization data that sets the sound image localization of the sound of the sound data assigned to each of the users C, F, and I other than user A, among the sounds included in the background sound based on the background sound data transmitted to the terminal device 200 used by user A participating in the electronic conference, to the position of the terminal device 200 used by each of the users C, F, and I to which the sound data that is the basis of the sound, based on the position of the terminal device 200 used by user A, and further transmits the data to the terminal device 200 used by user A.
- the control unit 111 also performs this process on the terminal devices 200 used by users C, F, and I other than user A. Then, based on the background sound data and sound image localization data received from the electronic conference server 100, the control unit 211 of the terminal device 200 outputs the background sound from the speaker 217, with the sound image localization of each sound included in the background sound set to the position of the user corresponding to the sound.
- This allows, for example, user A to ascertain the location of each user participating in the electronic conference from the direction of each sound contained in the background sound (user C is in the west direction, user F is in the north direction, and user I is in the southeast direction). In this case, it is assumed that speaker 217 has specifications and settings that allow for sound image localization.
- Fig. 7 is a flowchart showing an example of a sound image localization data generation process by the electronic conference server 100 in a modified example.
- the example shown in Fig. 6 when four users A, C, F, and I participate in the electronic conference will be described.
- control unit 111 acquires the location information of all users participating in the electronic conference (step S201). For example, the control unit 111 acquires the location information (latitude, longitude, altitude information, etc.) received in advance from the terminal device 200 used by each user participating in the electronic conference.
- location information latitude, longitude, altitude information, etc.
- control unit 111 selects one user to participate in the electronic conference (step S202).
- control unit 111 selects one user from among the users participating in the electronic conference other than the user selected in the process of step S202 (step S203). For example, if the control unit 111 selects user A in the process of step S202, it selects one of users C, F, or I.
- control unit 111 uses the position of the terminal device 200 used by the user selected in the processing of step S202 as a reference, and determines the position (e.g., the direction and distance from the reference) of the terminal device 200 used by the user selected in the processing of step S203 (step S204).
- control unit 111 stores the sound image position of the sound data assigned to the user selected in the process of step S203 among the sounds included in the background sound based on the background sound data (i.e., the background sound data generated in the background sound generation process) transmitted to the terminal device 200 used by each user participating in the electronic conference, in association with the position identified in the process of step S204 (step S205).
- the background sound data i.e., the background sound data generated in the background sound generation process
- control unit 111 determines whether or not all other users other than the user selected in step S202 have been selected in the process of step S203 (step S206). For example, if the control unit 111 has selected user A in the process of step S202, the control unit 111 determines whether or not all users C, F, and I have been selected in the process of step S203. If the control unit 111 determines that all other users have not been selected (step S206: NO), it proceeds to the process of step S203 and selects other users that have not been selected up to that point.
- control unit 111 determines that all other users have been selected (step S206: YES), it then generates sound image localization data indicating the correspondence between the sound and sound image localization stored in the process of step S205 for all other users (step S207). For example, if user A is selected in the processing of step S202, the control unit 111 generates sound image localization data in which the sound image localization of the sound data assigned to users C, F, and I is the position of the terminal device 200 used by users C, F, and I, using the terminal device 200 used by user A as the reference position.
- control unit 111 transmits the sound image localization data generated in the processing of step S207 to the terminal device 200 used by the user selected in the processing of step S202 (step S208).
- control unit 111 determines whether or not all users participating in the electronic conference have been selected in the process of step S202 (step S209). That is, the control unit 111 determines whether or not the four users A, C, F, and I have been selected in the process of step S202. If the control unit 111 determines that all users participating in the electronic conference have not been selected (step S209: NO), it proceeds to the process of step S202 and repeats the processes of steps S202 to S208 for each remaining user. On the other hand, if the control unit 111 determines that all users participating in the electronic conference have been selected (step S209: YES), it ends the sound image localization data generation process.
- the control unit 111 may combine the sound image localization data with the background sound data and transmit it, or may transmit it separately from the background sound data.
- the volume of the sound of the sound data respectively assigned to users C, F, and I which is included in the background sound output from the terminal device 200 of user A, is set to a volume according to the distance between the position of the terminal device 200 used by users C, F, and I to which the sound data that is the basis of the sound is assigned, and the position of the terminal device 200 used by user A.
- the thickness of the arrows extending from users C, F, and I to user A indicates the volume (the thicker the arrow, the louder the volume).
- control unit 111 (an example of a “distance calculation means” and “volume control data generation means") of the electronic conference server 100 acquires position information of the terminal device 200 used by each user participating in the electronic conference, and generates volume control data for adjusting the volume of the sound of sound data assigned to each user other than one user, among sounds included in the background sound based on the background sound data transmitted to the terminal device 200 used by one user participating in the electronic conference, according to the distance between the position of the terminal device 200 used by the user to which the sound data that is the basis of the sound is assigned, and the position of the terminal device 200 used by the one user.
- control unit 111 generates volume control data for the terminal device 200 used by each user participating in the electronic conference, with each user participating in the electronic conference as the one user, and further transmits the volume control data generated for the terminal device to the terminal device 200 used by each user participating in the electronic conference.
- the control unit 111 acquires location information of the terminal devices 200 used by each of the users A, C, F, and I participating in the electronic conference, and generates volume control data for adjusting the volume of the sound of the sound data assigned to each of the users C, F, and I other than user A among the sounds included in the background sound based on the background sound data to be transmitted to the terminal device 200 used by the user A participating in the electronic conference, according to the distance between the location of the terminal device 200 used by each of the users C, F, and I to which the sound data that is the basis of the sound is assigned and the location of the terminal device 200 used by user A, and further transmits the data to the terminal device 200 used by user A.
- the control unit 111 also performs this process on the terminal devices 200 used by the users C, F, and I other than user A.
- the control unit 211 of each of the terminal devices 200 of the users A, C, F, and I controls the volume of each sound included in the background sound based on the background sound data and volume control data received from the electronic conference server 100, and outputs the background sound from the speaker 217. This allows, for example, user A to determine the distance between him and each user participating in the electronic conference (user I is the closest, user F is the second closest, and user C is the third closest (farthest)) based on the difference in volume of each sound contained in the background sound.
- Fig. 8 is a flowchart showing an example of a volume control data generation process by the electronic conference server 100 in a modified example.
- the example shown in Fig. 6 (when four users A, C, F, and I participate in the electronic conference) will be described here.
- control unit 111 acquires the location information of all users participating in the electronic conference (step S301). For example, the control unit 111 acquires the location information (latitude, longitude, altitude information, etc.) received in advance from the terminal device 200 used by each user participating in the electronic conference.
- location information latitude, longitude, altitude information, etc.
- control unit 111 selects one user to participate in the electronic conference (step S302).
- control unit 111 calculates the distance between the terminal device 200 of each user participating in the electronic conference other than the user selected in the processing of step S302 and the terminal device 200 used by the user selected in the processing of step S302 (step S303). For example, if the control unit 111 selects user A in the processing of step S302, it calculates the distance between the terminal device 200 used by user A and the terminal devices 200 used by users C, F, and I.
- control unit 111 determines the volume of the sound data assigned to each user other than the user selected in the process of step S302, among the sounds included in the background sound based on the background sound data (i.e., the background sound data generated in the background sound generation process) transmitted to the terminal device 200 used by each user participating in the electronic conference, according to the distance calculated in the process of step S303 (step S304).
- the background sound data i.e., the background sound data generated in the background sound generation process
- control unit 111 generates volume control data indicating the volume of the sound data assigned to each of the other users determined in the process of step S304 (step S305). For example, if user A is selected in the process of step S302, the control unit 111 generates volume control data in which the sound of user I is the loudest, the sound of user F is the second loudest, and the sound of user C is the third loudest (lowest) volume.
- control unit 111 transmits the volume control data generated in the processing of step S305 to the terminal device 200 used by the user selected in the processing of step S302 (step S306).
- control unit 111 determines whether or not all users participating in the electronic conference have been selected in the process of step S302 (step S307). For example, the control unit 111 determines whether or not four users A, C, F, and I have been selected in the process of step S302. If the control unit 111 determines that all users participating in the electronic conference have not been selected (step S307: NO), it proceeds to the process of step S302 and repeats the processes of steps S302 to S306 for each remaining user. On the other hand, if the control unit 111 determines that all users participating in the electronic conference have been selected (step S307: YES), it ends the volume control data generation process.
- the control unit 111 may combine the volume control data with the background sound data and transmit it, or may transmit it separately from the background sound data.
- Modification 1-1 and Modification 1-2 may be combined.
- the sound assigned to user I is output from the speaker 217 of user A's terminal device 200 at the loudest volume from the southeast direction, the sound assigned to user F at the second loudest volume from the north direction, and the sound assigned to user C at the third loudest (lowest) volume from the west direction.
- This allows user A to know the direction in which users C, F, and I are located and the distance to them in comparison with other users.
- the control unit 111 of the electronic conference server 100 may generate background sound data by synthesizing sound data with the same BPM (Beats Per Minute). By synthesizing sound data with the same BPM, it is possible to generate background sound that is comfortable for the user (not harsh to the ears).
- BPM Beats Per Minute
- a plurality of pieces of sound data with different BPMs may be assigned to each user and stored in the storage unit 112 of the electronic conference server 100, and the control unit 111 may generate background sound data by synthesizing sound data with the same BPM among the sound data assigned to the users participating in the electronic conference.
- sound data with a BPM of "70” (user A's "aaa70.mp3", user C's “ccc70.mp3", user F's "fff70.mp3”, and user I's "iii70.mp3”) may be synthesized.
- the sound data with a BPM of "70", "80", or "90" to be synthesized may be selected randomly.
- sound data of natural sounds may be assigned to at least some users, and the control unit 111 may generate background sound data by synthesizing multiple pieces of sound data including the sound data of natural sounds.
- the control unit 111 may synthesize only the sound data of natural sounds.
- the control unit 111 may synthesize multiple pieces of sound data by adding the sound data of natural sounds to multiple pieces of sound data with the same BPM. Since natural sounds are unlikely to interfere with other sounds (for example, sounds with different BPMs), it is possible to generate background sounds that are comfortable (not harsh) for the user.
- the electronic conference provided by the electronic conference server 100 includes not only video or audio electronic conferences, but also text electronic conferences (e.g., chat).
- a server device providing a chat service may generate background sound data by synthesizing sound data assigned to the users participating in the chat, transmit the data to the terminal device of each user, and output background sound based on the background sound data received by each terminal device. This allows the user to know which users are participating in the chat from the sounds included in the background sound.
- an electronic conference is a place where multiple users participate using terminal devices connected to a communication line, and communicate with each other using video, audio, and text, regardless of the purpose, and may include, for example, everyday conversations and conversations while playing a game such as a communication game with multiple people.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本願は、複数のユーザがそれぞれ通信回線に接続された端末装置を用いて参加する電子会議を提供する情報処理装置等の技術分野に関する。 This application relates to the technical field of information processing devices and the like that provide electronic conferences in which multiple users participate using terminal devices each connected to a communication line.
情報通信技術の発展に伴いテレワークが広がりを見せる中、PC等の端末装置を用いた電子会議が行われる機会が増えている。特許文献1には電子会議に関する技術が開示されており、特許文献1の図18に示す端末装置の画面には、電子会議に参加している参加者の顔画像が表示される。これにより、参加者は、自分の他に誰が電子会議に参加しているかを一目で把握することができる。 As teleworking spreads with the development of information and communication technology, opportunities for electronic conferences using terminal devices such as PCs are increasing. Patent Document 1 discloses technology related to electronic conferences, and facial images of participants taking part in an electronic conference are displayed on the screen of a terminal device shown in Figure 18 of Patent Document 1. This allows participants to see at a glance who else is taking part in the electronic conference besides themselves.
しかしながら、特許文献1の図18の例では、電子会議中に参加者を示す画面を見なければ自分の他に誰が電子会議に参加しているかを把握することが難しいという問題がある。 However, the example in FIG. 18 of Patent Document 1 has the problem that it is difficult to know who else is participating in the electronic conference unless you look at the screen showing the participants during the electronic conference.
そこで、本発明は、こうした問題の一例に鑑み、電子会議中に参加者を示す画面を見なくても、自分の他に誰が電子会議に参加しているかを把握することができる情報処理装置等を提供することを課題とする。 In view of this, the present invention aims to provide an information processing device or the like that allows a user to know who is participating in an electronic conference other than himself/herself, without having to look at a screen showing the participants during the electronic conference.
請求項1に記載の発明は、複数のユーザがそれぞれ通信回線に接続された端末装置を用いて参加する電子会議を提供する情報処理装置であって、各前記ユーザに割り当てられたそれぞれ異なる音データのうち、前記電子会議に参加している前記ユーザに割り当てられた音データを合成して背景音データを生成する背景音データ生成手段と、前記電子会議に参加している複数の前記ユーザがそれぞれ用いる前記端末装置に、前記背景音データを送信する送信手段と、を備えることを特徴とする。 The invention described in claim 1 is an information processing device that provides an electronic conference in which multiple users participate using terminal devices connected to a communication line, and is characterized by comprising: background sound data generating means that generates background sound data by synthesizing sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users; and transmission means that transmits the background sound data to the terminal devices used by each of the multiple users participating in the electronic conference.
請求項8に記載の発明は、複数のユーザがそれぞれ通信回線に接続された端末装置を用いて参加する電子会議を提供する情報処理装置による情報処理方法であって、各前記ユーザに割り当てられたそれぞれ異なる音データのうち、前記電子会議に参加している前記ユーザに割り当てられた音データを合成して背景音データを生成する背景音データ生成工程と、前記電子会議に参加している複数の前記ユーザがそれぞれ用いる前記端末装置に、前記背景音データを送信する送信工程と、を含むことを特徴とする。 The invention described in claim 8 is an information processing method by an information processing device that provides an electronic conference in which multiple users participate using terminal devices connected to a communication line, and is characterized by including a background sound data generation step of generating background sound data by synthesizing sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users, and a transmission step of transmitting the background sound data to the terminal devices used by each of the multiple users participating in the electronic conference.
請求項9に記載の発明は、複数のユーザがそれぞれ通信回線に接続された端末装置を用いて参加する電子会議を提供する情報処理装置に含まれるコンピュータを、各前記ユーザに割り当てられたそれぞれ異なる音データのうち、前記電子会議に参加している前記ユーザに割り当てられた音データを合成して背景音データを生成する背景音データ生成手段、前記電子会議に参加している複数の前記ユーザがそれぞれ用いる前記端末装置に、前記背景音データを送信する送信手段、として機能させることを特徴とする。 The invention described in claim 9 is characterized in that a computer included in an information processing device that provides an electronic conference in which multiple users participate using terminal devices connected to a communication line functions as background sound data generating means that generates background sound data by synthesizing the sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users, and transmitting means that transmits the background sound data to the terminal devices used by each of the multiple users participating in the electronic conference.
本願発明を実施するための形態について、図1を用いて説明する。 The embodiment of the present invention will be explained with reference to FIG. 1.
図1に示すように、情報処理装置10は、複数のユーザがそれぞれ通信回線に接続された端末装置を用いて参加する電子会議を提供する情報処理装置であって、背景音データ生成手段11、送信手段12を備える。
As shown in FIG. 1, the
背景音データ生成手段11は、各前記ユーザに割り当てられたそれぞれ異なる音データのうち、前記電子会議に参加している前記ユーザに割り当てられた音データを合成して背景音データを生成する。 The background sound data generating means 11 generates background sound data by synthesizing the sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users.
送信手段12は、前記電子会議に参加している複数の前記ユーザがそれぞれ用いる前記端末装置に、前記背景音データを送信する。 The transmission means 12 transmits the background sound data to the terminal devices used by each of the multiple users participating in the electronic conference.
情報処理装置10によれば、画面を見なくても、背景音に含まれるそれぞれの音から自分の他に誰が電子会議に参加しているかを把握することができる。
With the
図2-図5を用いて、実施例について説明する。 The following example will be explained using Figures 2 to 5.
[1.電子会議システムSの概要]
まず、図2を用いて、電子会議システムSの概要について説明する。なお、図2の例では、ユーザA-Iのうち、ユーザA、C、F、Iの4人が電子会議の参加者である。
[1. Overview of the electronic conference system S]
First, an overview of the electronic conference system S will be described with reference to Fig. 2. In the example of Fig. 2, four users A, C, F, and I among users A to I are participants in the electronic conference.
電子会議システムSは、電子会議サーバ100と、複数の端末装置200とを含んで構成され、電子会議サーバ100と各端末装置200はネットワーク(図示しない)を介して接続される。ネットワークは、無線LAN、有線LAN、通信キャリア回線、光ファイバー回線、電話回線等の通信回線と、ルーター、スイッチングハブ、ファイアウォール、無線アンテナ、光中継機器とそれらを接続するケーブル等の通信機器などにより形成される。
The electronic conference system S includes an
電子会議サーバ100は、電子会議に参加するユーザA、C、F、Iに電子会議の場を提供する。例えば、電子会議サーバ100は、ユーザAが用いる端末装置200から新規に電子会議の提供依頼を受信すると、電子会議に参加するユーザA、C、F、Iが電子会議に参加する際にアクセスする電子会議用リンクを生成し、ユーザAの端末装置200に送信する。電子会議用リンクを受信したユーザAは、電子会議用リンクをユーザC、F、Iの端末装置200に転送する。
The
そして、ユーザA、C、F、Iがそれぞれの端末装置200を用いて電子会議用リンクより電子会議サーバ100にアクセスすると、電子会議サーバ100は、各端末装置200を接続し、電子会議の場を提供する。
When users A, C, F, and I access the
また、電子会議サーバ100は、電子会議に参加する可能性のある各ユーザA-Iに割り当てられた音データを予め記憶しておく。本実施例では、一例として、各ユーザA-Iに対して、クラシック曲の楽器毎の音を割り当てる(ユーザA:バイオリン、ユーザB:チェロ、ユーザC:クラリネット、ユーザD:フルート、ユーザE:トランペット、ユーザF:ホルン、ユーザG:トロンボーン、ユーザH:ティンパニ、ユーザI:マリンバ)こととする。
The
電子会議サーバ100は、電子会議に参加するためにアクセスしてきた端末装置200のユーザA、C、F、Iにそれぞれ割り当てられた音データ「aaa.mp3」、「ccc.mp3」、「fff.mp3」、「iii.mp3」を合成して背景音データ「BGM.mp3」を生成し、ユーザA、C、F、Iの各端末装置200に送信する。そして、各端末装置200は、電子会議中に「BGM.mp3」を再生して背景音をスピーカーから出力する。これにより、背景音にバイオリン、クラリネット、ホルン、マリンバの音が含まれていることから、ユーザA、C、F、Iは、自分の他に誰が電子会議に参加しているかを把握することができる。なお、予めユーザ毎にどの楽器が割り当てられているかを各ユーザに周知しておくことが好ましい。
The
[2.電子会議サーバ100の構成]
図3を用いて、電子会議サーバ100の構成について説明する。図3は、電子会議サーバ100の構成例を示すブロック図である。
2. Configuration of the
The configuration of the
電子会議サーバ100は、制御部111と、HDD(Hard Disk Drive)やSSD(Solid State Drive)等からなる記憶部112と、通信部113と、表示ユニット114と、インターフェース(I/F)部115と、を備え、I/F部115を介して、表示部116と、操作部117が接続されている。
The
制御部111は、制御部111全体を制御するCPU111aと、制御部111を制御する制御プログラム等が予め記憶されているROM111bと、各種データを一時的に格納するRAM111cと、により構成されている。制御部111又はCPU111aは、「コンピュータ」に対応する。
The
制御部111は、ネットワークを介して接続される複数の端末装置200に対して電子会議の場を提供するための各種処理(後述する背景音生成処理を含む)を実行する。
The
記憶部112は、OS(Operating System)、アプリケーションプログラム等の各種プログラムや、各種プログラムで利用されるデータや情報を記憶する。記憶部112は、制御部111が電子会議に参加するユーザに割り当てられた音データを合成して背景音データを生成し、電子会議に参加するユーザの端末装置200に送信するためのプログラムを記憶している。なお、各種プログラムは、例えば、サーバ装置等からネットワークを介して取得されるようにしてもよいし、USBメモリ等の記録媒体に記録されたものを読み込むようにしてもよい。
The
記憶部112は、ユーザA-Iに割り当てられた音データを記憶する。音データは音データテーブルで管理される。ユーザへの音データの割り当ては、例えば、電子会議サーバ100の提供する電子会議への利用登録時に電子会議サーバ100が行う。電子会議を利用するユーザは予め電子会議サーバ100に対してユーザ登録を行うこととし、この際に、電子会議サーバ100がアカウント及びパスワードとともに音データをユーザに割り当てる。
The
通信部113は、通信デバイス等を有し、端末装置200と通信してデータを相互に送受信する。
The
表示ユニット114は、グラフィックスコントローラ114aと、VRAM(Video RAM)等のメモリからなるバッファメモリ114bを備えて構成されている。この構成においてグラフィックスコントローラ114aは、制御部111から送られる制御情報に基づいて、表示ユニット114及び表示部116の制御を行う。また、バッファメモリ114bは、表示部116に即時表示可能な画像データを一時的に記憶する。そして、グラフィックスコントローラ114aから出力される画像データに基づいて、表示部116に画像が表示される。
The
I/F部115は、電子会議サーバ100と外部機器である表示部116及び操作部117等を接続するために必要な構造・機能を有し、必要に応じて両者間のデータ変換等を行う。
The I/
表示部116は、液晶ディスプレイ等であり、表示ユニット114から受信した画像データに基づいて画像を表示させる。
The
操作部117は、オペレーターの操作を検出し、操作内容等を示す操作データを制御部111に送信する。制御部111は操作データに基づいて何れの操作がなされたかを判別し、操作内容に応じて処理を行う。
The
[3.端末装置200の構成]
図4を用いて、端末装置200の構成について説明する。図4は、端末装置200の構成例を示すブロック図である。
3. Configuration of
The configuration of the
端末装置200は、制御部211と、HDDやSSD等からなる記憶部212と、通信部213と、表示ユニット214と、インターフェース(I/F)部215と、を備え、I/F部215を介して、マイク216、スピーカー217、カメラ218、表示部219、操作部220が接続されている。
The
制御部211は、制御部211全体を制御するCPU211aと、制御部211を制御する制御プログラム等が予め記憶されているROM211bと、各種データを一時的に格納するRAM211cと、により構成されている。制御部211又はCPU211aは、「コンピュータ」に対応する。
The
制御部211は、電子会議サーバ100が提供する電子会議の場に参加するための各種処理を実行する。
The
記憶部212は、OS、アプリケーションプログラム等の各種プログラムや、各種プログラムで利用されるデータや情報を記憶する。記憶部212は、制御部211が電子会議に参加するためのプログラムを記憶している。なお、各種プログラムは、例えば、サーバ装置等からネットワークを介して取得されるようにしてもよいし、USBメモリ等の記録媒体に記録されたものを読み込むようにしてもよい。
The
通信部213は、通信デバイス等を有し、電子会議サーバ100や他の端末装置200と通信してデータを相互に送受信する。
The
表示ユニット214は、グラフィックスコントローラ214aと、VRAM等のメモリからなるバッファメモリ214bを備えて構成されている。この構成においてグラフィックスコントローラ214aは、制御部211から送られる制御情報に基づいて、表示ユニット214及び表示部219の制御を行う。また、バッファメモリ214bは、表示部219に即時表示可能な画像データを一時的に記憶する。そして、グラフィックスコントローラ214aから出力される画像データに基づいて、表示部219に画像が表示される。
The
I/F部215は、端末装置200と、外部機器であるマイク216、スピーカー217、カメラ218、表示部219、操作部220等を接続するために必要な構造・機能を有し、必要に応じて両者間のデータ変換等を行う。
The I/
マイク216は、ユーザ等の音声(音)を電気信号に変換する。電気信号は、I/F部215を介して制御部211に送信される。
The
スピーカー217は、制御部211の制御に従って、音データ(電気信号)を音として出力する。本実施例では、スピーカー217は、電子会議サーバ100から受信した背景音データに基づいて背景音を出力する。
The
カメラ218は、レンズを通して撮影した画像データをI/F部215を介して制御部211に送信する。
The
表示部219は、液晶ディスプレイ等であり、表示ユニット214から受信した画像データに基づいて画像を表示させる。
The
なお、図4では、端末装置200がデスクトップ型PCである例を示しているが、端末装置200は、ノート型PC、スマートフォン、タブレット端末等であってもよく、これらの場合は、制御部211と、記憶部212と、通信部213と、表示ユニット214と、インターフェース(I/F)部215と、マイク216、スピーカー217、カメラ218、表示部219、操作部220が一体となっていてもよい。
Note that while FIG. 4 shows an example in which the
操作部220は、ユーザの操作を検出し、操作内容等を示す操作データを制御部211に送信する。制御部211は操作データに基づいて何れの操作がなされたかを判別し、操作内容に応じて処理を行う。
The
[4.電子会議サーバ100による背景音生成処理]
次に、図5に示すフローチャートを用いて、電子会議サーバ100による背景音生成処理について説明する。なお、図5は、電子会議サーバ100による背景音生成処理の一例を示すフローチャートである。また、図5に示すフローチャートが開始する前までに、電子会議に参加するユーザの端末装置200に電子会議用リンクが配付され、電子会議サーバ100と各端末装置200がアカウント及びパスワードによるログイン処理を経て接続されていることとする。
[4. Background Sound Generation Process by the Electronic Conference Server 100]
Next, the background sound generation process by the
まず、制御部111(CPU111a)は、電子会議に参加しているユーザを特定する(ステップS101)。具体的には、電子会議用リンクから電子会議サーバ100に接続してきた端末装置200を、ログイン処理時のアカウント等に基づいて特定する。
First, the control unit 111 (
次に、制御部111は、ステップS101の処理で特定した各ユーザ(端末装置200)に割り当てられた音データを記憶部112から取得する(ステップS102)。
Next, the
次に、制御部111は、ステップS102の処理で取得した音データを合成して、背景音データを生成する(ステップS103)。このとき、制御部111は、各音データの音がそれぞれ背景音に含まれるように、すなわち、背景音から電子会議に参加する各ユーザに割り当てられた音が聞こえるように合成する。
Next, the
次に、制御部111は、ステップS103の処理で生成した背景音データを、電子会議に参加している各ユーザの端末装置200(ステップS101の処理で特定した各端末装置200)に送信する(ステップS104)。なお、図5では図示しないが、背景音データを受信した各端末装置200の制御部211は、スピーカー217から背景音データに基づく背景音を出力することとする。
Then, the
次に、制御部111は、電子会議が終了したか否かを判定する(ステップS105)。このとき、制御部111は、電子会議が終了したと判定した場合には(ステップS105:YES)、背景音生成処理を終了する。一方、制御部111は、電子会議が終了していないと判定した場合には(ステップS105:NO)、ステップS106の処理に移行する。
Then, the
次に、制御部111は、電子会議に参加しているユーザに変更があったか否かを判定する(ステップS106)。電子会議に参加しているユーザの変更には、新たに電子会議にユーザが参加した場合と、電子会議に参加しているユーザが離脱した場合を含む。このとき、制御部111は、電子会議に参加しているユーザに変更がないと判定した場合には(ステップS106:NO)、ステップS105の処理に移行する。つまり、電子会議が終了するか、電子会議に参加しているユーザに変更がない限り、ステップS105及びステップS106の処理を繰り返す。一方、制御部111は、電子会議に参加しているユーザに変更があったと判定した場合には(ステップS106:YES)、ステップS101の処理に移行し、その時点において電子会議に参加しているユーザを特定して、再度、背景音データを生成して、電子会議に参加しているユーザの各端末装置200に送信する。これにより、常時、その時点で電子会議に参加している各ユーザに割り当てられた音データから生成された背景音データに基づく背景音が、各ユーザの端末装置200のスピーカー217から出力される。
Next, the
以上説明したように、本実施例における電子会議サーバ100は、複数のユーザがそれぞれ通信回線に接続された端末装置200を用いて参加する電子会議を提供し、制御部111(「背景音データ生成手段」、「送信手段」の一例)が各ユーザに割り当てられたそれぞれ異なる音データのうち、電子会議に参加しているユーザに割り当てられた音データを合成して背景音データを生成し、電子会議に参加している複数のユーザがそれぞれ用いる端末装置200に、背景音データを送信する。
As described above, the
したがって、電子会議サーバ100によれば、電子会議に参加している各ユーザに割り当てられた音データから生成された背景音データに基づく背景音が、各ユーザの端末装置200のスピーカー217から出力されることから、各ユーザは画面を見なくても、背景音に含まれるそれぞれの音から自分の他に誰が電子会議に参加しているかを把握することができる。
Therefore, according to the
つまり、ユーザは、表示部219を有さない端末装置を用いて電子会議に参加している場合であっても、誰が電子会議に参加しているかを把握することができる。また、ユーザは、表示部219の全面に電子会議に関する資料が表示されていて、電子会議の参加者を示す情報が表示部219に表示されていない場合であっても、誰が電子会議に参加しているかを把握することができる。
In other words, even if the user is participating in the electronic conference using a terminal device that does not have the
また、本実施例における電子会議サーバ100の制御部111は、電子会議中に、電子会議に参加するユーザに加入(途中参加)又は離脱(途中離脱)の変更が生じた場合に、背景音データを再生成し、再生成された背景音データを、電子会議に参加している複数のユーザがそれぞれ用いる端末装置200に送信する。これにより、電子会議中に、電子会議に参加しているユーザに変更が生じた場合であっても、適宜、電子会議に参加中のユーザに応じた背景音が各端末装置200のスピーカー217から出力されることから、ユーザは背景音の変化に基づいて参加者に変更が生じたこと、更には、誰が途中参加又は途中離脱したかを把握することができる。
In addition, in this embodiment, the
[5.変形例]
次に、本実施例の変形例について説明する。なお、以下に説明する変形例は適宜組み合わせることができる。
5. Modifications
Next, modified examples of this embodiment will be described. Note that the modified examples described below can be combined as appropriate.
[5.1.変形例1]
電子会議サーバ100は各端末装置200から位置情報(緯度・経度・高度情報等)を受信することとし、制御部111は、各端末装置200から受信した位置情報に基づいて、電子会議に参加している各ユーザが用いる端末装置200の位置に応じて、背景音に含まれる各ユーザに割り当てられた音の出力の仕方を決めてもよい。なお、各端末装置200は任意の手段により位置情報を取得することができる。例えば、端末装置200はGPS受信部を設けて、GPS受信部が受信したGPS信号に基づいて位置情報を取得してもよいし、ユーザに位置情報を入力してもらうこととしてもよい。
[5.1. Modification 1]
The
[5.1.1.変形例1-1]
図6は、ユーザAを基準としたユーザC、F、Iの位置を示す例図である。変形例1-1は、ユーザAの端末装置200から出力される背景音に含まれる、ユーザC、F、Iにそれぞれ割り当てられた音データの音の音像定位を、ユーザAが用いる端末装置200の位置を基準として、当該音の基である音データが割り当てられたユーザC、F、Iがそれぞれ用いる端末装置200の位置とさせる。
[5.1.1. Modification 1-1]
6 is an example diagram showing the positions of users C, F, and I relative to user A. In variant example 1-1, the sound image localization of the sound data included in the background sound output from the
具体的には、電子会議サーバ100の制御部111(「位置情報取得手段」、「音像定位データ生成手段」の一例)は、電子会議に参加している各ユーザが用いる端末装置200の位置情報を取得し、電子会議に参加している一のユーザが用いる端末装置200に送信する背景音データに基づく背景音に含まれる音のうち、当該一のユーザ以外の他の各ユーザに割り当てられた音データの音の音像定位を、当該一のユーザが用いる端末装置200の位置を基準として、当該音の基である音データが割り当てられたユーザが用いる端末装置200の位置とさせる音像定位データを生成する。また、制御部111は、電子会議に参加している各ユーザが用いる端末装置200について、電子会議に参加している各ユーザを当該一のユーザとして音像定位データを生成し、電子会議に参加している各ユーザが用いる端末装置200に、当該端末装置200について生成した音像定位データを更に送信する。
Specifically, the
例えば、図6の例では、制御部111は、電子会議に参加しているユーザA、C、F、Iのそれぞれが用いる端末装置200の位置情報を取得し、電子会議に参加しているユーザAが用いる端末装置200に送信する背景音データに基づく背景音に含まれる音のうち、ユーザA以外のユーザC、F、Iのそれぞれに割り当てられた音データの音の音像定位を、ユーザAが用いる端末装置200の位置を基準として、当該音の基である音データが割り当てられたユーザC、F、Iのそれぞれが用いる端末装置200の位置とさせる音像定位データを生成し、ユーザAが用いる端末装置200に更に送信する。制御部111は、この処理を、ユーザA以外のユーザC、F、Iが用いる端末装置200についても行う。そして、端末装置200の制御部211は、電子会議サーバ100から受信した背景音データ及び音像定位データに基づいて、背景音に含まれるそれぞれの音の音像定位を当該音に対応するユーザのいる位置として、背景音をスピーカー217から出力させる。これにより、例えば、ユーザAは、背景音に含まれるそれぞれの音のする方向から電子会議に参加している各ユーザの位置(ユーザCが西の方向にいること、ユーザFが北の方向にいること、ユーザIが南東の方向にいること)を把握することができる。なお、この場合、スピーカー217は音像定位可能な仕様・設定であることとする。
For example, in the example of FIG. 6, the
[電子会議サーバ100による音像定位データ生成処理]
次に、図7に示すフローチャートを用いて、電子会議サーバ100による音像定位データ生成処理について説明する。なお、図7は、変形例における電子会議サーバ100による音像定位データ生成処理の一例を示すフローチャートである。また、ここでは図6の例(電子会議にユーザA、C、F、Iの4人が参加する場合)について説明する。
[Sound image localization data generation process by the electronic conference server 100]
Next, a sound image localization data generation process by the
まず、制御部111(CPU111a)は、電子会議に参加する全ユーザの位置情報を取得する(ステップS201)。例えば、制御部111は、事前に電子会議に参加する各ユーザが用いる端末装置200から受信した位置情報(緯度・経度・高度情報等)を取得する。
First, the control unit 111 (
次に、制御部111は、電子会議に参加する一人のユーザを選択する(ステップS202)。
Next, the
次に、制御部111は、電子会議に参加するユーザのうち、ステップS202の処理で選択したユーザ以外の他のユーザの中から一人のユーザを選択する(ステップS203)。例えば、制御部111は、ステップS202の処理でユーザAを選択した場合には、ユーザC、F、Iの何れかを選択する。
Next, the
次に、制御部111は、ステップS202の処理で選択したユーザが用いる端末装置200の位置を基準として、ステップS203の処理で選択したユーザが用いる端末装置200の位置(例えば、基準からの方向及び距離)を特定する(ステップS204)。
Next, the
次に、制御部111は、電子会議に参加する各ユーザが用いる端末装置200に送信される背景音データ(すなわち、背景音生成処理で生成された背景音データ)に基づく背景音に含まれる音のうち、ステップS203の処理で選択したユーザに割り当てられた音データの音の音像定位を、ステップS204の処理で特定した位置と対応付けて記憶する(ステップS205)。
Next, the
次に、制御部111は、ステップS203の処理で、ステップS202の処理で選択したユーザ以外の全ての他のユーザを選択したか否かを判定する(ステップS206)。例えば、制御部111は、ステップS202の処理でユーザAを選択した場合であれば、ステップS203の処理でユーザC、F、Iを全て選択したか否かを判定する。制御部111は、全ての他のユーザを選択していないと判定した場合には(ステップS206:NO)、ステップS203の処理に移行し、それまでに選択していない他のユーザを選択する。一方、制御部111は、全ての他のユーザを選択したと判定した場合には(ステップS206:YES)、次いで、全ての他のユーザについてステップS205の処理で記憶した音と音像定位の対応関係を示す音像定位データを生成する(ステップS207)。例えば、制御部111は、ステップS202の処理でユーザAを選択した場合であれば、ユーザAが用いる端末装置200を基準位置として、ユーザC、F、Iに割り当てられた音データの音の音像定位を、ユーザC、F、Iがそれぞれ用いる端末装置200の位置とする音像定位データを生成する。
Next, the
次に、制御部111は、ステップS207の処理で生成した音像定位データを、ステップS202の処理で選択したユーザが用いる端末装置200に送信する(ステップS208)。
Next, the
次に、制御部111は、ステップS202の処理で、電子会議に参加する全てのユーザを選択したか否かを判定する(ステップS209)。つまり、制御部111は、ステップS202の処理でユーザA、C、F、Iの4人を選択したか否かを判定する。制御部111は、電子会議に参加する全てのユーザを選択していないと判定した場合には(ステップS209:NO)、ステップS202の処理に移行し、残りの各ユーザについてステップS202~ステップS208の処理を繰り返す。一方、制御部111は、電子会議に参加する全てのユーザを選択したと判定した場合には(ステップS209:YES)、音像定位データ生成処理を終了する。
Next, the
なお、制御部111は、音像定位データを背景音データに合成して送信してもよいし、背景音データと別個に送信してもよい。
The
[5.1.2.変形例1-2]
図6に示すように、変形例1-2は、ユーザAの端末装置200から出力される背景音に含まれる、ユーザC、F、Iにそれぞれ割り当てられた音データの音の音量を、当該音の基である音データが割り当てられたユーザC、F、Iが用いる端末装置200の位置と、ユーザAが用いる端末装置200の位置の距離に応じた音量とさせる。なお、図6において、ユーザC、F、IからユーザAに伸びる矢印の太さは、音量の大きさ(太いほど音量が大きい)を示している。
[5.1.2. Modification 1-2]
As shown in Fig. 6, in variant example 1-2, the volume of the sound of the sound data respectively assigned to users C, F, and I, which is included in the background sound output from the
具体的には、電子会議サーバ100の制御部111(「距離算出手段」、「音量制御データ生成手段」の一例)は、電子会議に参加している各ユーザが用いる端末装置200の位置情報を取得し、電子会議に参加している一のユーザが用いる端末装置200に送信する背景音データに基づく背景音に含まれる音のうち、当該一のユーザ以外の他の各ユーザに割り当てられた音データの音の音量を、当該音の基である音データが割り当てられたユーザが用いる端末装置200の位置と、当該一のユーザが用いる端末装置200の位置の距離に応じた音量とさせる音量制御データを生成する。また、制御部111は、電子会議に参加している各ユーザが用いる端末装置200について、電子会議に参加している各ユーザを当該一のユーザとして音量制御データを生成し、電子会議に参加している各ユーザが用いる前記端末装置200に、当該端末装置について生成した音量制御データを更に送信する。
Specifically, the control unit 111 (an example of a "distance calculation means" and "volume control data generation means") of the
例えば、図6の例では、制御部111は、電子会議に参加しているユーザA、C、F、Iのそれぞれが用いる端末装置200の位置情報を取得し、電子会議に参加しているユーザAが用いる端末装置200に送信する背景音データに基づく背景音に含まれる音のうち、ユーザA以外のユーザC、F、Iのそれぞれに割り当てられた音データの音の音量を、当該音の基である音データが割り当てられたユーザC、F、Iのそれぞれが用いる端末装置200の位置と、ユーザAが用いる端末装置200の位置の距離に応じた音量とさせる音量制御データを生成し、ユーザAが用いる端末装置200に更に送信する。制御部111は、この処理を、ユーザA以外のユーザC、F、Iが用いる端末装置200についても行う。そして、ユーザA、C、F、Iのそれぞれ端末装置200の制御部211は、電子会議サーバ100から受信した背景音データ及び音量制御データに基づいて、背景音に含まれるそれぞれの音の音量を制御して、背景音をスピーカー217から出力させる。これにより、例えば、ユーザAは、背景音に含まれるそれぞれの音の音量の違いから電子会議に参加している各ユーザとの距離(ユーザIが1番近くにいること、ユーザFが2番目に近くにいること、ユーザCが3番目に近く(一番遠く)にいること)を把握することができる。
For example, in the example of FIG. 6, the
[電子会議サーバ100による音量制御データ生成処理]
次に、図8に示すフローチャートを用いて、電子会議サーバ100による音量制御データ生成処理について説明する。なお、図8は、変形例における電子会議サーバ100による音量制御データ生成処理の一例を示すフローチャートである。また、ここでは図6の例(電子会議にユーザA、C、F、Iの4人が参加する場合)について説明する。
[Volume Control Data Generation Process by the Electronic Conference Server 100]
Next, a volume control data generation process by the
まず、制御部111(CPU111a)は、電子会議に参加する全ユーザの位置情報を取得する(ステップS301)。例えば、制御部111は、事前に電子会議に参加する各ユーザが用いる端末装置200から受信した位置情報(緯度・経度・高度情報等)を取得する。
First, the control unit 111 (
次に、制御部111は、電子会議に参加する一人のユーザを選択する(ステップS302)。
Next, the
次に、制御部111は、電子会議に参加するユーザのうち、ステップS302の処理で選択したユーザ以外の他の各ユーザの端末装置200と、ステップS302の処理で選択したユーザが用いる端末装置200の距離を算出する(ステップS303)。例えば、制御部111は、ステップS302の処理でユーザAを選択した場合には、ユーザAが用いる端末装置200と、ユーザC、F、Iがそれぞれ用いる端末装置200の距離を算出する。
Next, the
次に、制御部111は、電子会議に参加する各ユーザが用いる端末装置200に送信される背景音データ(すなわち、背景音生成処理で生成された背景音データ)に基づく背景音に含まれる音のうち、ステップS302の処理で選択したユーザ以外の他の各ユーザに割り当てられた音データの音の音量を、ステップS303の処理で算出した距離に応じて決定する(ステップS304)。
Next, the
次に、制御部111は、ステップS304の処理で決定した、他の各ユーザに割り当てられた音データの音の音量を示す音量制御データを生成する(ステップS305)。例えば、制御部111は、ステップS302の処理でユーザAを選択した場合であれば、ユーザIの音が1番目に大きな音量とし、ユーザFの音が2番目に大きな音量とし、ユーザCの音が3番目に大きな(一番目に小さな)音量とする音量制御データを生成する。
Then, the
次に、制御部111は、ステップS305の処理で生成した音量制御データを、ステップS302の処理で選択したユーザが用いる端末装置200に送信する(ステップS306)。
Next, the
次に、制御部111は、ステップS302の処理で、電子会議に参加する全てのユーザを選択したか否かを判定する(ステップS307)。例えば、制御部111は、ステップS302の処理でユーザA、C、F、Iの4人を選択したか否かを判定する。制御部111は、電子会議に参加する全てのユーザを選択していないと判定した場合には(ステップS307:NO)、ステップS302の処理に移行し、残りの各ユーザについてステップS302~ステップS306の処理を繰り返す。一方、制御部111は、電子会議に参加する全てのユーザを選択したと判定した場合には(ステップS307:YES)、音量制御データ生成処理を終了する。
Next, the
なお、制御部111は、音量制御データを背景音データに合成して送信してもよいし、背景音データと別個に送信してもよい。
The
なお、変形例1-1と変形例1-2を組み合わせてもよい。この場合、図6に示す例では、ユーザAの端末装置200のスピーカー217からは、ユーザIに割り当てられた音が南東方向から1番目に大きな音量で、ユーザFに割り当てられた音が北方向から2番目に大きな音量で、ユーザCに割り当てられた音が西方向から3番目に大きな(1番目に小さな)音量で、それぞれ出力される。これにより、ユーザAは、ユーザC、F、Iがいる方向と、そこまでの距離を他のユーザとの比較において把握することができる。
Modification 1-1 and Modification 1-2 may be combined. In this case, in the example shown in FIG. 6, the sound assigned to user I is output from the
[5.2.変形例2]
電子会議サーバ100の制御部111は、BPM(Beats Per Minute)が同じ音データを合成して背景音データを生成することとしてもよい。BPMが同じ音データを合成することにより、ユーザにとって心地よい(耳障りにならない)背景音を生成することができる。
[5.2. Modification 2]
The
また、図9に示すように電子会議サーバ100の記憶部112に、ユーザ毎に異なるBPMの音データを複数割り当てて記憶させるとともに、制御部111は、電子会議に参加しているユーザに割り当てられた音データのうち、BPMが同じ音データを合成して背景音データを生成することとしてもよい。例えば、BPMが「70」の音データ(ユーザAの「aaa70.mp3」、ユーザCの「ccc70.mp3」、ユーザFの「fff70.mp3」、ユーザIの「iii70.mp3」)を合成することとしてもよい。このとき、「70」、「80」、「90」のうち何れのBPMの音データを合成するかは、ランダムに選択することとしてもよい。これにより、異なるBPMの背景音を作成することができ、BPMのマンネリ化を防止できる。なお、図9の例では、各ユーザに対してBPMが「70」、「80」、「90」の音データを割り当てているが、各ユーザにこれ以外のBPMの音データを割り当てることとして、制御部111は、電子会議に参加する全ユーザに共通して割り当てられているBPMの音データを合成することとしてもよい。
9, a plurality of pieces of sound data with different BPMs may be assigned to each user and stored in the
さらに、少なくとも一部のユーザについて、自然音(せせらぎ音、鳥の鳴き声音など)の音データを割り当てることとして、制御部111は、自然音の音データを含む複数の音データを合成して背景音データを生成することとしてもよい。このとき、制御部111は、自然音の音データのみを合成することとしてもよい。また、制御部111は、BPMが同じ複数の音データに、自然音の音データを加えた複数の音データを合成することとしてもよい。自然音は他の音(例えば、BPMが異なる音)を邪魔する可能性が低いため、ユーザにとって心地よい(耳障りにならない)背景音を生成することができる。
Furthermore, sound data of natural sounds (such as babbling brooks and bird calls) may be assigned to at least some users, and the
[5.3.変形例3]
電子会議サーバ100が提供する電子会議には、ビデオ又は音声による電子会議のみならず、テキストによる電子会議(例えば、チャット)なども含まれる。例えば、複数のユーザでチャットをしている際に、チャットサービスを提供しているサーバ装置が、チャットに参加しているユーザに割り当てられた音データを合成して背景音データを生成し、各ユーザの端末装置に送信し、各端末装置が受信した背景音データに基づいて背景音を出力させることとしてもよい。これにより、ユーザは背景音に含まれる音からチャットに参加しているユーザを把握することができる。なお、電子会議は、複数のユーザがそれぞれ通信回線に接続された端末装置を用いて参加する、ビデオ、音声及びテキストにより意思疎通する場であり、その目的は問わず、例えば、日常会話や、複数人で通信ゲーム等のゲームをしている際の会話なども含まれる。
[5.3. Modification 3]
The electronic conference provided by the
10 :情報処理装置
11 :背景音データ生成手段
12 :送信手段
100 :電子会議サーバ
111 :制御部
111a :CPU
111b :ROM
111c :RAM
112 :記憶部
113 :通信部
114 :表示ユニット
114a :グラフィックスコントローラ
114b :バッファメモリ
115 :I/F部
116 :表示部
117 :操作部
200 :端末装置
211 :制御部
211a :CPU
211b :ROM
211c :RAM
212 :記憶部
213 :通信部
214 :表示ユニット
214a :グラフィックスコントローラ
214b :バッファメモリ
215 :I/F部
216 :マイク
217 :スピーカー
218 :カメラ
219 :表示部
220 :操作部
A-I :ユーザ
S :電子会議システム
10: Information processing device 11: Background sound data generating means 12: Transmission means 100: Teleconference server 111:
111b: ROM
111c: RAM
112: storage unit 113: communication unit 114:
211b: ROM
211c: RAM
212: Storage unit 213: Communication unit 214: Display unit 214a:
Claims (9)
各前記ユーザに割り当てられたそれぞれ異なる音データのうち、前記電子会議に参加している前記ユーザに割り当てられた音データを合成して背景音データを生成する背景音データ生成手段と、
前記電子会議に参加している複数の前記ユーザがそれぞれ用いる前記端末装置に、前記背景音データを送信する送信手段と、
を備えることを特徴とする情報処理装置。 An information processing device that provides an electronic conference in which a plurality of users participate using terminal devices each connected to a communication line,
a background sound data generating means for generating background sound data by synthesizing the sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users;
a transmission means for transmitting the background sound data to the terminal devices used by each of the users participating in the electronic conference;
An information processing device comprising:
前記背景音データ生成手段は、前記電子会議中に、前記電子会議に参加するユーザに加入又は離脱の変更が生じた場合に、前記背景音データを再生成し、
前記送信手段は、再生成された前記背景音データを、前記電子会議に参加している複数の前記ユーザがそれぞれ用いる前記端末装置に送信することを特徴とする情報処理装置。 2. The information processing device according to claim 1,
the background sound data generating means regenerates the background sound data when a change occurs in a user joining or leaving the electronic conference during the electronic conference;
The information processing apparatus, wherein the transmitting means transmits the regenerated background sound data to the terminal devices used by the plurality of users participating in the electronic conference.
前記電子会議に参加している各前記ユーザが用いる前記端末装置の位置情報を取得する位置情報取得手段と、
前記電子会議に参加している一の前記ユーザが用いる前記端末装置に送信する前記背景音データに基づく背景音に含まれる音のうち、前記一のユーザ以外の他の各前記ユーザに割り当てられた前記音データの音の音像定位を、前記一のユーザが用いる前記端末装置の位置を基準として、当該音の基である前記音データが割り当てられた前記ユーザが用いる前記端末装置の位置とさせる音像定位データを生成する音像定位データ生成手段と、
を更に備え、
前記音像定位データ生成手段は、前記電子会議に参加している各前記ユーザが用いる前記端末装置について、前記電子会議に参加している各前記ユーザを前記一のユーザとして前記音像定位データを生成し、
前記送信手段は、前記電子会議に参加している各前記ユーザが用いる前記端末装置に、当該端末装置について前記音像定位データ生成手段が生成した前記音像定位データを更に送信することを特徴とする情報処理装置。 3. The information processing device according to claim 1,
a location information acquiring means for acquiring location information of the terminal device used by each of the users participating in the electronic conference;
a sound image localization data generating means for generating sound image localization data for localizing the sound of the sound data assigned to each of the users other than the one user among the sounds included in the background sound based on the background sound data to be transmitted to the terminal device used by the one user participating in the electronic conference, based on the position of the terminal device used by the one user, to the position of the terminal device used by the user to which the sound data that is the source of the sound is assigned, using the position of the terminal device used by the one user as a reference;
Further comprising:
The sound image localization data generating means generates the sound image localization data for the terminal devices used by the users participating in the electronic conference, with each of the users participating in the electronic conference as one user;
The information processing device characterized in that the transmission means further transmits the sound image localization data generated by the sound image localization data generation means for each terminal device used by each of the users participating in the electronic conference.
前記電子会議に参加している各前記ユーザが用いる前記端末装置の位置情報を取得する位置情報取得手段と、
前記電子会議に参加している一の前記ユーザが用いる前記端末装置に送信する前記背景音データに基づく背景音に含まれる音のうち、前記一のユーザ以外の他の各前記ユーザに割り当てられた前記音データの音の音量を、当該音の基である前記音データが割り当てられた前記ユーザが用いる前記端末装置の位置と、前記一のユーザが用いる前記端末装置の位置の距離に応じた音量とさせる音量制御データを生成する音量制御データ生成手段と、
を更に備え、
前記音量制御データ生成手段は、前記電子会議に参加している各前記ユーザが用いる前記端末装置について、前記電子会議に参加している各前記ユーザを前記一のユーザとして前記音量制御データを生成し、
前記送信手段は、前記電子会議に参加している各前記ユーザが用いる前記端末装置に、当該端末装置について前記音量制御データ生成手段が生成した前記音量制御データを更に送信することを特徴とする情報処理装置。 3. The information processing device according to claim 1,
a location information acquiring means for acquiring location information of the terminal device used by each of the users participating in the electronic conference;
a volume control data generating means for generating volume control data for controlling the volume of the sound of the sound data assigned to each of the users other than the one user among the sounds included in the background sound based on the background sound data to be transmitted to the terminal device used by one of the users participating in the electronic conference to correspond to the distance between the position of the terminal device used by the user to which the sound data that is the source of the sound is assigned and the position of the terminal device used by the one user;
Further comprising:
the volume control data generating means generates the volume control data for the terminal devices used by the users participating in the electronic conference, with each of the users participating in the electronic conference as one user;
The information processing apparatus, wherein the transmitting means further transmits the volume control data generated by the volume control data generating means for each terminal device to the terminal device used by each of the users participating in the electronic conference.
前記背景音データ生成手段は、BPM(Beats Per Minute)が同じ前記音データを合成して前記背景音データを生成することを特徴とする情報処理装置。 2. The information processing device according to claim 1,
The information processing apparatus, wherein the background sound data generating means generates the background sound data by synthesizing the sound data having the same BPM (Beats Per Minute).
各前記ユーザにはBPM(Beats Per Minute)の異なる複数の音データが割り当てられており、
前記背景音データ生成手段は、前記電子会議に参加している前記ユーザに割り当てられた音データのうち、BPM(Beats Per Minute)が同じ前記音データを合成して前記背景音データを生成することを特徴とする情報処理装置。 6. The information processing device according to claim 5,
Each user is assigned a plurality of sound data with different BPM (Beats Per Minute),
The information processing device is characterized in that the background sound data generation means generates the background sound data by synthesizing sound data having the same BPM (Beats Per Minute) among sound data assigned to the users participating in the electronic conference.
少なくとも何れかの前記ユーザには自然音を示す前記音データが割り当てられており、
前記背景音データ生成手段は、前記自然音を示す前記音データを含む複数の前記音データを合成して前記背景音データを生成することを特徴とする情報処理装置。 7. The information processing device according to claim 1, 5 or 6,
At least one of the users is assigned the sound data indicating natural sounds,
The information processing apparatus, wherein the background sound data generating means generates the background sound data by synthesizing a plurality of pieces of sound data including the sound data representing the natural sound.
各前記ユーザに割り当てられたそれぞれ異なる音データのうち、前記電子会議に参加している前記ユーザに割り当てられた音データを合成して背景音データを生成する背景音データ生成工程と、
前記電子会議に参加している複数の前記ユーザがそれぞれ用いる前記端末装置に、前記背景音データを送信する送信工程と、
を含むことを特徴とする情報処理方法。 An information processing method for providing an electronic conference in which a plurality of users participate using terminal devices each connected to a communication line, comprising:
a background sound data generating step of generating background sound data by synthesizing the sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users;
a transmission step of transmitting the background sound data to the terminal devices used by each of the users participating in the electronic conference;
13. An information processing method comprising:
各前記ユーザに割り当てられたそれぞれ異なる音データのうち、前記電子会議に参加している前記ユーザに割り当てられた音データを合成して背景音データを生成する背景音データ生成手段、
前記電子会議に参加している複数の前記ユーザがそれぞれ用いる前記端末装置に、前記背景音データを送信する送信手段、
として機能させることを特徴とする情報処理用プログラム。 A computer included in an information processing device that provides an electronic conference in which a plurality of users participate using terminal devices each connected to a communication line,
a background sound data generating means for generating background sound data by synthesizing the sound data assigned to the users participating in the electronic conference from among the different sound data assigned to each of the users;
a transmission means for transmitting the background sound data to the terminal devices used by each of the users participating in the electronic conference;
An information processing program characterized by causing the information processing program to function as:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024557018A JPWO2024100920A1 (en) | 2022-11-11 | 2023-06-22 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022180852 | 2022-11-11 | ||
JP2022-180852 | 2022-11-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024100920A1 true WO2024100920A1 (en) | 2024-05-16 |
Family
ID=91032552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/023115 WO2024100920A1 (en) | 2022-11-11 | 2023-06-22 | Information processing device, information processing method, and program for information processing |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2024100920A1 (en) |
WO (1) | WO2024100920A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06165173A (en) * | 1992-11-17 | 1994-06-10 | Nippon Telegr & Teleph Corp <Ntt> | Virtual social circle realization system |
JP2012089000A (en) * | 2010-10-21 | 2012-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Teleconference method, teleconference system and teleconference program |
JP2014060548A (en) * | 2012-09-14 | 2014-04-03 | Ricoh Co Ltd | Transmission system, transmission terminal, transmission management system and program |
WO2022054899A1 (en) * | 2020-09-10 | 2022-03-17 | ソニーグループ株式会社 | Information processing device, information processing terminal, information processing method, and program |
JP2022047223A (en) * | 2020-09-11 | 2022-03-24 | 株式会社ソシオネクスト | Voice communication device |
-
2023
- 2023-06-22 JP JP2024557018A patent/JPWO2024100920A1/ja active Pending
- 2023-06-22 WO PCT/JP2023/023115 patent/WO2024100920A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06165173A (en) * | 1992-11-17 | 1994-06-10 | Nippon Telegr & Teleph Corp <Ntt> | Virtual social circle realization system |
JP2012089000A (en) * | 2010-10-21 | 2012-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Teleconference method, teleconference system and teleconference program |
JP2014060548A (en) * | 2012-09-14 | 2014-04-03 | Ricoh Co Ltd | Transmission system, transmission terminal, transmission management system and program |
WO2022054899A1 (en) * | 2020-09-10 | 2022-03-17 | ソニーグループ株式会社 | Information processing device, information processing terminal, information processing method, and program |
JP2022047223A (en) * | 2020-09-11 | 2022-03-24 | 株式会社ソシオネクスト | Voice communication device |
Also Published As
Publication number | Publication date |
---|---|
JPWO2024100920A1 (en) | 2024-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9514723B2 (en) | Distributed, self-scaling, network-based architecture for sound reinforcement, mixing, and monitoring | |
WO2009104564A1 (en) | Conversation server in virtual space, method for conversation and computer program | |
US20240259751A1 (en) | Audio Signal Processing Method, Apparatus, and Audio Signal Processing System | |
JP2022083443A (en) | Computer systems and methods for achieving user-customized immersiveness in relation to audio | |
JP2008216401A (en) | Karaoke system | |
JP2022053099A (en) | Server device | |
KR20210026656A (en) | Musical ensemble performance platform system based on user link | |
US20230370801A1 (en) | Information processing device, information processing terminal, information processing method, and program | |
JP7143874B2 (en) | Information processing device, information processing method and program | |
JP2022134182A (en) | Video output method, video output device and video output system | |
WO2024100920A1 (en) | Information processing device, information processing method, and program for information processing | |
KR101650071B1 (en) | Online Music Production System And Method | |
WO2023276013A1 (en) | Distribution system, sound output method, and program | |
JP7630883B2 (en) | Karaoke device and karaoke system | |
JP6220576B2 (en) | A communication karaoke system characterized by a communication duet by multiple people | |
WO2012043451A1 (en) | Communication apparatus, communication method, and communication program | |
JP2002182664A (en) | Karaoke (orchestration without lyrics) system | |
JP2013217953A (en) | Acoustic processor and communication acoustic processing system | |
JP4131678B2 (en) | Performance data communication system | |
JP4422656B2 (en) | Remote multi-point concert system using network | |
JP2003339034A (en) | Network conference system, network conference method, and network conference program | |
JP6834398B2 (en) | Sound processing equipment, sound processing methods, and programs | |
EP1784049A1 (en) | A method and system for sound reproduction, and a program product | |
JP2008097096A (en) | Server device and communication session establishment method | |
JP6295675B2 (en) | Music session system, method and terminal device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23888277 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2024557018 Country of ref document: JP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |