[go: up one dir, main page]

JP2024079861A - Data distribution program and data distribution method - Google Patents

Data distribution program and data distribution method Download PDF

Info

Publication number
JP2024079861A
JP2024079861A JP2021057532A JP2021057532A JP2024079861A JP 2024079861 A JP2024079861 A JP 2024079861A JP 2021057532 A JP2021057532 A JP 2021057532A JP 2021057532 A JP2021057532 A JP 2021057532A JP 2024079861 A JP2024079861 A JP 2024079861A
Authority
JP
Japan
Prior art keywords
data
group
sound
adjustment unit
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021057532A
Other languages
Japanese (ja)
Inventor
誠司 渡辺
Seiji Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CMIC Holdings Co Ltd
Original Assignee
CMIC Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CMIC Holdings Co Ltd filed Critical CMIC Holdings Co Ltd
Priority to JP2021057532A priority Critical patent/JP2024079861A/en
Priority to PCT/JP2022/016288 priority patent/WO2022210971A1/en
Publication of JP2024079861A publication Critical patent/JP2024079861A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

To harmonize data transmitted from a plurality of remote areas and distribute the data to a specific space.SOLUTION: A data distribution program causes a computer to serve as a data classification unit, a data adjustment unit, and a data distribution unit. The data classification unit collects transmitted data concerning a sound or an image transmitted from a terminal device of each member authorized to reproduce the sound or the image in a specific space by authentication of an authority code to authorize each member belonging to a predetermined group, and classifies the collected transmitted data into each group. The data adjustment unit adjusts the transmitted data classified into each group, by each group having each member belonging thereto. The data distribution unit distributes the transmitted data adjusted by each group, to the specific space.SELECTED DRAWING: Figure 2

Description

本開示は、データ配信プログラム及びデータ配信方法に関する。 This disclosure relates to a data distribution program and a data distribution method.

特許文献1には、ライブ演奏の映像などを会場外の複数の視聴者に提供しながら、視聴者の動作を検出し、検出した動作に対応する映像をライブ会場のディスプレイに表示させることで、視聴者がライブに参加している感覚を得ることができる映像表示システムが開示されている。 Patent Document 1 discloses a video display system that provides video of a live performance to multiple viewers outside the venue, detects the viewers' movements, and displays video corresponding to the detected movements on a display at the venue, giving the viewers the feeling that they are participating in the live performance.

この映像表示システムは、例えば、特定周波数の音が連続して検出された場合、視聴者が拍手していると判断して、拍手の動作に対応した映像をライブ会場のディスプレイに表示させる。また、音声認識手段によって特定の単語を認識した場合、視聴者が会場に向かって掛け声を発していると判断して、掛け声を発する動作に対応した映像をライブ会場のディスプレイに表示させる。 For example, if the video display system detects a specific frequency sound continuously, it determines that the viewer is clapping and displays an image corresponding to the clapping action on the display at the live venue. Also, if the voice recognition means recognizes a specific word, it determines that the viewer is shouting at the audience and displays an image corresponding to the shouting action on the display at the live venue.

特開2013-021466号公報JP 2013-021466 A

しかしながら、上述した特許文献1の従来技術では、データを伝達する通信ネットワークの伝送方式や遅延時間、使用している装置の処理能力の違いによって、会場で再現される複数の映像などが調和せず、違和感が生じるおそれがある。そのため、複数の遠隔地や異なる装置から送信されるデータをいかに調和させて特定の空間に配信するかが問題になっている。 However, with the conventional technology described in Patent Document 1 above, there is a risk that the multiple images reproduced at the venue will not harmonize due to differences in the transmission method and delay time of the communication network that transmits the data, and the processing power of the devices being used, creating a sense of incongruity. This has led to the problem of how to harmonize data sent from multiple remote locations and different devices and deliver it to a specific space.

本開示の非限定的な実施例は、複数の遠隔地や異なる装置から送信されるデータを調和させて特定の空間に配信するデータ配信プログラム及びデータ配信方法の提供に資する。 Non-limiting examples of the present disclosure contribute to providing a data distribution program and method for harmonizing data transmitted from multiple remote locations or different devices and distributing the data to a specific space.

本開示の一実施例に係るデータ配信プログラムは、コンピュータを、特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するデータ分類部、前記グループ毎に分類された送信データを各メンバーが属するグループ毎に調整するデータ調整部、グループ毎に調整された送信データを前記特定の空間に配信するデータ配信部、として機能させる。 A data distribution program according to an embodiment of the present disclosure causes a computer to function as a data classification unit that collects transmission data relating to sound or video transmitted from the terminal device of each member who has been granted the authority to reproduce sound or video in a specific space by authenticating an authority code that grants the authority to each member belonging to a specific group, classifies the collected transmission data by group, a data adjustment unit that adjusts the transmission data classified by group for each group to which each member belongs, and a data distribution unit that distributes the transmission data adjusted for each group to the specific space.

また、本開示の一実施例に係るデータ配信方法は、コンピュータが、特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するステップ、前記グループ毎に分類された送信データをグループ毎に調整するステップ、前記グループ毎に調整された送信データを前記特定の空間に配信するステップ、を実行する。 In addition, a data distribution method according to one embodiment of the present disclosure includes a computer that performs the steps of collecting transmission data related to sound or video transmitted from the terminal device of each authorized member of a specified group by authenticating an authority code that grants the authority to reproduce sound or video in a specific space to each member of the specified group, classifying the collected transmission data by group, adjusting the transmission data classified by group for each group, and distributing the transmission data adjusted for each group to the specific space.

本開示の一実施例によれば、複数の遠隔地や異なる装置から送信されるデータを調和させて特定の空間に配信できる。 According to one embodiment of the present disclosure, data sent from multiple remote locations or different devices can be harmonized and delivered to a specific space.

本開示の実施の形態に係るライブ配信システムの構成例を示す図FIG. 1 is a diagram illustrating a configuration example of a live distribution system according to an embodiment of the present disclosure. メインサーバの構成例を示す図A diagram showing an example of the main server configuration エッジサーバの構成例を示す図A diagram showing an example of an edge server configuration ライブ配信を行う場合の処理の一例を説明するシーケンスチャート1 is a sequence chart illustrating an example of a process for live distribution. 音と映像のタイミングの調整方法について説明する図A diagram explaining how to adjust the timing of audio and video ハウリングとエコーの抑制方法について説明するための図Diagram to explain how to suppress feedback and echo ハウリングとエコーの抑制方法について説明するための図Diagram to explain how to suppress feedback and echo ハウリングとエコーの抑制方法について説明するための図Diagram to explain how to suppress feedback and echo

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。 A preferred embodiment of the present disclosure will be described in detail below with reference to the accompanying drawings. Note that in this specification and drawings, components having substantially the same functions are designated by the same reference numerals to avoid redundant description.

図1は、本開示の実施の形態に係るライブ配信システム100の構成例を示す図である。ライブ配信システム100は、メインサーバ1、複数のエッジサーバ2、複数のBS(Base Station、基地局)10、複数の端末装置20、カメラ51、スピーカ52、及びマイク53を備える。 FIG. 1 is a diagram showing an example configuration of a live streaming system 100 according to an embodiment of the present disclosure. The live streaming system 100 includes a main server 1, multiple edge servers 2, multiple base stations (BSs) 10, multiple terminal devices 20, a camera 51, a speaker 52, and a microphone 53.

メインサーバ1は、音声、動画などの情報を受信しながらリアルタイムに再現するストリーミングサーバである。メインサーバ1は、例えばイベント会場のEV(EVent)01グループに集まる人々の音声やイベント風景などを、MX(MiXing)01グループ、GP(GrouP)01グループ及びBST(BroadcaST)01グループに属するメンバーへ配信する。メインサーバ1、及び、コアネットワーク6は、例えば配信業者により管理される。配信業者は、例えば、ライブ配信システム100のサービスを提供する業者である。 The main server 1 is a streaming server that receives information such as audio and video and reproduces it in real time. For example, the main server 1 distributes the audio of people gathering in the EV (EVent) 01 group at an event venue and event scenes to members belonging to the MX (MiXing) 01 group, the GP (GrouP) 01 group, and the BST (BroadcaST) 01 group. The main server 1 and the core network 6 are managed, for example, by a distribution company. The distribution company is, for example, a company that provides the services of the live distribution system 100.

メインサーバ1は、各グループから配信される音、映像などを各グループや、インターネット7を介してイベントを視聴する視聴者などに配信する。 The main server 1 distributes the audio, video, etc., delivered from each group to each group and to viewers watching the event via the Internet 7.

なお、図1には、1つのメインサーバ1、及び、1つのEV01グループのみ示してあるが、複数のメインサーバ1、及び、複数のイベント会場のグループ(EV01グループ、EV02グループ、・・・)があってもよい。また、メインサーバ1は、図1に示すように、配信業者が管理するコアネットワーク6内のクラウドに設けられてもよいし、コアネットワーク6外のパブリッククラウド8に設けられてもよい。 Note that while FIG. 1 shows only one main server 1 and one EV01 group, there may be multiple main servers 1 and multiple event venue groups (EV01 group, EV02 group, ...). Also, the main server 1 may be provided in a cloud within a core network 6 managed by a distributor, as shown in FIG. 1, or in a public cloud 8 outside the core network 6.

MX01グループは、例えば、楽団、合唱団などであり、メインサーバ1は、MX01グループに属するメンバーの演奏、演奏中の映像などを、EV01グループを含む各グループ、視聴者などに配信する。 The MX01 group is, for example, an orchestra or a choir, and the main server 1 distributes the performances of members belonging to the MX01 group and images of the performances to each group including the EV01 group, viewers, etc.

GP01グループは、例えば、応援団、ファンなどの参加メンバーであり、メインサーバ1は、GP01グループに属するメンバーの声援、応援歌、応援中の映像などを、EV01グループを含む各グループ、視聴者などに配信する。 The GP01 group includes participating members such as cheering squads and fans, and the main server 1 distributes the cheers, cheering songs, and footage of cheering from members of the GP01 group to each group, including the EV01 group, viewers, etc.

BST01グループは、例えば、テレビ局やラジオ放送局に属する解説者、フリーの解説者などであり、メインサーバ1は、BST01グループに属するメンバーの試合の実況解説、実況解説中の映像などを、EV01グループを含む各グループ、視聴者などに配信する。 The BST01 group may be, for example, commentators belonging to a television station or radio station, or freelance commentators, and the main server 1 distributes live commentary of matches by members belonging to the BST01 group, video footage of the live commentary, etc., to each group including the EV01 group, viewers, etc.

端末装置20は、各グループに属するメンバーが所有するスマートフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、固定(据置型)無線アクセス機器などの5G又はその他の高速通信に接続可能な端末装置である。 The terminal devices 20 are terminal devices that are owned by members of each group and can connect to 5G or other high-speed communications, such as smartphones, PCs (Personal Computers), PDAs (Personal Digital Assistants), and fixed (stationary) wireless access devices.

端末装置20のプロセッサがメモリに記録されたライブ配信アプリを実行することで、メインサーバ1を経由したEV01グループのイベント会場とのライブ配信が実現される。ライブ配信アプリは、ライブ配信システム100と接続してイベント会場に音声や映像データを配信し、イベント会場などから音声や映像データを受信する端末装置20にインストールされるアプリである。 When the processor of the terminal device 20 executes the live streaming app stored in the memory, live streaming to the event venue of the EV01 group via the main server 1 is realized. The live streaming app is an app installed on the terminal device 20 that connects to the live streaming system 100 to distribute audio and video data to the event venue and receive audio and video data from the event venue, etc.

また、EV01グループに紐づいた端末装置20(EV01-01、EV01-02などのEV01グループのメンバーの端末装置20)には、イベント会場に設置され、カメラ51、スピーカ52、及びマイク53が接続される固定(据置型)無線アクセス機器などの端末装置が含まれる。この端末装置20は、EV01グループにおいてスピーカ52に音声を出力させ、また、カメラ51及びマイク53で取得した映像及び音のデータをコアネットワーク6に送信する。 The terminal devices 20 linked to the EV01 group (terminal devices 20 of members of the EV01 group such as EV01-01 and EV01-02) include terminal devices such as fixed (stationary) wireless access devices installed at the event venue and connected to a camera 51, speaker 52, and microphone 53. This terminal device 20 outputs sound to the speaker 52 in the EV01 group, and also transmits video and audio data acquired by the camera 51 and microphone 53 to the core network 6.

さらに、端末装置20には、イベントを視聴するため、及び、配信者としての権限の取得に必要な申し込みを行うために用いられるスマートフォンやPCなどの端末装置20(図1において、インターネット7に接続されている端末装置20)が含まれる。これらの端末装置20は、他の配信業者やインターネットサービスプロバイダーのサービスに接続された装置であってもよい。 Furthermore, the terminal devices 20 include terminal devices 20 such as smartphones and PCs that are used to watch events and to make the application required to obtain distributor authority (terminal devices 20 connected to the Internet 7 in FIG. 1). These terminal devices 20 may also be devices connected to the services of other distributors or Internet service providers.

EV01グループは、イベントを開催する1つ又は複数の施設や場所に対応するグループであり、例えば、屋内又は屋外のコンサート会場、競技場、体育館、スタジオ、区民館、病院、養老施設などに対応するグループである。 The EV01 group corresponds to one or more facilities or locations where an event is held, such as indoor or outdoor concert venues, stadiums, gymnasiums, studios, community centers, hospitals, and nursing homes.

エッジサーバ2は、端末装置20からメインサーバ1に対して送信される音や映像などのデータを端末装置20に近い場所で編集・処理するMEC(Mobile Edge Computing)サーバである。図1には、異なる地域に分散して設置されている複数のエッジサーバ2が示されている。エッジサーバ2で処理されたデータはメインサーバ1へ送信される。 The edge server 2 is a MEC (Mobile Edge Computing) server that edits and processes data such as audio and video transmitted from the terminal device 20 to the main server 1 at a location close to the terminal device 20. Figure 1 shows multiple edge servers 2 installed in different regions. The data processed by the edge server 2 is transmitted to the main server 1.

それぞれのエッジサーバ2から送信されたデータは、メインサーバ1で複合(エッジサーバ2で編集・処理された2つ以上のデータを、タイミングを合わせて束ねること)される。このように分散設置されたエッジサーバ2で編集などがなされた音や映像のデータをメインサーバ1に送信することによって、トラフィックの増加を軽減でき、また、メインサーバ1の処理も軽減できる。 The data sent from each edge server 2 is composited (two or more pieces of data edited and processed by the edge servers 2 are timed and bundled together) by the main server 1. By sending audio and video data that has been edited by the distributed edge servers 2 in this way to the main server 1, it is possible to reduce increases in traffic and also the processing load of the main server 1.

例えば、エッジサーバ2は、MX01グループの端末装置20からメインサーバ1に対して送信される演奏曲、演奏中の音声などのデータを、その端末装置20に近い場所で編集・処理する。 For example, the edge server 2 edits and processes data such as the music being played and the audio being played, sent from the terminal device 20 of the MX01 group to the main server 1 at a location close to the terminal device 20.

また、エッジサーバ2は、GP01グループの端末装置20からメインサーバ1に対して送信される声援、応援歌、応援中の音声などのデータを、その端末装置20に近い場所で編集・処理する。 The edge server 2 also edits and processes data such as cheers, cheering songs, and voices during cheering sent from the terminal devices 20 of the GP01 group to the main server 1 at a location close to the terminal devices 20.

また、エッジサーバ2は、BST01グループの端末装置20からメインサーバ1に対して送信される実況解説、実況中の音声などのデータを、その端末装置20に近い場所で編集・処理する。 The edge server 2 also edits and processes data such as live commentary and audio during the live broadcast, which are sent from the terminal devices 20 in the BST01 group to the main server 1, at a location close to the terminal devices 20.

さらに、エッジサーバ2は、EV01グループの端末装置20からメインサーバ1に対して送信される音声、及び、イベント風景の映像などのデータを、その端末装置20に近い場所で編集・処理する。 Furthermore, the edge server 2 edits and processes data such as audio and video of the event scenery sent from the terminal devices 20 of the EV01 group to the main server 1 at a location close to the terminal devices 20.

なお、以下の説明では、分散設置されたエッジサーバ2で編集などがなされた音や映像のデータをメインサーバ1に送信し、その後の処理をメインサーバ1が実行することとするが、編集などのすべての処理をメインサーバ1が実行してもよい。 In the following explanation, audio and video data that has been edited in the distributed edge servers 2 is sent to the main server 1, and the main server 1 then performs the subsequent processing; however, all processing, including editing, may be performed by the main server 1.

また、ある実施例では、一部の地域に設置されたエッジサーバ2のみが編集などの処理を行って、編集などがなされた音や映像のデータをメインサーバ1に送信し、その後の処理をメインサーバ1が実行するようにし、他の地域に設置されたエッジサーバ2は音や映像のデータを直接メインサーバ1に送信し、編集などのすべての処理をメインサーバ1が実行することとしてもよい。 In one embodiment, only the edge servers 2 installed in some regions perform processing such as editing and transmit the edited audio and video data to the main server 1, which then performs subsequent processing, while the edge servers 2 installed in other regions transmit the audio and video data directly to the main server 1, and all processing such as editing is performed by the main server 1.

各グループに属するメンバーは、例えば、ライブ配信システム100を運営する企業、又はライブ配信システム100を使用してイベントなどを配信する企業が運営するサービス(チケット販売サイトやチケット販売店のスクラッチ式カード)を通じて、音声や映像などをEV01グループで再現する権限コードと各コードに紐づいた共有キーを取得する。 Members of each group obtain an authorization code for reproducing audio, video, etc. in the EV01 group and a shared key linked to each code, for example through a service (a ticket sales site or a scratch card at a ticket sales store) operated by the company that operates the live distribution system 100 or a company that uses the live distribution system 100 to distribute events, etc.

そして、各グループに属するメンバーは、端末装置20のライブ配信アプリから権限コードと各コードに紐づいた共有キーを入力することで、音声や映像などを配信することができる。権限コードと共有キーの詳細については後述する。 Members of each group can then broadcast audio, video, and the like by inputting the authorization code and the shared key associated with each code from the live broadcasting app on the terminal device 20. Details of the authorization code and the shared key will be described later.

カメラ51は、EV01グループのイベント会場の風景を撮影する撮像装置である。スピーカ52は、各グループから配信される音をEV01グループのイベント会場に再現する音の再現装置である。マイク53は、EV01グループのイベント会場の音を収集する集音装置である。 Camera 51 is an imaging device that captures the scenery at the EV01 group's event venue. Speaker 52 is a sound reproduction device that reproduces the sounds distributed from each group at the EV01 group's event venue. Microphone 53 is a sound collection device that collects sounds at the EV01 group's event venue.

カメラ51、スピーカ52、及び、マイク53は、EV01グループの端末装置20に接続されており、カメラ51で撮影された映像のデータ、及び、マイク53で収集された音のデータが、端末装置20によりコアネットワーク6に送信され、また、スピーカ52で再現する音のデータがコアネットワーク6から受信される。 The camera 51, speaker 52, and microphone 53 are connected to the terminal device 20 of the EV01 group, and the image data captured by the camera 51 and the sound data collected by the microphone 53 are transmitted to the core network 6 by the terminal device 20, and the sound data reproduced by the speaker 52 is received from the core network 6.

図1のように、EV01グループに紐づいた端末装置20(EV01-01、EV01-02など)や、その他の複数の関連する会場にある端末装置20(図示を省略)からイベントの音や映像が配信される場合は、ユーザが端末装置20のライブ配信アプリを操作することにより、視聴したい位置にある端末装置20を選択することもできる。 As shown in FIG. 1, when sound and video of an event are distributed from terminal devices 20 (EV01-01, EV01-02, etc.) linked to the EV01 group, or from terminal devices 20 (not shown) at multiple other related venues, the user can operate the live distribution app on the terminal device 20 to select the terminal device 20 located at the desired viewing position.

コアネットワーク6は、例えば5Gコアネットワークである。5Gコアネットワークは、低遅延かつ大容量の通信が可能である。5Gコアネットワークにより、EV01グループのイベント会場から離れた場所でイベントをリアルタイムで観戦したり、EV01グループのイベント会場から離れた場所でイベントにリモート参加したりすることができる。 The core network 6 is, for example, a 5G core network. The 5G core network is capable of low-latency, high-capacity communication. The 5G core network allows EV01 Group to watch an event in real time from a location away from the event venue, or to remotely participate in an event from a location away from the event venue.

5Gコアネットワークでは、何百万から何億というデバイスの情報が収集されることが見込まれるため、ネットワークスライシングと呼ばれる技術が注目されている。ネットワークスライシングによって5Gコアネットワークが仮想的に複数のスライスに分割されるため、例えば、分割したあるスライスを超低遅延通信に利用し、他のスライスを大容量通信に利用することができる。 The 5G core network is expected to collect information from millions to hundreds of millions of devices, so a technology called network slicing is attracting attention. Network slicing virtually divides the 5G core network into multiple slices, making it possible, for example, to use one slice for ultra-low latency communications and another slice for high-volume communications.

なお、5G通信コアネットワークを利用しても、端末装置20から遠く離れた場所のアプリケーションサーバなどにアクセスすると、レスポンスがmsec単位で遅れてしまう。そこで、5Gコアネットワークでは、端末装置20の近くにエッジサーバ2を設置し、各エッジサーバ2のプロセッサがメモリに記録された各種プログラムを実行することで、レスポンスの遅れの低減などを実現することができる。 Even when using a 5G communication core network, if an application server or the like located far away from the terminal device 20 is accessed, the response will be delayed in milliseconds. Therefore, in the 5G core network, edge servers 2 are installed near the terminal device 20, and the processor of each edge server 2 executes various programs recorded in memory, thereby reducing response delays.

各種プログラムとは、例えば、指揮者やPA(Public Address)エンジニア(MX01グループに属するメンバーのサブ配信者)向けのミキシングプログラム、GPグループに属するメンバーの迷惑音声防止プログラム、ハウリング・エコー抑制プログラムなどである。 The various programs include, for example, mixing programs for conductors and PA (Public Address) engineers (sub-broadcasters of members belonging to the MX01 group), programs to prevent nuisance voices for members belonging to the GP group, and feedback/echo suppression programs.

図2は、メインサーバ1の構成例を示す図である。メインサーバ1のプロセッサがメモリに記録されたプログラムを実行することにより、メインサーバ1の各種機能が実現される。 Figure 2 shows an example of the configuration of the main server 1. The processor of the main server 1 executes programs stored in the memory to realize various functions of the main server 1.

メインサーバ1は、コード管理・認証部11、データ収集・分類部12、データ調整部13、データ配信部14、及びネットワーク送受信部15を備える。 The main server 1 includes a code management and authentication unit 11, a data collection and classification unit 12, a data adjustment unit 13, a data distribution unit 14, and a network transmission and reception unit 15.

コード管理・認証部11は、例えば、図1のメインサーバ1が配置されているクラウド環境の中に存在するコード発行システム(図示を省略)に接続されている。コード発行システムは、イベント毎に各種権限コード及び共有キーを発行し、そのデータはメインサーバ1のコード管理・認証部11に記憶される。なお、コード発行システムは、メインサーバ1が配置されているクラウド環境の外にあってもよい。 The code management and authentication unit 11 is connected to a code issuing system (not shown) that exists in the cloud environment in which the main server 1 in FIG. 1 is located. The code issuing system issues various authorization codes and shared keys for each event, and the data is stored in the code management and authentication unit 11 of the main server 1. The code issuing system may be located outside the cloud environment in which the main server 1 is located.

コード管理・認証部11は、音や映像などを各イベント会場で再現するため、各イベントに割り当てられるイベントコード(EV01、EV02など)、サブ配信コード(MX01、MX02など)、サブ配信コードに紐づいたサブコード(MX01―01、MX02―01など)、参加コード(GP01―01、GP02―01など)、解説コード(BST01、BST02など)を管理及び認証する。コード管理・認証部11では、例えば、どのコードがどのイベントにアクセス可能なコードであるかなどが管理される。 The code management and authentication unit 11 manages and authenticates the event codes (EV01, EV02, etc.) assigned to each event, the sub-distribution codes (MX01, MX02, etc.), the sub-codes linked to the sub-distribution codes (MX01-01, MX02-01, etc.), the participation codes (GP01-01, GP02-01, etc.), and the commentary codes (BST01, BST02, etc.) in order to reproduce sounds, images, etc. at each event venue. The code management and authentication unit 11 manages, for example, which codes can be used to access which events.

MX01などのサブ配信コードは、そのサブ配信コードに紐づいたMX01サブコード(MX01―01、MX01―02など)を有するユーザの端末装置20から送信されるデータを調整して配信する権限を、MX01グループのサブ配信者に与えるコードである。サブ配信者は、ライブ配信システム100を使い、楽団や合唱団の演奏や演奏風景の映像をライブ配信する指揮者、ミキシング作業を行うPAエンジニアなどである。 A sub-distribution code such as MX01 is a code that gives a sub-distributor of the MX01 group the authority to adjust and distribute data sent from a terminal device 20 of a user who has an MX01 sub-code (MX01-01, MX01-02, etc.) linked to that sub-distribution code. A sub-distributor is a conductor who uses the live distribution system 100 to live-distribute a performance by an orchestra or a choir or footage of the performance, or a PA engineer who performs mixing work.

例えば、MX01のサブ配信者になるには、楽団などを率いる指揮者が自身のライブ配信アプリのアカウントを通じて「イベント主催者」に「サブ配信者」の権限を申請する。そして、イベント主催者にサブ配信者として認定されると、自身のアカウントに紐づいたMX01などのサブ配信コード(親コード)が発行され、サブ配信者はサブ配信コードを取得することができる。このとき、コード管理・認証部11においては、MX01などのサブ配信コードと指揮者のアカウントの紐づけがなされる。 For example, to become a sub-broadcaster for MX01, a conductor of an orchestra or the like applies for "sub-broadcaster" authority to the "event organizer" through his or her own live streaming app account. Once the event organizer recognizes the sub-broadcaster as a sub-broadcaster, a sub-distribution code (parent code) such as MX01 linked to the conductor's account is issued, and the sub-broadcaster can obtain the sub-distribution code. At this time, the code management and authentication unit 11 links the sub-distribution code such as MX01 to the conductor's account.

次に、サブ配信者は、自身のライブ配信アプリでMX01に紐づいたMX01―01、MX01―02などのサブコード(子コード)と各サブコードに紐づいた共有キーを発行して、楽団や合唱団のメンバーに配布する。サブコードは、MX01グループ(MX01サブ配信コードに対応するグループ)に属する各メンバーに、EV01グループのイベント会場への演奏の配信を許可するためのコードである。 Next, the sub-distributor issues sub-codes (child codes) such as MX01-01, MX01-02, etc. linked to MX01 using their own live distribution app, along with shared keys linked to each sub-code, and distributes these to members of the orchestra or choir. The sub-codes are codes that allow each member of the MX01 group (the group corresponding to the MX01 sub-distribution code) to distribute the EV01 group's performance to the event venue.

MX01―01などのサブコードと共有キーの発行及び記憶処理は、サブ配信者のライブ配信アプリ経由で、メインサーバ1のコード管理・認証部11にて実行される。 The issuance and storage process of sub-codes such as MX01-01 and shared keys is carried out by the code management and authentication unit 11 of the main server 1 via the sub-distributor's live distribution app.

このようにして、MX01―01などのサブコードを有する各メンバーの端末装置20のライブ配信アプリから送信される音声や映像を、MX01のサブ配信コードを有するサブ配信者が自身の端末装置20のライブ配信アプリを操作して調整することができる。 In this way, a sub-broadcaster with a sub-broadcast code of MX01 can adjust the audio and video transmitted from the live streaming app on the terminal device 20 of each member with a sub-code such as MX01-01 by operating the live streaming app on his or her own terminal device 20.

GP01―01などの参加コードは、オンラインチケット販売やチケット販売店から取得される。GP01―01などのGP01参加コードは、例えば、声援、応援歌、応援中の音声などのデータを配信する権限を、GP01グループに属するメンバーなどに与えるコードである。 A participation code such as GP01-01 is obtained from online ticket sales or a ticket sales store. A GP01 participation code such as GP01-01 is a code that gives members of the GP01 group the authority to distribute data such as cheers, cheering songs, and audio during cheering.

応援団やファンなどは、自分が応援や支援するチームやグループに紐づいたGP参加コードを購入することで、EV01グループのイベント会場やEV01グループのイベントに参加する各グループや、インターネット7を介してイベントを視聴する視聴者に自分の声援を配信することが可能となる。 By purchasing a GP participation code linked to the team or group they support or encourage, supporters and fans can broadcast their cheers at EV01 Group event venues, to other groups participating in EV01 Group events, and to viewers watching the events via the Internet 7.

BST01などの解説コードは、例えば、EV01グループの試合の実況解説、解説中の音声などのデータを配信する権限を、BST01グループに属するメンバーなどに与えるコードである。 A commentary code such as BST01 is a code that gives members of the BST01 group the authority to distribute data such as live commentary of the EV01 group's matches and audio during commentary.

データ収集・分類部12は、EV01グループの端末装置20から送信された音声、映像などのデータを収集してデータ調整部13に送信する。 The data collection and classification unit 12 collects data such as audio and video transmitted from the terminal devices 20 of the EV01 group and transmits it to the data adjustment unit 13.

また、データ収集・分類部12は、EV01グループのイベントに参加する(紐づいた)全てのグループ(例えば、図1に示したEV01グループ、MX01グループ、GP01グループ、BST01グループなど)の端末装置20からBS10を介して送信される音、映像などのデータを収集して、収集したデータを各グループに紐づいたコードや複合コードに基づき分類し、データ調整部13に送信する。ここで、複合コードとは、複数のグループのデータを複合したデータに付与される識別コードである。 The data collection and classification unit 12 also collects data such as audio and video transmitted via BS 10 from the terminal devices 20 of all groups participating in (linked to) the event of the EV01 group (for example, the EV01 group, MX01 group, GP01 group, and BST01 group shown in FIG. 1), classifies the collected data based on the code and composite code linked to each group, and transmits it to the data adjustment unit 13. Here, a composite code is an identification code given to data that combines data from multiple groups.

データ調整部13は、データ収集・分類部12で分類されたデータに対して各種の調整を行う第1調整部13a、第2調整部13b、第3調整部13c、第4調整部13d、第5調整部13e、及び第6調整部13fを備える。 The data adjustment unit 13 includes a first adjustment unit 13a, a second adjustment unit 13b, a third adjustment unit 13c, a fourth adjustment unit 13d, a fifth adjustment unit 13e, and a sixth adjustment unit 13f that perform various adjustments to the data classified by the data collection and classification unit 12.

第1調整部13aは、MX01グループの端末装置20から送信される音、及び、映像の調整を行い、調整後の音や映像のデータを第6調整部13f送信する。例えば、第1調整部13aは、MX01グループの端末装置20から送信される音や映像のデータに対して調整を行う権限をサブ配信者に開放する。そして、サブ配信者がライブ配信アプリを用いて行った調整指示を受け付け、音量調整、タイミングの調整、映像の画質調整などを含むミキシング処理を行う。 The first adjustment unit 13a adjusts the sound and video transmitted from the terminal device 20 of the MX01 group, and transmits the adjusted sound and video data to the sixth adjustment unit 13f. For example, the first adjustment unit 13a grants the sub-distributor the authority to make adjustments to the sound and video data transmitted from the terminal device 20 of the MX01 group. Then, the first adjustment unit 13a accepts adjustment instructions made by the sub-distributor using a live distribution app, and performs mixing processing including volume adjustment, timing adjustment, and video quality adjustment.

第2調整部13bは、GP01グループの端末装置20から送信される音、及び、映像の調整を行い、調整後の音データや映像データを第6調整部13fに送信する。例えば、第2調整部13bは、GP01グループの端末装置20から送信される音の音量調整、音質調整、迷惑音声(野次、罵声など)の監視、ハウリングとエコーの抑制、タイミングの調整、映像の画質調整などをAI(Artificial Intelligence)などを用いて行い、これらの処理後の音データや映像データを第6調整部13fに送信する。 The second adjustment unit 13b adjusts the sound and video transmitted from the terminal device 20 of the GP01 group, and transmits the adjusted sound data and video data to the sixth adjustment unit 13f. For example, the second adjustment unit 13b adjusts the volume and sound quality of the sound transmitted from the terminal device 20 of the GP01 group, monitors for nuisance voices (jeers, insults, etc.), suppresses feedback and echoes, adjusts timing, adjusts the image quality of the video, etc., using AI (Artificial Intelligence), and transmits the processed sound data and video data to the sixth adjustment unit 13f.

第3調整部13cは、BST01グループの端末装置20から送信される音、及び、映像の調整を行い、調整後の音データや映像データを第6調整部13fに送信する。例えば、第3調整部13cは、BST01グループの端末装置20から送信される音の音量調整、映像の画質調整などを、AIなどを用いて行い、調整後の音データや映像データを第6調整部13fに送信する。 The third adjustment unit 13c adjusts the sound and video transmitted from the terminal devices 20 in the BST01 group, and transmits the adjusted sound data and video data to the sixth adjustment unit 13f. For example, the third adjustment unit 13c adjusts the volume of the sound and adjusts the image quality of the video transmitted from the terminal devices 20 in the BST01 group using AI or the like, and transmits the adjusted sound data and video data to the sixth adjustment unit 13f.

第4調整部13dは、EV01グループの端末装置20から送信されたデータに対して、音量調整、タイミングの調整、映像の画質調整などを、AIなどを用いて行う。そして、これらの処理がなされたデータを、第6調整部13fに送信する。 The fourth adjustment unit 13d uses AI and other techniques to adjust the volume, timing, and image quality of the data transmitted from the terminal devices 20 in the EV01 group. The data that has undergone these processes is then transmitted to the sixth adjustment unit 13f.

第5調整部13eは、エッジサーバ2から送信された、複数のグループのデータが複合されたデータに対して、音量調整、タイミングの調整、映像の画質調整などを、AIなどを用いて行う。そして、これらの処理がなされたデータを、第6調整部13fに送信する。 The fifth adjustment unit 13e uses AI and other technologies to adjust the volume, timing, image quality, and other aspects of the data that is a combination of data from multiple groups and is sent from the edge server 2. The fifth adjustment unit 13e then sends the data that has been processed in this way to the sixth adjustment unit 13f.

第6調整部13fは、第1調整部13a~第5調整部13eで調整されたデータの複合(第1調整部13a~第5調整部13eで調整された2つ以上のデータを、タイミングを合わせて束ねること)、ハウリングとエコーの抑制などの調整を、AIなどを用いて行い、調整後のデータをデータ配信部14及びネットワーク送受信部15に送信する。 The sixth adjustment unit 13f uses AI and other techniques to combine the data adjusted by the first adjustment unit 13a to the fifth adjustment unit 13e (bundling two or more pieces of data adjusted by the first adjustment unit 13a to the fifth adjustment unit 13e in a timely manner) and to make adjustments such as suppressing feedback and echo, and transmits the adjusted data to the data distribution unit 14 and the network transmission/reception unit 15.

例えば、第6調整部13fは、第1調整部13a~第5調整部13eから取得したMX01、GP01、BST01、EV01の各グループからのデータを複合してMBD(Mainserver BunDle)01というデータを生成し、そのMBD01をデータ配信部14及びネットワーク送受信部15に送信する。 For example, the sixth adjustment unit 13f combines the data from each group, MX01, GP01, BST01, and EV01, obtained from the first adjustment unit 13a to the fifth adjustment unit 13e, to generate data called MBD (Mainserver Bundle) 01, and transmits this MBD01 to the data distribution unit 14 and the network transmission/reception unit 15.

また、第6調整部13fは、第1調整部13a~第5調整部13eから取得したデータを複合せずに、データ配信部14及びネットワーク送受信部15に送信することも可能である。 The sixth adjustment unit 13f can also transmit the data acquired from the first adjustment unit 13a to the fifth adjustment unit 13e to the data distribution unit 14 and the network transmission/reception unit 15 without combining the data.

ここで、MBD01というデータには、MX01グループからのデータを複合したMBD-MX01というデータ、GP01グループからのデータを複合したMBD-GP01というデータ、BST01グループからのデータを複合したMBD-BST01というデータ、EV01グループからのデータを複合したMBD-EV01というデータが含まれ得る。 Here, the data MBD01 can include data MBD-MX01 which is a combination of data from the MX01 group, data MBD-GP01 which is a combination of data from the GP01 group, data MBD-BST01 which is a combination of data from the BST01 group, and data MBD-EV01 which is a combination of data from the EV01 group.

また、第6調整部13fは、第1調整部13a~第3調整部13cから取得したMX01、GP01、BST01の各グループからのデータを複合してMBD02というデータを生成し、そのMBD02をデータ配信部14及びネットワーク送受信部15に送信する。 The sixth adjustment unit 13f also combines the data from each of the groups MX01, GP01, and BST01 obtained from the first adjustment unit 13a to the third adjustment unit 13c to generate data called MBD02, and transmits this MBD02 to the data distribution unit 14 and the network transmission/reception unit 15.

更に、第6調整部13fは、第1調整部13aから取得したMX01グループからのデータだけを複合してMBD-MX01のデータを生成し、MBD-MX01を配信部14及びネットワーク送受信部15に送信する。なお、各調整部でのタイミングの調整や、ハウリングとエコーの抑制方法、複合の方法については後述する。 Furthermore, the sixth adjustment unit 13f generates MBD-MX01 data by combining only the data from the MX01 group acquired from the first adjustment unit 13a, and transmits MBD-MX01 to the distribution unit 14 and the network transmission/reception unit 15. The timing adjustments in each adjustment unit, the methods of suppressing howling and echo, and the combination method will be described later.

なおここでは、音量調整等を、第2調整部13b~第5調整部13eがAIなどを用いて行うこととしたが、第2調整部13b~第5調整部13eが音量調整等を、配信業者のPAエンジニアからの指示を受け付けて行うこととしてもよい。 Here, the second adjustment unit 13b to the fifth adjustment unit 13e adjust the volume and the like using AI, but the second adjustment unit 13b to the fifth adjustment unit 13e may adjust the volume and the like by receiving instructions from a PA engineer of the distribution company.

データ配信部14は、第6調整部13fから取得したデータを全国の端末装置20に配信する。また、データ配信部14から配信される音や映像のデータは、第6調整部13fで複合された各グループや複合コード(例えばMBD01のデータの場合、MBD-MX01、MBD-GP01、MBD-BST01、MBD-EV01の各データ)ごとにミュートすることが可能である。 The data distribution unit 14 distributes the data acquired from the sixth adjustment unit 13f to terminal devices 20 nationwide. In addition, the audio and video data distributed from the data distribution unit 14 can be muted for each group or composite code combined by the sixth adjustment unit 13f (for example, in the case of MBD01 data, each of the data MBD-MX01, MBD-GP01, MBD-BST01, and MBD-EV01).

ネットワーク送受信部15は、インターネット7に接続された端末装置20との間、また、パブリッククラウド8との間でデータの送受信を行う。 The network transceiver unit 15 transmits and receives data between the terminal device 20 connected to the Internet 7 and the public cloud 8.

なお、MX02、GP02、BST02グループなどの他のグループに対する処理も上記の処理と同様であるため、説明を省略する。 The processing for other groups such as the MX02, GP02, and BST02 groups is similar to the above processing, so the explanation is omitted.

また、ここではデータ調整部13に第6調整部13fのほか、第1調整部13aから第5調整部13eの5つの調整部を有することとしたが、メインサーバ1がエッジサーバ2から受信するデータに対応するグループ又は複合コードの種類に応じて、それらのグループ又は複合コードに対応する調整部が調整部13に適宜追加される。 In addition, here, the data adjustment unit 13 has five adjustment units, the first adjustment unit 13a to the fifth adjustment unit 13e, in addition to the sixth adjustment unit 13f. However, depending on the type of group or composite code corresponding to the data that the main server 1 receives from the edge server 2, adjustment units corresponding to those groups or composite codes are added to the adjustment unit 13 as appropriate.

図3は、エッジサーバ2の構成例を示す図である。エッジサーバ2のプロセッサがメモリに記録されたプログラムを実行することにより、エッジサーバ2の各種機能が実現される。 Figure 3 is a diagram showing an example of the configuration of the edge server 2. The processor of the edge server 2 executes the programs stored in the memory to realize various functions of the edge server 2.

エッジサーバ2は、コード管理部21、データ収集・分類部22、データ調整部23、及びデータ配信部24を備える。 The edge server 2 includes a code management unit 21, a data collection and classification unit 22, a data adjustment unit 23, and a data distribution unit 24.

コード管理部21は、前述したライブ配信アプリから接続がある度に、メインサーバ1のコード管理・認証部11に記憶及び管理されている各種コードと共有キーを照合する。 The code management unit 21 compares the various codes stored and managed in the code management and authentication unit 11 of the main server 1 with the shared key each time a connection is made from the live distribution app described above.

データ収集・分類部22は、コード管理部21によって音及び映像の配信が確認されたEV01グループのイベントに参加する(紐づいた)端末装置20から送信される音及び映像のデータを、BS10を介してリアルタイムで収集し、収集したデータを各グループに紐づいたコードや複合コードに基づき分類して、データ調整部23に送信する。 The data collection and classification unit 22 collects in real time via the BS 10 audio and video data transmitted from terminal devices 20 participating in (linked to) an event of the EV01 group for which the code management unit 21 has confirmed that audio and video distribution is taking place, classifies the collected data based on the code or composite code linked to each group, and transmits the data to the data adjustment unit 23.

例えば、データ収集・分類部22は、複数のMXサブ配信コード(例えばMX01やMX02など)に紐づいた複数のグループのメンバーの端末装置20から送信される演奏の音及び映像のデータ(例えばMX01―01、MX01―02やMX02-01、MX02-02などに対応するデータ)を収集し、収集したデータをMX01、MX02などの各MXグループに分類して、データ調整部23に送信する。 For example, the data collection and classification unit 22 collects performance sound and video data (e.g., data corresponding to MX01-01, MX01-02, MX02-01, MX02-02, etc.) sent from the terminal devices 20 of members of multiple groups linked to multiple MX sub-distribution codes (e.g., MX01, MX02, etc.), classifies the collected data into each MX group such as MX01, MX02, etc., and transmits it to the data adjustment unit 23.

また、データ収集・分類部22は、GP参加コードによって配信が許可されたメンバーの音及び映像のデータを収集し、収集したデータをGP01、GP02などの各GPグループに分類して、データ調整部23に送信する。 The data collection and classification unit 22 also collects audio and video data from members who are permitted to distribute using the GP participation code, classifies the collected data into GP groups such as GP01 and GP02, and transmits it to the data adjustment unit 23.

さらに、データ収集・分類部22は、BST解説コードによって配信が許可されたメンバー、例えば解説者の実況の音及び映像のデータを収集し、収集したデータをBST01、BST02などの各BSTグループに分類して、データ調整部23に送信する。 Furthermore, the data collection and classification unit 22 collects data on members who are permitted to distribute by the BST commentary code, such as audio and video data of commentators' live commentary, classifies the collected data into each BST group such as BST01, BST02, etc., and transmits it to the data adjustment unit 23.

また、データ収集・分類部22は、メインサーバ1から送信された音及び映像のデータ(MBD01、MBD02やMBD-MX01など)を収集してデータ調整部23に送信する。なお、図1では、メインサーバ1が一台である場合を示したが、メインサーバ1は複数台あってもよい。 The data collection and classification unit 22 also collects audio and video data (MBD01, MBD02, MBD-MX01, etc.) sent from the main server 1 and sends it to the data adjustment unit 23. Note that while FIG. 1 shows a case where there is one main server 1, there may be multiple main servers 1.

データ調整部23は、データ収集・分類部22で分類されたデータに対して各種の調整を行う第1調整部23a、第2調整部23b、第3調整部23c、第4調整部23d、第5調整部23e、及び第6調整部23fを備える。 The data adjustment unit 23 includes a first adjustment unit 23a, a second adjustment unit 23b, a third adjustment unit 23c, a fourth adjustment unit 23d, a fifth adjustment unit 23e, and a sixth adjustment unit 23f that perform various adjustments to the data classified by the data collection and classification unit 22.

第1調整部23aは、MX01グループのサブ配信者(例えば、楽団の指揮者やPAエンジニアなど)にミキシング機能などの特定の権限を開放する。 The first adjustment unit 23a opens up specific permissions, such as mixing functions, to sub-distributors of the MX01 group (e.g., the orchestra conductor or PA engineer, etc.).

例えば、第1調整部23aは、MX01グループに属するメンバー(1つ又は複数のMX01サブコードによって演奏の配信が許可されたメンバー)の端末装置20から送信されるデータの音量調整、音質調整、ハウリングとエコーの抑制、映像の画質調整、タイミングの調整などを行う。第1調整部23aは、これらの処理後の音データや映像データを第6調整部23fに送信する。 For example, the first adjustment unit 23a adjusts the volume, adjusts the sound quality, suppresses feedback and echo, adjusts the image quality, adjusts the timing, etc. of data sent from the terminal devices 20 of members belonging to the MX01 group (members who are permitted to distribute their performances by one or more MX01 subcodes). The first adjustment unit 23a transmits the processed sound data and image data to the sixth adjustment unit 23f.

サブ配信コードを有するMX01グループのサブ配信者は、自身の端末装置20のライブ配信アプリの画面から第1調整部23aの機能にアクセスして、MX01グループに属するメンバー(MX01のサブコード)の端末装置20から送信されるデータの音量調整、タイミングの調整などのミキシングを行うことができる。 A sub-distributor of the MX01 group who has a sub-distribution code can access the functions of the first adjustment unit 23a from the screen of the live distribution app on his/her own terminal device 20 and perform mixing such as adjusting the volume and timing of data sent from the terminal device 20 of a member (sub-code of MX01) belonging to the MX01 group.

ここで、MX01グループの演奏者(MX01サブコード)が全国各地から参加している場合、指揮者が各演奏者の演奏に対してライブ配信アプリで行った調整の情報(例えば、音量調整の情報)が、各演奏者がアクセスしている全国のエッジサーバ2の第1調整部23aに送信される。そして、この情報に基づき音量調整などの調整が全国のエッジサーバ2の第1調整部23aにて実施され、その結果得られたデータが第6調整部23fに送信される。 Here, when performers (MX01 subcode) of the MX01 group are participating from all over the country, information on adjustments made by the conductor to the performance of each performer using the live distribution app (e.g., volume adjustment information) is sent to the first adjustment unit 23a of the edge server 2 nationwide that each performer is accessing. Then, based on this information, adjustments such as volume adjustment are made by the first adjustment unit 23a of the edge server 2 nationwide, and the resulting data is sent to the sixth adjustment unit 23f.

第2調整部23bは、GP01グループのユーザから送信される音声及び映像データに対して、音量調整、タイミングの調整、ハウリングとエコーの抑制、迷惑音声や映像に対する忠告発信や一時的な配信の遮断などを行い、調整後のデータを第6調整部23fに送信する。なお、第2調整部23bは、音量調整、迷惑音声や映像に対する忠告発信や一時的な配信の遮断を、AIなどを用いて行う。 The second adjustment unit 23b adjusts the volume, adjusts the timing, suppresses feedback and echo, issues warnings about nuisance voices and images, and temporarily blocks distribution of the audio and video data sent from users in the GP01 group, and transmits the adjusted data to the sixth adjustment unit 23f. Note that the second adjustment unit 23b adjusts the volume, issues warnings about nuisance voices and images, and temporarily blocks distribution using AI, etc.

第3調整部23cは、BST01グループのユーザから送信される音声及び映像データに対して、ハウリングとエコーの抑制などの調整をAIにより行い、調整後のデータを第6調整部23fに送信する。 The third adjustment unit 23c uses AI to make adjustments to the audio and video data sent from users in the BST01 group, such as suppressing feedback and echo, and transmits the adjusted data to the sixth adjustment unit 23f.

第4調整部23dは、EV01グループの端末装置20から送信されるデータに対して、雑音消去などの処理を、AIなどを用いて行う。そして、第4調整部23dは、これらの処理がなされたデータを、第6調整部23fに送信する。 The fourth adjustment unit 23d performs processing such as noise cancellation on the data transmitted from the terminal device 20 of the EV01 group using AI or the like. The fourth adjustment unit 23d then transmits the data that has undergone this processing to the sixth adjustment unit 23f.

第5調整部23eは、メインサーバ1から送信された、複数のグループのデータが複合されたデータ(例えば、前述のMBD02など)に対して、雑音消去などの処理を、AIなどを用いて行う。そして、第5調整部23eは、これらの処理がなされたデータを、第6調整部23fに送信する。 The fifth adjustment unit 23e uses AI or the like to perform processing such as noise cancellation on data (such as the aforementioned MBD02) that is a combination of data from multiple groups and that is sent from the main server 1. The fifth adjustment unit 23e then sends the data that has been subjected to these processes to the sixth adjustment unit 23f.

第6調整部23fは、第1調整部23a~第5調整部23eで調整されたデータの複合(第1調整部23a~第5調整部23eで調整された2つ以上のデータを、タイミングを合わせて束ねること)、ハウリングとエコーの抑制などの調整を、AIなどを用いて行い、調整後のデータをデータ配信部24に送信する。 The sixth adjustment unit 23f uses AI and other techniques to combine the data adjusted by the first adjustment unit 23a to the fifth adjustment unit 23e (bundling two or more pieces of data adjusted by the first adjustment unit 23a to the fifth adjustment unit 23e in a timely manner) and to make adjustments such as suppressing feedback and echo, and transmits the adjusted data to the data distribution unit 24.

例えば、第6調整部23fは、第2調整部23bから取得したGP01のデータと、第5調整部23eから取得したMBD02を複合して、EBD(Edge Server BunDle)02というデータを生成し、そのEBD02をデータ配信部24に送信する。 For example, the sixth adjustment unit 23f combines the data of GP01 acquired from the second adjustment unit 23b and MBD02 acquired from the fifth adjustment unit 23e to generate data called EBD (Edge Server Bundle) 02, and transmits the EBD02 to the data distribution unit 24.

また、第6調整部23fは、第1調整部23a~第5調整部23eから取得したデータを複合せずに、MX01―01、MX01―02やEV01―01、EV01―02やMBD01、MBD-MX01として、データ配信部24に送信することも可能である。 The sixth adjustment unit 23f can also transmit the data acquired from the first adjustment unit 23a to the fifth adjustment unit 23e to the data distribution unit 24 as MX01-01, MX01-02, EV01-01, EV01-02, MBD01, or MBD-MX01 without combining the data.

なおここでは、第2調整部23b~第5調整部23eが音量調整等を、AIなどを用いて行うこととしたが、第2調整部23b~第5調整部23eが音量調整等を、配信業者のPAエンジニアからの指示を受け付けて行うこととしてもよい。 Note that, here, the second adjustment unit 23b to the fifth adjustment unit 23e perform volume adjustment and the like using AI, but the second adjustment unit 23b to the fifth adjustment unit 23e may also perform volume adjustment and the like by receiving instructions from a PA engineer of the distribution company.

データ配信部24は、第6調整部23fから取得したEBD02、MX01―01、EV01―01、MBD01、MBD-MX01などのデータをメインサーバ1や端末装置20に送信する。 The data distribution unit 24 transmits data such as EBD02, MX01-01, EV01-01, MBD01, and MBD-MX01 obtained from the sixth adjustment unit 23f to the main server 1 and the terminal device 20.

また、データ配信部24から配信されるEBD02などの音声や映像のデータは、複合されているグループや複合コード(例えばEBD02は、MBD-MX01、MBD-GP01、MBD-BST01、GP01など)ごとにミュートすることが可能である。 In addition, audio and video data such as EBD02 distributed from the data distribution unit 24 can be muted for each combined group or combined code (for example, EBD02 is MBD-MX01, MBD-GP01, MBD-BST01, GP01, etc.).

例えば、データ配信部24は、第6調整部23fから取得したMX01―01、MX01―02、EV01―01、EV01―02などのデータを、メインサーバ1に送信する。 For example, the data distribution unit 24 transmits data such as MX01-01, MX01-02, EV01-01, and EV01-02 obtained from the sixth adjustment unit 23f to the main server 1.

また、データ配信部24は、第6調整部23fから取得したMBD-MX01などのデータを、エッジサーバ2が設置されている地域のBS10に接続するメンバーの端末装置20に送信する。 The data distribution unit 24 also transmits data such as MBD-MX01 acquired from the sixth adjustment unit 23f to the terminal devices 20 of members connected to the BS 10 in the area where the edge server 2 is installed.

さらに、各データの調整や複合、送信先の選択は、配信業者が提供するライブ配信システム100のアプリの設定画面から配信者が実行できるようにしてもよい。 Furthermore, the distributor may be able to adjust, combine, and select the destination of each piece of data from the settings screen of the app for the live distribution system 100 provided by the distributor.

なお、MX02、GP02、BST02グループなどの他のグループに対する処理も上記の処理と同様であるため、説明を省略する。 The processing for other groups such as the MX02, GP02, and BST02 groups is similar to the above processing, so the explanation is omitted.

また、ここではデータ調整部23が、第6調整部23fのほか、第1調整部23a~第5調整部23eの5つの調整部を有することとしたが、エッジサーバ2が受信するデータに対応するグループ又は複合コードの種類に応じて、それらのグループ又は複合コードに対応する調整部がデータ調整部23に適宜追加される。 In addition, here, the data adjustment unit 23 has five adjustment units, the first adjustment unit 23a to the fifth adjustment unit 23e, in addition to the sixth adjustment unit 23f. However, depending on the type of group or composite code corresponding to the data received by the edge server 2, adjustment units corresponding to those groups or composite codes are appropriately added to the data adjustment unit 23.

次に、図4、図5を参照してライブ配信システム100の動作を説明する。以下では、チームA対チームBの無観客の野球の試合で、チームAを応援演奏する吹奏楽団(MX01グループ)の応援曲と、チームAを応援する応援団(GP01グループ)の声援と、試合を解説する解説者(BST01グループ)の実況などを、球場(EV01グループ)に配信する場合の動作について説明する。 Next, the operation of the live distribution system 100 will be described with reference to Figures 4 and 5. The following describes the operation when a cheering song by a brass band (MX01 group) playing in support of Team A, cheers from a cheering squad (GP01 group) supporting Team A, and a live commentary by a commentator (BST01 group) commenting on the game are distributed to a baseball stadium (EV01 group) in an empty baseball game between Team A and Team B.

図4は、EV01グループから届く映像や音に合わせて、イベントEV01に紐づいたMX01グループ、GP01グループ、及び、BST01グループのメンバーがライブ配信を行う場合の処理の一例を説明するシーケンスチャートである。図5は、音及び映像のタイミングの調整方法について説明する図である。 Figure 4 is a sequence chart that explains an example of processing when members of the MX01 group, GP01 group, and BST01 group linked to event EV01 perform live streaming in sync with video and audio received from the EV01 group. Figure 5 is a diagram that explains a method for adjusting the timing of audio and video.

ここで、EV01グループ、MX01グループ、GP01グループ、及び、BST01グループの端末装置20は、前述したようなライブ配信イベント用に入手した各種コードと共有キーを用いて認証を受けているものとする。 Here, it is assumed that the terminal devices 20 in the EV01 group, MX01 group, GP01 group, and BST01 group have been authenticated using the various codes and shared keys obtained for the live streaming event as described above.

また、図4では、EV01グループ、MX01グループ、GP01グループ、及び、BST01グループの各グループに属する端末装置20がそれぞれ1つだけ示されているが、各グループには1つ以上の端末装置20があるものとする。 In addition, in FIG. 4, only one terminal device 20 is shown belonging to each of the EV01 group, the MX01 group, the GP01 group, and the BST01 group, but each group is assumed to have one or more terminal devices 20.

また、図4では、MX01グループ、GP01グループ、及び、BST01グループの各グループに属する端末装置20から音及び映像のデータを収集するエッジサーバ2が1つだけ示されているが、そのようなエッジサーバ2も1つ以上あるものとする。 In addition, in FIG. 4, only one edge server 2 is shown that collects audio and video data from terminal devices 20 belonging to each of the MX01 group, the GP01 group, and the BST01 group, but it is assumed that there is one or more such edge servers 2.

図4に示すように、EV01グループの端末装置20は、EV01グループのイベント会場の音及び映像のデータをイベント会場の近くにあるエッジサーバ2に送信する(ステップS1)。 As shown in FIG. 4, the terminal device 20 of the EV01 group transmits audio and video data of the event venue of the EV01 group to an edge server 2 located near the event venue (step S1).

そして、そのエッジサーバ2は、受信したデータに対して、図3を用いて説明した各種調整を行う(ステップS2)。 Then, the edge server 2 performs various adjustments to the received data as described with reference to FIG. 3 (step S2).

具体的には、エッジサーバ2は、EV01グループのイベント会場に設置された1つ以上の端末装置20から送信された会場の音及び映像のデータを収集する。そして、エッジサーバ2は、収集されたデータに対して雑音消去などの調整を行う。 Specifically, the edge server 2 collects sound and video data from the venue transmitted from one or more terminal devices 20 installed at the event venue of the EV01 group. The edge server 2 then performs adjustments such as noise cancellation on the collected data.

その後エッジサーバ2は、各種調整の結果得られたデータをメインサーバ1に送信する(ステップS3)。 The edge server 2 then transmits the data obtained as a result of the various adjustments to the main server 1 (step S3).

また、MX01グループ、GP01グループ、及び、BST01グループの端末装置20はそれぞれ、演奏、声援、及び、解説の音及び映像のデータを、各グループの端末装置20の近くにあるエッジサーバ2に送信する(ステップS4)。なお、ここでは、各グループの端末装置20の近くにあるエッジサーバ2が同一のものとする。 The terminal devices 20 of the MX01, GP01, and BST01 groups each transmit audio and video data of the performance, cheers, and commentary to an edge server 2 located near the terminal devices 20 of each group (step S4). Note that it is assumed here that the edge server 2 located near the terminal devices 20 of each group is the same.

その後、そのエッジサーバ2は、受信したデータに対して、図3を用いて説明した各種調整を行う(ステップS5)。 The edge server 2 then performs various adjustments to the received data as described with reference to FIG. 3 (step S5).

具体的には、エッジサーバ2は、MX01グループ、GP01グループ、及び、BST01グループの端末装置20から送信された映像及び音のデータを収集する。 Specifically, the edge server 2 collects video and audio data transmitted from the terminal devices 20 in the MX01 group, the GP01 group, and the BST01 group.

そして、エッジサーバ2は、収集されたデータをグループ別に分類してグループ毎に、音データの音量調整、音質調整、ハウリングとエコーの抑制、映像データの画質調整、タイミングの調整、データの複合などの調整を行う。 Then, the edge server 2 classifies the collected data into groups and performs adjustments for each group, such as adjusting the volume of the sound data, adjusting the sound quality, suppressing feedback and echo, adjusting the image quality of the video data, adjusting the timing, and combining the data.

その後、エッジサーバ2は、各種調整の結果得られたデータをメインサーバ1に送信する(ステップS6)。 Then, the edge server 2 transmits the data obtained as a result of the various adjustments to the main server 1 (step S6).

続いて、メインサーバ1は、エッジサーバ2から、MX01グループ、GP01グループ、及び、BST01グループの音及び映像について調整がなされたデータを収集し、また、その他のエッジサーバ2から、MX01グループ、GP01グループ、及び、BST01グループの音及び映像について調整がなされたデータを収集し、それらのデータに対して、図2を用いて説明した各種調整を行う(ステップS7)。 Then, the main server 1 collects from the edge server 2 data on which adjustments have been made to the sound and video of the MX01 group, the GP01 group, and the BST01 group, and also collects from the other edge servers 2 data on which adjustments have been made to the sound and video of the MX01 group, the GP01 group, and the BST01 group, and performs the various adjustments described using FIG. 2 on that data (step S7).

具体的には、メインサーバ1は、各エッジサーバ2から収集したデータに対して、音データの音量調整、音質調整、ハウリングとエコーの抑制、映像データの画質調整、タイミングの調整、データの複合などの調整を行う。 Specifically, the main server 1 performs adjustments to the data collected from each edge server 2, such as adjusting the volume of the audio data, adjusting the sound quality, suppressing feedback and echo, adjusting the image quality of the video data, adjusting the timing, and combining the data.

そして、メインサーバ1は、その結果得られた調整データであるMBD02を、イベント会場の音及び映像のデータをメインサーバ1に送信したエッジサーバ2に送信する(ステップS8)。 Then, the main server 1 transmits the resulting adjustment data, MBD02, to the edge server 2 that transmitted the sound and video data of the event venue to the main server 1 (step S8).

MBD02のデータを受信したエッジサーバ2は、受信したデータに対して、図3を用いて説明した各種調整を行う(ステップS9)。そして、そのエッジサーバ2は、調整がなされたMBD02のデータをEV01グループの端末装置20に送信する(ステップS10)。これにより、MX01グループの演奏や、GP01グループの声援、BST01グループの解説の音及び映像が、EV01グループのイベント会場に配信される。 The edge server 2 that receives the MBD02 data performs various adjustments to the received data as described with reference to FIG. 3 (step S9). The edge server 2 then transmits the adjusted MBD02 data to the terminal device 20 of the EV01 group (step S10). As a result, the sound and video of the performance of the MX01 group, the cheers of the GP01 group, and the commentary of the BST01 group are distributed to the event venue of the EV01 group.

また、メインサーバ1は、エッジサーバ2から、EV01グループの音及び映像について調整がなされたデータを収集し、そのデータに対して図2を用いて説明した音データに対する音量調整やタイミングの調整など、これらの調整がなされたデータ及びステップS7において収集したデータに対する複合などの調整を行う(ステップS11)。 The main server 1 also collects from the edge server 2 data on which adjustments have been made to the sound and video of the EV01 group, and performs adjustments such as volume adjustments and timing adjustments to the sound data as described with reference to FIG. 2, and combines the data on which these adjustments have been made with the data collected in step S7 (step S11).

そして、メインサーバ1は、その結果得られた調整データであるMBD01を、MX01グループ、GP01グループ、及び、BST01グループの音及び映像のデータをメインサーバ1に送信したエッジサーバ2に送信する(ステップS12)。 Then, the main server 1 transmits the resulting adjustment data, MBD01, to the edge server 2 that transmitted the audio and video data of the MX01 group, the GP01 group, and the BST01 group to the main server 1 (step S12).

MBD01のデータを受信したエッジサーバ2は、受信したデータに対して、図3を用いて説明した各種調整を行う(ステップS13)。そして、そのエッジサーバ2は、調整がなされたMBD01のデータを、MX01グループ、GP01グループ、及び、BST01グループの端末装置20に送信する(ステップS14)。 The edge server 2 that receives the MBD01 data performs various adjustments to the received data as described with reference to FIG. 3 (step S13). The edge server 2 then transmits the adjusted MBD01 data to the terminal devices 20 in the MX01 group, the GP01 group, and the BST01 group (step S14).

これにより、MX01グループの演奏や、GP01グループの声援、BST01グループの解説の音及び映像とともに、EV01グループのイベント会場の音及び映像が、MX01グループ、GP01グループ、及び、BST01グループに属する各メンバーに配信される。 As a result, the sound and image of the MX01 group's performance, the cheers from the GP01 group, and the commentary from the BST01 group, as well as the sound and image of the EV01 group's event venue, will be distributed to each member of the MX01 group, GP01 group, and BST01 group.

ここで、音や映像のタイミングの調整について説明する。例えば、MX01グループの各メンバーが異なる場所で演奏を行った場合、各メンバーがアクセスしている複数のBS10からメインサーバ1までの距離や各端末装置20の処理速度が異なることによって、それぞれの演奏のデータがメインサーバ1に届くタイミングがずれることがある。 Here, we will explain how to adjust the timing of sound and video. For example, if each member of the MX01 group performs in a different location, the timing at which the data for each performance reaches the main server 1 may differ depending on the distance from the multiple BSs 10 accessed by each member to the main server 1 and the processing speed of each terminal device 20.

このタイミングのずれを補正するため、例えば以下のような処理を行う。まず、MX01グループのサブ配信者は、ライブ配信アプリを操作して、4ビートなどのリズムを把握できる無音の映像をメインサーバ1のデータ配信部14からMX01グループの各演奏者の端末装置20に送信する。 To correct this timing discrepancy, for example, the following process is performed. First, the sub-distributor of the MX01 group operates a live distribution app to transmit silent video that allows a rhythm such as four beats to be understood from the data distribution unit 14 of the main server 1 to the terminal device 20 of each performer of the MX01 group.

この時、この映像のリズムと連動した高周波のタイムカウント音がさらに加えられる。または、無音の映像のみ、または、高周波のタイムカウント音のみをMX01グループの各演奏者の端末装置20に送信してもよい。 At this time, a high-frequency time count sound linked to the rhythm of this video is also added. Alternatively, only a silent video or only a high-frequency time count sound may be transmitted to the terminal device 20 of each performer in the MX01 group.

ここで、高周波のタイムカウント音とは、例えば、一般的な人の可聴域以上の16kHzを超える周波数の音であり、動画のタイムラインのように音や映像のデータのタイムカウント上の位置を把握可能とする音である。例えば、タイムカウント音は、時間の経過とともに変化することにより時間の経過を示す音である。 Here, a high-frequency time count sound is, for example, a sound with a frequency exceeding 16 kHz, which is above the audible range of the average person, and is a sound that allows the user to grasp the position of the sound or video data on the time count, like a video timeline. For example, the time count sound is a sound that indicates the passage of time by changing over time.

このタイムカウント音を記録及び観測することにより、特定の音や映像のデータが存在する位置を検出することができる。 By recording and observing this time count sound, it is possible to detect the location where specific sound or video data exists.

なお、MX01グループのサブ配信者が、ライブ配信アプリを操作して、上述した4ビートなどのリズム以外の楽譜や曲の位置を把握できる無音の映像をMX01グループの各演奏者の端末装置20に配信してもよい。 In addition, the sub-distributor of the MX01 group may operate a live distribution app to distribute silent video to the terminal device 20 of each performer of the MX01 group, which allows the viewer to understand the musical score and the position of the song other than the rhythm, such as the four beats described above.

例えば、無音の映像において、楽譜や曲の進行に合わせて、カラオケのように表示された音符や歌詞の色が変化するようにしてもよいし、特定の記号や絵を用いて合図をするようにしてもよい。 For example, in silent video, the color of the displayed notes or lyrics could change in karaoke-like fashion in accordance with the progression of the musical score or song, or specific symbols or pictures could be used to provide cues.

また、上述した無音の映像と高周波のタイムカウント音は、メインサーバ1のデータ調整部13(第1調整部13a~第6調整部13f)で追加されてから端末装置20に送信してもよいし、イベント会場(EV01、EV02グループなど)からメインサーバ1に会場の音と映像が送信される場合に、イベント会場に最も近いエッジサーバ2のデータ調整部23にて追加されてもよい。 The silent video and high-frequency time count sound described above may be added by the data adjustment unit 13 (first adjustment unit 13a to sixth adjustment unit 13f) of the main server 1 and then transmitted to the terminal device 20, or may be added by the data adjustment unit 23 of the edge server 2 closest to the event venue when venue sound and video are transmitted from the event venue (EV01, EV02 group, etc.) to the main server 1.

または、イベント会場に高周波のタイムカウント音を流し、端末装置20のマイク53にて会場の音と一緒に高周波のタイムカウント音を集音して、それらのデータを送信するようにしてもよい。 Alternatively, a high-frequency time count sound may be played in the event venue, and the microphone 53 of the terminal device 20 may pick up the high-frequency time count sound together with sounds from the venue, and transmit the data.

MX01グループの各演奏者が、端末装置20のディスプレイで高周波と連動したリズム映像を見ながら演奏を行うと、端末装置20のスピーカから出力された高周波のタイムカウント音と演奏者の音及び映像とが端末装置20により集音及び撮影され、端末装置20から高周波のタイムカウント音と一緒にBS10を経由してエッジサーバ2に送信される。 When each performer in the MX01 group performs while watching the rhythm image linked to the high frequency on the display of the terminal device 20, the high frequency time count sound output from the speaker of the terminal device 20 and the sound and image of the performer are collected and photographed by the terminal device 20, and are transmitted from the terminal device 20 together with the high frequency time count sound via the BS 10 to the edge server 2.

エッジサーバ2の第1調整部23aは、各演奏者の端末装置20から送信された演奏の音の音量や映像の画質を最適なレベルに調整した後、高周波のタイムカウント音を含む調整された音と映像のデータをメインサーバ1に送信する。 The first adjustment unit 23a of the edge server 2 adjusts the volume of the sound of the performance and the image quality of the video transmitted from each performer's terminal device 20 to an optimal level, and then transmits the adjusted sound and video data, including the high-frequency time count sound, to the main server 1.

このデータを受信したメインサーバ1の第1調整部13aは、高周波のタイムカウント音を利用して、各演奏者の演奏データのタイミングを調整する。 The first adjustment unit 13a of the main server 1 receives this data and uses a high-frequency time count sound to adjust the timing of each performer's performance data.

例えば、図5に示すように、連続するタイムカウント音の中の、4ビートの2拍目と4拍目に演奏音が存在すると想定する。 For example, as shown in Figure 5, assume that performance sounds are present on the second and fourth beats of a four-beat sequence of consecutive time count sounds.

この場合、左側の図のように、各演奏者の演奏データがメインサーバ1に届くタイミングが異なったとしても、タイムカウント音を検出し、そのタイムカウント音が一致するように各演奏データの時間軸をずらすことにより、右側の図のように、各演奏者のタイミングの合った演奏をイベント会場で実現することができる。 In this case, even if the performance data of each performer arrives at the main server 1 at different times, as shown in the diagram on the left, by detecting the time count sound and shifting the time axis of each performance data so that the time count sounds are synchronized, it is possible to realize a synchronized performance by each performer at the event venue, as shown in the diagram on the right.

なお、ここでは連続するタイムカウント音を加えることとしたが、不連続なタイムカウント音を加えることとしてもよい。この場合も同様に、タイムカウント音が一致するように各演奏データの時間軸をずらすことにより、各演奏者のタイミングの合った演奏を実現することができる。その後、メインサーバ1の第6調整部13fにより、各演奏者のデータが複合される。 Note that although a continuous time count sound is added here, a discontinuous time count sound may also be added. In this case as well, by shifting the time axis of each performance data so that the time count sounds are synchronized, it is possible to achieve a performance in which the timing of each performer is synchronized. After that, the data of each performer is combined by the sixth adjustment unit 13f of the main server 1.

また、ここでは、MX01グループの各演奏者の演奏のタイミングを、タイムカウント音を利用して合わせることとしたが、同様の処理は、EV01グループのデータにタイムカウント音を追加することにより、そのデータにより再現される球場の音や映像に合わせて声援を送るGP01グループの各メンバーからの配信についても実行することができる。 In addition, here, the timing of the performances of each performer in the MX01 group is synchronized using a time count sound, but the same process can also be performed for broadcasts from each member of the GP01 group, who cheer in time with the sounds and images of the stadium reproduced by the data, by adding a time count sound to the data of the EV01 group.

この場合、メインサーバ1の第2調整部13bは、高周波のタイムカウント音を利用して、GP01グループの各メンバーからの声援のデータのタイミングを調整し、その後各メンバーのデータを第6調整部13fが複合する。 In this case, the second adjustment unit 13b of the main server 1 uses a high-frequency time count sound to adjust the timing of the cheering data from each member of the GP01 group, and then the sixth adjustment unit 13f combines the data from each member.

さらに、メインサーバ1の第6調整部13fは、高周波のタイムカウント音を利用して、各調整部でタイミングが調整された複数のデータ(例えばMX01グループのデータ、及び、GP01グループのデータ)のタイミングを合わせて複合を行う。 Furthermore, the sixth adjustment unit 13f of the main server 1 uses a high-frequency time count sound to align and combine multiple pieces of data (e.g., data from the MX01 group and data from the GP01 group) whose timing has been adjusted by each adjustment unit.

また、メインサーバ1の第4調整部13dに届くEV01グループのデータのタイミング音を基準にして所定の遅延時間(例えば、100msec)内のデータだけを、第6調整部13fが複合して配信するように構成してもよい。この基準や基準値は、配信業者が提供するライブ配信システム100のアプリの設定画面から配信者が選択できるようにしてもよい。 Also, the sixth adjustment unit 13f may be configured to composite and distribute only data within a predetermined delay time (e.g., 100 msec) based on the timing sound of the data of the EV01 group that arrives at the fourth adjustment unit 13d of the main server 1. The distributor may be able to select this standard or reference value from the settings screen of the app for the live distribution system 100 provided by the distributor.

そして、第6調整部13fは、上記処理の後、高周波のタイムカウント音を消去する。複合された音と映像のデータはイベント会場のEV01グループを含む各グループ、及び、インターネット7を介して視聴する視聴者に配信される。また、高周波のタイムカウント音の消去はエッジサーバ2の調整部23や端末装置20などで実行してもよい。 Then, after the above processing, the sixth adjustment unit 13f erases the high-frequency time count sound. The combined audio and video data is distributed to each group at the event venue, including the EV01 group, and to viewers watching via the Internet 7. The erasure of the high-frequency time count sound may also be performed by the adjustment unit 23 of the edge server 2, the terminal device 20, etc.

また、サブ配信者は、メインサーバ1のデータ配信部14から配信された演奏を聞いて、ある楽器の音と他の楽器の音との間でタイミングがずれている場合、自身の端末装置20のライブ配信アプリのサブ配信者用の機能を使い、上記タイミングを手動で調整してもよい(手動タイミング補正)。 In addition, if a sub-distributor listens to a performance distributed from the data distribution unit 14 of the main server 1 and finds that the timing is out of sync between the sound of one instrument and the sound of another instrument, the sub-distributor may use the sub-distributor function of the live distribution app on his/her terminal device 20 to manually adjust the timing (manual timing correction).

なお、この調整は、すべてを手動で行うのではなく、AIによりまずタイミングの調整を行い、サブ配信者がさらにタイミングの調整を行うこととしてもよい。 In addition, rather than making all of these adjustments manually, the timing can be adjusted first by AI, and then the sub-broadcaster can make further adjustments to the timing.

また、サブ配信者がライブ配信アプリを操作して各演奏者の演奏に対して行ったタイミングの調整の情報は、全国のエッジサーバ2の第1調整部23aに送信され、そのエッジサーバ2のメモリに記録されたタイミングの調整プログラムによりその情報が参照され、タイミングの調整処理が実行される。 In addition, information on the timing adjustments made by the sub-distributor to the performance of each performer by operating the live distribution app is transmitted to the first adjustment unit 23a of the edge server 2 nationwide, and the timing adjustment program recorded in the memory of that edge server 2 references the information and executes the timing adjustment process.

これにより、エッジサーバ2の第1調整部23aは、再生タイミングがずれている音に対して、再生タイミングの調整を行う。このようにしてデータ調整部23で調整された音のデータは、メインサーバ1の第1調整部13aに送信される。 As a result, the first adjustment unit 23a of the edge server 2 adjusts the playback timing of the sound whose playback timing is out of sync. The sound data adjusted in this way by the data adjustment unit 23 is sent to the first adjustment unit 13a of the main server 1.

なお、ここではエッジサーバ2の第1調整部23aがタイミングの調整を行うこととしたが、メインサーバ1の第1調整部13aがタイミングの調整を行うこととしてもよい。また、エッジサーバ2の第1調整部23aとメインサーバ1の第1調整部13aとが分担してタイミングの調整処理を行い、負荷分散を図ってもよい。 Here, the first adjustment unit 23a of the edge server 2 adjusts the timing, but the first adjustment unit 13a of the main server 1 may adjust the timing. Also, the first adjustment unit 23a of the edge server 2 and the first adjustment unit 13a of the main server 1 may share the timing adjustment process to distribute the load.

また、図4に示したステップS14においては、MBD01のデータが、MX01グループ、GP01グループ、及び、BST01グループの端末装置20に送信されるが、MBD01のデータは、図1に示したインターネット7を介して、端末装置20やパブリッククラウド8に送信されてもよい。 In addition, in step S14 shown in FIG. 4, data of MBD01 is transmitted to terminal devices 20 of the MX01 group, the GP01 group, and the BST01 group, but data of MBD01 may also be transmitted to terminal devices 20 or the public cloud 8 via the Internet 7 shown in FIG. 1.

この場合、MBD01のデータは、端末装置20の近くにあるエッジサーバ2の第5調整部23eで雑音処理などの調整がなされるが、インターネット7に配信されるデータについてはそのようなエッジサーバが送信経路上に存在しない。しかし、インターネット7の回線は受信だけに用いられるものなので、このような機能はデスクトップPCなどの端末装置20のライブ配信専用アプリ(視聴専用アプリ)の機能として含まれるようにしてもよい。 In this case, the data of MBD01 is adjusted for noise processing and the like by the fifth adjustment unit 23e of the edge server 2 located near the terminal device 20, but for data distributed to the Internet 7, no such edge server exists on the transmission path. However, since the line of the Internet 7 is used only for reception, such a function may be included as a function of a dedicated live distribution app (dedicated viewing app) of the terminal device 20 such as a desktop PC.

なお、GP01グループのメンバーがライブ配信を行う場合の処理や、BST01グループのメンバーがライブ配信を行う場合の処理についても、上述した処理と同様の処理が行われる。 The same processing as described above is also carried out when a member of the GP01 group performs live streaming, and when a member of the BST01 group performs live streaming.

次に、図5~図8を参照してハウリングとエコーの抑制方法について詳しく説明する。図5~図8は、図2に示すメインサーバ1で実施されるハウリングとエコーの抑制方法について説明するための図である。 Next, the method of suppressing feedback and echo will be described in detail with reference to Figs. 5 to 8. Figs. 5 to 8 are diagrams for explaining the method of suppressing feedback and echo implemented by the main server 1 shown in Fig. 2.

なお、以下では、音データ301にタイムカウント音302が追加される場合について説明するが、特に記載しないものの、このような音データ301には映像データが付随している。 Note that, below, we will explain the case where a time count sound 302 is added to sound data 301, but although not specifically mentioned, such sound data 301 is accompanied by video data.

図2に示すメインサーバ1の第4調整部13dは、EV01グループのイベント会場から配信された音データ301(図6)にタイムカウント音302を追加し、データ配信部14は、タイムカウント音302が重畳された音データ301を、エッジサーバ2を介して端末装置20に送信する。 The fourth adjustment unit 13d of the main server 1 shown in FIG. 2 adds a time count sound 302 to the sound data 301 (FIG. 6) distributed from the event venue of the EV01 group, and the data distribution unit 14 transmits the sound data 301 with the time count sound 302 superimposed thereon to the terminal device 20 via the edge server 2.

タイムカウント音302は、時間の経過とともに変化することにより時間の経過を示す音であり、例えば、一般的な人の可聴域以上の16kHzを超える周波数の音である。このようなタイムカウント音302の波形を記録及び観測することにより、特定の音データ301の位置を検出し、検出した音データ301を除去することができる。 The time count sound 302 is a sound that indicates the passage of time by changing over time, for example, a sound with a frequency exceeding 16 kHz, which is above the audible range of the average person. By recording and observing the waveform of such a time count sound 302, it is possible to detect the position of specific sound data 301 and remove the detected sound data 301.

なお、1つのイベントを別々の会場をつないで行う場合に、第1のイベント会場に設置された複数の端末装置20と第2のイベント会場に設置された複数の端末装置20とで、帯域が異なる高周波のタイムカウント音302を追加するようにしてもよい。 When one event is held across multiple venues, high-frequency time count sounds 302 with different frequency bands may be added to multiple terminal devices 20 installed at a first event venue and multiple terminal devices 20 installed at a second event venue.

帯域が異なる複数のタイムカウント音302として、例えば、時間の経過を示すタイムカウント情報(例えば、図5に示した1~4という値に対応するタイムカウント情報など)を含むように変調されたタイムカウント音302を利用すれば、そのタイムカウント音302を復調して複数のタイムカウント音302に含まれるタイムカウント情報を参照して比較することにより、帯域が異なる複数のイベント会場のタイムカウント音302の間のタイミングのずれを検出でき、その結果、異なるイベント会場の各端末装置20のマイク53で集音した音データ301の間の再生タイミングのずれを検出できるので、それらの再生タイミングを合わせる調整も行うことができる。 For example, if time count sounds 302 modulated to include time count information indicating the passage of time (such as time count information corresponding to values 1 to 4 shown in FIG. 5) are used as the multiple time count sounds 302 with different bands, then the time count sounds 302 can be demodulated and the time count information included in the multiple time count sounds 302 can be compared to detect the timing discrepancy between the time count sounds 302 at multiple event venues with different bands. As a result, it is possible to detect the playback timing discrepancy between the sound data 301 collected by the microphone 53 of each terminal device 20 at different event venues, and adjustments can be made to align the playback timing.

このようにすることで、第1のイベント会場と第2のイベント会場とをタイムカウント音302でシンクロさせるとことが可能になる。また、参加者から届く音声の背後に含まれている高周波の帯域を識別するだけで、どの会場(第1のイベント会場または第2のイベント会場)の映像を視聴して応援していたのかが分かり、参加者により追加された音、また除去すべき雑音の位置もそれぞれ容易に検出できる。さらに、各端末装置から届く音データ301に含まれる高周波の帯域を認識するだけで、その音データ301をどのイベント会場に戻すべきか(送信すべきか)も分かるので、よりきめ細かな調整が可能となる。 In this way, it becomes possible to synchronize the first event venue and the second event venue with the time count sound 302. Also, simply by identifying the high-frequency band contained in the background of the sound received from the participant, it is possible to determine which venue (the first event venue or the second event venue) the participant was watching and cheering at, and it is also possible to easily detect the sound added by the participant and the location of the noise that should be removed. Furthermore, simply by recognizing the high-frequency band contained in the sound data 301 received from each terminal device, it is possible to determine which event venue the sound data 301 should be returned to (sent to), allowing for more fine-grained adjustments.

第4調整部13dは、EV01グループのイベント会場から配信された音データ301にタイムカウント音302を追加する際、EV01グループのイベント会場から配信された音データ301をメモリなどに記憶しておく。その際、第4調整部13dは、音データ301が存在する範囲のタイムカウント音302のタイムカウント情報をメモリなどに併せて記憶しておく。 When the fourth adjustment unit 13d adds the time count sound 302 to the sound data 301 distributed from the event venue of the EV01 group, the fourth adjustment unit 13d stores the sound data 301 distributed from the event venue of the EV01 group in a memory or the like. At that time, the fourth adjustment unit 13d also stores in a memory or the like the time count information of the time count sound 302 within the range in which the sound data 301 exists.

その後、例えばGP01グループに属するメンバーが有する端末装置20の音再生部303は、メインサーバ1からエッジサーバ2を介して配信された音データ301に基づき、EV01グループのイベント会場の音を再生する。 Then, for example, the sound playback unit 303 of the terminal device 20 owned by a member belonging to the GP01 group plays the sounds of the event venue of the EV01 group based on the sound data 301 distributed from the main server 1 via the edge server 2.

その際、端末装置20の集音部304がメンバーの声援などの音だけでなく、再生されたEV01グループのイベント会場の音を集音し、その音がEV01グループのイベント会場のスピーカ52で出力され、EV01グループのイベント会場のマイク53で集音されるようなことが繰り返されると、ハウリングやエコーが発生してしまう。そのため、EV01グループのイベント会場の音を除去する必要がある。 In this case, if the sound collection unit 304 of the terminal device 20 collects not only sounds such as cheers from the members but also the sounds from the event venue of the EV01 group that are being played back, and this sound is output from the speaker 52 at the event venue of the EV01 group and collected by the microphone 53 at the event venue of the EV01 group, and this process is repeated, feedback and echoes will occur. Therefore, it is necessary to remove the sounds from the event venue of the EV01 group.

この場合、メインサーバ1のデータ調整部13は、GP01グループに属するメンバーの声援、再生されたEV01グループのイベント会場の音、タイムカウント音302などが混合した音を音データ305として取得する。 In this case, the data adjustment unit 13 of the main server 1 acquires as sound data 305 a mixture of cheers from members belonging to the GP01 group, sounds from the event venue of the EV01 group being played back, and the time count sound 302.

そして、図7に示すように、データ調整部13は、取得した音データ305に含まれるタイムカウント音302のタイムカウント情報を観測し、メモリなどに記憶しておいたタイムカウント音302のタイムカウント情報を参照して、音データ301が含まれる期間Tを特定する。 Then, as shown in FIG. 7, the data adjustment unit 13 observes the time count information of the time count sound 302 contained in the acquired sound data 305, and identifies the period T in which the sound data 301 is included by referring to the time count information of the time count sound 302 stored in a memory or the like.

そして、データ調整部13は、メモリなどに記憶していた音データ301を読み出し、読み出した音データ301に相当する音データを期間Tの音データ305から除去することによって、GP01グループに属するメンバーの声援などを含む音のデータ305Aを生成する。 Then, the data adjustment unit 13 reads out the sound data 301 stored in a memory or the like, and removes the sound data corresponding to the read out sound data 301 from the sound data 305 for the period T, thereby generating sound data 305A including cheers from members belonging to the GP01 group.

このように、タイムカウント音302を利用することで、声援などが混在した音データの中からEV01グループのイベント会場から配信された音データ301の位置を正確に検出してそれを除去できる。これにより、音再生部303で再生されたEV01グループのイベント会場の音が集音部304で集音された場合でも、ハウリングやエコーの発生を抑制することができる。 In this way, by using the time count sound 302, the position of the sound data 301 distributed from the event venue of the EV01 group can be accurately detected from among sound data that includes cheers and the like, and it can be removed. This makes it possible to suppress the occurrence of howling and echoes, even when the sound from the event venue of the EV01 group reproduced by the sound reproduction unit 303 is collected by the sound collection unit 304.

また、このようなタイムカウント音302を利用することで、図8に示すように、音データ305の一部に空白期間がある場合でも、存在するタイムカウント情報に基づいてEV01グループのイベント会場から配信された音データ301の位置を検出することができる。その結果、EV01グループのイベント会場の音のデータ301を正確に除去できる。 In addition, by using such a time count sound 302, even if there is a blank period in part of the sound data 305 as shown in FIG. 8, it is possible to detect the position of the sound data 301 distributed from the event venue of the EV01 group based on the existing time count information. As a result, it is possible to accurately remove the sound data 301 from the event venue of the EV01 group.

なお、ここでは、メインサーバ1がタイムカウント音302の追加と音データ301の除去を行うこととしたが、EV01グループのイベントに関与する全国のエッジサーバ2でこれらの処理を行ってもよい。 Note that, although the main server 1 is assumed to add the time count sound 302 and remove the sound data 301 here, these processes may also be performed by edge servers 2 nationwide involved in the EV01 group's events.

また、参加者により追加された音、除去すべき雑音の位置を容易に検出できることについても説明したが、参加者により追加された音、除去すべき雑音とは、イベント会場から配信された音データ301に含まれない特定の周波数帯域の音のデータ(例えば、金属音など他の参加者に不快になる音)である。 It has also been explained that the location of sounds added by participants and noise to be removed can be easily detected. The sounds added by participants and noise to be removed are sound data of a specific frequency band that is not included in the sound data 301 distributed from the event venue (for example, sounds that are unpleasant to other participants, such as metallic sounds).

例えば、メインサーバ1のデータ調整部13は、イベント会場で収集された音のデータに含まれない特定の周波数帯域の音のデータを検出し、検出した音のデータを端末装置2から送信された音のデータ305から除去することにより、金属音など他の参加者に不快になる音を除去することができる。 For example, the data adjustment unit 13 of the main server 1 can detect sound data of a specific frequency band that is not included in the sound data collected at the event venue, and remove the detected sound data from the sound data 305 transmitted from the terminal device 2, thereby removing sounds that are unpleasant to other participants, such as metallic sounds.

また、メインサーバ1のデータ調整部13は、イベント会場で収集された音のデータに含まれない迷惑音声のデータをAIなどを用いて検出し、検出した迷惑音声のデータを端末装置2から送信された音のデータ305から除去する。これにより、他の参加者に不快になる迷惑音声を除去することができる。迷惑音声とは、予め迷惑音声を学習させた学習モデルにより迷惑音声と判定された音声である。さらに、このような迷惑音声をAIが検出した場合、データ調整部13は、この参加者の端末装置20から送信される音声のデータを、途中から自動的に所定の時間遮断してもよい。 The data adjustment unit 13 of the main server 1 also uses AI or the like to detect nuisance voice data that is not included in the sound data collected at the event venue, and removes the detected nuisance voice data from the sound data 305 transmitted from the terminal device 2. This makes it possible to remove nuisance voice that is unpleasant to other participants. Nuisance voice is voice that has been determined to be nuisance voice by a learning model that has been trained in advance to detect nuisance voice. Furthermore, when such nuisance voice is detected by AI, the data adjustment unit 13 may automatically block the voice data transmitted from the terminal device 20 of this participant for a predetermined period of time.

以上説明したように、本実施の形態によれば、イベント会場で音を再現する権限が付与された複数のグループから配信される音を調整して、調整後の音をイベント会場に配信することができる。これにより、演奏と応援曲などを伝達する通信ネットワークの伝送方式や遅延時間の違いがある場合でもイベント会場で再現される音が調和するため、例えば無観客試合の場合でも、実際に吹奏楽団や観客が会場にいるような印象を与えることができる。 As described above, according to this embodiment, sounds distributed from multiple groups authorized to reproduce sounds at an event venue can be adjusted, and the adjusted sounds can be distributed to the event venue. This allows the sounds reproduced at the event venue to be in harmony even if there are differences in the transmission methods and delay times of the communication networks that transmit the performance and cheering songs, etc., so that even in the case of a match without spectators, for example, it is possible to give the impression that a brass band and spectators are actually present at the venue.

ここまでは、イベント会場に演奏、声援などを再現する方法について説明したが、本実施の形態は、遠隔手術、建設機器の遠隔操作、eスポーツなどにも適用可能である。以下、その例について説明する。なお、以下の例においても、上述したシステム構成と同様の構成を採用することができる。 So far, we have explained a method for recreating musical performances, cheers, and the like at an event venue, but this embodiment can also be applied to remote surgery, remote operation of construction equipment, e-sports, and the like. Examples of these are explained below. Note that the same system configuration as described above can be used in the following examples as well.

例えば、遠隔で人の手術をする場合、図2に示すメインサーバ1のコード管理・認証部11は、複数の医師で構成されるグループ(医師グループ)に対し、エッジサーバ2を介して、OP(OPeration)01などのサブ配信コードに紐づいたサブコード(OP01―01、OP01―02など)を配信する。ここで、サブ配信コードは、例えば、医師グループのスタッフの一人が取得するものとする。サブ配信コード及びサブコードは、コード管理・認証部11、及び、エッジサーバ2のコード管理部21で照合される。 For example, when performing surgery on a person remotely, the code management and authentication unit 11 of the main server 1 shown in FIG. 2 distributes a sub-code (OP01-01, OP01-02, etc.) linked to a sub-distribution code such as OP (OPeration) 01 to a group (doctor group) consisting of multiple doctors via the edge server 2. Here, the sub-distribution code is obtained, for example, by one of the staff members of the doctor group. The sub-distribution code and the sub-code are collated by the code management and authentication unit 11 and the code management unit 21 of the edge server 2.

医師グループには、遠隔操作装置(端末装置20の一種)を操作して手術を行う執刀医、助手などが含まれる。サブ配信コード及びサブコードは、手術現場で遠隔手術を実行する権限を医師グループのメンバーに付与する権限コードである。 The doctor group includes a surgeon and assistants who operate a remote operation device (a type of terminal device 20) to perform surgery. The sub-distribution code and sub-code are authority codes that grant the members of the doctor group the authority to perform remote surgery at the surgical site.

遠隔操作装置は、執刀医、助手などによる操作を受け付けるハンドル、表示部などを備える。表示部は、手術マニピュレータの動作や、患者の状態などを撮影した映像を表示する。 The remote control device is equipped with a handle that accepts operations by the surgeon or assistant, a display unit, etc. The display unit shows images of the operation of the surgical manipulator and the patient's condition, etc.

サブコード(OP01―01、OP01―02など)を受信した医師グループのメンバーが、このサブコードを遠隔操作装置に入力した場合、メインサーバ1のコード管理・認証部11は、入力されたサブコードと自らが管理するサブコードとが一致するか否かを判定する(権限コードの認証)。 When a member of the doctor group receives a subcode (OP01-01, OP01-02, etc.) and inputs this subcode into a remote control device, the code management and authentication unit 11 of the main server 1 determines whether the input subcode matches the subcode it manages (authentication of the authorization code).

そして、それらのサブコードが一致した場合、図3に示すエッジサーバ2のデータ収集・分類部22は、手術現場に設置された手術マニュピレータに対して操作に応じた動作を行うように指令する動作指令を遠隔操作装置から収集し、収集した動作指令をデータ調整部23に送信する。 If these subcodes match, the data collection and classification unit 22 of the edge server 2 shown in FIG. 3 collects from the remote control device an operation command that instructs the surgical manipulator installed at the surgical site to perform an operation corresponding to the operation, and transmits the collected operation command to the data adjustment unit 23.

メンバーが入力したサブコードとコード管理・認証部11が管理するサブコードとが一致しない場合、遠隔操作装置は、医師グループとして接続できないように構成されている。 If the subcode entered by the member does not match the subcode managed by the code management and authentication unit 11, the remote control device is configured not to be able to connect as a doctor group.

また、エッジサーバ2のデータ収集・分類部22は、マイクとカメラを備える遠隔操作装置から送信された音と映像のデータも収集する。そして、エッジサーバ2のデータ調整部23は、動作指令、音、及び映像の調整並びに複合などを行う。その結果得られたデータは、メインサーバ1に送信される。 The data collection and classification unit 22 of the edge server 2 also collects audio and video data transmitted from a remote control device equipped with a microphone and camera. The data adjustment unit 23 of the edge server 2 then adjusts and combines the operation commands, audio, and video. The resulting data is transmitted to the main server 1.

ここで、調整とは、前述のように、収集したデータに対してタイミングの調整、雑音消去、ハウリング、エコーの抑制などを行う処理であり、複合とは、複数の音と、動作指令及び映像のデータを束ねることである。 As mentioned above, "adjusting" refers to the process of adjusting the timing of collected data, eliminating noise, suppressing feedback and echoes, etc., while "combining" refers to bundling multiple sounds, action commands, and video data.

ここで、タイミングの調整処理は、AIを用いて行ってもよいし、遠隔手術を行う医師グループのスタッフが行ってもよいし、図5で説明したようなタイムカウント音を用いてAIで行ってもよい。 Here, the timing adjustment process may be performed by AI, by staff of the medical group performing the remote surgery, or by AI using a time count sound as described in Figure 5.

そして、このデータを受信したメインサーバ1のデータ調整部13は、1つ又は複数のエッジサーバ2から受信した動作指令、音、及び映像のデータに対し、必要に応じて再度調整及び複合を行う。 Then, the data adjustment unit 13 of the main server 1 that receives this data adjusts and composites the operational commands, sound, and video data received from one or more edge servers 2 again as necessary.

その後、そのデータは、手術マニピュレータに送信され、動作指令に応じて手術マニピュレータが動作する。また、遠隔操作装置が取得した音及び映像が、手術現場に設置されたスピーカ及び表示装置により再生される。 The data is then sent to the surgical manipulator, which operates according to the operation command. In addition, the sound and images captured by the remote control device are played back on speakers and display devices installed at the surgical site.

一方、メインサーバ1のデータ収集・分類部12は、手術室に設置された複数の端末装置20から手術中の音、及び、映像(手術マニピュレータの動作や、患者の状態などを撮影した映像)のデータを収集してデータ調整部13に送信する。 Meanwhile, the data collection and classification unit 12 of the main server 1 collects data on sounds and images (images capturing the operation of the surgical manipulator, the condition of the patient, etc.) during surgery from multiple terminal devices 20 installed in the operating room, and transmits this data to the data adjustment unit 13.

そして、データ調整部13は、手術中の音及び映像のデータに対してハウリングやエコーの抑制などの調整を行うとともに、調整後の音及び映像のデータと、医師グループの各メンバーの遠隔操作装置からエッジサーバ2を介して取得され、必要に応じて調整及び複合がなされた音及び映像のデータとを複合する。 The data adjustment unit 13 then performs adjustments to the audio and video data during surgery, such as suppressing feedback and echoes, and combines the adjusted audio and video data with audio and video data obtained from the remote control devices of each member of the doctor group via the edge server 2 and adjusted and combined as necessary.

これにより、手術室の様子を示す音及び映像のデータと、医師グループの各メンバーの会話の様子を示す音及び映像のデータとがタイミングを合わせて束ねられる。 This allows audio and video data showing the scene in the operating room to be timed together with audio and video data showing the conversations between each member of the doctor team.

そして、その結果得られたデータは、エッジサーバ2に送信され、エッジサーバ2のデータ調整部23において、雑音とタイムカウント音の消去、ハウリングとエコーの抑制などの調整が行われる。その後、そのデータは、OP01に紐づいた遠隔操作装置に配信される。 The resulting data is then sent to the edge server 2, where the data adjustment unit 23 of the edge server 2 performs adjustments such as removing noise and the time count sound, and suppressing feedback and echo. The data is then distributed to the remote control device linked to OP01.

このように、サブコードが配布された執刀医と助手が、異なる場所で遠隔操作装置を操作すると、通信遅延によって互いの動作指令が手術マニピュレータに同時に到着せずに、執刀医と助手の操作を同期させつつ手術することが困難な場合があるが、上記のような処理を行うことにより、執刀医と助手の操作を同期して手術をすることが可能になる。 In this way, when a surgeon and assistant who have been given subcodes operate remote control devices in different locations, communication delays can prevent their operation commands from reaching the surgical manipulator at the same time, making it difficult to perform surgery while synchronizing the surgeon and assistant's operations. However, by performing the above-mentioned processing, it becomes possible to perform surgery while synchronizing the surgeon and assistant's operations.

同様に複数の参加者による対話と操作のタイミング合わせの手法は建設機器の遠隔操作やeスポーツにも応用できる。 Similarly, the technique of coordinating the timing of dialogue and operations among multiple participants can also be applied to remote control of construction equipment and e-sports.

以上、本発明に係る実施形態について図面を参照して詳述してきたが、上述した各装置の機能は、コンピュータプログラムにより実現され得る。 The above describes the embodiments of the present invention in detail with reference to the drawings, but the functions of each of the above-mentioned devices can be realized by a computer program.

上述した各装置の機能をプログラムにより実現するコンピュータの読取装置が、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。 A reading device of a computer that realizes the functions of each of the above-mentioned devices through a program reads the program for realizing the functions of each of the above-mentioned devices from a recording medium on which the program is recorded, and stores the program in a storage device. Alternatively, a network card communicates with a server device connected to the network, and stores the program for realizing the functions of each of the above-mentioned devices downloaded from the server device in a storage device.

そして、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。 The CPU then copies the program stored in the storage device to the RAM, and sequentially reads and executes the instructions contained in the program from the RAM, thereby realizing the functions of each of the above devices.

なお、例えば、以下のような態様も本開示の技術的範囲に属するものと了解される。 For example, it is understood that the following aspects also fall within the technical scope of this disclosure:

(1)本開示のデータ配信プログラムは、コンピュータを、特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するデータ分類部、前記グループ毎に分類された送信データを各メンバーが属するグループ毎に調整するデータ調整部、前記グループ毎に調整された前記送信データを前記特定の空間に配信するデータ配信部、として機能させる。 (1) The data distribution program of the present disclosure causes a computer to function as a data classification unit that collects transmission data related to sound or video transmitted from the terminal device of each member who has been granted the authority to reproduce sound or video in a specific space by authenticating an authority code that grants the authority to each member belonging to a specific group, classifies the collected transmission data by group, a data adjustment unit that adjusts the transmission data classified by group for each group to which each member belongs, and a data distribution unit that distributes the transmission data adjusted for each group to the specific space.

(2)前記データ調整部は、前記送信データとともに送信される時間の経過を示すタイムカウント音のデータに基づいて、前記各メンバーの端末装置から送信された前記送信データの再生タイミングのずれを検出し、検出したずれの量に基づいて、前記再生タイミングをグループ毎に調整する。 (2) The data adjustment unit detects a deviation in the playback timing of the transmission data transmitted from each member's terminal device based on time count sound data indicating the passage of time transmitted together with the transmission data, and adjusts the playback timing for each group based on the amount of the detected deviation.

(3)前記送信データに前記音のデータが含まれる場合に、前記データ調整部は、前記特定の空間で収集された音のデータとともに送信される時間の経過を示すタイムカウント音のデータに基づいて、前記特定の空間において収集された音のデータの前記送信データにおける位置を検出し、前記特定の空間において収集されたデータを前記送信データから除去する。 (3) When the sound data is included in the transmission data, the data adjustment unit detects the position of the sound data collected in the specific space in the transmission data based on time count sound data indicating the passage of time that is transmitted together with the sound data collected in the specific space, and removes the data collected in the specific space from the transmission data.

(4)前記データ調整部は、前記特定の空間で収集された音のデータに含まれない特定の周波数帯域の音または迷惑音声のデータを検出し、検出した音または迷惑音声のデータを前記送信データから除去する。 (4) The data adjustment unit detects sound or nuisance voice data in a specific frequency band that is not included in the sound data collected in the specific space, and removes the detected sound or nuisance voice data from the transmission data.

(5)前記特定の空間で行われる異なる事象ごとに割り当てられるサブ配信コードに紐づき、各メンバーに前記権限を付与するサブコード、及び、前記サブコードに紐づいた共有キーに基づいて前記各メンバーを認証するコード管理・認証部をさらに備える。 (5) The system further includes a sub-code that is linked to a sub-distribution code assigned to each different event that takes place in the specific space and that grants the authority to each member, and a code management and authentication unit that authenticates each member based on a shared key linked to the sub-code.

(6)各メンバーの端末装置から送信された前記送信データに前記音のデータが含まれる場合に、前記特定の空間で行われる異なる事象ごとに発行されるサブ配信コードに基づいて、前記送信データに含まれる音のデータの音量調整を行う権限が付与された所有者を認証するコード管理・認証部をさらに備え、前記所有者の認証が成功した場合に、前記データ調整部は、前記所有者による操作に基づいて前記各メンバーの端末装置から送信された前記音のデータの音量調整を行う。 (6) When the sound data is included in the transmission data transmitted from each member's terminal device, the system further includes a code management and authentication unit that authenticates an owner who has been granted the authority to adjust the volume of the sound data included in the transmission data based on a sub-distribution code issued for each different event that takes place in the specific space, and when the authentication of the owner is successful, the data adjustment unit adjusts the volume of the sound data transmitted from each member's terminal device based on the operation by the owner.

(7)前記データ調整部は、前記グループ毎に調整された前記送信データが束ねられたデータ間で再生タイミングの調整を行う。 (7) The data adjustment unit adjusts the playback timing between the bundled data of the transmission data adjusted for each group.

(8)前記データ調整部は、異なる特定の空間で収集された音または映像のデータを含む収集データとともに送信され、時間の経過を示す異なる帯域のタイムカウント音のデータに基づいて、前記異なる特定の空間で収集された前記収集データの再生タイミングのずれを検出し、検出したずれの量に基づいて、前記再生タイミングを調整する。 (8) The data adjustment unit detects a deviation in the playback timing of the collected data collected in a different specific space based on time count sound data of a different band indicating the passage of time, which is transmitted together with collected data including sound or video data collected in the different specific space, and adjusts the playback timing based on the amount of the detected deviation.

(9)本開示のデータ配信方法は、コンピュータが、特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するステップ、前記グループ毎に分類された送信データを各メンバーが属するグループ毎に調整するステップ、前記グループ毎に調整された前記送信データを前記特定の空間に配信するステップ、を実行する。 (9) The data distribution method disclosed herein includes a step of collecting transmission data relating to sounds or images transmitted from the terminal devices of each member who has been granted the authority to reproduce sounds or images in a specific space by authenticating an authority code that grants the authority to each member who belongs to a specific group, classifying the collected transmission data by group, adjusting the transmission data classified by group for each group to which each member belongs, and distributing the transmission data adjusted for each group to the specific space.

以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Specific examples of the present disclosure have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and variations of the specific examples given above.

1 メインサーバ
2 エッジサーバ
6 コアネットワーク
7 インターネット
8 パブリッククラウド
10 BS
11 コード管理部・認証部
12 データ収集・分類部
13 データ調整部
14 データ配信部
15 ネットワーク送受信部
20 端末装置
21 コード管理部
22 データ収集・分類部
23 データ調整部
24 データ配信部
51 カメラ
52 スピーカ
53 マイク
100 ライブ配信システム
1 Main server 2 Edge server 6 Core network 7 Internet 8 Public cloud 10 BS
REFERENCE SIGNS LIST 11 Code management section/authentication section 12 Data collection/classification section 13 Data adjustment section 14 Data distribution section 15 Network transmission/reception section 20 Terminal device 21 Code management section 22 Data collection/classification section 23 Data adjustment section 24 Data distribution section 51 Camera 52 Speaker 53 Microphone 100 Live distribution system

Claims (9)

コンピュータを、
特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するデータ分類部、
前記グループ毎に分類された送信データをグループ毎に調整するデータ調整部、
前記グループ毎に調整された送信データを前記特定の空間に配信するデータ配信部、
として機能させるデータ配信プログラム。
Computer,
a data classification unit that collects transmission data relating to sounds or images transmitted from the terminal devices of each of the members to whom the authority to reproduce sounds or images in a specific space is granted by authentication of an authority code that grants the authority to each member belonging to a predetermined group, and classifies the collected transmission data by group;
a data adjustment unit that adjusts the transmission data classified into groups for each group;
a data distribution unit that distributes the transmission data adjusted for each group to the specific space;
A data distribution program that acts as a
前記データ調整部は、前記送信データとともに送信される時間の経過を示すタイムカウント音のデータに基づいて、前記各メンバーの端末装置から送信された前記送信データの再生タイミングのずれを検出し、検出したずれの量に基づいて、前記再生タイミングをグループ毎に調整する請求項1に記載のデータ配信プログラム。 The data distribution program according to claim 1, wherein the data adjustment unit detects a deviation in the playback timing of the transmission data transmitted from each member's terminal device based on time count sound data indicating the passage of time transmitted together with the transmission data, and adjusts the playback timing for each group based on the amount of deviation detected. 前記送信データに前記音のデータが含まれる場合に、前記データ調整部は、前記特定の空間で収集された音のデータとともに送信される時間の経過を示すタイムカウント音のデータに基づいて、前記特定の空間において収集された音のデータの前記送信データにおける位置を検出し、前記特定の空間において収集されたデータを前記送信データから除去する請求項1に記載のデータ配信プログラム。 The data distribution program according to claim 1, wherein, when the sound data is included in the transmission data, the data adjustment unit detects the position of the sound data collected in the specific space in the transmission data based on time count sound data indicating the passage of time that is transmitted together with the sound data collected in the specific space, and removes the data collected in the specific space from the transmission data. 前記データ調整部は、前記特定の空間で収集された音のデータに含まれない特定の周波数帯域の音または迷惑音声のデータを検出し、検出した音または迷惑音声のデータを前記送信データから除去する請求項3に記載のデータ配信プログラム。 The data distribution program according to claim 3, wherein the data adjustment unit detects sound or nuisance voice data in a specific frequency band that is not included in the sound data collected in the specific space, and removes the detected sound or nuisance voice data from the transmission data. 前記特定の空間で行われる異なる事象ごとに割り当てられるサブ配信コードに紐づき、各メンバーに前記権限を付与するサブコード、及び、前記サブコードに紐づいた共有キーに基づいて前記各メンバーを認証するコード管理・認証部をさらに備える請求項1~4のいずれか1項に記載のデータ配信プログラム。 The data distribution program according to any one of claims 1 to 4, further comprising a sub-code that is linked to a sub-distribution code assigned to each different event that takes place in the specific space and that grants the authority to each member, and a code management and authentication unit that authenticates each member based on a shared key linked to the sub-code. 各メンバーの端末装置から送信された前記送信データに前記音のデータが含まれる場合に、前記特定の空間で行われる異なる事象ごとに発行されるサブ配信コードに基づいて、前記送信データに含まれる音のデータの音量調整を行う権限が付与された所有者を認証するコード管理・認証部をさらに備え、前記所有者の認証が成功した場合に、前記データ調整部は、前記所有者による操作に基づいて前記各メンバーの端末装置から送信された前記音のデータの音量調整を行う請求項1~4のいずれか1項に記載のデータ配信プログラム。 The data distribution program according to any one of claims 1 to 4, further comprising a code management and authentication unit that authenticates an owner who has been granted the authority to adjust the volume of the sound data included in the transmission data based on a sub-distribution code issued for each different event that takes place in the specific space, when the sound data is included in the transmission data transmitted from each member's terminal device, and when the authentication of the owner is successful, the data adjustment unit adjusts the volume of the sound data transmitted from each member's terminal device based on an operation by the owner. 前記データ調整部は、前記グループ毎に調整された前記送信データが束ねられたデータ間で再生タイミングの調整を行う請求項1~6のいずれか1項に記載のデータ配信プログラム。 The data distribution program according to any one of claims 1 to 6, wherein the data adjustment unit adjusts the playback timing between the bundled data of the transmission data adjusted for each group. 前記データ調整部は、異なる特定の空間で収集された音または映像のデータを含む収集データとともに送信され、時間の経過を示す異なる帯域のタイムカウント音のデータに基づいて、前記異なる特定の空間で収集された前記収集データの再生タイミングのずれを検出し、検出したずれの量に基づいて、前記再生タイミングを調整する請求項1に記載のデータ配信プログラム。 The data distribution program according to claim 1, wherein the data adjustment unit detects a deviation in the playback timing of the collected data collected in a different specific space based on time count sound data of a different band that indicates the passage of time and is transmitted together with collected data including sound or video data collected in the different specific space, and adjusts the playback timing based on the amount of the detected deviation. コンピュータが、
特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するステップ、
前記グループ毎に分類された送信データをグループ毎に調整するステップ、
前記グループ毎に調整された送信データを前記特定の空間に配信するステップ、
を実行するデータ配信方法。
The computer
a step of collecting transmission data relating to sounds or images transmitted from terminal devices of each of the members to whom the authority has been granted by authenticating an authority code that grants the authority to reproduce sounds or images in a specific space to each member belonging to a predetermined group, and classifying the collected transmission data by group;
adjusting the transmission data classified into groups for each group;
Distributing the transmission data adjusted for each group to the specific space;
A data delivery method that performs:
JP2021057532A 2021-03-30 2021-03-30 Data distribution program and data distribution method Pending JP2024079861A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021057532A JP2024079861A (en) 2021-03-30 2021-03-30 Data distribution program and data distribution method
PCT/JP2022/016288 WO2022210971A1 (en) 2021-03-30 2022-03-30 Information processing device and data synchronization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057532A JP2024079861A (en) 2021-03-30 2021-03-30 Data distribution program and data distribution method

Publications (1)

Publication Number Publication Date
JP2024079861A true JP2024079861A (en) 2024-06-12

Family

ID=83459619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057532A Pending JP2024079861A (en) 2021-03-30 2021-03-30 Data distribution program and data distribution method

Country Status (2)

Country Link
JP (1) JP2024079861A (en)
WO (1) WO2022210971A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006121388A (en) * 2004-10-21 2006-05-11 Seiko Epson Corp Output timing control device, video output device, output timing control system, output device, integrated data providing device, output timing control program, output device control program, integrated data providing device control program, output timing control device control method, output device control method And integrated data providing apparatus control method
US9445147B2 (en) * 2013-06-18 2016-09-13 Ion Concert Media, Inc. Method and apparatus for producing full synchronization of a digital file with a live event

Also Published As

Publication number Publication date
WO2022210971A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
CN110692252B (en) Audio-visual collaboration method with delay management for wide area broadcast
US7096080B2 (en) Method and apparatus for producing and distributing live performance
US20060156375A1 (en) Systems and methods for synchronizing media rendering
US8120637B2 (en) Virtual theater system for the home
CN110910860A (en) Online KTV implementation method and device, electronic equipment and storage medium
EP2743917B1 (en) Information system, information reproducing apparatus, information generating method, and storage medium
JP2006041886A (en) Information processing apparatus and method, recording medium, and program
Kasuya et al. LiVRation: Remote VR live platform with interactive 3D audio-visual service
US20220014570A1 (en) Synchronized performances for remotely located performers
CN113545096B (en) Information processing device and information processing system
Roquet Acoustics of the one person space: headphone listening, detachable ambience, and the binaural prehistory of VR
JP2022020625A (en) Sound processing system, sound processing device, sound processing method, and sound processing program
JP2021182696A (en) Method and system for bidirectional broadcast
JP7503257B2 (en) Content collection and distribution system
JP2009005012A (en) Device and method for distributing data, and program
JP4443801B2 (en) How to use a karaoke machine that connects several remote karaoke banquet halls with a video conference system and merges the progress of the banquet
JP2024079861A (en) Data distribution program and data distribution method
JP4513274B2 (en) Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method
KR102131106B1 (en) Karaoke player that enables personal broadcasting by connecting to a broadcasting service server based on a two-dimensional code and operating method thereof
JP7465186B2 (en) Live Streaming System
US12132940B2 (en) Management server
EP3513565B1 (en) Method for producing and playing video and multichannel audio content
JP2004266746A (en) Image and voice communication system
JP2002314960A (en) Multi-view broadcast service system and related apparatus, method, recording medium or program
JP7748402B2 (en) Streaming sound production system