JP2024079861A - Data distribution program and data distribution method - Google Patents
Data distribution program and data distribution method Download PDFInfo
- Publication number
- JP2024079861A JP2024079861A JP2021057532A JP2021057532A JP2024079861A JP 2024079861 A JP2024079861 A JP 2024079861A JP 2021057532 A JP2021057532 A JP 2021057532A JP 2021057532 A JP2021057532 A JP 2021057532A JP 2024079861 A JP2024079861 A JP 2024079861A
- Authority
- JP
- Japan
- Prior art keywords
- data
- group
- sound
- adjustment unit
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 34
- 230000005540 biological transmission Effects 0.000 claims description 52
- 238000007726 management method Methods 0.000 claims 2
- 238000002716 delivery method Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 21
- 238000013473 artificial intelligence Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 238000013480 data collection Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 101000581506 Arabidopsis thaliana Methyl-CpG-binding domain-containing protein 1 Proteins 0.000 description 12
- 239000002131 composite material Substances 0.000 description 10
- 238000001356 surgical procedure Methods 0.000 description 9
- 101000581509 Arabidopsis thaliana Methyl-CpG-binding domain-containing protein 2 Proteins 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 239000004020 conductor Substances 0.000 description 7
- 238000013475 authorization Methods 0.000 description 5
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 5
- 238000002592 echocardiography Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000033764 rhythmic process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 229910001369 Brass Inorganic materials 0.000 description 2
- 239000010951 brass Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/239—Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
本開示は、データ配信プログラム及びデータ配信方法に関する。 This disclosure relates to a data distribution program and a data distribution method.
特許文献1には、ライブ演奏の映像などを会場外の複数の視聴者に提供しながら、視聴者の動作を検出し、検出した動作に対応する映像をライブ会場のディスプレイに表示させることで、視聴者がライブに参加している感覚を得ることができる映像表示システムが開示されている。
この映像表示システムは、例えば、特定周波数の音が連続して検出された場合、視聴者が拍手していると判断して、拍手の動作に対応した映像をライブ会場のディスプレイに表示させる。また、音声認識手段によって特定の単語を認識した場合、視聴者が会場に向かって掛け声を発していると判断して、掛け声を発する動作に対応した映像をライブ会場のディスプレイに表示させる。 For example, if the video display system detects a specific frequency sound continuously, it determines that the viewer is clapping and displays an image corresponding to the clapping action on the display at the live venue. Also, if the voice recognition means recognizes a specific word, it determines that the viewer is shouting at the audience and displays an image corresponding to the shouting action on the display at the live venue.
しかしながら、上述した特許文献1の従来技術では、データを伝達する通信ネットワークの伝送方式や遅延時間、使用している装置の処理能力の違いによって、会場で再現される複数の映像などが調和せず、違和感が生じるおそれがある。そのため、複数の遠隔地や異なる装置から送信されるデータをいかに調和させて特定の空間に配信するかが問題になっている。
However, with the conventional technology described in
本開示の非限定的な実施例は、複数の遠隔地や異なる装置から送信されるデータを調和させて特定の空間に配信するデータ配信プログラム及びデータ配信方法の提供に資する。 Non-limiting examples of the present disclosure contribute to providing a data distribution program and method for harmonizing data transmitted from multiple remote locations or different devices and distributing the data to a specific space.
本開示の一実施例に係るデータ配信プログラムは、コンピュータを、特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するデータ分類部、前記グループ毎に分類された送信データを各メンバーが属するグループ毎に調整するデータ調整部、グループ毎に調整された送信データを前記特定の空間に配信するデータ配信部、として機能させる。 A data distribution program according to an embodiment of the present disclosure causes a computer to function as a data classification unit that collects transmission data relating to sound or video transmitted from the terminal device of each member who has been granted the authority to reproduce sound or video in a specific space by authenticating an authority code that grants the authority to each member belonging to a specific group, classifies the collected transmission data by group, a data adjustment unit that adjusts the transmission data classified by group for each group to which each member belongs, and a data distribution unit that distributes the transmission data adjusted for each group to the specific space.
また、本開示の一実施例に係るデータ配信方法は、コンピュータが、特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するステップ、前記グループ毎に分類された送信データをグループ毎に調整するステップ、前記グループ毎に調整された送信データを前記特定の空間に配信するステップ、を実行する。 In addition, a data distribution method according to one embodiment of the present disclosure includes a computer that performs the steps of collecting transmission data related to sound or video transmitted from the terminal device of each authorized member of a specified group by authenticating an authority code that grants the authority to reproduce sound or video in a specific space to each member of the specified group, classifying the collected transmission data by group, adjusting the transmission data classified by group for each group, and distributing the transmission data adjusted for each group to the specific space.
本開示の一実施例によれば、複数の遠隔地や異なる装置から送信されるデータを調和させて特定の空間に配信できる。 According to one embodiment of the present disclosure, data sent from multiple remote locations or different devices can be harmonized and delivered to a specific space.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。 A preferred embodiment of the present disclosure will be described in detail below with reference to the accompanying drawings. Note that in this specification and drawings, components having substantially the same functions are designated by the same reference numerals to avoid redundant description.
図1は、本開示の実施の形態に係るライブ配信システム100の構成例を示す図である。ライブ配信システム100は、メインサーバ1、複数のエッジサーバ2、複数のBS(Base Station、基地局)10、複数の端末装置20、カメラ51、スピーカ52、及びマイク53を備える。
FIG. 1 is a diagram showing an example configuration of a
メインサーバ1は、音声、動画などの情報を受信しながらリアルタイムに再現するストリーミングサーバである。メインサーバ1は、例えばイベント会場のEV(EVent)01グループに集まる人々の音声やイベント風景などを、MX(MiXing)01グループ、GP(GrouP)01グループ及びBST(BroadcaST)01グループに属するメンバーへ配信する。メインサーバ1、及び、コアネットワーク6は、例えば配信業者により管理される。配信業者は、例えば、ライブ配信システム100のサービスを提供する業者である。
The
メインサーバ1は、各グループから配信される音、映像などを各グループや、インターネット7を介してイベントを視聴する視聴者などに配信する。
The
なお、図1には、1つのメインサーバ1、及び、1つのEV01グループのみ示してあるが、複数のメインサーバ1、及び、複数のイベント会場のグループ(EV01グループ、EV02グループ、・・・)があってもよい。また、メインサーバ1は、図1に示すように、配信業者が管理するコアネットワーク6内のクラウドに設けられてもよいし、コアネットワーク6外のパブリッククラウド8に設けられてもよい。
Note that while FIG. 1 shows only one
MX01グループは、例えば、楽団、合唱団などであり、メインサーバ1は、MX01グループに属するメンバーの演奏、演奏中の映像などを、EV01グループを含む各グループ、視聴者などに配信する。
The MX01 group is, for example, an orchestra or a choir, and the
GP01グループは、例えば、応援団、ファンなどの参加メンバーであり、メインサーバ1は、GP01グループに属するメンバーの声援、応援歌、応援中の映像などを、EV01グループを含む各グループ、視聴者などに配信する。
The GP01 group includes participating members such as cheering squads and fans, and the
BST01グループは、例えば、テレビ局やラジオ放送局に属する解説者、フリーの解説者などであり、メインサーバ1は、BST01グループに属するメンバーの試合の実況解説、実況解説中の映像などを、EV01グループを含む各グループ、視聴者などに配信する。
The BST01 group may be, for example, commentators belonging to a television station or radio station, or freelance commentators, and the
端末装置20は、各グループに属するメンバーが所有するスマートフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、固定(据置型)無線アクセス機器などの5G又はその他の高速通信に接続可能な端末装置である。
The
端末装置20のプロセッサがメモリに記録されたライブ配信アプリを実行することで、メインサーバ1を経由したEV01グループのイベント会場とのライブ配信が実現される。ライブ配信アプリは、ライブ配信システム100と接続してイベント会場に音声や映像データを配信し、イベント会場などから音声や映像データを受信する端末装置20にインストールされるアプリである。
When the processor of the
また、EV01グループに紐づいた端末装置20(EV01-01、EV01-02などのEV01グループのメンバーの端末装置20)には、イベント会場に設置され、カメラ51、スピーカ52、及びマイク53が接続される固定(据置型)無線アクセス機器などの端末装置が含まれる。この端末装置20は、EV01グループにおいてスピーカ52に音声を出力させ、また、カメラ51及びマイク53で取得した映像及び音のデータをコアネットワーク6に送信する。
The
さらに、端末装置20には、イベントを視聴するため、及び、配信者としての権限の取得に必要な申し込みを行うために用いられるスマートフォンやPCなどの端末装置20(図1において、インターネット7に接続されている端末装置20)が含まれる。これらの端末装置20は、他の配信業者やインターネットサービスプロバイダーのサービスに接続された装置であってもよい。
Furthermore, the
EV01グループは、イベントを開催する1つ又は複数の施設や場所に対応するグループであり、例えば、屋内又は屋外のコンサート会場、競技場、体育館、スタジオ、区民館、病院、養老施設などに対応するグループである。 The EV01 group corresponds to one or more facilities or locations where an event is held, such as indoor or outdoor concert venues, stadiums, gymnasiums, studios, community centers, hospitals, and nursing homes.
エッジサーバ2は、端末装置20からメインサーバ1に対して送信される音や映像などのデータを端末装置20に近い場所で編集・処理するMEC(Mobile Edge Computing)サーバである。図1には、異なる地域に分散して設置されている複数のエッジサーバ2が示されている。エッジサーバ2で処理されたデータはメインサーバ1へ送信される。
The
それぞれのエッジサーバ2から送信されたデータは、メインサーバ1で複合(エッジサーバ2で編集・処理された2つ以上のデータを、タイミングを合わせて束ねること)される。このように分散設置されたエッジサーバ2で編集などがなされた音や映像のデータをメインサーバ1に送信することによって、トラフィックの増加を軽減でき、また、メインサーバ1の処理も軽減できる。
The data sent from each
例えば、エッジサーバ2は、MX01グループの端末装置20からメインサーバ1に対して送信される演奏曲、演奏中の音声などのデータを、その端末装置20に近い場所で編集・処理する。
For example, the
また、エッジサーバ2は、GP01グループの端末装置20からメインサーバ1に対して送信される声援、応援歌、応援中の音声などのデータを、その端末装置20に近い場所で編集・処理する。
The
また、エッジサーバ2は、BST01グループの端末装置20からメインサーバ1に対して送信される実況解説、実況中の音声などのデータを、その端末装置20に近い場所で編集・処理する。
The
さらに、エッジサーバ2は、EV01グループの端末装置20からメインサーバ1に対して送信される音声、及び、イベント風景の映像などのデータを、その端末装置20に近い場所で編集・処理する。
Furthermore, the
なお、以下の説明では、分散設置されたエッジサーバ2で編集などがなされた音や映像のデータをメインサーバ1に送信し、その後の処理をメインサーバ1が実行することとするが、編集などのすべての処理をメインサーバ1が実行してもよい。
In the following explanation, audio and video data that has been edited in the
また、ある実施例では、一部の地域に設置されたエッジサーバ2のみが編集などの処理を行って、編集などがなされた音や映像のデータをメインサーバ1に送信し、その後の処理をメインサーバ1が実行するようにし、他の地域に設置されたエッジサーバ2は音や映像のデータを直接メインサーバ1に送信し、編集などのすべての処理をメインサーバ1が実行することとしてもよい。
In one embodiment, only the
各グループに属するメンバーは、例えば、ライブ配信システム100を運営する企業、又はライブ配信システム100を使用してイベントなどを配信する企業が運営するサービス(チケット販売サイトやチケット販売店のスクラッチ式カード)を通じて、音声や映像などをEV01グループで再現する権限コードと各コードに紐づいた共有キーを取得する。
Members of each group obtain an authorization code for reproducing audio, video, etc. in the EV01 group and a shared key linked to each code, for example through a service (a ticket sales site or a scratch card at a ticket sales store) operated by the company that operates the
そして、各グループに属するメンバーは、端末装置20のライブ配信アプリから権限コードと各コードに紐づいた共有キーを入力することで、音声や映像などを配信することができる。権限コードと共有キーの詳細については後述する。
Members of each group can then broadcast audio, video, and the like by inputting the authorization code and the shared key associated with each code from the live broadcasting app on the
カメラ51は、EV01グループのイベント会場の風景を撮影する撮像装置である。スピーカ52は、各グループから配信される音をEV01グループのイベント会場に再現する音の再現装置である。マイク53は、EV01グループのイベント会場の音を収集する集音装置である。 Camera 51 is an imaging device that captures the scenery at the EV01 group's event venue. Speaker 52 is a sound reproduction device that reproduces the sounds distributed from each group at the EV01 group's event venue. Microphone 53 is a sound collection device that collects sounds at the EV01 group's event venue.
カメラ51、スピーカ52、及び、マイク53は、EV01グループの端末装置20に接続されており、カメラ51で撮影された映像のデータ、及び、マイク53で収集された音のデータが、端末装置20によりコアネットワーク6に送信され、また、スピーカ52で再現する音のデータがコアネットワーク6から受信される。
The
図1のように、EV01グループに紐づいた端末装置20(EV01-01、EV01-02など)や、その他の複数の関連する会場にある端末装置20(図示を省略)からイベントの音や映像が配信される場合は、ユーザが端末装置20のライブ配信アプリを操作することにより、視聴したい位置にある端末装置20を選択することもできる。
As shown in FIG. 1, when sound and video of an event are distributed from terminal devices 20 (EV01-01, EV01-02, etc.) linked to the EV01 group, or from terminal devices 20 (not shown) at multiple other related venues, the user can operate the live distribution app on the
コアネットワーク6は、例えば5Gコアネットワークである。5Gコアネットワークは、低遅延かつ大容量の通信が可能である。5Gコアネットワークにより、EV01グループのイベント会場から離れた場所でイベントをリアルタイムで観戦したり、EV01グループのイベント会場から離れた場所でイベントにリモート参加したりすることができる。
The
5Gコアネットワークでは、何百万から何億というデバイスの情報が収集されることが見込まれるため、ネットワークスライシングと呼ばれる技術が注目されている。ネットワークスライシングによって5Gコアネットワークが仮想的に複数のスライスに分割されるため、例えば、分割したあるスライスを超低遅延通信に利用し、他のスライスを大容量通信に利用することができる。 The 5G core network is expected to collect information from millions to hundreds of millions of devices, so a technology called network slicing is attracting attention. Network slicing virtually divides the 5G core network into multiple slices, making it possible, for example, to use one slice for ultra-low latency communications and another slice for high-volume communications.
なお、5G通信コアネットワークを利用しても、端末装置20から遠く離れた場所のアプリケーションサーバなどにアクセスすると、レスポンスがmsec単位で遅れてしまう。そこで、5Gコアネットワークでは、端末装置20の近くにエッジサーバ2を設置し、各エッジサーバ2のプロセッサがメモリに記録された各種プログラムを実行することで、レスポンスの遅れの低減などを実現することができる。
Even when using a 5G communication core network, if an application server or the like located far away from the
各種プログラムとは、例えば、指揮者やPA(Public Address)エンジニア(MX01グループに属するメンバーのサブ配信者)向けのミキシングプログラム、GPグループに属するメンバーの迷惑音声防止プログラム、ハウリング・エコー抑制プログラムなどである。 The various programs include, for example, mixing programs for conductors and PA (Public Address) engineers (sub-broadcasters of members belonging to the MX01 group), programs to prevent nuisance voices for members belonging to the GP group, and feedback/echo suppression programs.
図2は、メインサーバ1の構成例を示す図である。メインサーバ1のプロセッサがメモリに記録されたプログラムを実行することにより、メインサーバ1の各種機能が実現される。
Figure 2 shows an example of the configuration of the
メインサーバ1は、コード管理・認証部11、データ収集・分類部12、データ調整部13、データ配信部14、及びネットワーク送受信部15を備える。
The
コード管理・認証部11は、例えば、図1のメインサーバ1が配置されているクラウド環境の中に存在するコード発行システム(図示を省略)に接続されている。コード発行システムは、イベント毎に各種権限コード及び共有キーを発行し、そのデータはメインサーバ1のコード管理・認証部11に記憶される。なお、コード発行システムは、メインサーバ1が配置されているクラウド環境の外にあってもよい。
The code management and
コード管理・認証部11は、音や映像などを各イベント会場で再現するため、各イベントに割り当てられるイベントコード(EV01、EV02など)、サブ配信コード(MX01、MX02など)、サブ配信コードに紐づいたサブコード(MX01―01、MX02―01など)、参加コード(GP01―01、GP02―01など)、解説コード(BST01、BST02など)を管理及び認証する。コード管理・認証部11では、例えば、どのコードがどのイベントにアクセス可能なコードであるかなどが管理される。
The code management and
MX01などのサブ配信コードは、そのサブ配信コードに紐づいたMX01サブコード(MX01―01、MX01―02など)を有するユーザの端末装置20から送信されるデータを調整して配信する権限を、MX01グループのサブ配信者に与えるコードである。サブ配信者は、ライブ配信システム100を使い、楽団や合唱団の演奏や演奏風景の映像をライブ配信する指揮者、ミキシング作業を行うPAエンジニアなどである。
A sub-distribution code such as MX01 is a code that gives a sub-distributor of the MX01 group the authority to adjust and distribute data sent from a
例えば、MX01のサブ配信者になるには、楽団などを率いる指揮者が自身のライブ配信アプリのアカウントを通じて「イベント主催者」に「サブ配信者」の権限を申請する。そして、イベント主催者にサブ配信者として認定されると、自身のアカウントに紐づいたMX01などのサブ配信コード(親コード)が発行され、サブ配信者はサブ配信コードを取得することができる。このとき、コード管理・認証部11においては、MX01などのサブ配信コードと指揮者のアカウントの紐づけがなされる。
For example, to become a sub-broadcaster for MX01, a conductor of an orchestra or the like applies for "sub-broadcaster" authority to the "event organizer" through his or her own live streaming app account. Once the event organizer recognizes the sub-broadcaster as a sub-broadcaster, a sub-distribution code (parent code) such as MX01 linked to the conductor's account is issued, and the sub-broadcaster can obtain the sub-distribution code. At this time, the code management and
次に、サブ配信者は、自身のライブ配信アプリでMX01に紐づいたMX01―01、MX01―02などのサブコード(子コード)と各サブコードに紐づいた共有キーを発行して、楽団や合唱団のメンバーに配布する。サブコードは、MX01グループ(MX01サブ配信コードに対応するグループ)に属する各メンバーに、EV01グループのイベント会場への演奏の配信を許可するためのコードである。 Next, the sub-distributor issues sub-codes (child codes) such as MX01-01, MX01-02, etc. linked to MX01 using their own live distribution app, along with shared keys linked to each sub-code, and distributes these to members of the orchestra or choir. The sub-codes are codes that allow each member of the MX01 group (the group corresponding to the MX01 sub-distribution code) to distribute the EV01 group's performance to the event venue.
MX01―01などのサブコードと共有キーの発行及び記憶処理は、サブ配信者のライブ配信アプリ経由で、メインサーバ1のコード管理・認証部11にて実行される。
The issuance and storage process of sub-codes such as MX01-01 and shared keys is carried out by the code management and
このようにして、MX01―01などのサブコードを有する各メンバーの端末装置20のライブ配信アプリから送信される音声や映像を、MX01のサブ配信コードを有するサブ配信者が自身の端末装置20のライブ配信アプリを操作して調整することができる。
In this way, a sub-broadcaster with a sub-broadcast code of MX01 can adjust the audio and video transmitted from the live streaming app on the
GP01―01などの参加コードは、オンラインチケット販売やチケット販売店から取得される。GP01―01などのGP01参加コードは、例えば、声援、応援歌、応援中の音声などのデータを配信する権限を、GP01グループに属するメンバーなどに与えるコードである。 A participation code such as GP01-01 is obtained from online ticket sales or a ticket sales store. A GP01 participation code such as GP01-01 is a code that gives members of the GP01 group the authority to distribute data such as cheers, cheering songs, and audio during cheering.
応援団やファンなどは、自分が応援や支援するチームやグループに紐づいたGP参加コードを購入することで、EV01グループのイベント会場やEV01グループのイベントに参加する各グループや、インターネット7を介してイベントを視聴する視聴者に自分の声援を配信することが可能となる。 By purchasing a GP participation code linked to the team or group they support or encourage, supporters and fans can broadcast their cheers at EV01 Group event venues, to other groups participating in EV01 Group events, and to viewers watching the events via the Internet 7.
BST01などの解説コードは、例えば、EV01グループの試合の実況解説、解説中の音声などのデータを配信する権限を、BST01グループに属するメンバーなどに与えるコードである。 A commentary code such as BST01 is a code that gives members of the BST01 group the authority to distribute data such as live commentary of the EV01 group's matches and audio during commentary.
データ収集・分類部12は、EV01グループの端末装置20から送信された音声、映像などのデータを収集してデータ調整部13に送信する。
The data collection and
また、データ収集・分類部12は、EV01グループのイベントに参加する(紐づいた)全てのグループ(例えば、図1に示したEV01グループ、MX01グループ、GP01グループ、BST01グループなど)の端末装置20からBS10を介して送信される音、映像などのデータを収集して、収集したデータを各グループに紐づいたコードや複合コードに基づき分類し、データ調整部13に送信する。ここで、複合コードとは、複数のグループのデータを複合したデータに付与される識別コードである。
The data collection and
データ調整部13は、データ収集・分類部12で分類されたデータに対して各種の調整を行う第1調整部13a、第2調整部13b、第3調整部13c、第4調整部13d、第5調整部13e、及び第6調整部13fを備える。
The
第1調整部13aは、MX01グループの端末装置20から送信される音、及び、映像の調整を行い、調整後の音や映像のデータを第6調整部13f送信する。例えば、第1調整部13aは、MX01グループの端末装置20から送信される音や映像のデータに対して調整を行う権限をサブ配信者に開放する。そして、サブ配信者がライブ配信アプリを用いて行った調整指示を受け付け、音量調整、タイミングの調整、映像の画質調整などを含むミキシング処理を行う。
The
第2調整部13bは、GP01グループの端末装置20から送信される音、及び、映像の調整を行い、調整後の音データや映像データを第6調整部13fに送信する。例えば、第2調整部13bは、GP01グループの端末装置20から送信される音の音量調整、音質調整、迷惑音声(野次、罵声など)の監視、ハウリングとエコーの抑制、タイミングの調整、映像の画質調整などをAI(Artificial Intelligence)などを用いて行い、これらの処理後の音データや映像データを第6調整部13fに送信する。
The
第3調整部13cは、BST01グループの端末装置20から送信される音、及び、映像の調整を行い、調整後の音データや映像データを第6調整部13fに送信する。例えば、第3調整部13cは、BST01グループの端末装置20から送信される音の音量調整、映像の画質調整などを、AIなどを用いて行い、調整後の音データや映像データを第6調整部13fに送信する。
The
第4調整部13dは、EV01グループの端末装置20から送信されたデータに対して、音量調整、タイミングの調整、映像の画質調整などを、AIなどを用いて行う。そして、これらの処理がなされたデータを、第6調整部13fに送信する。
The
第5調整部13eは、エッジサーバ2から送信された、複数のグループのデータが複合されたデータに対して、音量調整、タイミングの調整、映像の画質調整などを、AIなどを用いて行う。そして、これらの処理がなされたデータを、第6調整部13fに送信する。
The
第6調整部13fは、第1調整部13a~第5調整部13eで調整されたデータの複合(第1調整部13a~第5調整部13eで調整された2つ以上のデータを、タイミングを合わせて束ねること)、ハウリングとエコーの抑制などの調整を、AIなどを用いて行い、調整後のデータをデータ配信部14及びネットワーク送受信部15に送信する。
The
例えば、第6調整部13fは、第1調整部13a~第5調整部13eから取得したMX01、GP01、BST01、EV01の各グループからのデータを複合してMBD(Mainserver BunDle)01というデータを生成し、そのMBD01をデータ配信部14及びネットワーク送受信部15に送信する。
For example, the
また、第6調整部13fは、第1調整部13a~第5調整部13eから取得したデータを複合せずに、データ配信部14及びネットワーク送受信部15に送信することも可能である。
The
ここで、MBD01というデータには、MX01グループからのデータを複合したMBD-MX01というデータ、GP01グループからのデータを複合したMBD-GP01というデータ、BST01グループからのデータを複合したMBD-BST01というデータ、EV01グループからのデータを複合したMBD-EV01というデータが含まれ得る。 Here, the data MBD01 can include data MBD-MX01 which is a combination of data from the MX01 group, data MBD-GP01 which is a combination of data from the GP01 group, data MBD-BST01 which is a combination of data from the BST01 group, and data MBD-EV01 which is a combination of data from the EV01 group.
また、第6調整部13fは、第1調整部13a~第3調整部13cから取得したMX01、GP01、BST01の各グループからのデータを複合してMBD02というデータを生成し、そのMBD02をデータ配信部14及びネットワーク送受信部15に送信する。
The
更に、第6調整部13fは、第1調整部13aから取得したMX01グループからのデータだけを複合してMBD-MX01のデータを生成し、MBD-MX01を配信部14及びネットワーク送受信部15に送信する。なお、各調整部でのタイミングの調整や、ハウリングとエコーの抑制方法、複合の方法については後述する。
Furthermore, the
なおここでは、音量調整等を、第2調整部13b~第5調整部13eがAIなどを用いて行うこととしたが、第2調整部13b~第5調整部13eが音量調整等を、配信業者のPAエンジニアからの指示を受け付けて行うこととしてもよい。
Here, the
データ配信部14は、第6調整部13fから取得したデータを全国の端末装置20に配信する。また、データ配信部14から配信される音や映像のデータは、第6調整部13fで複合された各グループや複合コード(例えばMBD01のデータの場合、MBD-MX01、MBD-GP01、MBD-BST01、MBD-EV01の各データ)ごとにミュートすることが可能である。
The
ネットワーク送受信部15は、インターネット7に接続された端末装置20との間、また、パブリッククラウド8との間でデータの送受信を行う。
The
なお、MX02、GP02、BST02グループなどの他のグループに対する処理も上記の処理と同様であるため、説明を省略する。 The processing for other groups such as the MX02, GP02, and BST02 groups is similar to the above processing, so the explanation is omitted.
また、ここではデータ調整部13に第6調整部13fのほか、第1調整部13aから第5調整部13eの5つの調整部を有することとしたが、メインサーバ1がエッジサーバ2から受信するデータに対応するグループ又は複合コードの種類に応じて、それらのグループ又は複合コードに対応する調整部が調整部13に適宜追加される。
In addition, here, the
図3は、エッジサーバ2の構成例を示す図である。エッジサーバ2のプロセッサがメモリに記録されたプログラムを実行することにより、エッジサーバ2の各種機能が実現される。
Figure 3 is a diagram showing an example of the configuration of the
エッジサーバ2は、コード管理部21、データ収集・分類部22、データ調整部23、及びデータ配信部24を備える。
The
コード管理部21は、前述したライブ配信アプリから接続がある度に、メインサーバ1のコード管理・認証部11に記憶及び管理されている各種コードと共有キーを照合する。
The
データ収集・分類部22は、コード管理部21によって音及び映像の配信が確認されたEV01グループのイベントに参加する(紐づいた)端末装置20から送信される音及び映像のデータを、BS10を介してリアルタイムで収集し、収集したデータを各グループに紐づいたコードや複合コードに基づき分類して、データ調整部23に送信する。
The data collection and
例えば、データ収集・分類部22は、複数のMXサブ配信コード(例えばMX01やMX02など)に紐づいた複数のグループのメンバーの端末装置20から送信される演奏の音及び映像のデータ(例えばMX01―01、MX01―02やMX02-01、MX02-02などに対応するデータ)を収集し、収集したデータをMX01、MX02などの各MXグループに分類して、データ調整部23に送信する。
For example, the data collection and
また、データ収集・分類部22は、GP参加コードによって配信が許可されたメンバーの音及び映像のデータを収集し、収集したデータをGP01、GP02などの各GPグループに分類して、データ調整部23に送信する。
The data collection and
さらに、データ収集・分類部22は、BST解説コードによって配信が許可されたメンバー、例えば解説者の実況の音及び映像のデータを収集し、収集したデータをBST01、BST02などの各BSTグループに分類して、データ調整部23に送信する。
Furthermore, the data collection and
また、データ収集・分類部22は、メインサーバ1から送信された音及び映像のデータ(MBD01、MBD02やMBD-MX01など)を収集してデータ調整部23に送信する。なお、図1では、メインサーバ1が一台である場合を示したが、メインサーバ1は複数台あってもよい。
The data collection and
データ調整部23は、データ収集・分類部22で分類されたデータに対して各種の調整を行う第1調整部23a、第2調整部23b、第3調整部23c、第4調整部23d、第5調整部23e、及び第6調整部23fを備える。
The
第1調整部23aは、MX01グループのサブ配信者(例えば、楽団の指揮者やPAエンジニアなど)にミキシング機能などの特定の権限を開放する。
The
例えば、第1調整部23aは、MX01グループに属するメンバー(1つ又は複数のMX01サブコードによって演奏の配信が許可されたメンバー)の端末装置20から送信されるデータの音量調整、音質調整、ハウリングとエコーの抑制、映像の画質調整、タイミングの調整などを行う。第1調整部23aは、これらの処理後の音データや映像データを第6調整部23fに送信する。
For example, the
サブ配信コードを有するMX01グループのサブ配信者は、自身の端末装置20のライブ配信アプリの画面から第1調整部23aの機能にアクセスして、MX01グループに属するメンバー(MX01のサブコード)の端末装置20から送信されるデータの音量調整、タイミングの調整などのミキシングを行うことができる。
A sub-distributor of the MX01 group who has a sub-distribution code can access the functions of the
ここで、MX01グループの演奏者(MX01サブコード)が全国各地から参加している場合、指揮者が各演奏者の演奏に対してライブ配信アプリで行った調整の情報(例えば、音量調整の情報)が、各演奏者がアクセスしている全国のエッジサーバ2の第1調整部23aに送信される。そして、この情報に基づき音量調整などの調整が全国のエッジサーバ2の第1調整部23aにて実施され、その結果得られたデータが第6調整部23fに送信される。
Here, when performers (MX01 subcode) of the MX01 group are participating from all over the country, information on adjustments made by the conductor to the performance of each performer using the live distribution app (e.g., volume adjustment information) is sent to the
第2調整部23bは、GP01グループのユーザから送信される音声及び映像データに対して、音量調整、タイミングの調整、ハウリングとエコーの抑制、迷惑音声や映像に対する忠告発信や一時的な配信の遮断などを行い、調整後のデータを第6調整部23fに送信する。なお、第2調整部23bは、音量調整、迷惑音声や映像に対する忠告発信や一時的な配信の遮断を、AIなどを用いて行う。
The
第3調整部23cは、BST01グループのユーザから送信される音声及び映像データに対して、ハウリングとエコーの抑制などの調整をAIにより行い、調整後のデータを第6調整部23fに送信する。
The
第4調整部23dは、EV01グループの端末装置20から送信されるデータに対して、雑音消去などの処理を、AIなどを用いて行う。そして、第4調整部23dは、これらの処理がなされたデータを、第6調整部23fに送信する。
The
第5調整部23eは、メインサーバ1から送信された、複数のグループのデータが複合されたデータ(例えば、前述のMBD02など)に対して、雑音消去などの処理を、AIなどを用いて行う。そして、第5調整部23eは、これらの処理がなされたデータを、第6調整部23fに送信する。
The
第6調整部23fは、第1調整部23a~第5調整部23eで調整されたデータの複合(第1調整部23a~第5調整部23eで調整された2つ以上のデータを、タイミングを合わせて束ねること)、ハウリングとエコーの抑制などの調整を、AIなどを用いて行い、調整後のデータをデータ配信部24に送信する。
The
例えば、第6調整部23fは、第2調整部23bから取得したGP01のデータと、第5調整部23eから取得したMBD02を複合して、EBD(Edge Server BunDle)02というデータを生成し、そのEBD02をデータ配信部24に送信する。
For example, the
また、第6調整部23fは、第1調整部23a~第5調整部23eから取得したデータを複合せずに、MX01―01、MX01―02やEV01―01、EV01―02やMBD01、MBD-MX01として、データ配信部24に送信することも可能である。
The
なおここでは、第2調整部23b~第5調整部23eが音量調整等を、AIなどを用いて行うこととしたが、第2調整部23b~第5調整部23eが音量調整等を、配信業者のPAエンジニアからの指示を受け付けて行うこととしてもよい。
Note that, here, the
データ配信部24は、第6調整部23fから取得したEBD02、MX01―01、EV01―01、MBD01、MBD-MX01などのデータをメインサーバ1や端末装置20に送信する。
The
また、データ配信部24から配信されるEBD02などの音声や映像のデータは、複合されているグループや複合コード(例えばEBD02は、MBD-MX01、MBD-GP01、MBD-BST01、GP01など)ごとにミュートすることが可能である。
In addition, audio and video data such as EBD02 distributed from the
例えば、データ配信部24は、第6調整部23fから取得したMX01―01、MX01―02、EV01―01、EV01―02などのデータを、メインサーバ1に送信する。
For example, the
また、データ配信部24は、第6調整部23fから取得したMBD-MX01などのデータを、エッジサーバ2が設置されている地域のBS10に接続するメンバーの端末装置20に送信する。
The
さらに、各データの調整や複合、送信先の選択は、配信業者が提供するライブ配信システム100のアプリの設定画面から配信者が実行できるようにしてもよい。
Furthermore, the distributor may be able to adjust, combine, and select the destination of each piece of data from the settings screen of the app for the
なお、MX02、GP02、BST02グループなどの他のグループに対する処理も上記の処理と同様であるため、説明を省略する。 The processing for other groups such as the MX02, GP02, and BST02 groups is similar to the above processing, so the explanation is omitted.
また、ここではデータ調整部23が、第6調整部23fのほか、第1調整部23a~第5調整部23eの5つの調整部を有することとしたが、エッジサーバ2が受信するデータに対応するグループ又は複合コードの種類に応じて、それらのグループ又は複合コードに対応する調整部がデータ調整部23に適宜追加される。
In addition, here, the
次に、図4、図5を参照してライブ配信システム100の動作を説明する。以下では、チームA対チームBの無観客の野球の試合で、チームAを応援演奏する吹奏楽団(MX01グループ)の応援曲と、チームAを応援する応援団(GP01グループ)の声援と、試合を解説する解説者(BST01グループ)の実況などを、球場(EV01グループ)に配信する場合の動作について説明する。
Next, the operation of the
図4は、EV01グループから届く映像や音に合わせて、イベントEV01に紐づいたMX01グループ、GP01グループ、及び、BST01グループのメンバーがライブ配信を行う場合の処理の一例を説明するシーケンスチャートである。図5は、音及び映像のタイミングの調整方法について説明する図である。 Figure 4 is a sequence chart that explains an example of processing when members of the MX01 group, GP01 group, and BST01 group linked to event EV01 perform live streaming in sync with video and audio received from the EV01 group. Figure 5 is a diagram that explains a method for adjusting the timing of audio and video.
ここで、EV01グループ、MX01グループ、GP01グループ、及び、BST01グループの端末装置20は、前述したようなライブ配信イベント用に入手した各種コードと共有キーを用いて認証を受けているものとする。
Here, it is assumed that the
また、図4では、EV01グループ、MX01グループ、GP01グループ、及び、BST01グループの各グループに属する端末装置20がそれぞれ1つだけ示されているが、各グループには1つ以上の端末装置20があるものとする。
In addition, in FIG. 4, only one
また、図4では、MX01グループ、GP01グループ、及び、BST01グループの各グループに属する端末装置20から音及び映像のデータを収集するエッジサーバ2が1つだけ示されているが、そのようなエッジサーバ2も1つ以上あるものとする。
In addition, in FIG. 4, only one
図4に示すように、EV01グループの端末装置20は、EV01グループのイベント会場の音及び映像のデータをイベント会場の近くにあるエッジサーバ2に送信する(ステップS1)。
As shown in FIG. 4, the
そして、そのエッジサーバ2は、受信したデータに対して、図3を用いて説明した各種調整を行う(ステップS2)。
Then, the
具体的には、エッジサーバ2は、EV01グループのイベント会場に設置された1つ以上の端末装置20から送信された会場の音及び映像のデータを収集する。そして、エッジサーバ2は、収集されたデータに対して雑音消去などの調整を行う。
Specifically, the
その後エッジサーバ2は、各種調整の結果得られたデータをメインサーバ1に送信する(ステップS3)。
The
また、MX01グループ、GP01グループ、及び、BST01グループの端末装置20はそれぞれ、演奏、声援、及び、解説の音及び映像のデータを、各グループの端末装置20の近くにあるエッジサーバ2に送信する(ステップS4)。なお、ここでは、各グループの端末装置20の近くにあるエッジサーバ2が同一のものとする。
The
その後、そのエッジサーバ2は、受信したデータに対して、図3を用いて説明した各種調整を行う(ステップS5)。
The
具体的には、エッジサーバ2は、MX01グループ、GP01グループ、及び、BST01グループの端末装置20から送信された映像及び音のデータを収集する。
Specifically, the
そして、エッジサーバ2は、収集されたデータをグループ別に分類してグループ毎に、音データの音量調整、音質調整、ハウリングとエコーの抑制、映像データの画質調整、タイミングの調整、データの複合などの調整を行う。
Then, the
その後、エッジサーバ2は、各種調整の結果得られたデータをメインサーバ1に送信する(ステップS6)。
Then, the
続いて、メインサーバ1は、エッジサーバ2から、MX01グループ、GP01グループ、及び、BST01グループの音及び映像について調整がなされたデータを収集し、また、その他のエッジサーバ2から、MX01グループ、GP01グループ、及び、BST01グループの音及び映像について調整がなされたデータを収集し、それらのデータに対して、図2を用いて説明した各種調整を行う(ステップS7)。
Then, the
具体的には、メインサーバ1は、各エッジサーバ2から収集したデータに対して、音データの音量調整、音質調整、ハウリングとエコーの抑制、映像データの画質調整、タイミングの調整、データの複合などの調整を行う。
Specifically, the
そして、メインサーバ1は、その結果得られた調整データであるMBD02を、イベント会場の音及び映像のデータをメインサーバ1に送信したエッジサーバ2に送信する(ステップS8)。
Then, the
MBD02のデータを受信したエッジサーバ2は、受信したデータに対して、図3を用いて説明した各種調整を行う(ステップS9)。そして、そのエッジサーバ2は、調整がなされたMBD02のデータをEV01グループの端末装置20に送信する(ステップS10)。これにより、MX01グループの演奏や、GP01グループの声援、BST01グループの解説の音及び映像が、EV01グループのイベント会場に配信される。
The
また、メインサーバ1は、エッジサーバ2から、EV01グループの音及び映像について調整がなされたデータを収集し、そのデータに対して図2を用いて説明した音データに対する音量調整やタイミングの調整など、これらの調整がなされたデータ及びステップS7において収集したデータに対する複合などの調整を行う(ステップS11)。
The
そして、メインサーバ1は、その結果得られた調整データであるMBD01を、MX01グループ、GP01グループ、及び、BST01グループの音及び映像のデータをメインサーバ1に送信したエッジサーバ2に送信する(ステップS12)。
Then, the
MBD01のデータを受信したエッジサーバ2は、受信したデータに対して、図3を用いて説明した各種調整を行う(ステップS13)。そして、そのエッジサーバ2は、調整がなされたMBD01のデータを、MX01グループ、GP01グループ、及び、BST01グループの端末装置20に送信する(ステップS14)。
The
これにより、MX01グループの演奏や、GP01グループの声援、BST01グループの解説の音及び映像とともに、EV01グループのイベント会場の音及び映像が、MX01グループ、GP01グループ、及び、BST01グループに属する各メンバーに配信される。 As a result, the sound and image of the MX01 group's performance, the cheers from the GP01 group, and the commentary from the BST01 group, as well as the sound and image of the EV01 group's event venue, will be distributed to each member of the MX01 group, GP01 group, and BST01 group.
ここで、音や映像のタイミングの調整について説明する。例えば、MX01グループの各メンバーが異なる場所で演奏を行った場合、各メンバーがアクセスしている複数のBS10からメインサーバ1までの距離や各端末装置20の処理速度が異なることによって、それぞれの演奏のデータがメインサーバ1に届くタイミングがずれることがある。
Here, we will explain how to adjust the timing of sound and video. For example, if each member of the MX01 group performs in a different location, the timing at which the data for each performance reaches the
このタイミングのずれを補正するため、例えば以下のような処理を行う。まず、MX01グループのサブ配信者は、ライブ配信アプリを操作して、4ビートなどのリズムを把握できる無音の映像をメインサーバ1のデータ配信部14からMX01グループの各演奏者の端末装置20に送信する。
To correct this timing discrepancy, for example, the following process is performed. First, the sub-distributor of the MX01 group operates a live distribution app to transmit silent video that allows a rhythm such as four beats to be understood from the
この時、この映像のリズムと連動した高周波のタイムカウント音がさらに加えられる。または、無音の映像のみ、または、高周波のタイムカウント音のみをMX01グループの各演奏者の端末装置20に送信してもよい。
At this time, a high-frequency time count sound linked to the rhythm of this video is also added. Alternatively, only a silent video or only a high-frequency time count sound may be transmitted to the
ここで、高周波のタイムカウント音とは、例えば、一般的な人の可聴域以上の16kHzを超える周波数の音であり、動画のタイムラインのように音や映像のデータのタイムカウント上の位置を把握可能とする音である。例えば、タイムカウント音は、時間の経過とともに変化することにより時間の経過を示す音である。 Here, a high-frequency time count sound is, for example, a sound with a frequency exceeding 16 kHz, which is above the audible range of the average person, and is a sound that allows the user to grasp the position of the sound or video data on the time count, like a video timeline. For example, the time count sound is a sound that indicates the passage of time by changing over time.
このタイムカウント音を記録及び観測することにより、特定の音や映像のデータが存在する位置を検出することができる。 By recording and observing this time count sound, it is possible to detect the location where specific sound or video data exists.
なお、MX01グループのサブ配信者が、ライブ配信アプリを操作して、上述した4ビートなどのリズム以外の楽譜や曲の位置を把握できる無音の映像をMX01グループの各演奏者の端末装置20に配信してもよい。
In addition, the sub-distributor of the MX01 group may operate a live distribution app to distribute silent video to the
例えば、無音の映像において、楽譜や曲の進行に合わせて、カラオケのように表示された音符や歌詞の色が変化するようにしてもよいし、特定の記号や絵を用いて合図をするようにしてもよい。 For example, in silent video, the color of the displayed notes or lyrics could change in karaoke-like fashion in accordance with the progression of the musical score or song, or specific symbols or pictures could be used to provide cues.
また、上述した無音の映像と高周波のタイムカウント音は、メインサーバ1のデータ調整部13(第1調整部13a~第6調整部13f)で追加されてから端末装置20に送信してもよいし、イベント会場(EV01、EV02グループなど)からメインサーバ1に会場の音と映像が送信される場合に、イベント会場に最も近いエッジサーバ2のデータ調整部23にて追加されてもよい。
The silent video and high-frequency time count sound described above may be added by the data adjustment unit 13 (
または、イベント会場に高周波のタイムカウント音を流し、端末装置20のマイク53にて会場の音と一緒に高周波のタイムカウント音を集音して、それらのデータを送信するようにしてもよい。
Alternatively, a high-frequency time count sound may be played in the event venue, and the
MX01グループの各演奏者が、端末装置20のディスプレイで高周波と連動したリズム映像を見ながら演奏を行うと、端末装置20のスピーカから出力された高周波のタイムカウント音と演奏者の音及び映像とが端末装置20により集音及び撮影され、端末装置20から高周波のタイムカウント音と一緒にBS10を経由してエッジサーバ2に送信される。
When each performer in the MX01 group performs while watching the rhythm image linked to the high frequency on the display of the
エッジサーバ2の第1調整部23aは、各演奏者の端末装置20から送信された演奏の音の音量や映像の画質を最適なレベルに調整した後、高周波のタイムカウント音を含む調整された音と映像のデータをメインサーバ1に送信する。
The
このデータを受信したメインサーバ1の第1調整部13aは、高周波のタイムカウント音を利用して、各演奏者の演奏データのタイミングを調整する。
The
例えば、図5に示すように、連続するタイムカウント音の中の、4ビートの2拍目と4拍目に演奏音が存在すると想定する。 For example, as shown in Figure 5, assume that performance sounds are present on the second and fourth beats of a four-beat sequence of consecutive time count sounds.
この場合、左側の図のように、各演奏者の演奏データがメインサーバ1に届くタイミングが異なったとしても、タイムカウント音を検出し、そのタイムカウント音が一致するように各演奏データの時間軸をずらすことにより、右側の図のように、各演奏者のタイミングの合った演奏をイベント会場で実現することができる。
In this case, even if the performance data of each performer arrives at the
なお、ここでは連続するタイムカウント音を加えることとしたが、不連続なタイムカウント音を加えることとしてもよい。この場合も同様に、タイムカウント音が一致するように各演奏データの時間軸をずらすことにより、各演奏者のタイミングの合った演奏を実現することができる。その後、メインサーバ1の第6調整部13fにより、各演奏者のデータが複合される。
Note that although a continuous time count sound is added here, a discontinuous time count sound may also be added. In this case as well, by shifting the time axis of each performance data so that the time count sounds are synchronized, it is possible to achieve a performance in which the timing of each performer is synchronized. After that, the data of each performer is combined by the
また、ここでは、MX01グループの各演奏者の演奏のタイミングを、タイムカウント音を利用して合わせることとしたが、同様の処理は、EV01グループのデータにタイムカウント音を追加することにより、そのデータにより再現される球場の音や映像に合わせて声援を送るGP01グループの各メンバーからの配信についても実行することができる。 In addition, here, the timing of the performances of each performer in the MX01 group is synchronized using a time count sound, but the same process can also be performed for broadcasts from each member of the GP01 group, who cheer in time with the sounds and images of the stadium reproduced by the data, by adding a time count sound to the data of the EV01 group.
この場合、メインサーバ1の第2調整部13bは、高周波のタイムカウント音を利用して、GP01グループの各メンバーからの声援のデータのタイミングを調整し、その後各メンバーのデータを第6調整部13fが複合する。
In this case, the
さらに、メインサーバ1の第6調整部13fは、高周波のタイムカウント音を利用して、各調整部でタイミングが調整された複数のデータ(例えばMX01グループのデータ、及び、GP01グループのデータ)のタイミングを合わせて複合を行う。
Furthermore, the
また、メインサーバ1の第4調整部13dに届くEV01グループのデータのタイミング音を基準にして所定の遅延時間(例えば、100msec)内のデータだけを、第6調整部13fが複合して配信するように構成してもよい。この基準や基準値は、配信業者が提供するライブ配信システム100のアプリの設定画面から配信者が選択できるようにしてもよい。
Also, the
そして、第6調整部13fは、上記処理の後、高周波のタイムカウント音を消去する。複合された音と映像のデータはイベント会場のEV01グループを含む各グループ、及び、インターネット7を介して視聴する視聴者に配信される。また、高周波のタイムカウント音の消去はエッジサーバ2の調整部23や端末装置20などで実行してもよい。
Then, after the above processing, the
また、サブ配信者は、メインサーバ1のデータ配信部14から配信された演奏を聞いて、ある楽器の音と他の楽器の音との間でタイミングがずれている場合、自身の端末装置20のライブ配信アプリのサブ配信者用の機能を使い、上記タイミングを手動で調整してもよい(手動タイミング補正)。
In addition, if a sub-distributor listens to a performance distributed from the
なお、この調整は、すべてを手動で行うのではなく、AIによりまずタイミングの調整を行い、サブ配信者がさらにタイミングの調整を行うこととしてもよい。 In addition, rather than making all of these adjustments manually, the timing can be adjusted first by AI, and then the sub-broadcaster can make further adjustments to the timing.
また、サブ配信者がライブ配信アプリを操作して各演奏者の演奏に対して行ったタイミングの調整の情報は、全国のエッジサーバ2の第1調整部23aに送信され、そのエッジサーバ2のメモリに記録されたタイミングの調整プログラムによりその情報が参照され、タイミングの調整処理が実行される。
In addition, information on the timing adjustments made by the sub-distributor to the performance of each performer by operating the live distribution app is transmitted to the
これにより、エッジサーバ2の第1調整部23aは、再生タイミングがずれている音に対して、再生タイミングの調整を行う。このようにしてデータ調整部23で調整された音のデータは、メインサーバ1の第1調整部13aに送信される。
As a result, the
なお、ここではエッジサーバ2の第1調整部23aがタイミングの調整を行うこととしたが、メインサーバ1の第1調整部13aがタイミングの調整を行うこととしてもよい。また、エッジサーバ2の第1調整部23aとメインサーバ1の第1調整部13aとが分担してタイミングの調整処理を行い、負荷分散を図ってもよい。
Here, the
また、図4に示したステップS14においては、MBD01のデータが、MX01グループ、GP01グループ、及び、BST01グループの端末装置20に送信されるが、MBD01のデータは、図1に示したインターネット7を介して、端末装置20やパブリッククラウド8に送信されてもよい。
In addition, in step S14 shown in FIG. 4, data of MBD01 is transmitted to
この場合、MBD01のデータは、端末装置20の近くにあるエッジサーバ2の第5調整部23eで雑音処理などの調整がなされるが、インターネット7に配信されるデータについてはそのようなエッジサーバが送信経路上に存在しない。しかし、インターネット7の回線は受信だけに用いられるものなので、このような機能はデスクトップPCなどの端末装置20のライブ配信専用アプリ(視聴専用アプリ)の機能として含まれるようにしてもよい。
In this case, the data of MBD01 is adjusted for noise processing and the like by the
なお、GP01グループのメンバーがライブ配信を行う場合の処理や、BST01グループのメンバーがライブ配信を行う場合の処理についても、上述した処理と同様の処理が行われる。 The same processing as described above is also carried out when a member of the GP01 group performs live streaming, and when a member of the BST01 group performs live streaming.
次に、図5~図8を参照してハウリングとエコーの抑制方法について詳しく説明する。図5~図8は、図2に示すメインサーバ1で実施されるハウリングとエコーの抑制方法について説明するための図である。
Next, the method of suppressing feedback and echo will be described in detail with reference to Figs. 5 to 8. Figs. 5 to 8 are diagrams for explaining the method of suppressing feedback and echo implemented by the
なお、以下では、音データ301にタイムカウント音302が追加される場合について説明するが、特に記載しないものの、このような音データ301には映像データが付随している。
Note that, below, we will explain the case where a
図2に示すメインサーバ1の第4調整部13dは、EV01グループのイベント会場から配信された音データ301(図6)にタイムカウント音302を追加し、データ配信部14は、タイムカウント音302が重畳された音データ301を、エッジサーバ2を介して端末装置20に送信する。
The
タイムカウント音302は、時間の経過とともに変化することにより時間の経過を示す音であり、例えば、一般的な人の可聴域以上の16kHzを超える周波数の音である。このようなタイムカウント音302の波形を記録及び観測することにより、特定の音データ301の位置を検出し、検出した音データ301を除去することができる。
The
なお、1つのイベントを別々の会場をつないで行う場合に、第1のイベント会場に設置された複数の端末装置20と第2のイベント会場に設置された複数の端末装置20とで、帯域が異なる高周波のタイムカウント音302を追加するようにしてもよい。
When one event is held across multiple venues, high-frequency time count sounds 302 with different frequency bands may be added to multiple
帯域が異なる複数のタイムカウント音302として、例えば、時間の経過を示すタイムカウント情報(例えば、図5に示した1~4という値に対応するタイムカウント情報など)を含むように変調されたタイムカウント音302を利用すれば、そのタイムカウント音302を復調して複数のタイムカウント音302に含まれるタイムカウント情報を参照して比較することにより、帯域が異なる複数のイベント会場のタイムカウント音302の間のタイミングのずれを検出でき、その結果、異なるイベント会場の各端末装置20のマイク53で集音した音データ301の間の再生タイミングのずれを検出できるので、それらの再生タイミングを合わせる調整も行うことができる。
For example, if time count sounds 302 modulated to include time count information indicating the passage of time (such as time count information corresponding to
このようにすることで、第1のイベント会場と第2のイベント会場とをタイムカウント音302でシンクロさせるとことが可能になる。また、参加者から届く音声の背後に含まれている高周波の帯域を識別するだけで、どの会場(第1のイベント会場または第2のイベント会場)の映像を視聴して応援していたのかが分かり、参加者により追加された音、また除去すべき雑音の位置もそれぞれ容易に検出できる。さらに、各端末装置から届く音データ301に含まれる高周波の帯域を認識するだけで、その音データ301をどのイベント会場に戻すべきか(送信すべきか)も分かるので、よりきめ細かな調整が可能となる。
In this way, it becomes possible to synchronize the first event venue and the second event venue with the
第4調整部13dは、EV01グループのイベント会場から配信された音データ301にタイムカウント音302を追加する際、EV01グループのイベント会場から配信された音データ301をメモリなどに記憶しておく。その際、第4調整部13dは、音データ301が存在する範囲のタイムカウント音302のタイムカウント情報をメモリなどに併せて記憶しておく。
When the
その後、例えばGP01グループに属するメンバーが有する端末装置20の音再生部303は、メインサーバ1からエッジサーバ2を介して配信された音データ301に基づき、EV01グループのイベント会場の音を再生する。
Then, for example, the
その際、端末装置20の集音部304がメンバーの声援などの音だけでなく、再生されたEV01グループのイベント会場の音を集音し、その音がEV01グループのイベント会場のスピーカ52で出力され、EV01グループのイベント会場のマイク53で集音されるようなことが繰り返されると、ハウリングやエコーが発生してしまう。そのため、EV01グループのイベント会場の音を除去する必要がある。
In this case, if the
この場合、メインサーバ1のデータ調整部13は、GP01グループに属するメンバーの声援、再生されたEV01グループのイベント会場の音、タイムカウント音302などが混合した音を音データ305として取得する。
In this case, the
そして、図7に示すように、データ調整部13は、取得した音データ305に含まれるタイムカウント音302のタイムカウント情報を観測し、メモリなどに記憶しておいたタイムカウント音302のタイムカウント情報を参照して、音データ301が含まれる期間Tを特定する。
Then, as shown in FIG. 7, the
そして、データ調整部13は、メモリなどに記憶していた音データ301を読み出し、読み出した音データ301に相当する音データを期間Tの音データ305から除去することによって、GP01グループに属するメンバーの声援などを含む音のデータ305Aを生成する。
Then, the
このように、タイムカウント音302を利用することで、声援などが混在した音データの中からEV01グループのイベント会場から配信された音データ301の位置を正確に検出してそれを除去できる。これにより、音再生部303で再生されたEV01グループのイベント会場の音が集音部304で集音された場合でも、ハウリングやエコーの発生を抑制することができる。
In this way, by using the
また、このようなタイムカウント音302を利用することで、図8に示すように、音データ305の一部に空白期間がある場合でも、存在するタイムカウント情報に基づいてEV01グループのイベント会場から配信された音データ301の位置を検出することができる。その結果、EV01グループのイベント会場の音のデータ301を正確に除去できる。
In addition, by using such a
なお、ここでは、メインサーバ1がタイムカウント音302の追加と音データ301の除去を行うこととしたが、EV01グループのイベントに関与する全国のエッジサーバ2でこれらの処理を行ってもよい。
Note that, although the
また、参加者により追加された音、除去すべき雑音の位置を容易に検出できることについても説明したが、参加者により追加された音、除去すべき雑音とは、イベント会場から配信された音データ301に含まれない特定の周波数帯域の音のデータ(例えば、金属音など他の参加者に不快になる音)である。
It has also been explained that the location of sounds added by participants and noise to be removed can be easily detected. The sounds added by participants and noise to be removed are sound data of a specific frequency band that is not included in the
例えば、メインサーバ1のデータ調整部13は、イベント会場で収集された音のデータに含まれない特定の周波数帯域の音のデータを検出し、検出した音のデータを端末装置2から送信された音のデータ305から除去することにより、金属音など他の参加者に不快になる音を除去することができる。
For example, the
また、メインサーバ1のデータ調整部13は、イベント会場で収集された音のデータに含まれない迷惑音声のデータをAIなどを用いて検出し、検出した迷惑音声のデータを端末装置2から送信された音のデータ305から除去する。これにより、他の参加者に不快になる迷惑音声を除去することができる。迷惑音声とは、予め迷惑音声を学習させた学習モデルにより迷惑音声と判定された音声である。さらに、このような迷惑音声をAIが検出した場合、データ調整部13は、この参加者の端末装置20から送信される音声のデータを、途中から自動的に所定の時間遮断してもよい。
The
以上説明したように、本実施の形態によれば、イベント会場で音を再現する権限が付与された複数のグループから配信される音を調整して、調整後の音をイベント会場に配信することができる。これにより、演奏と応援曲などを伝達する通信ネットワークの伝送方式や遅延時間の違いがある場合でもイベント会場で再現される音が調和するため、例えば無観客試合の場合でも、実際に吹奏楽団や観客が会場にいるような印象を与えることができる。 As described above, according to this embodiment, sounds distributed from multiple groups authorized to reproduce sounds at an event venue can be adjusted, and the adjusted sounds can be distributed to the event venue. This allows the sounds reproduced at the event venue to be in harmony even if there are differences in the transmission methods and delay times of the communication networks that transmit the performance and cheering songs, etc., so that even in the case of a match without spectators, for example, it is possible to give the impression that a brass band and spectators are actually present at the venue.
ここまでは、イベント会場に演奏、声援などを再現する方法について説明したが、本実施の形態は、遠隔手術、建設機器の遠隔操作、eスポーツなどにも適用可能である。以下、その例について説明する。なお、以下の例においても、上述したシステム構成と同様の構成を採用することができる。 So far, we have explained a method for recreating musical performances, cheers, and the like at an event venue, but this embodiment can also be applied to remote surgery, remote operation of construction equipment, e-sports, and the like. Examples of these are explained below. Note that the same system configuration as described above can be used in the following examples as well.
例えば、遠隔で人の手術をする場合、図2に示すメインサーバ1のコード管理・認証部11は、複数の医師で構成されるグループ(医師グループ)に対し、エッジサーバ2を介して、OP(OPeration)01などのサブ配信コードに紐づいたサブコード(OP01―01、OP01―02など)を配信する。ここで、サブ配信コードは、例えば、医師グループのスタッフの一人が取得するものとする。サブ配信コード及びサブコードは、コード管理・認証部11、及び、エッジサーバ2のコード管理部21で照合される。
For example, when performing surgery on a person remotely, the code management and
医師グループには、遠隔操作装置(端末装置20の一種)を操作して手術を行う執刀医、助手などが含まれる。サブ配信コード及びサブコードは、手術現場で遠隔手術を実行する権限を医師グループのメンバーに付与する権限コードである。 The doctor group includes a surgeon and assistants who operate a remote operation device (a type of terminal device 20) to perform surgery. The sub-distribution code and sub-code are authority codes that grant the members of the doctor group the authority to perform remote surgery at the surgical site.
遠隔操作装置は、執刀医、助手などによる操作を受け付けるハンドル、表示部などを備える。表示部は、手術マニピュレータの動作や、患者の状態などを撮影した映像を表示する。 The remote control device is equipped with a handle that accepts operations by the surgeon or assistant, a display unit, etc. The display unit shows images of the operation of the surgical manipulator and the patient's condition, etc.
サブコード(OP01―01、OP01―02など)を受信した医師グループのメンバーが、このサブコードを遠隔操作装置に入力した場合、メインサーバ1のコード管理・認証部11は、入力されたサブコードと自らが管理するサブコードとが一致するか否かを判定する(権限コードの認証)。
When a member of the doctor group receives a subcode (OP01-01, OP01-02, etc.) and inputs this subcode into a remote control device, the code management and
そして、それらのサブコードが一致した場合、図3に示すエッジサーバ2のデータ収集・分類部22は、手術現場に設置された手術マニュピレータに対して操作に応じた動作を行うように指令する動作指令を遠隔操作装置から収集し、収集した動作指令をデータ調整部23に送信する。
If these subcodes match, the data collection and
メンバーが入力したサブコードとコード管理・認証部11が管理するサブコードとが一致しない場合、遠隔操作装置は、医師グループとして接続できないように構成されている。
If the subcode entered by the member does not match the subcode managed by the code management and
また、エッジサーバ2のデータ収集・分類部22は、マイクとカメラを備える遠隔操作装置から送信された音と映像のデータも収集する。そして、エッジサーバ2のデータ調整部23は、動作指令、音、及び映像の調整並びに複合などを行う。その結果得られたデータは、メインサーバ1に送信される。
The data collection and
ここで、調整とは、前述のように、収集したデータに対してタイミングの調整、雑音消去、ハウリング、エコーの抑制などを行う処理であり、複合とは、複数の音と、動作指令及び映像のデータを束ねることである。 As mentioned above, "adjusting" refers to the process of adjusting the timing of collected data, eliminating noise, suppressing feedback and echoes, etc., while "combining" refers to bundling multiple sounds, action commands, and video data.
ここで、タイミングの調整処理は、AIを用いて行ってもよいし、遠隔手術を行う医師グループのスタッフが行ってもよいし、図5で説明したようなタイムカウント音を用いてAIで行ってもよい。 Here, the timing adjustment process may be performed by AI, by staff of the medical group performing the remote surgery, or by AI using a time count sound as described in Figure 5.
そして、このデータを受信したメインサーバ1のデータ調整部13は、1つ又は複数のエッジサーバ2から受信した動作指令、音、及び映像のデータに対し、必要に応じて再度調整及び複合を行う。
Then, the
その後、そのデータは、手術マニピュレータに送信され、動作指令に応じて手術マニピュレータが動作する。また、遠隔操作装置が取得した音及び映像が、手術現場に設置されたスピーカ及び表示装置により再生される。 The data is then sent to the surgical manipulator, which operates according to the operation command. In addition, the sound and images captured by the remote control device are played back on speakers and display devices installed at the surgical site.
一方、メインサーバ1のデータ収集・分類部12は、手術室に設置された複数の端末装置20から手術中の音、及び、映像(手術マニピュレータの動作や、患者の状態などを撮影した映像)のデータを収集してデータ調整部13に送信する。
Meanwhile, the data collection and
そして、データ調整部13は、手術中の音及び映像のデータに対してハウリングやエコーの抑制などの調整を行うとともに、調整後の音及び映像のデータと、医師グループの各メンバーの遠隔操作装置からエッジサーバ2を介して取得され、必要に応じて調整及び複合がなされた音及び映像のデータとを複合する。
The
これにより、手術室の様子を示す音及び映像のデータと、医師グループの各メンバーの会話の様子を示す音及び映像のデータとがタイミングを合わせて束ねられる。 This allows audio and video data showing the scene in the operating room to be timed together with audio and video data showing the conversations between each member of the doctor team.
そして、その結果得られたデータは、エッジサーバ2に送信され、エッジサーバ2のデータ調整部23において、雑音とタイムカウント音の消去、ハウリングとエコーの抑制などの調整が行われる。その後、そのデータは、OP01に紐づいた遠隔操作装置に配信される。
The resulting data is then sent to the
このように、サブコードが配布された執刀医と助手が、異なる場所で遠隔操作装置を操作すると、通信遅延によって互いの動作指令が手術マニピュレータに同時に到着せずに、執刀医と助手の操作を同期させつつ手術することが困難な場合があるが、上記のような処理を行うことにより、執刀医と助手の操作を同期して手術をすることが可能になる。 In this way, when a surgeon and assistant who have been given subcodes operate remote control devices in different locations, communication delays can prevent their operation commands from reaching the surgical manipulator at the same time, making it difficult to perform surgery while synchronizing the surgeon and assistant's operations. However, by performing the above-mentioned processing, it becomes possible to perform surgery while synchronizing the surgeon and assistant's operations.
同様に複数の参加者による対話と操作のタイミング合わせの手法は建設機器の遠隔操作やeスポーツにも応用できる。 Similarly, the technique of coordinating the timing of dialogue and operations among multiple participants can also be applied to remote control of construction equipment and e-sports.
以上、本発明に係る実施形態について図面を参照して詳述してきたが、上述した各装置の機能は、コンピュータプログラムにより実現され得る。 The above describes the embodiments of the present invention in detail with reference to the drawings, but the functions of each of the above-mentioned devices can be realized by a computer program.
上述した各装置の機能をプログラムにより実現するコンピュータの読取装置が、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。 A reading device of a computer that realizes the functions of each of the above-mentioned devices through a program reads the program for realizing the functions of each of the above-mentioned devices from a recording medium on which the program is recorded, and stores the program in a storage device. Alternatively, a network card communicates with a server device connected to the network, and stores the program for realizing the functions of each of the above-mentioned devices downloaded from the server device in a storage device.
そして、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。 The CPU then copies the program stored in the storage device to the RAM, and sequentially reads and executes the instructions contained in the program from the RAM, thereby realizing the functions of each of the above devices.
なお、例えば、以下のような態様も本開示の技術的範囲に属するものと了解される。 For example, it is understood that the following aspects also fall within the technical scope of this disclosure:
(1)本開示のデータ配信プログラムは、コンピュータを、特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するデータ分類部、前記グループ毎に分類された送信データを各メンバーが属するグループ毎に調整するデータ調整部、前記グループ毎に調整された前記送信データを前記特定の空間に配信するデータ配信部、として機能させる。 (1) The data distribution program of the present disclosure causes a computer to function as a data classification unit that collects transmission data related to sound or video transmitted from the terminal device of each member who has been granted the authority to reproduce sound or video in a specific space by authenticating an authority code that grants the authority to each member belonging to a specific group, classifies the collected transmission data by group, a data adjustment unit that adjusts the transmission data classified by group for each group to which each member belongs, and a data distribution unit that distributes the transmission data adjusted for each group to the specific space.
(2)前記データ調整部は、前記送信データとともに送信される時間の経過を示すタイムカウント音のデータに基づいて、前記各メンバーの端末装置から送信された前記送信データの再生タイミングのずれを検出し、検出したずれの量に基づいて、前記再生タイミングをグループ毎に調整する。 (2) The data adjustment unit detects a deviation in the playback timing of the transmission data transmitted from each member's terminal device based on time count sound data indicating the passage of time transmitted together with the transmission data, and adjusts the playback timing for each group based on the amount of the detected deviation.
(3)前記送信データに前記音のデータが含まれる場合に、前記データ調整部は、前記特定の空間で収集された音のデータとともに送信される時間の経過を示すタイムカウント音のデータに基づいて、前記特定の空間において収集された音のデータの前記送信データにおける位置を検出し、前記特定の空間において収集されたデータを前記送信データから除去する。 (3) When the sound data is included in the transmission data, the data adjustment unit detects the position of the sound data collected in the specific space in the transmission data based on time count sound data indicating the passage of time that is transmitted together with the sound data collected in the specific space, and removes the data collected in the specific space from the transmission data.
(4)前記データ調整部は、前記特定の空間で収集された音のデータに含まれない特定の周波数帯域の音または迷惑音声のデータを検出し、検出した音または迷惑音声のデータを前記送信データから除去する。 (4) The data adjustment unit detects sound or nuisance voice data in a specific frequency band that is not included in the sound data collected in the specific space, and removes the detected sound or nuisance voice data from the transmission data.
(5)前記特定の空間で行われる異なる事象ごとに割り当てられるサブ配信コードに紐づき、各メンバーに前記権限を付与するサブコード、及び、前記サブコードに紐づいた共有キーに基づいて前記各メンバーを認証するコード管理・認証部をさらに備える。 (5) The system further includes a sub-code that is linked to a sub-distribution code assigned to each different event that takes place in the specific space and that grants the authority to each member, and a code management and authentication unit that authenticates each member based on a shared key linked to the sub-code.
(6)各メンバーの端末装置から送信された前記送信データに前記音のデータが含まれる場合に、前記特定の空間で行われる異なる事象ごとに発行されるサブ配信コードに基づいて、前記送信データに含まれる音のデータの音量調整を行う権限が付与された所有者を認証するコード管理・認証部をさらに備え、前記所有者の認証が成功した場合に、前記データ調整部は、前記所有者による操作に基づいて前記各メンバーの端末装置から送信された前記音のデータの音量調整を行う。 (6) When the sound data is included in the transmission data transmitted from each member's terminal device, the system further includes a code management and authentication unit that authenticates an owner who has been granted the authority to adjust the volume of the sound data included in the transmission data based on a sub-distribution code issued for each different event that takes place in the specific space, and when the authentication of the owner is successful, the data adjustment unit adjusts the volume of the sound data transmitted from each member's terminal device based on the operation by the owner.
(7)前記データ調整部は、前記グループ毎に調整された前記送信データが束ねられたデータ間で再生タイミングの調整を行う。 (7) The data adjustment unit adjusts the playback timing between the bundled data of the transmission data adjusted for each group.
(8)前記データ調整部は、異なる特定の空間で収集された音または映像のデータを含む収集データとともに送信され、時間の経過を示す異なる帯域のタイムカウント音のデータに基づいて、前記異なる特定の空間で収集された前記収集データの再生タイミングのずれを検出し、検出したずれの量に基づいて、前記再生タイミングを調整する。 (8) The data adjustment unit detects a deviation in the playback timing of the collected data collected in a different specific space based on time count sound data of a different band indicating the passage of time, which is transmitted together with collected data including sound or video data collected in the different specific space, and adjusts the playback timing based on the amount of the detected deviation.
(9)本開示のデータ配信方法は、コンピュータが、特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するステップ、前記グループ毎に分類された送信データを各メンバーが属するグループ毎に調整するステップ、前記グループ毎に調整された前記送信データを前記特定の空間に配信するステップ、を実行する。 (9) The data distribution method disclosed herein includes a step of collecting transmission data relating to sounds or images transmitted from the terminal devices of each member who has been granted the authority to reproduce sounds or images in a specific space by authenticating an authority code that grants the authority to each member who belongs to a specific group, classifying the collected transmission data by group, adjusting the transmission data classified by group for each group to which each member belongs, and distributing the transmission data adjusted for each group to the specific space.
以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Specific examples of the present disclosure have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and variations of the specific examples given above.
1 メインサーバ
2 エッジサーバ
6 コアネットワーク
7 インターネット
8 パブリッククラウド
10 BS
11 コード管理部・認証部
12 データ収集・分類部
13 データ調整部
14 データ配信部
15 ネットワーク送受信部
20 端末装置
21 コード管理部
22 データ収集・分類部
23 データ調整部
24 データ配信部
51 カメラ
52 スピーカ
53 マイク
100 ライブ配信システム
1
REFERENCE SIGNS
Claims (9)
特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するデータ分類部、
前記グループ毎に分類された送信データをグループ毎に調整するデータ調整部、
前記グループ毎に調整された送信データを前記特定の空間に配信するデータ配信部、
として機能させるデータ配信プログラム。 Computer,
a data classification unit that collects transmission data relating to sounds or images transmitted from the terminal devices of each of the members to whom the authority to reproduce sounds or images in a specific space is granted by authentication of an authority code that grants the authority to each member belonging to a predetermined group, and classifies the collected transmission data by group;
a data adjustment unit that adjusts the transmission data classified into groups for each group;
a data distribution unit that distributes the transmission data adjusted for each group to the specific space;
A data distribution program that acts as a
特定の空間で音または映像を再現する権限を所定のグループに属する各メンバーに付与する権限コードの認証により、前記権限が付与された各メンバーの端末装置から送信された音または映像に関する送信データを収集し、収集した送信データをグループ毎に分類するステップ、
前記グループ毎に分類された送信データをグループ毎に調整するステップ、
前記グループ毎に調整された送信データを前記特定の空間に配信するステップ、
を実行するデータ配信方法。 The computer
a step of collecting transmission data relating to sounds or images transmitted from terminal devices of each of the members to whom the authority has been granted by authenticating an authority code that grants the authority to reproduce sounds or images in a specific space to each member belonging to a predetermined group, and classifying the collected transmission data by group;
adjusting the transmission data classified into groups for each group;
Distributing the transmission data adjusted for each group to the specific space;
A data delivery method that performs:
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021057532A JP2024079861A (en) | 2021-03-30 | 2021-03-30 | Data distribution program and data distribution method |
| PCT/JP2022/016288 WO2022210971A1 (en) | 2021-03-30 | 2022-03-30 | Information processing device and data synchronization method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021057532A JP2024079861A (en) | 2021-03-30 | 2021-03-30 | Data distribution program and data distribution method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024079861A true JP2024079861A (en) | 2024-06-12 |
Family
ID=83459619
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021057532A Pending JP2024079861A (en) | 2021-03-30 | 2021-03-30 | Data distribution program and data distribution method |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2024079861A (en) |
| WO (1) | WO2022210971A1 (en) |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006121388A (en) * | 2004-10-21 | 2006-05-11 | Seiko Epson Corp | Output timing control device, video output device, output timing control system, output device, integrated data providing device, output timing control program, output device control program, integrated data providing device control program, output timing control device control method, output device control method And integrated data providing apparatus control method |
| US9445147B2 (en) * | 2013-06-18 | 2016-09-13 | Ion Concert Media, Inc. | Method and apparatus for producing full synchronization of a digital file with a live event |
-
2021
- 2021-03-30 JP JP2021057532A patent/JP2024079861A/en active Pending
-
2022
- 2022-03-30 WO PCT/JP2022/016288 patent/WO2022210971A1/en not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| WO2022210971A1 (en) | 2022-10-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110692252B (en) | Audio-visual collaboration method with delay management for wide area broadcast | |
| US7096080B2 (en) | Method and apparatus for producing and distributing live performance | |
| US20060156375A1 (en) | Systems and methods for synchronizing media rendering | |
| US8120637B2 (en) | Virtual theater system for the home | |
| CN110910860A (en) | Online KTV implementation method and device, electronic equipment and storage medium | |
| EP2743917B1 (en) | Information system, information reproducing apparatus, information generating method, and storage medium | |
| JP2006041886A (en) | Information processing apparatus and method, recording medium, and program | |
| Kasuya et al. | LiVRation: Remote VR live platform with interactive 3D audio-visual service | |
| US20220014570A1 (en) | Synchronized performances for remotely located performers | |
| CN113545096B (en) | Information processing device and information processing system | |
| Roquet | Acoustics of the one person space: headphone listening, detachable ambience, and the binaural prehistory of VR | |
| JP2022020625A (en) | Sound processing system, sound processing device, sound processing method, and sound processing program | |
| JP2021182696A (en) | Method and system for bidirectional broadcast | |
| JP7503257B2 (en) | Content collection and distribution system | |
| JP2009005012A (en) | Device and method for distributing data, and program | |
| JP4443801B2 (en) | How to use a karaoke machine that connects several remote karaoke banquet halls with a video conference system and merges the progress of the banquet | |
| JP2024079861A (en) | Data distribution program and data distribution method | |
| JP4513274B2 (en) | Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method | |
| KR102131106B1 (en) | Karaoke player that enables personal broadcasting by connecting to a broadcasting service server based on a two-dimensional code and operating method thereof | |
| JP7465186B2 (en) | Live Streaming System | |
| US12132940B2 (en) | Management server | |
| EP3513565B1 (en) | Method for producing and playing video and multichannel audio content | |
| JP2004266746A (en) | Image and voice communication system | |
| JP2002314960A (en) | Multi-view broadcast service system and related apparatus, method, recording medium or program | |
| JP7748402B2 (en) | Streaming sound production system |