JP2025044237A - system - Google Patents
system Download PDFInfo
- Publication number
- JP2025044237A JP2025044237A JP2024161820A JP2024161820A JP2025044237A JP 2025044237 A JP2025044237 A JP 2025044237A JP 2024161820 A JP2024161820 A JP 2024161820A JP 2024161820 A JP2024161820 A JP 2024161820A JP 2025044237 A JP2025044237 A JP 2025044237A
- Authority
- JP
- Japan
- Prior art keywords
- commentary
- data
- server
- video
- game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示の技術は、システムに関する。 The technology disclosed herein relates to a system.
特許文献1には、少なくとも一つのプロセッサにより遂行される、ペルソナチャットボット制御方法であって、ユーザ発話を受信するステップと、前記ユーザ発話を、チャットボットのキャラクターに関する説明と関連した指示文を含むプロンプトに追加するステップと前記プロンプトをエンコードするステップと、前記エンコードしたプロンプトを言語モデルに入力して、前記ユーザ発話に応答するチャットボット発話を生成するステップ、を含む、方法が開示されている。 Patent document 1 discloses a persona chatbot control method performed by at least one processor, the method including the steps of receiving a user utterance, adding the user utterance to a prompt including a description of the chatbot character and an associated instruction sentence, encoding the prompt, and inputting the encoded prompt into a language model to generate a chatbot utterance in response to the user utterance.
バスケットボールの試合の実況中継の解説を人間が行う場合、全国のユースやミニバスの試合までカバーすることは困難である。また、オフィシャルやチーム毎に人が作成しているランニングスコアの自動生成も難しい。さらに、全国のチームや選手のデータベース化により日本の登録バスケ選手の見える化、育成に活用することも困難である。 When humans provide commentary for live broadcasts of basketball games, it is difficult to cover youth and mini-basketball games across the country. It is also difficult to automatically generate running scores that are created by hand for each official and team. Furthermore, it is difficult to create a database of teams and players across the country to visualize Japan's registered basketball players and use it to develop them.
AIを用いてバスケットボールの試合の実況中継の解説を行う手段を提供する。全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段を提供する。オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段を提供する。全国のチームや選手のデータベース化を行う手段を提供し、データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を提供する。 We provide a means to provide commentary for live broadcasts of basketball games using AI. We provide a means to distribute commentary for youth and mini-basketball games across the country with live broadcasts by AI. We provide a means to automatically generate running scores using AI that are currently created by humans for each official and team. We provide a means to create a database of teams and players across the country, and provide a means to use the information in the database to visualize and develop registered basketball players in Japan.
以下、添付図面に従って本開示の技術に係るシステムの実施形態の一例について説明する。 Below, an example of an embodiment of a system related to the technology disclosed herein is described with reference to the attached drawings.
先ず、以下の説明で使用される文言について説明する。 First, let us explain the terminology used in the following explanation.
以下の実施形態において、符号付きのプロセッサ(以下、単に「プロセッサ」と称する)は、1つの演算装置であってもよいし、複数の演算装置の組み合わせであってもよい。また、プロセッサは、1種類の演算装置であってもよいし、複数種類の演算装置の組み合わせであってもよい。演算装置の一例としては、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-Purpose computing on Graphics Processing Units)、APU(Accelerated Processing Unit)、又はTPU(TENSOR PROCESSING UNIT(登録商標))等が挙げられる。 In the following embodiments, the coded processor (hereinafter simply referred to as the "processor") may be a single arithmetic device or a combination of multiple arithmetic devices. The processor may be a single type of arithmetic device or a combination of multiple types of arithmetic devices. Examples of arithmetic devices include a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a GPGPU (General-Purpose computing on Graphics Processing Units), an APU (Accelerated Processing Unit), or a TPU (TENSOR PROCESSING UNIT (registered trademark)).
以下の実施形態において、符号付きのRAM(Random Access Memory)は、一時的に情報が格納されるメモリであり、プロセッサによってワークメモリとして用いられる。 In the following embodiments, a signed random access memory (RAM) is a memory in which information is temporarily stored and is used as a working memory by the processor.
以下の実施形態において、符号付きのストレージは、各種プログラム及び各種パラメータ等を記憶する1つ又は複数の不揮発性の記憶装置である。不揮発性の記憶装置の一例としては、フラッシュメモリ(SSD(Solid State Drive))、磁気ディスク(例えば、ハードディスク)、又は磁気テープ等が挙げられる。 In the following embodiments, the coded storage is one or more non-volatile storage devices that store various programs, various parameters, etc. Examples of non-volatile storage devices include flash memory (SSD (Solid State Drive)), magnetic disks (e.g., hard disks), and magnetic tapes.
以下の実施形態において、符号付きの通信I/F(Interface)は、通信プロセッサ及びアンテナ等を含むインタフェースである。通信I/Fは、複数のコンピュータ間での通信を司る。通信I/Fに対して適用される通信規格の一例としては、5G(5th Generation Mobile Communication System)、Wi-Fi(登録商標)、又はBluetooth(登録商標)等を含む無線通信規格が挙げられる。 In the following embodiments, a communication I/F (Interface) with a code is an interface including a communication processor and an antenna, etc. The communication I/F controls communication between multiple computers. Examples of communication standards applied to the communication I/F include wireless communication standards including 5G (5th Generation Mobile Communication System), Wi-Fi (registered trademark), and Bluetooth (registered trademark).
以下の実施形態において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。 In the following embodiments, "A and/or B" is synonymous with "at least one of A and B." In other words, "A and/or B" means that it may be only A, only B, or a combination of A and B. In addition, in this specification, the same concept as "A and/or B" is also applied when three or more things are expressed by connecting them with "and/or."
[第1実施形態] [First embodiment]
図1には、第1実施形態に係るデータ処理システム10の構成の一例が示されている。
Figure 1 shows an example of the configuration of a
図1に示すように、データ処理システム10は、データ処理装置12及びスマートデバイス14を備えている。データ処理装置12の一例としては、サーバが挙げられる。
As shown in FIG. 1, the
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
The
スマートデバイス14は、コンピュータ36、受付装置38、出力装置40、カメラ42、及び通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、受付装置38、出力装置40、及びカメラ42も、バス52に接続されている。
The
受付装置38は、タッチパネル38A及びマイクロフォン38B等を備えており、ユーザ入力を受け付ける。タッチパネル38Aは、指示体(例えば、ペン又は指等)の接触を検出することにより、指示体の接触によるユーザ入力を受け付ける。マイクロフォン38Bは、ユーザの音声を検出することにより、音声によるユーザ入力を受け付ける。制御部46Aは、タッチパネル38A及びマイクロフォン38Bによって受け付けたユーザ入力を示すデータをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が、ユーザ入力を示すデータを取得する。
The
出力装置40は、ディスプレイ40A及びスピーカ40B等を備えており、データをユーザ20が知覚可能な表現形(例えば、音声及び/又はテキスト)で出力することでデータをユーザ20に対して提示する。ディスプレイ40Aは、プロセッサ46からの指示に従ってテキスト及び画像等の可視情報を表示する。スピーカ40Bは、プロセッサ46からの指示に従って音声を出力する。カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラである。
The
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。
The communication I/
図2には、データ処理装置12及びスマートデバイス14の要部機能の一例が示されている。
Figure 2 shows an example of the main functions of the
図2に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って特定処理部290として動作することによって実現される。
As shown in FIG. 2, in the
ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。
スマートデバイス14では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。受付出力プログラム60は、データ処理システム10によって特定処理プログラム56と併用される。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。
In the
次に、データ処理装置12の特定処理部290による特定処理について説明する。
Next, we will explain the specific processing performed by the
「形態例1」 "Example 1"
本発明の形態例1として、AIがバスケットボールの試合の実況中継の解説を行うシステムがある。このシステムでは、試合の映像や音声データをAIが解析し、試合の状況や選手の動きを理解する。そして、その解析結果に基づいて、試合の解説を自動的に生成し、実況中継とともに配信する。 Example 1 of the present invention is a system in which AI provides commentary for a live broadcast of a basketball game. In this system, AI analyzes the video and audio data of the game to understand the situation of the game and the movements of the players. Then, based on the results of this analysis, a commentary of the game is automatically generated and distributed along with the live broadcast.
「形態例2」 "Example 2"
本発明の形態例2として、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムがある。このシステムでは、全国各地で行われるユースやミニバスの試合の映像や音声データを収集し、形態例1と同様にAIが解析して解説を生成する。そして、その解説を試合映像とともに配信することで、全国の試合を広く視聴者に提供する。 Example 2 of the present invention is a system that distributes commentary of youth and mini-basketball games from around the country, with live coverage by AI. This system collects video and audio data from youth and mini-basketball games held around the country, which are analyzed by AI in the same way as example 1 to generate commentary. Then, by distributing the commentary together with the game footage, games from around the country are made available to a wide audience.
「形態例3」 "Example 3"
本発明の形態例3として、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成するシステムがある。このシステムでは、試合の映像や音声データから得点状況やファウル状況などをAIが解析し、ランニングスコアを自動的に生成する。これにより、試合の進行状況をリアルタイムで把握することが可能となる。 Example 3 of the present invention is a system that uses AI to automatically generate running scores that are created manually by officials or for each team. In this system, AI analyzes the scoring situation, foul situation, etc. from video and audio data of the game, and automatically generates a running score. This makes it possible to grasp the progress of the game in real time.
「形態例4」 "Example 4"
本発明の形態例4として、全国のチームや選手のデータベース化を行い、そのデータベース化された情報を日本の登録バスケ選手の見える化、育成に活用するシステムがある。このシステムでは、全国のチームや選手の試合結果やスタッツなどの情報を収集し、データベース化する。そして、そのデータベースを活用して、選手のパフォーマンスの分析や育成のためのフィードバックを提供する。 Example 4 of the present invention is a system that creates a database of teams and players from across the country, and uses the information in the database to visualize and develop registered basketball players in Japan. This system collects information such as game results and stats for teams and players from across the country, and creates a database. The database is then used to provide feedback for analyzing players' performance and developing them.
以下に、各形態例の処理の流れについて説明する。 The process flow for each example is explained below.
「形態例1」 "Example 1"
ステップ1:AIがバスケットボールの試合の映像や音声データを収集する。 Step 1: AI collects video and audio data from basketball games.
ステップ2:収集したデータをAIが解析し、試合の状況や選手の動きを理解する。 Step 2: AI analyzes the collected data to understand the situation of the game and the movements of the players.
ステップ3:解析結果に基づいて、AIが試合の解説を自動的に生成する。 Step 3: Based on the analysis results, the AI automatically generates commentary for the match.
ステップ4:生成した解説を実況中継とともに配信する。 Step 4: Distribute the generated commentary along with the live broadcast.
「形態例2」 "Example 2"
ステップ1:全国各地で行われるユースやミニバスの試合の映像や音声データを収集する。 Step 1: Collect video and audio data from youth and mini-basketball matches held across the country.
ステップ2:収集したデータをAIが解析し、試合の状況や選手の動きを理解する。 Step 2: AI analyzes the collected data to understand the situation of the game and the movements of the players.
ステップ3:解析結果に基づいて、AIが試合の解説を自動的に生成する。 Step 3: Based on the analysis results, the AI automatically generates commentary for the match.
ステップ4:生成した解説を試合映像とともに配信する。 Step 4: Distribute the generated commentary along with the game footage.
「形態例3」 "Example 3"
ステップ1:試合の映像や音声データから得点状況やファウル状況などをAIが解析する。 Step 1: AI analyzes the scoring situation, foul situation, etc. from video and audio data of the game.
ステップ2:解析結果に基づいて、AIがランニングスコアを自動的に生成する。 Step 2: Based on the analysis results, the AI automatically generates a running score.
「形態例4」 "Example 4"
ステップ1:全国のチームや選手の試合結果やスタッツなどの情報を収集する。 Step 1: Collect information such as match results and stats for teams and players across the country.
ステップ2:収集した情報をデータベース化する。 Step 2: Create a database of the collected information.
ステップ3:データベース化された情報を活用して、選手のパフォーマンスの分析や育成のためのフィードバックを提供する。 Step 3: Use the databased information to analyze player performance and provide feedback for development.
(実施例1) (Example 1)
次に、形態例1の実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, a first embodiment of the first embodiment will be described. In the following description, the
従来のバスケットボールの試合の実況中継では、解説者の質や量に依存するため、試合の詳細な状況や選手の動きをリアルタイムで正確に伝えることが難しい。また、全国のユースやミニバスの試合解説を行うためには、多くの人手が必要であり、コストや労力がかかる。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアは、手作業によるため時間がかかり、正確性に欠けることがある。これらの課題を解決するためには、AIを活用した自動化システムが必要である。 Traditional live broadcasts of basketball games depend on the quality and quantity of commentators, making it difficult to accurately convey the detailed situation of the game and the movements of the players in real time. In addition, commentary on youth and mini-basketball games across the country is required by many people, which is costly and labor intensive. Furthermore, running scores created by officials and people for each team are done manually, so they take time and can lack accuracy. To solve these issues, an automated system that utilizes AI is needed.
実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データをリアルタイムで収集する手段と、収集した映像データと音声データを解析する手段と、解析結果に基づいて試合の解説を生成する手段と、生成された解説を実況中継とともに配信する手段と、を含む。これにより、試合の詳細な状況や選手の動きをリアルタイムで正確に伝えることが可能となる。また、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信することができ、コストや労力を削減することができる。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成することで、時間を短縮し、正確性を向上させることができる。 In this invention, the server includes means for collecting video data and audio data of the match in real time, means for analyzing the collected video data and audio data, means for generating commentary on the match based on the analysis results, and means for distributing the generated commentary together with a live broadcast. This makes it possible to accurately convey the detailed situation of the match and the movements of the players in real time. In addition, commentary on youth and mini-basketball matches from all over the country can be distributed with live broadcasts by AI, reducing costs and labor. Furthermore, by automatically generating running scores by AI instead of manually created by officials and for each team, it is possible to reduce time and improve accuracy.
「試合の映像データ」とは、バスケットボールの試合の進行状況を視覚的に記録したデジタルデータである。 "Game video data" refers to digital data that visually records the progress of a basketball game.
「音声データ」とは、バスケットボールの試合中に発生する音声をデジタル形式で記録したデータである。 "Audio data" refers to data that is a digital recording of the sounds generated during a basketball game.
「リアルタイムで収集する手段」とは、試合の進行と同時に映像データと音声データを取得するための技術や装置である。 "Means of collecting data in real time" refers to technology and devices that allow for the acquisition of video and audio data as the match progresses.
「解析する手段」とは、収集した映像データと音声データを処理し、試合の状況や選手の動きを理解するための技術やソフトウェアである。 "Means of analysis" refers to technology and software that processes collected video and audio data to understand the situation of the game and the movements of the players.
「解説を生成する手段」とは、解析結果に基づいて試合の状況や選手の動きを説明する文章を自動的に作成するための技術やソフトウェアである。 "Means for generating commentary" refers to technology or software that automatically creates text that explains the situation of the game and the movements of players based on the analysis results.
「実況中継とともに配信する手段」とは、生成された解説を試合の映像と音声と一緒にリアルタイムで視聴者に届けるための技術や装置である。 "Means of distribution along with live broadcast" refers to the technology and devices that deliver the generated commentary to viewers in real time along with the video and audio of the match.
「ユースやミニバスの試合解説」とは、若年層や小学生向けのバスケットボール試合に関する解説である。 "Youth and mini-basketball game commentary" is commentary on basketball games aimed at young people and elementary school students.
「ランニングスコア」とは、試合中にリアルタイムで更新される得点や選手のパフォーマンスを記録したデータである。 "Running score" is data that records the scores and player performances that are updated in real time during the game.
「AI自動生成する手段」とは、人工知能を用いて手作業を自動化し、データを生成するための技術やソフトウェアである。 "AI automatic generation means" refers to technology and software that uses artificial intelligence to automate manual tasks and generate data.
「データベース化を行う手段」とは、収集した情報を整理し、検索や利用が容易な形式で保存するための技術やソフトウェアである。 "Means of database creation" refers to technology and software for organizing collected information and storing it in a format that is easy to search and use.
「見える化」とは、データを視覚的に表示し、理解しやすくするための技術や方法である。 "Visualization" refers to techniques and methods for visually displaying data and making it easier to understand.
「育成に活用する手段」とは、データを基に選手のトレーニングや成長を支援するための技術や方法である。 "Means to be used in development" refers to technologies and methods that use data to support the training and development of athletes.
この発明は、バスケットボールの試合の実況中継において、AIを活用して試合の解説を自動生成し、リアルタイムで配信するシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that uses AI to automatically generate commentary on a basketball game and deliver it in real time during live broadcasts. A specific embodiment of this system is described below.
サーバの動作 Server operation
1. データ収集 1. Data collection
サーバは、試合の映像データと音声データをリアルタイムで収集する。具体的には、カメラとマイクロフォンを使用して試合の映像と音声をキャプチャする。映像データは1080pの解像度で、音声データは44.1kHzのサンプリングレートで収集する。 The server collects video and audio data of the match in real time. Specifically, it uses a camera and microphone to capture video and audio of the match. Video data is collected at a resolution of 1080p, and audio data is collected at a sampling rate of 44.1kHz.
2. データ解析 2. Data analysis
サーバは、収集した映像データと音声データを解析する。この解析には、画像認識ソフトウェア(例:OpenCV)や音声認識ソフトウェア(例:Google(登録商標) Speech-to-Text API)を使用する。これにより、試合の状況や選手の動きを理解する。例えば、選手Aがシュートを打つ動作を検出し、その瞬間の実況音声をテキスト化する。 The server analyzes the collected video and audio data. This analysis uses image recognition software (e.g. OpenCV) and voice recognition software (e.g. Google (registered trademark) Speech-to-Text API). This allows the server to understand the situation of the game and the movements of the players. For example, it detects the action of Player A taking a shot and converts the live audio of that moment into text.
3. 解説生成 3. Description generation
サーバは、解析結果に基づいて試合の解説を生成する。この解説生成には、生成AIモデル(例:GPT-4(登録商標))を使用する。生成AIモデルは、試合の状況や選手の動きに関する情報を入力として受け取り、自然言語で解説文を生成する。例えば、「選手Aが3ポイントシュートを成功させた」という情報を入力し、「選手Aが見事な3ポイントシュートを決めました」といった解説文を生成する。 The server generates commentary on the game based on the analysis results. A generative AI model (e.g. GPT-4 (registered trademark)) is used to generate this commentary. The generative AI model receives information about the game situation and player movements as input, and generates commentary in natural language. For example, it inputs information such as "Player A made a successful three-point shot" and generates commentary such as "Player A made a brilliant three-point shot."
4. 配信 4. Distribution
サーバは、生成された解説文を実況中継とともに配信する。配信には、ストリーミングサーバ(例:Wowza Streaming Engine)を使用する。これにより、ユーザはインターネットを通じてリアルタイムで試合の映像と解説を視聴することができる。 The server distributes the generated commentary along with the live broadcast. A streaming server (e.g. Wowza Streaming Engine) is used for distribution. This allows users to watch the game footage and commentary in real time over the Internet.
端末の動作 Device operation
1. データ受信 1. Data reception
端末は、サーバから配信される試合の映像と解説をリアルタイムで受信する。受信には、インターネット接続とストリーミングソフトウェア(例:VLCメディアプレーヤー)を使用する。 The device receives real-time game footage and commentary from the server using an internet connection and streaming software (e.g. VLC media player).
2. 表示 2. Display
端末は、受信した映像と解説をユーザに表示する。表示には、ディスプレイやスピーカーなどのハードウェアを使用する。例えば、ユーザがスマートフォンで視聴している場合、映像はスマートフォンの画面に表示され、解説音声は内蔵スピーカーから再生される。 The device displays the received video and commentary to the user. For display purposes, hardware such as a display and speakers are used. For example, if the user is watching on a smartphone, the video will be displayed on the smartphone screen and the commentary audio will be played through the built-in speaker.
ユーザの動作 User actions
1. 視聴 1. Viewing
ユーザは、端末を通じて試合の映像と解説を視聴する。ユーザは、試合の進行状況や選手の動きについての詳細な解説をリアルタイムで得ることができる。例えば、ユーザがリビングルームでテレビを通じて視聴している場合、テレビ画面に試合の映像が表示され、テレビのスピーカーから解説音声が流れる。 The user watches the game footage and commentary through the terminal. The user can get detailed commentary on the progress of the game and the movements of the players in real time. For example, if the user is watching on a television in the living room, the game footage will be displayed on the television screen and commentary will be played from the television speakers.
具体例 Specific examples
具体例1 Example 1
試合の状況: 第3クォーター、残り時間5分、スコアはホームチームが75点、アウェイチームが70点。 Game Situation: 3rd quarter, 5 minutes remaining, home team 75, away team 70.
選手の動き: ホームチームの選手Aが3ポイントシュートを成功させた。 Player Action: Home team player A makes a three-point shot.
生成AIモデルへのプロンプト文の例 Example prompts for generative AI models
試合の状況: 第3クォーター、残り時間5分、スコアはホームチームが75点、アウェイチームが70点。 Game Situation: 3rd quarter, 5 minutes remaining, home team 75, away team 70.
選手の動き: ホームチームの選手Aが3ポイントシュートを成功させた。 Player Action: Home team player A makes a three-point shot.
生成された解説文の例 Example of generated description
「第3クォーター残り5分、ホームチームが75点、アウェイチームが70点と接戦が続いています。ホームチームの選手Aが見事な3ポイントシュートを成功させ、スコアをさらに引き離しました。」 "With five minutes left in the third quarter, the home team is tied at 75 points and the away team at 70 points. Home team player A makes a great three-point shot, widening the gap even further."
このようにして、ユーザは試合の進行状況や選手の動きについての詳細な解説をリアルタイムで視聴することができる。 In this way, users can watch detailed commentary on the progress of the match and the players' movements in real time.
実施例1における特定処理の流れについて図11を用いて説明する。 The flow of the identification process in Example 1 is explained using Figure 11.
ステップ1: Step 1:
サーバは、試合の映像データと音声データをリアルタイムで収集する。 The server collects video and audio data from the match in real time.
具体的な動作として、カメラとマイクロフォンを使用して試合の映像と音声をキャプチャする。 Specific tasks include using cameras and microphones to capture video and audio of the game.
入力は、カメラとマイクロフォンからの映像と音声であり、出力はデジタル形式の映像データと音声データである。 The input is video and audio from the camera and microphone, and the output is video and audio data in digital format.
映像データは1080pの解像度で、音声データは44.1kHzのサンプリングレートで収集される。 Video data is collected at 1080p resolution, and audio data is collected at a sampling rate of 44.1kHz.
ステップ2: Step 2:
サーバは、収集した映像データと音声データを解析する。 The server analyzes the collected video and audio data.
具体的な動作として、画像認識ソフトウェア(例:OpenCV)を使用して映像データから選手の動きを検出し、音声認識ソフトウェア(例:Google Speech-to-Text API)を使用して音声データから実況の内容をテキストに変換する。 Specific operations include using image recognition software (e.g. OpenCV) to detect player movements from video data, and using voice recognition software (e.g. Google Speech-to-Text API) to convert the audio data into text to provide commentary.
入力は、ステップ1で収集された映像データと音声データであり、出力は解析された選手の動き情報とテキスト化された実況内容である。 The input is the video and audio data collected in step 1, and the output is the analyzed player movement information and the text commentary.
例えば、選手Aがシュートを打つ動作を検出し、その瞬間の実況音声をテキスト化する。 For example, it detects when Player A is about to take a shot and converts the audio commentary at that moment into text.
ステップ3: Step 3:
サーバは、解析結果に基づいて試合の解説を生成する。 The server generates commentary for the match based on the analysis results.
具体的な動作として、生成AIモデル(例:GPT-4)にプロンプト文を入力し、解説文を生成する。 Specifically, the prompt text is input into a generative AI model (e.g. GPT-4) to generate an explanatory text.
入力は、ステップ2で得られた選手の動き情報とテキスト化された実況内容であり、出力は生成された解説文である。 The input is the player movement information obtained in step 2 and the text commentary, and the output is the generated commentary.
例えば、「選手Aが3ポイントシュートを成功させた」という情報を入力し、「選手Aが見事な3ポイントシュートを決めました」といった解説文を生成する。 For example, input information such as "Player A made a successful three-point shot" and generate an explanatory text such as "Player A made a brilliant three-point shot."
ステップ4: Step 4:
サーバは、生成された解説文を実況中継とともに配信する。 The server distributes the generated commentary along with the live broadcast.
具体的な動作として、ストリーミングサーバ(例:Wowza Streaming Engine)を使用して、映像と解説音声をリアルタイムでストリーミング配信する。 Specifically, the video and commentary audio are streamed in real time using a streaming server (e.g. Wowza Streaming Engine).
入力は、ステップ3で生成された解説文とステップ1で収集された映像データであり、出力はリアルタイムで配信される映像と解説音声である。 The input is the explanatory text generated in step 3 and the video data collected in step 1, and the output is the video and explanatory audio delivered in real time.
ステップ5: Step 5:
端末は、サーバから配信される試合の映像と解説をリアルタイムで受信する。 The device receives game footage and commentary streamed from the server in real time.
具体的な動作として、インターネット接続とストリーミングソフトウェア(例:VLCメディアプレーヤー)を使用する。 Specific actions include using an internet connection and streaming software (e.g. VLC media player).
入力は、サーバからのストリーミングデータであり、出力は端末に表示される映像と再生される解説音声である。 The input is streaming data from the server, and the output is the video displayed on the terminal and the commentary audio played.
ステップ6: Step 6:
端末は、受信した映像と解説をユーザに表示する。 The device displays the received video and commentary to the user.
具体的な動作として、ディスプレイに映像を表示し、スピーカーから解説音声を再生する。 Specific operations include showing images on the display and playing explanatory audio from the speaker.
入力は、ステップ5で受信した映像と解説音声であり、出力はユーザに視覚と聴覚で提供される試合の実況中継である。 The input is the video and commentary audio received in step 5, and the output is a live broadcast of the game provided to the user in both visual and audio.
ステップ7: Step 7:
ユーザは、端末を通じて試合の映像と解説を視聴する。 Users can watch game footage and commentary through their devices.
具体的な動作として、端末のディスプレイで試合の映像を見ながら、スピーカーから流れる解説を聞く。 Specific actions include watching the game footage on the device display and listening to commentary coming from the speaker.
入力は、ステップ6で表示された映像と再生された解説音声であり、出力はユーザの視聴体験である。 The input is the video displayed in step 6 and the commentary audio played, and the output is the user's viewing experience.
例えば、ユーザがリビングルームでテレビを通じて視聴している場合、テレビ画面に試合の映像が表示され、テレビのスピーカーから解説音声が流れる。 For example, if a user is watching on a television in their living room, the game footage will be displayed on the television screen and commentary will be played from the television speakers.
(応用例1) (Application example 1)
次に、形態例1の応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, application example 1 of embodiment example 1 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、リアルタイムでの解説や試合後のハイライト生成、選手の詳細なパフォーマンス解析が十分に行われていない。また、ユーザーが特定の選手やプレイについて質問した際に、即座に適切な解説を提供することが難しいという課題がある。 Existing basketball game commentary systems do not adequately provide real-time commentary, post-game highlight generation, or detailed analysis of players' performance. In addition, there is a problem that it is difficult to provide appropriate commentary immediately when a user asks about a specific player or play.
応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像データを解析し、リアルタイムで解説を生成する手段と、試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段と、選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段と、ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段と、を含む。これにより、リアルタイムでの解説提供、試合後のハイライト生成、選手の詳細なパフォーマンス解析、ユーザーの質問に対する即座の解説提供が可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games nationwide with AI commentary, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for analyzing game video data and generating commentary in real time, a means for automatically extracting important scenes after the game ends and generating a highlight video, a means for analyzing player movements and performance and providing detailed statistical information, and a means for AI to provide commentary when a user asks a question about a specific player or play. This makes it possible to provide commentary in real time, generate post-game highlights, analyze players' performance in detail, and provide immediate commentary in response to user questions.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合の映像や音声データを解析し、試合の状況や選手の動きを理解して、AIが自動的に解説を生成する技術である。 "A means for AI to provide commentary for live broadcasts of basketball games" refers to technology in which AI analyzes video and audio data from basketball games, understands the situation of the game and the movements of the players, and automatically generates commentary.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合をAIが解説し、その解説付きで試合をリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a technology that uses AI to provide commentary on youth and mini-basketball games from around the country and broadcasts the games in real time with that commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で記録しているスコアを、AIが自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses AI to automatically generate scores that are manually recorded by officials and teams during a match.
「試合の映像データを解析し、リアルタイムで解説を生成する手段」とは、試合の映像データをリアルタイムで解析し、その解析結果に基づいて即座に解説を生成する技術である。 "Means for analyzing game video data and generating commentary in real time" refers to technology that analyzes game video data in real time and instantly generates commentary based on the analysis results.
「試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段」とは、試合終了後に試合の映像データを解析し、重要なシーンを自動的に抽出してハイライト動画を生成する技術である。 "Means for automatically extracting important scenes after the end of a match and generating a highlight video" refers to a technology that analyzes video data of a match after the end of the match, automatically extracts important scenes, and generates a highlight video.
「選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段」とは、選手の動きやパフォーマンスを解析し、その結果に基づいて詳細な統計情報を提供する技術である。 "Means of analyzing player movements and performance and providing detailed statistical information" refers to technology that analyzes player movements and performance and provides detailed statistical information based on the results.
「ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段」とは、ユーザーが特定の選手やプレイについて質問した際に、AIがその質問に対して適切な解説を提供する技術である。 "A means for an AI to provide commentary when a user asks a question about a specific player or play" refers to technology that enables an AI to provide an appropriate commentary in response to a question when a user asks about a specific player or play.
この発明を実施するためには、以下のようなシステム構成と処理手順が必要である。 To implement this invention, the following system configuration and processing steps are required.
システム構成 System configuration
ハードウェア Hardware
サーバ:AIモデルの実行とデータ解析を行うための高性能なコンピュータ。 Server: A high-performance computer for running AI models and analyzing data.
スマートフォン:ユーザーが試合の解説を視聴し、インタラクションを行うためのデバイス。 Smartphone: The device on which users watch and interact with the game commentary.
カメラ:試合の映像をキャプチャするためのデバイス。 Camera: A device used to capture footage of the match.
ソフトウェア Software
OpenCV:映像データの読み込みと解析に使用するライブラリ。 OpenCV: A library used to read and analyze video data.
TENSORFLOW(登録商標):AIモデルの実行に使用するフレームワーク。 TENSORFLOW (registered trademark): A framework used to run AI models.
Transformers:GPT-2モデルを使用して解説を生成するライブラリ。 Transformers: A library that generates explanations using the GPT-2 model.
処理の流れ Processing flow
1. 映像データの読み込み 1. Loading video data
サーバは、カメラから取得した試合の映像データをOpenCVを用いてフレームごとに読み込む。 The server uses OpenCV to read the game video data obtained from the camera frame by frame.
2. フレームの解析 2. Frame analysis
サーバは、読み込んだフレームを解析し、選手の動きや重要なアクションを検出する。この解析には、TensorFlowを用いたディープラーニングモデルを使用する。 The server analyzes the loaded frames to detect player movements and important actions. This analysis uses a deep learning model using TensorFlow.
3. 解説の生成 3. Generate explanations
サーバは、解析結果に基づいて解説文を生成する。具体的には、Transformersライブラリを用いてGPT-2モデルを実行し、プロンプト文を入力として解説文を生成する。 The server generates an explanatory text based on the analysis results. Specifically, it runs the GPT-2 model using the Transformers library and generates an explanatory text using the prompt text as input.
4. 解説の配信 4. Delivering commentary
生成された解説文は、リアルタイムでスマートフォンに配信される。ユーザーは、スマートフォンを通じて試合の解説を視聴することができる。 The generated commentary is delivered to smartphones in real time, allowing users to watch and listen to commentary on the match via their smartphones.
5. ハイライト動画の生成 5. Highlight video generation
試合終了後、サーバは重要なシーンを自動で抽出し、ハイライト動画を生成する。このハイライト動画もスマートフォンに配信される。 After the match ends, the server automatically extracts important scenes and generates a highlight video. This highlight video is also distributed to smartphones.
6. 選手のパフォーマンス解析 6. Player performance analysis
サーバは、選手の動きやパフォーマンスを詳細に解析し、統計情報を生成する。この統計情報は、ユーザーがスマートフォンで確認できる。 The server performs detailed analysis of the players' movements and performance and generates statistical information that users can view on their smartphones.
7. ユーザーインタラクション 7. User interaction
ユーザーが特定の選手やプレイについて質問すると、サーバはその質問に対して適切な解説を生成し、スマートフォンに配信する。 When a user asks a question about a particular player or play, the server generates an appropriate commentary for that question and delivers it to the smartphone.
具体例 Specific examples
試合の得点シーン:選手Aがスリーポイントシュートを決めた瞬間を検出し、「Player A scores a three-pointer」という解説を生成する。 Scoring scene in the game: Detect the moment when Player A makes a three-point shot and generate a commentary such as "Player A scores a three-pointer."
ディフェンスのハイライト:選手Bがブロックショットを成功させたシーンを検出し、「Player B makes a great block」という解説を生成する。 Defensive highlights: Detects a scene where Player B successfully blocks a shot and generates a commentary such as "Player B makes a great block."
プロンプト文の例 Example of a prompt
「Player A scores a three-pointer. Generate a commentary for this action.」 "Player A scores a three-pointer. Generate a commentary for this action."
「Player B makes a great block. Generate a commentary for this action.」 "Player B makes a great block. Generate a commentary for this action."
このようにして、サーバは試合の映像データをリアルタイムで解析し、ユーザーに対して自動的に解説を提供することができる。これにより、リアルタイムでの解説提供、試合後のハイライト生成、選手の詳細なパフォーマンス解析、ユーザーの質問に対する即座の解説提供が可能となる。 In this way, the server can analyze the game video data in real time and automatically provide commentary to the user. This allows for real-time commentary, post-game highlights, detailed analysis of player performance, and instant commentary in response to user questions.
応用例1における特定処理の流れについて図12を用いて説明する。 The flow of the specific processing in application example 1 is explained using Figure 12.
ステップ1: Step 1:
サーバは、カメラから取得した試合の映像データをOpenCVを用いてフレームごとに読み込む。入力はカメラからの映像データであり、出力は個々のフレーム画像である。具体的には、サーバは映像データを連続する静止画として分割し、各フレームをメモリに格納する。 The server uses OpenCV to read the game video data captured by the camera frame by frame. The input is the video data from the camera, and the output is the individual frame images. Specifically, the server splits the video data into a series of still images and stores each frame in memory.
ステップ2: Step 2:
サーバは、読み込んだフレームを解析し、選手の動きや重要なアクションを検出する。この解析には、TensorFlowを用いたディープラーニングモデルを使用する。入力はステップ1で得られたフレーム画像であり、出力は選手の動きやアクションの情報である。具体的には、サーバはフレーム内の選手の位置や動きを検出し、得点やブロックなどの重要なアクションを識別する。 The server analyzes the loaded frames to detect player movements and important actions. A deep learning model using TensorFlow is used for this analysis. The input is the frame image obtained in step 1, and the output is information about the player movements and actions. Specifically, the server detects the positions and movements of players within the frames and identifies important actions such as points and blocks.
ステップ3: Step 3:
サーバは、解析結果に基づいて解説文を生成する。具体的には、Transformersライブラリを用いてGPT-2モデルを実行し、プロンプト文を入力として解説文を生成する。入力はステップ2で得られたアクション情報とプロンプト文であり、出力は生成された解説文である。サーバは、選手のアクションに対応するプロンプト文を生成し、それをGPT-2モデルに入力して解説文を得る。 The server generates a commentary based on the analysis results. Specifically, it runs the GPT-2 model using the Transformers library and generates a commentary using the prompt as input. The input is the action information and prompt obtained in step 2, and the output is the generated commentary. The server generates a prompt corresponding to the player's action and inputs it into the GPT-2 model to obtain the commentary.
ステップ4: Step 4:
サーバは、生成された解説文をリアルタイムでスマートフォンに配信する。入力はステップ3で生成された解説文であり、出力はスマートフォンに表示される解説文である。具体的には、サーバは解説文をネットワークを通じてスマートフォンに送信し、ユーザーが視聴できるようにする。 The server delivers the generated commentary to the smartphone in real time. The input is the commentary generated in step 3, and the output is the commentary displayed on the smartphone. Specifically, the server transmits the commentary to the smartphone via the network so that the user can view it.
ステップ5: Step 5:
試合終了後、サーバは重要なシーンを自動で抽出し、ハイライト動画を生成する。入力は試合全体の映像データであり、出力はハイライト動画である。具体的には、サーバは試合中に検出された重要なアクションを基に、ハイライトシーンを選定し、それらを連結してハイライト動画を作成する。 After the match ends, the server automatically extracts important scenes and generates a highlight video. The input is the video data of the entire match, and the output is the highlight video. Specifically, the server selects highlight scenes based on important actions detected during the match and links them together to create a highlight video.
ステップ6: Step 6:
サーバは、選手の動きやパフォーマンスを詳細に解析し、統計情報を生成する。入力は試合中のフレーム画像と選手のアクション情報であり、出力は詳細な統計情報である。具体的には、サーバは選手ごとの得点、リバウンド、アシストなどのデータを集計し、統計情報としてまとめる。 The server performs detailed analysis of players' movements and performance and generates statistical information. The input is frame images from the game and information about players' actions, and the output is detailed statistical information. Specifically, the server compiles data such as points, rebounds, and assists for each player and compiles it as statistical information.
ステップ7: Step 7:
ユーザーが特定の選手やプレイについて質問すると、サーバはその質問に対して適切な解説を生成し、スマートフォンに配信する。入力はユーザーからの質問とプロンプト文であり、出力は生成された解説文である。具体的には、サーバはユーザーの質問を解析し、それに対応するプロンプト文を生成してGPT-2モデルに入力し、解説文を得てスマートフォンに送信する。 When a user asks a question about a specific player or play, the server generates an appropriate commentary for that question and delivers it to the smartphone. The input is the user's question and prompt text, and the output is the generated commentary text. Specifically, the server analyzes the user's question, generates a corresponding prompt text, inputs it into the GPT-2 model, obtains the commentary text, and sends it to the smartphone.
(実施例2) (Example 2)
次に、形態例2の実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, a second embodiment of the second embodiment will be described. In the following description, the
従来のバスケットボールの試合解説は、専門の解説者が必要であり、全国各地で行われるユースやミニバスの試合においては、解説者の確保が難しいという問題があった。また、試合の進行状況や選手の動きをリアルタイムで視聴者に伝えることが困難であり、視聴体験が限定されていた。さらに、試合データの収集や解析が手動で行われるため、効率が悪く、データの一貫性や正確性に欠けることがあった。 Traditionally, commentary on basketball games required a specialized commentator, and there was the problem of difficulty in securing commentators for youth and mini-basketball games held all over the country. It was also difficult to convey the progress of the game and the movements of the players to viewers in real time, limiting the viewing experience. Furthermore, the collection and analysis of game data was done manually, which was inefficient and sometimes lacked consistency and accuracy.
実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、全国各地で行われる試合の映像や音声データを収集する手段と、収集したデータをクラウドストレージに保存する手段と、保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段と、生成された解説を試合映像と同期させる手段と、解説付きの試合映像をストリーミング配信する手段と、ユーザが視聴するためのインターフェースを提供する手段と、サーバからストリーミング配信される解説付き試合映像を受信する手段と、受信した映像をユーザに表示する手段を含む。これにより、全国各地で行われるユースやミニバスの試合においても、AIによる高品質な解説付きの実況中継が可能となり、視聴体験が向上する。また、試合データの収集や解析が自動化されるため、効率的かつ正確なデータ管理が実現できる。 In this invention, the server includes means for collecting video and audio data of matches held throughout the country, means for storing the collected data in cloud storage, means for transmitting the stored data to a generative AI model and generating commentary for the match, means for synchronizing the generated commentary with the match video, means for streaming the match video with commentary, means for providing an interface for users to view, means for receiving the match video with commentary streamed from the server, and means for displaying the received video to the user. This enables live broadcasts with high-quality commentary by AI even for youth and mini-basketball matches held throughout the country, improving the viewing experience. In addition, efficient and accurate data management can be achieved because the collection and analysis of match data is automated.
「全国各地で行われる試合の映像や音声データを収集する手段」とは、各地の試合会場に設置されたカメラやマイクロフォンを用いて、試合の映像および音声をリアルタイムでキャプチャし、サーバに送信するための装置やシステムである。 "Means for collecting video and audio data from matches held around the country" refers to devices and systems that use cameras and microphones installed at match venues around the country to capture video and audio data from matches in real time and transmit it to a server.
「収集したデータをクラウドストレージに保存する手段」とは、収集された映像や音声データを適切なフォーマットに変換し、クラウドサービスを利用してデータを保存するための装置やシステムである。 "Means for storing collected data in cloud storage" refers to devices or systems that convert collected video and audio data into an appropriate format and store the data using cloud services.
「保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段」とは、クラウドストレージに保存されたデータを取得し、生成AIモデルに対してプロンプト文を送信してデータを解析し、試合の解説を生成するための装置やシステムである。 "Means for sending stored data to a generative AI model and generating commentary on a match" refers to a device or system that retrieves data stored in cloud storage, sends prompt text to the generative AI model to analyze the data, and generates commentary on a match.
「生成された解説を試合映像と同期させる手段」とは、生成された解説テキストを試合映像の特定のタイムスタンプに合わせて挿入し、映像と解説が同期された状態で再生できるようにするための装置やシステムである。 "Means for synchronizing the generated commentary with the game video" refers to a device or system that inserts the generated commentary text at a specific timestamp in the game video, allowing the video and commentary to be played in a synchronized state.
「解説付きの試合映像をストリーミング配信する手段」とは、同期された映像データをリアルタイムでエンコードし、ストリーミングプラットフォームに送信して視聴者に配信するための装置やシステムである。 "Means for streaming game footage with commentary" refers to a device or system that encodes synchronized video data in real time and transmits it to a streaming platform for distribution to viewers.
「ユーザが視聴するためのインターフェースを提供する手段」とは、スマートフォンやタブレット、PCなどのデバイスを通じて、ユーザに視聴インターフェースを表示するための装置やシステムである。 "Means for providing an interface for users to view" refers to a device or system for displaying a viewing interface to users through a device such as a smartphone, tablet, or PC.
「サーバからストリーミング配信される解説付き試合映像を受信する手段」とは、インターネット接続を通じてサーバから配信される解説付き試合映像をリアルタイムで受信するための装置やシステムである。 "Means for receiving game footage with commentary streamed from a server" refers to a device or system for receiving game footage with commentary streamed from a server in real time via an Internet connection.
「受信した映像をユーザに表示する手段」とは、受信した映像データをデコードし、ユーザのデバイス画面に表示するための装置やシステムである。 "Means for displaying received video to a user" refers to a device or system for decoding received video data and displaying it on the user's device screen.
この発明は、全国各地で行われるユースやミニバスの試合をAIによる解説付きで配信するシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that broadcasts youth and mini-basketball matches held around the country with commentary by AI. A specific embodiment of this system is described below.
サーバの役割 Server role
サーバは、全国各地で行われる試合の映像や音声データを収集する。各地の試合会場に設置されたカメラやマイクロフォンを用いて、試合の映像および音声をリアルタイムでキャプチャし、これらのデータをサーバに送信する。収集されたデータは、Amazon S3やGoogle Cloud Storageなどのクラウドストレージに保存される。 The server collects video and audio data from matches held around the country. Cameras and microphones installed at match venues around the country capture video and audio from matches in real time and send this data to the server. The collected data is stored in cloud storage such as Amazon S3 and Google Cloud Storage.
次に、サーバは保存されたデータを生成AIモデルに送信する。生成AIモデルには、例えばOpenAI(登録商標)のGPT-4やGoogleのBERTなどが使用される。サーバは、クラウドストレージからデータを取得し、生成AIモデルに対してプロンプト文を送信する。プロンプト文には、試合の進行状況や選手の動き、得点状況などを解析する指示が含まれる。 The server then sends the stored data to a generative AI model. Examples of generative AI models that can be used include OpenAI's (registered trademark) GPT-4 and Google's BERT. The server retrieves the data from cloud storage and sends a prompt to the generative AI model. The prompt includes instructions to analyze the progress of the game, the movements of the players, the score, etc.
生成AIモデルは、プロンプト文に基づいてデータを解析し、自然言語で解説を生成する。生成された解説は、テキスト形式でサーバに返送される。サーバは、生成された解説を試合映像と同期させる。この同期処理には、FFmpegなどの動画編集ソフトウェアが使用される。サーバは、解説テキストを映像の特定のタイムスタンプに合わせて挿入し、映像と解説が同期された状態で再生できるようにする。 The generative AI model analyzes the data based on the prompt text and generates commentary in natural language. The generated commentary is sent back to the server in text format. The server then synchronizes the generated commentary with the game footage. This synchronization process is performed using video editing software such as FFmpeg. The server inserts the commentary text at specific timestamps in the footage, allowing the footage and commentary to be played in sync.
最後に、サーバは解説付きの試合映像をストリーミング配信する。この配信には、YouTube(登録商標) LiveやTwitchなどのストリーミングプラットフォームが利用される。サーバは、同期された映像データをリアルタイムでエンコードし、ストリーミングプラットフォームに送信する。 Finally, the server streams the game footage with commentary to a streaming platform such as YouTube Live or Twitch. The server encodes the synchronized video data in real time and sends it to the streaming platform.
端末の役割 Role of the device
端末は、ユーザが視聴するためのインターフェースを提供する。ここでは、スマートフォンやタブレット、PCなどのデバイスが使用される。端末は、専用アプリケーションやウェブブラウザを通じて、ユーザに視聴インターフェースを表示する。インターフェースには、試合一覧や検索機能が含まれる。 The terminal provides the user with an interface for viewing. Devices such as smartphones, tablets, and PCs are used here. The terminal displays the viewing interface to the user through a dedicated application or web browser. The interface includes a list of matches and a search function.
端末は、サーバからストリーミング配信される解説付き試合映像を受信する。この受信には、インターネット接続が必要である。端末は、ストリーミングプラットフォームから映像データをリアルタイムで受信し、バッファリングを行う。受信した映像データをデコードし、ユーザのデバイス画面に表示する。 The device receives game footage with commentary streamed from the server. An Internet connection is required for this reception. The device receives video data from the streaming platform in real time and buffers it. The device decodes the received video data and displays it on the user's device screen.
ユーザの役割 User Roles
ユーザは、端末を使用してシステムにアクセスする。アクセスには、専用のアプリケーションやウェブブラウザが使用される。ユーザは、スマートフォンやPCで専用アプリを起動するか、ウェブブラウザでシステムのURLにアクセスする。 Users access the system using a terminal. To do so, they use a dedicated application or a web browser. Users launch a dedicated application on their smartphone or PC, or access the system's URL using a web browser.
ユーザは、視聴したい試合を選択する。選択には、試合一覧や検索機能が提供される。ユーザは、インターフェース上で試合一覧をスクロールし、視聴したい試合をクリックする。検索機能を使用して特定の試合を検索することもできる。 The user selects the match they wish to watch. For this selection, a list of matches and a search function are provided. The user scrolls through the list of matches on the interface and clicks on the match they wish to watch. They can also use the search function to find a specific match.
ユーザは、選択した試合の解説付き映像を視聴する。視聴中に、ユーザは再生、一時停止、巻き戻しなどの操作を行うことができる。ユーザは、再生ボタンをクリックして映像を視聴開始し、必要に応じて、一時停止ボタンや巻き戻しボタンを使用して映像を操作する。 The user watches the commentary-enhanced video of the selected match. While watching, the user can play, pause, rewind, and perform other operations. The user clicks the play button to start watching the video, and uses the pause and rewind buttons to navigate the video as needed.
具体例 Specific examples
例えば、ユーザがスマートフォンを使用して、全国ユースバスケットボール大会の試合を視聴する場合、以下の手順を踏む: For example, if a user wants to watch a national youth basketball tournament game on their smartphone, they would follow these steps:
1. ユーザは、スマートフォンの専用アプリを起動する。 1. The user launches the dedicated app on their smartphone.
2. アプリ内の検索機能を使用して、「全国ユースバスケットボール大会」と入力する。 2. Use the in-app search function and type in "National Youth Basketball Tournament."
3. 検索結果から視聴したい試合を選択する。 3. Select the match you want to watch from the search results.
4. アプリは、サーバから解説付き試合映像をストリーミング配信する。 4. The app streams game footage with commentary from the server.
5. ユーザは、スマートフォンの画面で試合を視聴し、解説を楽しむ。 5. Users can watch the game on their smartphone screen and enjoy the commentary.
生成AIモデルへ入力するプロンプト文の例としては、「全国ユースバスケットボール大会の試合映像と音声データを解析し、試合の進行状況、選手の動き、得点状況などを含む解説を生成してください。」が挙げられる。このプロンプト文を使用して、AI解析システムに試合の解説を生成させる。 An example of a prompt sentence to be input to the generative AI model is, "Analyze the game video and audio data of the National Youth Basketball Tournament and generate commentary including the progress of the game, player movements, score status, etc." Using this prompt sentence, the AI analysis system generates commentary of the game.
実施例2における特定処理の流れについて図13を用いて説明する。 The flow of the identification process in Example 2 is explained using Figure 13.
ステップ1: Step 1:
サーバは、全国各地で行われる試合の映像や音声データを収集する。入力として、各地の試合会場に設置されたカメラやマイクロフォンからのリアルタイムデータを受け取る。具体的な動作として、これらのデバイスがキャプチャした映像と音声をインターネットを通じてサーバに送信する。出力として、収集された映像と音声データが得られる。 The server collects video and audio data from matches held around the country. As input, it receives real-time data from cameras and microphones installed at match venues around the country. Specifically, it transmits the video and audio captured by these devices to the server via the internet. As output, it obtains the collected video and audio data.
ステップ2: Step 2:
サーバは、収集したデータをクラウドストレージに保存する。入力として、ステップ1で収集された映像と音声データを受け取る。具体的な動作として、データを適切なフォーマットに変換し、Amazon S3やGoogle Cloud Storageなどのクラウドサービスにアップロードする。出力として、クラウドストレージに保存されたデータが得られる。 The server stores the collected data in cloud storage. As input, it receives the video and audio data collected in step 1. Specifically, it converts the data into an appropriate format and uploads it to a cloud service such as Amazon S3 or Google Cloud Storage. As output, it obtains the data stored in cloud storage.
ステップ3: Step 3:
サーバは、保存されたデータを生成AIモデルに送信し、試合の解説を生成する。入力として、クラウドストレージから取得した映像と音声データを受け取る。具体的な動作として、生成AIモデルに対してプロンプト文を送信し、データを解析させる。プロンプト文には、試合の進行状況や選手の動き、得点状況などを解析する指示が含まれる。出力として、生成AIモデルから返送された解説テキストが得られる。 The server sends the saved data to the generative AI model to generate commentary on the match. As input, it receives video and audio data obtained from cloud storage. Specifically, it sends a prompt to the generative AI model to analyze the data. The prompt includes instructions to analyze the progress of the match, player movements, the score, etc. The output is the commentary text returned from the generative AI model.
ステップ4: Step 4:
サーバは、生成された解説を試合映像と同期させる。入力として、ステップ3で得られた解説テキストとクラウドストレージから取得した映像データを受け取る。具体的な動作として、FFmpegなどの動画編集ソフトウェアを使用して、解説テキストを映像の特定のタイムスタンプに合わせて挿入する。出力として、解説と同期された試合映像が得られる。 The server synchronizes the generated commentary with the game footage. As input, it receives the commentary text obtained in step 3 and the video data obtained from the cloud storage. Specifically, it uses video editing software such as FFmpeg to insert the commentary text at a specific timestamp in the video. As output, it obtains the game footage synchronized with the commentary.
ステップ5: Step 5:
サーバは、解説付きの試合映像をストリーミング配信する。入力として、ステップ4で得られた解説と同期された試合映像を受け取る。具体的な動作として、映像データをリアルタイムでエンコードし、YouTube LiveやTwitchなどのストリーミングプラットフォームに送信する。出力として、視聴者に配信されるストリーミング映像が得られる。 The server streams the game footage with commentary. As input, it receives the game footage synchronized with the commentary obtained in step 4. Specifically, it encodes the video data in real time and transmits it to a streaming platform such as YouTube Live or Twitch. As output, it obtains the streaming video that is distributed to the viewers.
ステップ6: Step 6:
端末は、ユーザが視聴するためのインターフェースを提供する。入力として、ユーザの操作を受け取る。具体的な動作として、専用アプリケーションやウェブブラウザを通じて、視聴インターフェースを表示する。インターフェースには、試合一覧や検索機能が含まれる。出力として、ユーザが視聴したい試合を選択するための情報が得られる。 The terminal provides an interface for users to watch. It receives user operations as input. Its specific operation is to display the viewing interface through a dedicated application or web browser. The interface includes a list of matches and a search function. As output, it provides information that allows the user to select the match they wish to watch.
ステップ7: Step 7:
端末は、サーバからストリーミング配信される解説付き試合映像を受信する。入力として、サーバからのストリーミングデータを受け取る。具体的な動作として、インターネット接続を通じて映像データをリアルタイムで受信し、バッファリングを行う。出力として、受信された映像データが得られる。 The terminal receives game footage with commentary that is streamed from the server. As input, it receives streaming data from the server. Specifically, it receives video data in real time via an Internet connection and buffers it. As output, it obtains the received video data.
ステップ8: Step 8:
端末は、受信した映像をユーザに表示する。入力として、ステップ7で受信された映像データを受け取る。具体的な動作として、映像データをデコードし、ユーザのデバイス画面に表示する。出力として、ユーザが視聴する映像が得られる。 The terminal displays the received video to the user. As input, it receives the video data received in step 7. Specifically, it decodes the video data and displays it on the user's device screen. As output, it obtains the video that the user watches.
ステップ9: Step 9:
ユーザは、端末を使用してシステムにアクセスする。入力として、専用のアプリケーションやウェブブラウザを使用する。具体的な動作として、スマートフォンやPCで専用アプリを起動するか、ウェブブラウザでシステムのURLにアクセスする。出力として、システムへのアクセスが得られる。 The user accesses the system using a terminal. A dedicated application or a web browser is used as input. Specifically, the user launches a dedicated application on a smartphone or PC, or accesses the system's URL in a web browser. Access to the system is obtained as output.
ステップ10: Step 10:
ユーザは、視聴したい試合を選択する。入力として、視聴インターフェース上の試合一覧や検索機能を使用する。具体的な動作として、試合一覧をスクロールし、視聴したい試合をクリックする。検索機能を使用して特定の試合を検索することもできる。出力として、選択された試合が得られる。 The user selects the match they want to watch. As input, they use the match list and search functionality on the viewing interface. They scroll through the match list and click on the match they want to watch. They can also use the search functionality to search for a specific match. As output, they get the selected match.
ステップ11: Step 11:
ユーザは、選択した試合の解説付き映像を視聴する。入力として、ステップ10で選択された試合を受け取る。具体的な動作として、再生ボタンをクリックして映像を視聴開始し、必要に応じて、一時停止ボタンや巻き戻しボタンを使用して映像を操作する。出力として、視聴される試合映像が得られる。
The user watches the commentary-enhanced video of the selected match. As input, the match selected in
(応用例2) (Application example 2)
次に、形態例2の応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, application example 2 of embodiment example 2 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、試合の実況中継や解説が人手に依存しており、全国各地で行われるユースやミニバスの試合を広く視聴者に提供することが困難であった。また、試合のハイライトやリプレイ機能、試合後の統計データや分析レポートの提供が不足しており、視聴者の満足度を高めることができなかった。さらに、ユーザーが好きなチームや選手をフォローする機能がなく、個別のニーズに応えることができなかった。 In conventional basketball game commentary systems, live broadcasts and commentary of games were dependent on human labor, making it difficult to provide youth and mini-basketball games held all over the country to a wide audience. In addition, there was a lack of game highlights and replay functions, and post-game statistical data and analysis reports, making it difficult to increase viewer satisfaction. Furthermore, there was no function for users to follow their favorite teams or players, making it difficult to meet individual needs.
応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像や音声データを収集し、AIが解析して解説を生成する手段と、スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段と、試合のハイライトやリプレイ機能を提供する手段と、ユーザーが好きなチームや選手をフォローできる機能を提供する手段と、試合後の統計データや分析レポートを提供する手段を含む。これにより、全国各地で行われるユースやミニバスの試合を広く視聴者に提供し、視聴者の満足度を高めることが可能となる。
The specific processing by the
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合中に人工知能を用いてリアルタイムで解説を生成し、視聴者に提供する技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to generate commentary in real time during a basketball game and provide it to viewers.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能による解説付きでリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to technology that broadcasts youth and mini-basketball games held around the country in real time with commentary by artificial intelligence.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを人工知能が自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合の映像や音声データを収集し、AIが解析して解説を生成する手段」とは、試合中の映像や音声データを収集し、それを人工知能が解析して解説を生成する技術である。 "Method of collecting video and audio data from the match and analyzing it with AI to generate commentary" refers to technology that collects video and audio data from the match and uses artificial intelligence to analyze it and generate commentary.
「スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段」とは、スマートフォン用のアプリケーションを用いて、リアルタイムで試合を配信し、人工知能による解説を提供する技術である。 "Means of broadcasting matches in real time and providing commentary by AI through an application installed on a smartphone" refers to a technology that uses a smartphone application to broadcast matches in real time and provide commentary by artificial intelligence.
「試合のハイライトやリプレイ機能を提供する手段」とは、試合中の重要なシーンやプレイをハイライトとしてまとめたり、リプレイとして再生する機能を提供する技術である。 "Means for providing match highlight and replay features" refers to technology that provides the functionality to compile important scenes and plays during a match as highlights or play them back as replays.
「ユーザーが好きなチームや選手をフォローできる機能を提供する手段」とは、ユーザーが自分の好きなチームや選手を選んでフォローし、その情報を優先的に受け取ることができる機能を提供する技術である。 "Means for providing a function that enables users to follow their favorite teams and players" refers to technology that provides a function that enables users to select and follow their favorite teams and players and receive information about them on a priority basis.
「試合後の統計データや分析レポートを提供する手段」とは、試合終了後に試合の統計データや分析レポートを生成し、ユーザーに提供する技術である。 "Means for providing post-match statistical data and analytical reports" refers to technology that generates match statistical data and analytical reports after the match ends and provides them to users.
この発明を実施するための形態として、以下のシステム構成を説明する。 The following system configuration is described as a form for implementing this invention.
システム構成 System configuration
システムは、サーバ、スマートフォン、及びAIモデルを含む。サーバは、試合の映像や音声データを収集し、AIモデルを用いて解析を行い、解説を生成する。スマートフォンは、ユーザーが試合をリアルタイムで視聴し、AIによる解説を受け取るためのアプリケーションを提供する。 The system includes a server, a smartphone, and an AI model. The server collects video and audio data from the match, analyzes it using the AI model, and generates commentary. The smartphone provides an application that enables users to watch the match in real time and receive commentary by the AI.
使用するハードウェア及びソフトウェア Hardware and software used
サーバ: 高性能なデータ処理能力を持つサーバ(例:AWS(登録商標) EC2インスタンス) Server: A server with high-performance data processing capabilities (e.g. AWS (registered trademark) EC2 instance)
スマートフォン: iOSまたはANDROID(登録商標)デバイス Smartphone: iOS or ANDROID (registered trademark) device
AIモデル: OpenAIのGPT-4 AI model: OpenAI's GPT-4
データ処理ライブラリ: OpenCV(映像処理用)、Python(プログラム言語) Data processing library: OpenCV (for image processing), Python (programming language)
データ加工及びデータ演算 Data processing and data calculations
1. 試合の映像や音声データの収集: 1. Collecting video and audio data from the match:
サーバは、全国各地で行われるユースやミニバスの試合の映像や音声データをリアルタイムで収集する。これには、カメラやマイクなどの入力デバイスが使用される。 The server collects video and audio data in real time from youth and mini-basketball matches held across the country. This is done using input devices such as cameras and microphones.
2. AIによる解析と解説生成: 2. AI-based analysis and explanation generation:
サーバは、収集した映像や音声データをOpenCVを用いて解析し、試合の重要なシーンやプレイを抽出する。抽出された情報を基に、OpenAIのGPT-4を使用して解説を生成する。具体的には、以下のプロンプト文を用いる。 The server uses OpenCV to analyze the collected video and audio data and extracts important scenes and plays from the match. Based on the extracted information, it uses OpenAI's GPT-4 to generate commentary. Specifically, it uses the following prompt sentence:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
3. リアルタイム配信と解説提供: 3. Real-time broadcasting and commentary:
サーバは、生成された解説とともに試合の映像をスマートフォンにリアルタイムで配信する。スマートフォンにインストールされたアプリケーションは、ユーザーが試合を視聴しながらAIによる解説を受け取ることを可能にする。 The server delivers the game footage along with the generated commentary to smartphones in real time. An application installed on the smartphone allows users to receive the AI commentary while watching the game.
4. ハイライトやリプレイ機能の提供: 4. Providing highlight and replay features:
サーバは、試合中の重要なシーンをハイライトとしてまとめ、リプレイ機能を提供する。これにより、ユーザーは試合の重要な瞬間を再度視聴することができる。 The server compiles highlights of key scenes during the match and provides a replay function, allowing users to rewatch key moments of the match.
5. ユーザーのフォロー機能: 5. User following feature:
スマートフォンのアプリケーションは、ユーザーが好きなチームや選手をフォローする機能を提供する。これにより、ユーザーはフォローしたチームや選手の情報を優先的に受け取ることができる。 The smartphone application provides users with the ability to follow their favorite teams and players. This allows users to receive information about the teams and players they follow preferentially.
6. 試合後の統計データや分析レポートの提供: 6. Providing post-match statistics and analysis reports:
サーバは、試合終了後に統計データや分析レポートを生成し、スマートフォンのアプリケーションを通じてユーザーに提供する。これにより、ユーザーは試合の詳細な分析情報を得ることができる。 After the match ends, the server generates statistical data and analysis reports and provides them to users via a smartphone application, allowing users to obtain detailed analysis information about the match.
具体例 Specific examples
例えば、ユーザーがスマートフォンのアプリケーションを通じてユースバスケットボールの試合を視聴している場合、サーバはリアルタイムで試合の映像とAIによる解説を配信する。試合中に選手Aがゴールを決めた瞬間、サーバはそのシーンを解析し、以下のプロンプト文を生成する。 For example, when a user is watching a youth basketball game through a smartphone application, the server delivers real-time game footage and AI commentary. The moment Player A scores a goal during the game, the server analyzes the scene and generates the following prompt:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
このプロンプト文を基に、AIモデルが解説を生成し、ユーザーに提供する。ユーザーは試合を視聴しながら、AIによる解説をリアルタイムで楽しむことができる。また、試合後には統計データや分析レポートを通じて、試合の詳細な情報を得ることができる。 Based on this prompt, the AI model will generate commentary and provide it to the user. Users can enjoy the AI commentary in real time while watching the match. In addition, after the match, users can obtain detailed information about the match through statistical data and analysis reports.
応用例2における特定処理の流れについて図14を用いて説明する。 The flow of the specific processing in application example 2 is explained using Figure 14.
ステップ1: Step 1:
サーバは、全国各地で行われるユースやミニバスの試合の映像や音声データを収集する。入力として、カメラやマイクなどの入力デバイスからのリアルタイムデータを受け取り、出力として、これらのデータをストレージに保存する。具体的な動作として、サーバは各試合会場から送信される映像と音声データを受信し、適切なフォーマットに変換して保存する。 The server collects video and audio data from youth and mini-basketball matches held around the country. As input, it receives real-time data from input devices such as cameras and microphones, and as output, it stores this data in storage. In concrete terms, the server receives video and audio data sent from each match venue, converts it into an appropriate format, and stores it.
ステップ2: Step 2:
サーバは、収集した映像や音声データを解析する。入力として、ステップ1で保存された映像と音声データを使用し、出力として、試合の重要なシーンやプレイの情報を抽出する。具体的な動作として、サーバはOpenCVを用いて映像データをフレームごとに解析し、選手の動きやボールの位置を特定する。また、音声データからは得点やファウルなどのイベントを抽出する。 The server analyzes the collected video and audio data. It uses the video and audio data saved in step 1 as input, and extracts information about important scenes and plays in the match as output. Specifically, the server uses OpenCV to analyze the video data frame by frame and identify the movements of players and the position of the ball. It also extracts events such as goals and fouls from the audio data.
ステップ3: Step 3:
サーバは、解析結果を基にプロンプト文を生成する。入力として、ステップ2で抽出された試合の重要なシーンやプレイの情報を使用し、出力として、AIモデルに渡すためのプロンプト文を生成する。具体的な動作として、サーバは選手の動きや得点状況などの情報をテキスト形式に変換し、以下のようなプロンプト文を生成する。 The server generates a prompt sentence based on the analysis results. As input, it uses information about important scenes and plays in the match extracted in step 2, and as output, it generates a prompt sentence to pass to the AI model. Specifically, the server converts information such as player movements and scoring status into text format and generates a prompt sentence like the following:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
ステップ4: Step 4:
サーバは、生成したプロンプト文をAIモデルに送信し、解説を生成する。入力として、ステップ3で生成されたプロンプト文を使用し、出力として、AIモデルから生成された解説テキストを受け取る。具体的な動作として、サーバはOpenAIのGPT-4 APIを呼び出し、プロンプト文を送信して解説を生成する。 The server sends the generated prompt text to the AI model and generates an explanation. It uses the prompt text generated in step 3 as input and receives the explanation text generated from the AI model as output. In concrete terms, the server calls OpenAI's GPT-4 API, sends the prompt text, and generates an explanation.
ステップ5: Step 5:
サーバは、生成された解説と試合の映像をスマートフォンにリアルタイムで配信する。入力として、ステップ4で生成された解説テキストとステップ1で収集された映像データを使用し、出力として、ユーザーのスマートフォンに配信するデータを生成する。具体的な動作として、サーバは映像データに解説テキストをオーバーレイし、ストリーミング形式でスマートフォンに送信する。 The server delivers the generated commentary and game footage to smartphones in real time. It uses the commentary text generated in step 4 and the video data collected in step 1 as input, and generates data to be delivered to the user's smartphone as output. In concrete terms, the server overlays the commentary text on the video data and transmits it to the smartphone in streaming format.
ステップ6: Step 6:
ユーザーは、スマートフォンのアプリケーションを通じて試合を視聴し、AIによる解説を受け取る。入力として、サーバから配信された映像と解説データを使用し、出力として、ユーザーに試合の映像と解説を表示する。具体的な動作として、スマートフォンのアプリケーションは、受信したデータをデコードし、画面上に表示する。 Users watch the game through a smartphone application and receive commentary by AI. As input, it uses video and commentary data distributed from the server, and as output, it displays the game video and commentary to the user. In concrete terms, the smartphone application decodes the received data and displays it on the screen.
ステップ7: Step 7:
サーバは、試合中の重要なシーンをハイライトとしてまとめ、リプレイ機能を提供する。入力として、ステップ2で抽出された重要なシーンの情報を使用し、出力として、ハイライト映像を生成する。具体的な動作として、サーバは重要なシーンを編集し、ユーザーがリプレイできる形式で保存する。 The server summarizes important scenes during the match as highlights and provides a replay function. It uses the information of important scenes extracted in step 2 as input and generates highlight videos as output. In concrete terms, the server edits the important scenes and saves them in a format that users can replay.
ステップ8: Step 8:
ユーザーは、スマートフォンのアプリケーションを通じて好きなチームや選手をフォローする。入力として、ユーザーの選択情報を使用し、出力として、フォローしたチームや選手の情報を優先的に表示する。具体的な動作として、アプリケーションはユーザーの選択を記録し、関連する情報を優先的に取得して表示する。 Users follow their favorite teams and players through a smartphone application. The application uses the user's selection information as input, and prioritizes displaying information about the followed teams and players as output. In concrete terms, the application records the user's selection, and prioritizes retrieving and displaying related information.
ステップ9: Step 9:
サーバは、試合終了後に統計データや分析レポートを生成し、ユーザーに提供する。入力として、試合中に収集されたデータを使用し、出力として、統計データや分析レポートを生成する。具体的な動作として、サーバは試合のデータを集計し、視覚的に分かりやすい形式でレポートを作成し、スマートフォンのアプリケーションを通じてユーザーに提供する。 After the match ends, the server generates statistical data and analysis reports and provides them to the user. It uses data collected during the match as input and generates statistical data and analysis reports as output. In concrete terms, the server aggregates the match data, creates a report in a visually easy-to-understand format, and provides it to the user through a smartphone application.
(実施例3) (Example 3)
次に、形態例3の実施例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, a third embodiment of the third embodiment will be described. In the following description, the
従来のバスケットボールの試合において、得点状況やファウル状況をリアルタイムで把握するためには、人手によるランニングスコアの作成が必要であり、これには時間と労力がかかるという問題があった。また、全国のチームや選手のデータを効果的に収集・解析し、選手の育成に活用するためのシステムが不足していた。これにより、選手のパフォーマンスの見える化や育成のためのフィードバックが十分に行われていなかった。 In traditional basketball games, in order to grasp the score and foul situation in real time, it was necessary to manually create a running score, which was time-consuming and labor-intensive. In addition, there was a lack of a system to effectively collect and analyze data on teams and players across the country and use it for player development. This meant that there was insufficient visualization of player performance and feedback for development.
実施例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データを受信する手段と、受信した映像データを解析する手段と、受信した音声データを解析する手段と、解析結果から得点状況やファウル状況を抽出する手段と、抽出した情報を基にランニングスコアを生成する手段と、生成されたランニングスコアをリアルタイムで更新し、端末に送信する手段と、端末に送信されたランニングスコアを表示する手段と、全国のチームや選手の試合結果やスタッツなどの情報を収集する手段と、収集した情報をデータベース化する手段と、データベース化された情報を解析し、選手のパフォーマンスを評価する手段と、解析結果を基に選手の育成のためのフィードバックを生成する手段と、生成されたフィードバックを端末に送信する手段と、端末に送信されたフィードバックを表示する手段と、を含む。これにより、試合の進行状況をリアルタイムで把握することが可能となり、選手のパフォーマンスの見える化や育成のためのフィードバックを効果的に行うことが可能となる。 In this invention, the server includes a means for receiving video data and audio data of a match, a means for analyzing the received video data, a means for analyzing the received audio data, a means for extracting the score situation and the foul situation from the analysis result, a means for generating a running score based on the extracted information, a means for updating the generated running score in real time and transmitting it to the terminal, a means for displaying the running score transmitted to the terminal, a means for collecting information such as the match results and stats of teams and players nationwide, a means for database-izing the collected information, a means for analyzing the databased information and evaluating the performance of players, a means for generating feedback for player development based on the analysis result, a means for transmitting the generated feedback to the terminal, and a means for displaying the feedback transmitted to the terminal. This makes it possible to grasp the progress of the match in real time, and effectively visualize the performance of players and provide feedback for development.
「試合の映像データ」とは、バスケットボールの試合の様子をカメラで撮影した動画ファイルである。 "Game video data" refers to video files captured by a camera showing a basketball game.
「音声データ」とは、バスケットボールの試合中の音声をマイクで録音した音声ファイルである。 "Audio data" refers to audio files recorded by a microphone during a basketball game.
「受信する手段」とは、サーバが外部からデータを取得するための機能である。 "Means of receiving" refers to the function that allows the server to obtain data from outside.
「解析する手段」とは、受信したデータを処理し、必要な情報を抽出するための機能である。 "Means of analysis" refers to the function for processing received data and extracting necessary information.
「得点状況」とは、試合中にどのチームが何点を得たかを示す情報である。 "Scoring status" is information that shows how many points each team has scored during a match.
「ファウル状況」とは、試合中にどの選手がどのようなファウルを犯したかを示す情報である。 "Foul situation" is information that shows which players committed what type of fouls during the game.
「ランニングスコア」とは、試合の進行に伴ってリアルタイムで更新される得点やファウルの記録である。 The "running score" is a record of points and fouls that is updated in real time as the game progresses.
「リアルタイムで更新する手段」とは、試合の進行に合わせてデータを即時に反映させる機能である。 "Means of updating in real time" refers to a function that instantly reflects data as the match progresses.
「端末」とは、ユーザが情報を確認するために使用するデバイスである。 "Terminal" refers to the device that a user uses to view information.
「表示する手段」とは、端末に情報を視覚的に提示するための機能である。 "Means of display" refers to the functionality for visually presenting information on a terminal.
「試合結果」とは、試合終了後の最終的な得点や勝敗を示す情報である。 "Match results" refers to information showing the final score and outcome after the match has ended.
「スタッツ」とは、選手やチームのパフォーマンスを数値化した統計データである。 "Stats" are statistical data that quantify the performance of players and teams.
「収集する手段」とは、必要なデータを集めるための機能である。 "Means of collection" refers to the function for collecting the necessary data.
「データベース化する手段」とは、収集したデータを整理し、保存するための機能である。 "Means of database creation" refers to the function of organizing and storing collected data.
「解析する手段」とは、データベース化された情報を処理し、意味のある結果を導き出すための機能である。 "Means of analysis" refers to the function of processing databased information and deriving meaningful results.
「フィードバック」とは、解析結果に基づいて提供されるアドバイスや評価である。 "Feedback" refers to advice or evaluation provided based on the analysis results.
「見える化」とは、データを視覚的に表示し、理解しやすくすることを指す。 "Visualization" refers to displaying data visually to make it easier to understand.
「育成」とは、選手の能力を向上させるためのトレーニングや指導を指す。 "Development" refers to training and guidance to improve players' abilities.
この発明は、バスケットボールの試合における得点状況やファウル状況をリアルタイムで把握し、選手のパフォーマンスを評価・育成するためのシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system for grasping the score and foul situation in a basketball game in real time and evaluating and developing the performance of players. A specific embodiment of this system is described below.
システムの構成 System configuration
ハードウェア Hardware
サーバ: 高性能な計算能力を持つコンピュータであり、データの受信、解析、生成、送信を行う。 Server: A computer with high-performance computing power that receives, analyzes, generates, and transmits data.
端末: ユーザが情報を確認するためのデバイスであり、スマートフォン、タブレット、パソコンなどが含まれる。 Device: The device on which the user checks information, including smartphones, tablets, and computers.
カメラ: 試合の映像データを取得するための装置。 Camera: A device used to capture video data of a match.
マイク: 試合の音声データを取得するための装置。 Microphone: A device used to capture audio data from a match.
ソフトウェア Software
映像解析ソフトウェア: OpenCVなどのライブラリを使用して、映像データを解析する。 Video analysis software: Analyzes video data using libraries such as OpenCV.
音声解析ソフトウェア: LibROSAなどのライブラリを使用して、音声データを解析する。 Speech analysis software: Use libraries such as LibROSA to analyze speech data.
データベース管理システム: MySQL(登録商標)などを使用して、収集したデータをデータベース化する。 Database management system: Collected data is stored in a database using MySQL (registered trademark) or similar.
データ解析ツール: PandasやNumPyなどを使用して、データを解析する。 Data analysis tools: Analyze data using tools such as Pandas and NumPy.
生成AIモデル: GPT-4などを使用して、ランニングスコアやフィードバックを生成する。 Generative AI models: Use models such as GPT-4 to generate running scores and feedback.
システムの動作 System operation
データ受信と解析 Data reception and analysis
サーバは、試合の映像データと音声データをカメラとマイクからリアルタイムで受信する。受信した映像データは映像解析ソフトウェアを使用して解析され、得点やファウルのシーンを検出する。音声データは音声解析ソフトウェアを使用して解析され、実況や観客の反応を解析する。 The server receives video and audio data of the game in real time from the cameras and microphones. The received video data is analyzed using video analysis software to detect goals and fouls. The audio data is analyzed using audio analysis software to analyze the commentary and crowd reactions.
情報抽出とランニングスコア生成 Information extraction and running score generation
サーバは、解析結果から得点状況やファウル状況を抽出する。抽出した情報を基に、生成AIモデルを使用してランニングスコアを生成する。生成されたランニングスコアはリアルタイムで更新され、端末に送信される。 The server extracts the scoring and foul situations from the analysis results. Based on the extracted information, a generative AI model is used to generate a running score. The generated running score is updated in real time and sent to the terminal.
データ表示 Display data
端末は、受信したランニングスコアを表示する。これにより、ユーザは試合の進行状況をリアルタイムで把握することができる。 The device displays the received running score, allowing the user to follow the progress of the match in real time.
データ収集とデータベース化 Data collection and database creation
サーバは、全国のチームや選手の試合結果やスタッツなどの情報を収集する。収集した情報はデータベース管理システムを使用してデータベース化される。 The server collects information such as match results and stats for teams and players across the country. The collected information is stored in a database using a database management system.
データ解析とフィードバック生成 Data analysis and feedback generation
サーバは、データベース化された情報を解析し、選手のパフォーマンスを評価する。解析結果を基に、生成AIモデルを使用して選手の育成のためのフィードバックを生成する。生成されたフィードバックは端末に送信され、端末はこれを表示する。これにより、ユーザは選手のパフォーマンスの分析結果や育成のためのアドバイスを確認することができる。 The server analyzes the databased information and evaluates the player's performance. Based on the analysis results, a generative AI model is used to generate feedback for the player's development. The generated feedback is sent to the terminal, which displays it. This allows the user to check the analysis results of the player's performance and advice for development.
具体例 Specific examples
ユーザがバスケットボールの試合を観戦しているとき、サーバは試合の映像と音声を解析し、得点やファウルの情報を自動的に抽出する。 When a user is watching a basketball game, the server analyzes the video and audio of the game and automatically extracts information about scores and fouls.
サーバは「チームAが得点しました」「チームBがファウルしました」といった情報をリアルタイムで生成し、端末に送信する。 The server generates information in real time, such as "Team A has scored" or "Team B has committed a foul," and sends it to the terminal.
端末はこれらの情報を表示し、ユーザは試合の進行状況をリアルタイムで確認できる。 The device displays this information, allowing users to check the progress of the match in real time.
プロンプト文の例 Example of a prompt
「バスケットボールの試合映像と音声データを解析し、得点状況とファウル状況を抽出してランニングスコアを生成してください。」 "Analyze video and audio data from basketball games, extract the scoring and foul situations, and generate a running score."
「全国のバスケットボールチームや選手の試合結果とスタッツを解析し、選手のパフォーマンスを評価して育成のためのフィードバックを生成してください。」実施例3における特定処理の流れについて図15を用いて説明する。 "Analyze the game results and stats of basketball teams and players nationwide, evaluate the performance of players, and generate feedback for training." The flow of the specific process in Example 3 is explained with reference to FIG. 15.
ステップ1: Step 1:
サーバは試合の映像データと音声データを受信する。 The server receives video and audio data from the match.
入力:カメラとマイクからのリアルタイムデータ Input: Real-time data from camera and microphone
具体的な動作:カメラとマイクから送信される映像と音声をネットワークを通じて受信する。 Specific operation: Receives video and audio transmitted from the camera and microphone via the network.
出力:受信した映像データと音声データ Output: Received video and audio data
ステップ2: Step 2:
サーバは受信した映像データを解析する。 The server analyzes the received video data.
入力:受信した映像データ Input: Received video data
具体的な動作:映像解析ソフトウェア(例: OpenCV)を使用して、映像データから得点やファウルのシーンを検出する。 Specific operation: Use video analysis software (e.g. OpenCV) to detect scoring and foul scenes from video data.
出力:得点シーンとファウルシーンのタイムスタンプ付きデータ Output: Data with timestamps for goals and fouls
ステップ3: Step 3:
サーバは受信した音声データを解析する。 The server analyzes the received audio data.
入力:受信した音声データ Input: Received audio data
具体的な動作:音声解析ソフトウェア(例: LibROSA)を使用して、音声データから実況や観客の反応を解析する。 Specific actions: Use audio analysis software (e.g. LibROSA) to analyze commentary and audience reactions from audio data.
出力:実況や観客の反応のタイムスタンプ付きデータ Output: Timestamped data of commentary and audience reactions
ステップ4: Step 4:
サーバは解析結果から得点状況やファウル状況を抽出する。 The server extracts the scoring and foul situations from the analysis results.
入力:得点シーンとファウルシーンのタイムスタンプ付きデータ、および実況や観客の反応のタイムスタンプ付きデータ Input: Timestamped data on goals and fouls, as well as timestamped data on commentary and crowd reactions
具体的な動作:映像解析と音声解析の結果を統合し、得点やファウルの発生状況を抽出する。 Specific operation: Integrate the results of video and audio analysis to extract the occurrence of goals and fouls.
出力:得点状況とファウル状況のデータ Output: Scoring and foul situation data
ステップ5: Step 5:
サーバは抽出した情報を基にランニングスコアを生成する。 The server generates a running score based on the extracted information.
入力:得点状況とファウル状況のデータ Input: Scoring and foul situation data
具体的な動作:生成AIモデル(例: GPT-4)を使用して、得点やファウルの情報をテキスト形式で生成する。 Specific behavior: Uses a generative AI model (e.g. GPT-4) to generate points and foul information in text format.
出力:ランニングスコアのテキストデータ Output: Text data of running score
ステップ6: Step 6:
サーバは生成されたランニングスコアをリアルタイムで更新し、端末に送信する。 The server updates the generated running score in real time and sends it to the device.
入力:ランニングスコアのテキストデータ Input: Text data of running score
具体的な動作:WebSocketやHTTPプロトコルを使用して、ランニングスコアを端末に送信する。 Specific operation: Sends the running score to the device using WebSocket or HTTP protocol.
出力:端末に送信されたランニングスコア Output: Running score sent to the device
ステップ7: Step 7:
端末は受信したランニングスコアを表示する。 The device will display the received running score.
入力:端末に送信されたランニングスコア Input: Running score sent to the device
具体的な動作:端末のディスプレイにランニングスコアを視覚的に表示する。 Specific operation: Visually display the running score on the device display.
出力:ユーザが視覚的に確認できるランニングスコア Output: A running score that the user can visually check
ステップ8: Step 8:
サーバは全国のチームや選手の試合結果やスタッツなどの情報を収集する。 The server collects information such as match results and stats for teams and players across the country.
入力:各チームの公式サイトやスポーツデータ提供サービスからのデータ Input: Data from each team's official website and sports data services
具体的な動作:WebスクレイピングやAPIを使用して、試合結果やスタッツを収集する。 Specific actions: Collect match results and stats using web scraping and APIs.
出力:収集された試合結果とスタッツのデータ Output: Collected match results and stats data
ステップ9: Step 9:
サーバは収集した情報をデータベース化する。 The server stores the collected information in a database.
入力:収集された試合結果とスタッツのデータ Input: Collected match results and stats data
具体的な動作:データベース管理システム(例: MySQL)を使用して、データをテーブルに格納する。 Specific action: Store data in a table using a database management system (e.g. MySQL).
出力:データベースに格納された試合結果とスタッツのデータ Output: Match results and stats data stored in a database
ステップ10: Step 10:
サーバはデータベース化された情報を解析し、選手のパフォーマンスを評価する。 The server analyzes the databased information and evaluates the players' performance.
入力:データベースに格納された試合結果とスタッツのデータ Input: Match results and stats data stored in the database
具体的な動作:データ解析ツール(例: Pandas, NumPy)を使用して、選手のシュート成功率やディフェンスの強さなどを計算する。 Specific operations: Use data analysis tools (e.g. Pandas, NumPy) to calculate players' shooting success rates, defensive strength, etc.
出力:選手のパフォーマンス評価データ Output: Player performance evaluation data
ステップ11: Step 11:
サーバは解析結果を基に選手の育成のためのフィードバックを生成する。 The server generates feedback for player development based on the analysis results.
入力:選手のパフォーマンス評価データ Input: Player performance evaluation data
具体的な動作:生成AIモデル(例: GPT-4)を使用して、選手の育成のためのフィードバックをテキスト形式で生成する。 Specific actions: Use a generative AI model (e.g. GPT-4) to generate textual feedback for player development.
出力:育成のためのフィードバックのテキストデータ Output: Text data of feedback for training
ステップ12: Step 12:
サーバは生成されたフィードバックを端末に送信する。 The server sends the generated feedback to the device.
入力:育成のためのフィードバックのテキストデータ Input: Text data for feedback for training
具体的な動作:WebSocketやHTTPプロトコルを使用して、フィードバックを端末に送信する。 Specific behavior: Sends feedback to the device using WebSocket or HTTP protocol.
出力:端末に送信されたフィードバック Output: Feedback sent to the device
ステップ13: Step 13:
端末は受信したフィードバックを表示する。 The device will display the feedback it receives.
入力:端末に送信されたフィードバック Input: Feedback sent to device
具体的な動作:端末のディスプレイにフィードバックを視覚的に表示する。 Specific action: Visually display feedback on the device display.
出力:ユーザが視覚的に確認できるフィードバック Output: Visual feedback for the user
(応用例3) (Application example 3)
次に、形態例3の応用例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, application example 3 of embodiment example 3 will be described. In the following description, the
従来のバスケットボールの試合の実況中継や解説は、人間の解説者に依存しており、リアルタイムでの正確な情報提供が難しい場合がある。また、全国のユースやミニバスの試合解説も同様に人手に依存しており、効率的な情報提供が困難である。さらに、工場内の生産ラインの監視においても、異常発生の検出や生産効率の向上が課題となっている。これらの課題を解決するためには、AIを活用した自動化システムが必要である。 Traditional live broadcasts and commentary of basketball games rely on human commentators, which can make it difficult to provide accurate information in real time. Commentary on youth and mini-basketball games across the country also relies on human input, making it difficult to provide information efficiently. Furthermore, when monitoring production lines in factories, detecting abnormalities and improving production efficiency are issues. To solve these issues, an automated system that utilizes AI is needed.
応用例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段と、過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段と、を含む。これにより、試合の進行状況や生産ラインの状況をリアルタイムで正確に把握し、効率的な情報提供と生産効率の向上が可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games from around the country with AI live coverage, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for analyzing camera footage and audio data within the factory to detect production status and abnormal occurrences in real time and provide scores, and a means for storing past production data in a database and providing feedback for efficiency. This allows for accurate understanding of the progress of the game and the status of the production line in real time, making it possible to provide efficient information and improve production efficiency.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合において、人工知能を用いてリアルタイムで試合の進行状況やプレイの解説を自動的に行う技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to automatically provide commentary on the progress of a basketball game and plays in real time.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合において、人工知能を用いて試合の解説を行い、その解説をリアルタイムで配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games nationwide with live coverage by AI" refers to a technology that uses artificial intelligence to provide commentary on youth and mini-basketball games nationwide and broadcasts that commentary in real time.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合の進行中に得点やファウルなどのスコアを人工知能が自動的に解析し、リアルタイムでスコアを生成する技術である。 "A means of using AI to automatically generate running scores that are created manually by officials and for each team" refers to technology in which artificial intelligence automatically analyzes points, fouls, and other scores as the game progresses, and generates scores in real time.
「工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段」とは、工場内に設置されたカメラやマイクから得られる映像や音声データを人工知能が解析し、生産ラインの状況や異常をリアルタイムで検出し、その結果をスコアとして表示する技術である。 "A means of analyzing camera footage and audio data within a factory to detect and score production status and abnormalities in real time" refers to a technology in which artificial intelligence analyzes video and audio data obtained from cameras and microphones installed within the factory, detects the status and abnormalities of the production line in real time, and displays the results as a score.
「過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段」とは、工場内で収集された過去の生産データをデータベースに保存し、そのデータを解析して生産効率を向上させるためのフィードバックを提供する技術である。 "Means of compiling past production data into a database and providing feedback for improving efficiency" refers to a technology that stores past production data collected within a factory in a database, analyzes the data, and provides feedback for improving production efficiency.
この発明を実施するための形態として、以下のシステム構成を説明する。 The following system configuration is described as a form for implementing this invention.
システム構成 System configuration
ハードウェア Hardware
カメラ: 工場内に設置されるカメラで、映像データを取得する。 Camera: Cameras installed in the factory capture video data.
マイク: 工場内に設置されるマイクで、音声データを取得する。 Microphones: Microphones installed in the factory capture audio data.
サーバ: データの解析と保存を行うためのサーバ。 Server: A server for analyzing and storing data.
端末: 管理者が結果を確認するための端末(PCやスマートフォンなど)。 Device: The device (PC, smartphone, etc.) used by the administrator to check the results.
ソフトウェア Software
OpenCV: カメラ映像の取得と前処理を行うためのライブラリ。 OpenCV: A library for acquiring and preprocessing camera images.
TensorFlow/Keras: AIモデルのロードと予測を行うためのライブラリ。 TensorFlow/Keras: Libraries for loading AI models and making predictions.
SQLite: 生産データの保存を行うためのデータベース管理システム。 SQLite: A database management system for storing production data.
データ加工とデータ演算 Data processing and data calculations
サーバは、工場内のカメラ映像と音声データをリアルタイムで取得し、OpenCVを用いて前処理を行う。前処理されたデータは、TensorFlow/Kerasを用いてAIモデルに入力され、生産状況や異常発生の検出が行われる。検出結果はスコアとして表示され、SQLiteデータベースに保存される。 The server acquires camera footage and audio data from within the factory in real time and performs preprocessing using OpenCV. The preprocessed data is input into an AI model using TensorFlow/Keras to detect production status and abnormalities. The detection results are displayed as a score and stored in a SQLite database.
具体例 Specific examples
例えば、工場内で異常が発生した場合、カメラ映像から異常を検出し、リアルタイムで管理者に通知する。また、過去の生産データを分析し、効率化のためのフィードバックを提供することができる。 For example, if an abnormality occurs in a factory, it will be detected from camera footage and notified to managers in real time. It can also analyze past production data and provide feedback to improve efficiency.
プロンプト文の例 Example of a prompt
生成AIモデルへ入力するプロンプト文の例は以下の通りである: An example of a prompt to input to the generative AI model is as follows:
「工場内のカメラ映像を解析し、生産ラインの異常をリアルタイムで検出するAIモデルを作成してください。異常が検出された場合、管理者に通知する機能も追加してください。また、過去の生産データをデータベースに保存し、効率化のためのフィードバックを提供するシステムを構築してください。」 "Please create an AI model that analyzes camera footage in the factory and detects abnormalities on the production line in real time. Please also add a function to notify the administrator if an abnormality is detected. Also, please create a system that stores past production data in a database and provides feedback to improve efficiency."
このようにして、サーバはリアルタイムで生産ラインの状況を監視し、異常を検出することができる。また、過去のデータを基に効率化のためのフィードバックを提供することが可能である。 In this way, the server can monitor the status of the production line in real time and detect any anomalies. It can also provide feedback for efficiency improvements based on past data.
応用例3における特定処理の流れについて図16を用いて説明する。 The flow of the specific processing in application example 3 is explained using Figure 16.
ステップ1: Step 1:
サーバは、工場内に設置されたカメラとマイクからリアルタイムで映像データと音声データを取得する。入力はカメラとマイクからの生データであり、出力は取得された映像データと音声データである。具体的な動作として、サーバはカメラとマイクに接続し、データストリームを開始する。 The server captures video and audio data in real time from cameras and microphones installed in the factory. The input is the raw data from the cameras and microphones, and the output is the captured video and audio data. In concrete terms, the server connects to the cameras and microphones and starts the data stream.
ステップ2: Step 2:
サーバは、取得した映像データをOpenCVを用いて前処理する。入力はステップ1で取得された映像データであり、出力は前処理された映像データである。具体的な動作として、サーバは映像データを224x224ピクセルにリサイズし、正規化を行う。 The server preprocesses the acquired video data using OpenCV. The input is the video data acquired in step 1, and the output is the preprocessed video data. Specifically, the server resizes the video data to 224x224 pixels and normalizes it.
ステップ3: Step 3:
サーバは、前処理された映像データをTensorFlow/Kerasを用いてAIモデルに入力し、予測を行う。入力はステップ2で前処理された映像データであり、出力は生産状況や異常発生の予測結果である。具体的な動作として、サーバはAIモデルをロードし、前処理されたデータをモデルに入力して予測を実行する。 The server inputs the preprocessed video data into the AI model using TensorFlow/Keras to make predictions. The input is the video data preprocessed in step 2, and the output is the predicted results of production status and abnormality occurrence. In concrete terms, the server loads the AI model, inputs the preprocessed data into the model, and makes predictions.
ステップ4: Step 4:
サーバは、予測結果をスコアとして表示し、SQLiteデータベースに保存する。入力はステップ3で得られた予測結果であり、出力は表示されたスコアとデータベースに保存されたデータである。具体的な動作として、サーバは予測結果をスコアに変換し、画面に表示するとともに、データベースに挿入する。 The server displays the prediction result as a score and saves it in a SQLite database. The input is the prediction result obtained in step 3, and the output is the displayed score and the data saved in the database. In concrete terms, the server converts the prediction result into a score, displays it on the screen, and inserts it into the database.
ステップ5: Step 5:
端末は、サーバから送信されたスコアと異常検出の通知を受け取り、管理者に表示する。入力はサーバから送信されたスコアと通知であり、出力は管理者が確認できる表示情報である。具体的な動作として、端末はサーバからのデータを受信し、ユーザインターフェースに表示する。 The terminal receives the score and anomaly detection notifications sent from the server and displays them to the administrator. The input is the score and notifications sent from the server, and the output is the display information that the administrator can check. In concrete terms, the terminal receives data from the server and displays it on the user interface.
ステップ6: Step 6:
サーバは、過去の生産データを解析し、効率化のためのフィードバックを生成する。入力はデータベースに保存された過去の生産データであり、出力は効率化のためのフィードバック情報である。具体的な動作として、サーバはデータベースから過去のデータを取得し、解析アルゴリズムを適用してフィードバックを生成する。 The server analyzes past production data and generates feedback for efficiency improvements. The input is past production data stored in a database, and the output is feedback information for efficiency improvements. In concrete terms, the server retrieves past data from the database and applies an analysis algorithm to generate feedback.
ステップ7: Step 7:
端末は、サーバから送信されたフィードバック情報を受け取り、管理者に表示する。入力はサーバから送信されたフィードバック情報であり、出力は管理者が確認できる表示情報である。具体的な動作として、端末はサーバからのフィードバック情報を受信し、ユーザインターフェースに表示する。 The terminal receives feedback information sent from the server and displays it to the administrator. The input is the feedback information sent from the server, and the output is the display information that the administrator can check. In concrete terms, the terminal receives feedback information from the server and displays it on the user interface.
更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。
Furthermore, an emotion engine that estimates the user's emotion may be combined. That is, the
「形態例1」 "Example 1"
本発明の一実施形態として、AIがバスケットボールの試合の実況中継の解説を行うシステムにおいて、ユーザの感情を認識する感情エンジンが組み合わされている。具体的には、ユーザが試合の視聴中に示す感情(喜び、悲しみ、驚きなど)を感情エンジンが認識し、その感情に応じて解説の内容やトーンを調整する。例えば、ユーザが試合の展開に喜びを示している場合、解説もその喜びを共有するような内容となる。これにより、ユーザは自身の感情が反映された解説を聞くことができ、より試合視聴の満足度が向上する。 In one embodiment of the present invention, a system in which AI provides commentary on a live broadcast of a basketball game is combined with an emotion engine that recognizes the user's emotions. Specifically, the emotion engine recognizes the emotions (happiness, sadness, surprise, etc.) that the user expresses while watching the game, and adjusts the content and tone of the commentary according to those emotions. For example, if the user expresses joy at how the game is progressing, the commentary will also share that joy. This allows the user to hear commentary that reflects their own emotions, further improving their satisfaction with watching the game.
「形態例2」 "Example 2"
また、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムにおいても、同様に感情エンジンが組み合わされている。具体的には、ユースやミニバスの試合を視聴するユーザの感情を感情エンジンが認識し、その感情に応じて解説の内容やトーンを調整する。例えば、ユーザが子供の活躍に感動している場合、解説もその感動を共有するような内容となる。これにより、ユーザは自身の感情が反映された解説を聞くことができ、より試合視聴の満足度が向上する。 The emotion engine is also incorporated into a system that broadcasts commentary on youth and mini-basketball games from around the country, complete with live coverage by AI. Specifically, the emotion engine recognizes the emotions of users watching youth and mini-basketball games, and adjusts the content and tone of the commentary according to those emotions. For example, if a user is impressed by their child's performance, the commentary will be one that shares that emotion. This allows users to hear commentary that reflects their own emotions, further increasing their satisfaction with watching the games.
「形態例3」 "Example 3"
さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成するシステムにおいても、感情エンジンが組み合わされている。具体的には、試合の得点状況などに対するユーザの感情を感情エンジンが認識し、その感情に応じてスコア表示の方法を調整する。例えば、ユーザが得点に喜びを示している場合、スコア表示もその喜びを強調するような形で表示される。これにより、ユーザは自身の感情が反映されたスコア表示を見ることができ、より試合視聴の満足度が向上する。 Furthermore, emotion engines are also being incorporated into systems that use AI to automatically generate running scores that are manually created by officials and for each team. Specifically, the emotion engine recognizes the user's emotions regarding the score situation of the match, and adjusts the way the score is displayed according to those emotions. For example, if the user is happy about a score, the score display will also be displayed in a way that emphasizes that joy. This allows users to see a score display that reflects their own emotions, further increasing their satisfaction when watching the match.
以下に、各形態例の処理の流れについて説明する。 The process flow for each example is explained below.
「形態例1」 "Example 1"
ステップ1:AIがバスケットボールの試合の実況中継の解説を開始する。 Step 1: The AI begins commentating on a live broadcast of a basketball game.
ステップ2:感情エンジンがユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the user's emotions in real time.
ステップ3:感情エンジンが認識した感情に応じて、AIが解説の内容やトーンを調整する。 Step 3: The AI adjusts the content and tone of the commentary based on the emotion recognized by the emotion engine.
「形態例2」 "Example 2"
ステップ1:AIが全国のユースやミニバスの試合の実況中継の解説を開始する。 Step 1: AI will begin providing live commentary for youth and mini-basketball matches across the country.
ステップ2:感情エンジンが試合を視聴するユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the emotions of users watching the game in real time.
ステップ3:感情エンジンが認識した感情に応じて、AIが解説の内容やトーンを調整する。 Step 3: The AI adjusts the content and tone of the commentary based on the emotion recognized by the emotion engine.
「形態例3」 "Example 3"
ステップ1:AIが試合の得点状況に基づいてランニングスコアを自動生成する。 Step 1: AI automatically generates a running score based on the game's scoring situation.
ステップ2:感情エンジンが試合の得点状況に対するユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the user's emotions in real time regarding the score of the game.
ステップ3:感情エンジンが認識した感情に応じて、AIがスコア表示の方法を調整する。 Step 3: The AI adjusts the way the score is displayed depending on the emotion recognized by the emotion engine.
(実施例1) (Example 1)
次に、形態例1の実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, a first embodiment of the first embodiment will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、試合の状況や選手の動きをリアルタイムで解析し、ユーザの感情に応じた解説を提供することが困難であった。また、全国のユースやミニバスの試合解説を効率的に配信する手段や、オフィシャルやチーム毎に人が作成しているランニングスコアを自動生成する手段が不足していた。さらに、ユーザの視聴体験を向上させるための感情認識技術の活用が不十分であった。 In conventional basketball game commentary systems, it was difficult to analyze the game situation and player movements in real time and provide commentary that corresponded to the user's emotions. In addition, there was a lack of means to efficiently distribute commentary of youth and mini-basketball games across the country, or to automatically generate running scores that are created manually by officials and for each team. Furthermore, there was insufficient use of emotion recognition technology to improve the user's viewing experience.
実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説を人工知能が行う手段と、全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、試合の映像データを解析する手段と、試合の音声データを解析する手段と、ユーザの感情データを受信し解析する手段と、解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段と、調整後の解説を実況中継とともに配信する手段を含む。これにより、試合の状況や選手の動きをリアルタイムで解析し、ユーザの感情に応じた解説を提供することが可能となる。 In this invention, the server includes means for providing commentary on live coverage of basketball games using artificial intelligence, means for delivering commentary on youth and mini-basketball games across the country with live coverage by artificial intelligence, means for automatically generating running scores using artificial intelligence that are created manually for each official and team, means for analyzing game video data, means for analyzing game audio data, means for receiving and analyzing user emotion data, means for automatically generating commentary based on the analysis results and adjusting the content and tone of the commentary according to the user's emotions, and means for delivering the adjusted commentary together with the live coverage. This makes it possible to analyze the situation of the game and the movements of the players in real time and provide commentary according to the user's emotions.
「バスケットボールの試合の実況中継の解説を人工知能が行う手段」とは、バスケットボールの試合の映像や音声データを解析し、その解析結果に基づいて人工知能が自動的に解説を生成し、実況中継とともに配信する技術である。 "Means for artificial intelligence to provide commentary for live broadcasts of basketball games" refers to technology that analyzes video and audio data of basketball games, and automatically generates commentary based on the results of that analysis using artificial intelligence, which is then distributed along with the live broadcast.
「全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合を対象に、人工知能が自動的に解説を生成し、その解説を実況中継とともに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games nationwide with live coverage by artificial intelligence" refers to a technology in which artificial intelligence automatically generates commentary for youth and mini-basketball games nationwide and broadcasts that commentary together with live coverage.
「オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを、人工知能が自動的に生成する技術である。 "Method of automatically generating running scores using artificial intelligence that are created manually for each official or team" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合の映像データを解析する手段」とは、試合の映像データをフレームごとに解析し、選手の位置や動き、ボールの位置などを特定する技術である。 "Means for analyzing game video data" refers to technology that analyzes game video data frame by frame to identify the positions and movements of players, the position of the ball, etc.
「試合の音声データを解析する手段」とは、試合の音声データを解析し、実況の内容や観客の反応を特定する技術である。 "Means for analyzing audio data from a match" refers to technology that analyzes audio data from a match and identifies the content of the commentary and the reactions of the audience.
「ユーザの感情データを受信し解析する手段」とは、ユーザの表情や音声をキャプチャし、そのデータを解析してユーザの感情を特定する技術である。 "Means for receiving and analyzing user emotion data" refers to technology that captures the user's facial expressions and voice, and analyzes that data to identify the user's emotions.
「解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段」とは、映像や音声データの解析結果を基に解説を自動生成し、さらにユーザの感情データを考慮して解説の内容やトーンを調整する技術である。 "Means for automatically generating commentary based on analysis results and adjusting the content and tone of the commentary according to the user's emotions" refers to a technology that automatically generates commentary based on the analysis results of video and audio data, and further adjusts the content and tone of the commentary taking into account the user's emotional data.
「調整後の解説を実況中継とともに配信する手段」とは、調整された解説をリアルタイムで実況中継とともにユーザの端末に配信する技術である。 "Means for delivering adjusted commentary together with live broadcast" refers to technology that delivers adjusted commentary in real time to a user's device together with the live broadcast.
発明を実施するための形態 Form for implementing the invention
この発明は、バスケットボールの試合の実況中継の解説を人工知能が行うシステムであり、試合の映像や音声データを解析し、ユーザの感情に応じた解説を提供するものである。以下に、このシステムの具体的な実施形態を示す。 This invention is a system in which artificial intelligence provides commentary for live coverage of basketball games, analyzing video and audio data from the game and providing commentary that reflects the user's emotions. A specific embodiment of this system is shown below.
使用するハードウェアとソフトウェア Hardware and software used
ハードウェア: 高性能なサーバ、ユーザの端末(PC、スマートフォン、タブレットなど) Hardware: High-performance servers, user devices (PCs, smartphones, tablets, etc.)
ソフトウェア: 映像解析ソフトウェア(例:OpenCV)、音声解析ソフトウェア(例:Google Cloud Speech-to-Text API)、感情エンジン(例:Microsoft(登録商標) Azure(登録商標) Emotion API)、生成AIモデル(例:GPT-4) Software: Video analysis software (e.g. OpenCV), audio analysis software (e.g. Google Cloud Speech-to-Text API), emotion engines (e.g. Microsoft® Azure® Emotion API), generative AI models (e.g. GPT-4)
システムの構成 System configuration
1. サーバが試合の映像データと音声データをリアルタイムで受信する。試合会場から送信されるストリーミングデータを受け取るために、高速なネットワーク接続を使用する。 1. The server receives the game video and audio data in real time. It uses a high-speed network connection to receive the streaming data sent from the game venue.
2. サーバが映像解析ソフトウェアを用いて、受信した映像データをフレームごとに解析する。具体的には、選手の位置、動き、ボールの位置を特定するために、コンピュータビジョン技術を使用する。例えば、OpenCVを用いる。 2. The server uses video analysis software to analyze the received video data frame by frame. Specifically, computer vision techniques are used to identify the positions of players, their movements, and the position of the ball. For example, OpenCV is used.
3. サーバが音声解析ソフトウェアを用いて、受信した音声データを解析する。具体的には、実況の内容や観客の反応を特定するために、音声認識技術を使用する。例えば、Google Cloud Speech-to-Text APIを用いる。 3. The server uses voice analysis software to analyze the received voice data. Specifically, it uses voice recognition technology to identify the content of the commentary and the reactions of the audience. For example, it uses the Google Cloud Speech-to-Text API.
4. サーバが映像解析と音声解析の結果を基に、生成AIモデルを用いて試合の解説を自動生成する。具体的には、GPT-4などの自然言語生成モデルを使用し、試合の状況や選手の動きを解説する文章を生成する。 4. The server uses a generative AI model to automatically generate commentary on the match based on the results of video and audio analysis. Specifically, it uses a natural language generation model such as GPT-4 to generate sentences that explain the situation of the match and the movements of the players.
5. 端末がユーザの表情や音声をリアルタイムでキャプチャし、感情データとしてサーバに送信する。具体的には、カメラやマイクを使用する。 5. The device captures the user's facial expressions and voice in real time and transmits them as emotion data to the server. Specifically, the device uses a camera and microphone.
6. サーバが感情エンジンを用いて、受信した感情データを解析する。具体的には、ユーザの表情や音声から喜び、悲しみ、驚きなどの感情を特定するために、感情認識技術を使用する。例えば、Microsoft Azure Emotion APIを用いる。 6. The server uses an emotion engine to analyze the received emotion data. Specifically, it uses emotion recognition technology to identify emotions such as happiness, sadness, surprise, etc. from the user's facial expressions and voice. For example, it uses the Microsoft Azure Emotion API.
7. サーバが解析したユーザの感情に応じて、生成した解説の内容やトーンを調整する。具体的には、ユーザが喜びを示している場合、解説のトーンを明るくし、ポジティブな表現を増やす。 7. The server adjusts the content and tone of the generated commentary according to the user's emotions analyzed by the server. Specifically, if the user is happy, the tone of the commentary is brightened and more positive expressions are included.
8. サーバが調整後の解説を実況中継とともにユーザの端末に配信する。具体的には、ストリーミング技術を用いて、リアルタイムで配信する。例えば、WebRTCを用いる。 8. The server delivers the adjusted commentary along with the live broadcast to the user's device. Specifically, it delivers in real time using streaming technology. For example, WebRTC is used.
具体例 Specific examples
例えば、ユーザが試合の視聴中に喜びを示している場合、感情エンジンがその喜びを認識する。サーバはその情報を基に、生成AIモデルが生成した解説のトーンを明るくし、喜びを共有するような内容に調整する。これにより、ユーザは自身の感情が反映された解説を聞くことができ、試合視聴の満足度が向上する。 For example, if a user expresses joy while watching a game, the emotion engine will recognize that joy. Based on that information, the server will lighten the tone of the commentary generated by the generative AI model and adjust it to share the joy. This allows users to hear commentary that reflects their own emotions, improving their satisfaction watching the game.
プロンプト文の例 Example of a prompt
「バスケットボールの試合の実況中継の解説を行うAIシステムを設計してください。試合の映像や音声データを解析し、試合の状況や選手の動きを理解する機能を持ち、ユーザの感情に応じて解説の内容やトーンを調整する感情エンジンを組み合わせてください。」 "Design an AI system to provide commentary for live broadcasts of basketball games. It must analyze video and audio data from the game, understand the game situation and the movements of the players, and incorporate an emotion engine that adjusts the content and tone of the commentary according to the user's emotions."
実施例1における特定処理の流れについて図17を用いて説明する。 The flow of the identification process in Example 1 is explained using Figure 17.
ステップ1: Step 1:
サーバが試合の映像データと音声データをリアルタイムで受信する。入力は試合会場から送信されるストリーミングデータであり、出力はサーバ内に保存された映像データと音声データである。具体的な動作としては、高速なネットワーク接続を使用してデータを受信し、適切なフォーマットで保存する。 The server receives the video and audio data of the match in real time. The input is streaming data sent from the match venue, and the output is the video and audio data stored in the server. Specifically, the server receives the data using a high-speed network connection and stores it in an appropriate format.
ステップ2: Step 2:
サーバが映像解析ソフトウェアを用いて、受信した映像データをフレームごとに解析する。入力は保存された映像データであり、出力は選手の位置、動き、ボールの位置などの解析結果である。具体的な動作としては、OpenCVを使用して各フレームを解析し、選手やボールの位置を特定する。 The server uses video analysis software to analyze the received video data frame by frame. The input is the saved video data, and the output is the analysis results, such as the positions and movements of the players and the position of the ball. In concrete terms, it uses OpenCV to analyze each frame and identify the positions of the players and the ball.
ステップ3: Step 3:
サーバが音声解析ソフトウェアを用いて、受信した音声データを解析する。入力は保存された音声データであり、出力は実況の内容や観客の反応をテキスト化した解析結果である。具体的な動作としては、Google Cloud Speech-to-Text APIを使用して音声データをテキストに変換し、重要な情報を抽出する。 The server uses voice analysis software to analyze the received voice data. The input is the stored voice data, and the output is the analysis results in the form of text that contains the commentary and the reactions of the audience. Specifically, the Google Cloud Speech-to-Text API is used to convert the voice data into text and extract key information.
ステップ4: Step 4:
サーバが映像解析と音声解析の結果を基に、生成AIモデルを用いて試合の解説を自動生成する。入力は映像解析と音声解析の結果であり、出力は生成された解説文である。具体的な動作としては、GPT-4などの自然言語生成モデルを使用して、試合の状況や選手の動きを解説する文章を生成する。 The server uses a generative AI model to automatically generate commentary on the match based on the results of video and audio analysis. The input is the results of video and audio analysis, and the output is the generated commentary. Specifically, it uses a natural language generation model such as GPT-4 to generate sentences that explain the situation of the match and the movements of the players.
ステップ5: Step 5:
端末がユーザの表情や音声をリアルタイムでキャプチャし、感情データとしてサーバに送信する。入力はユーザの表情や音声であり、出力はサーバに送信された感情データである。具体的な動作としては、カメラやマイクを使用してユーザの表情や音声をキャプチャし、リアルタイムでサーバに送信する。 The device captures the user's facial expressions and voice in real time and sends them to the server as emotion data. The input is the user's facial expressions and voice, and the output is the emotion data sent to the server. In concrete terms, the device uses a camera and microphone to capture the user's facial expressions and voice, and sends them to the server in real time.
ステップ6: Step 6:
サーバが感情エンジンを用いて、受信した感情データを解析する。入力は送信された感情データであり、出力はユーザの感情を特定した解析結果である。具体的な動作としては、Microsoft Azure Emotion APIを使用して、ユーザの表情や音声から喜び、悲しみ、驚きなどの感情を特定する。 The server uses an emotion engine to analyze the received emotion data. The input is the emotion data sent, and the output is the analysis results that identify the user's emotion. Specifically, it uses the Microsoft Azure Emotion API to identify emotions such as joy, sadness, and surprise from the user's facial expressions and voice.
ステップ7: Step 7:
サーバが解析したユーザの感情に応じて、生成した解説の内容やトーンを調整する。入力は感情解析の結果と生成された解説文であり、出力は調整後の解説文である。具体的な動作としては、ユーザが喜びを示している場合、解説のトーンを明るくし、ポジティブな表現を増やす。 The content and tone of the generated commentary is adjusted according to the user's emotions analyzed by the server. The input is the result of emotion analysis and the generated commentary, and the output is the adjusted commentary. Specifically, if the user shows joy, the tone of the commentary is brightened and more positive expressions are used.
ステップ8: Step 8:
サーバが調整後の解説を実況中継とともにユーザの端末に配信する。入力は調整後の解説文と実況中継のデータであり、出力はユーザの端末に配信されるリアルタイムの解説付き実況中継である。具体的な動作としては、WebRTCを使用して、調整後の解説をリアルタイムで配信する。 The server delivers the adjusted commentary to the user's device along with the live broadcast. The input is the adjusted commentary and the live broadcast data, and the output is the live broadcast with real-time commentary delivered to the user's device. In concrete terms, it uses WebRTC to deliver the adjusted commentary in real time.
(応用例1) (Application example 1)
次に、形態例1の応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, application example 1 of embodiment example 1 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、解説が一律であり、視聴者の感情に応じた柔軟な対応ができないという課題があった。また、試合の実況中継や解説の質を向上させるためには、多くの人手が必要であり、コストや労力がかかるという問題も存在していた。さらに、全国のユースやミニバスの試合解説を効率的に行う手段が不足していた。 Conventional basketball game commentary systems had the problem that the commentary was uniform and could not flexibly respond to the emotions of the viewers. In addition, improving the quality of the live broadcast and commentary of the game required a large number of people, which was costly and laborious. Furthermore, there was a lack of efficient means to provide commentary on youth and mini-basketball games across the country.
応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段と、生成AIモデルを用いて解説を生成する手段と、プロンプト文を入力して解説を生成する手段と、を含む。これにより、視聴者の感情に応じた柔軟な解説が可能となり、試合の実況中継や解説の質を向上させることができる。また、全国のユースやミニバスの試合解説を効率的に行うことができる。
The specific processing by the
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合の映像や音声データを解析し、試合の状況や選手の動きを理解して解説を自動的に生成する人工知能技術を用いた手段である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to a means that uses artificial intelligence technology to analyze video and audio data of basketball games, understand the situation of the game and the movements of the players, and automatically generate commentary.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合をAIが解説し、その解説を含む実況中継を配信する手段である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a means of broadcasting live coverage including commentary on youth and mini-basketball games from around the country with AI providing commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを、AIが自動的に生成する手段である。 "Means of using AI to automatically generate running scores that are created manually by officials and teams" refers to a means of using AI to automatically generate scores that are manually created by officials and teams during a match.
「ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段」とは、ユーザの感情(喜び、悲しみ、驚きなど)を認識し、その感情に応じて解説の内容やトーンを調整するための感情認識技術を用いた手段である。 "Means for adjusting the content and tone of commentary using an emotion engine that recognizes the user's emotions" refers to means that use emotion recognition technology to recognize the user's emotions (happiness, sadness, surprise, etc.) and adjust the content and tone of the commentary in accordance with those emotions.
「生成AIモデルを用いて解説を生成する手段」とは、生成AIモデル(例えばGPT-3(登録商標)など)を用いて、試合の状況に応じた解説を生成する手段である。 "Means for generating commentary using a generative AI model" refers to means for generating commentary based on the situation of a match using a generative AI model (such as GPT-3 (registered trademark)).
「プロンプト文を入力して解説を生成する手段」とは、特定のプロンプト文を生成AIモデルに入力し、そのプロンプトに基づいて解説を生成する手段である。 "Means for inputting a prompt sentence and generating an explanation" refers to means for inputting a specific prompt sentence into a generative AI model and generating an explanation based on that prompt.
この発明を実施するためのシステムは、バスケットボールの試合の実況中継の解説をAIが行う手段、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段、ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段、生成AIモデルを用いて解説を生成する手段、プロンプト文を入力して解説を生成する手段を含む。 A system for implementing this invention includes a means for AI to provide commentary for live coverage of basketball games, a means for distributing commentary for youth and mini-basketball games across the country with AI commentary, a means for AI to automatically generate running scores that are created manually for each official or team, a means for adjusting the content and tone of the commentary using an emotion engine that recognizes the user's emotions, a means for generating commentary using a generative AI model, and a means for generating commentary by inputting a prompt text.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア:スマートフォンのカメラとマイク Hardware: Smartphone camera and microphone
ソフトウェア:OpenCV、Keras、Transformers Software: OpenCV, Keras, Transformers
データ加工およびデータ演算 Data processing and data calculations
サーバ Server
サーバは、バスケットボールの試合の映像や音声データをリアルタイムで受信し、解析を行う。OpenCVを用いて映像データを取得し、Kerasを用いて感情認識モデルを実行する。感情認識モデルは、ユーザの顔の表情を解析し、喜び、悲しみ、驚きなどの感情を認識する。 The server receives and analyzes video and audio data from the basketball game in real time. It uses OpenCV to acquire the video data and Keras to run an emotion recognition model. The emotion recognition model analyzes the user's facial expressions and recognizes emotions such as happiness, sadness, and surprise.
端末 Terminal
端末は、生成AIモデル(例えばGPT-3)を用いて解説を生成する。生成AIモデルにプロンプト文を入力し、そのプロンプトに基づいて解説を生成する。プロンプト文の例として、「The user is happy. Generate a joyful commentary for the basketball game.」や「The user is sad. Generate a comforting commentary for the basketball game.」がある。 The device generates commentary using a generative AI model (e.g., GPT-3). A prompt sentence is input into the generative AI model, which generates commentary based on the prompt. Examples of prompt sentences include "The user is happy. Generate a joyful commentary for the basketball game." and "The user is sad. Generate a comforting commentary for the basketball game."
ユーザ User
ユーザは、スマートフォンのカメラとマイクを通じて試合を視聴し、その際の感情が認識される。感情エンジンは、ユーザの感情に応じて解説の内容やトーンを調整する。例えば、ユーザが試合のハイライトシーンで喜びを示している場合、解説は「素晴らしいプレイですね!この瞬間を待っていました!」といった内容になる。逆に、ユーザが試合の逆転シーンで悲しみを示している場合、解説は「残念な結果ですが、まだチャンスはあります。次のプレイに期待しましょう。」といった内容になる。 Users watch the game through their smartphone's camera and microphone, and their emotions are recognized. The emotion engine adjusts the content and tone of the commentary based on the user's emotions. For example, if the user expresses joy at a highlight scene in the game, the commentary might say something like, "Great play! We've been waiting for this moment!" Conversely, if the user expresses sadness at a comeback scene in the game, the commentary might say something like, "It's a disappointing result, but there's still a chance. Let's look forward to the next play."
このようにして、視聴者の感情に応じた柔軟な解説が可能となり、試合の実況中継や解説の質を向上させることができる。また、全国のユースやミニバスの試合解説を効率的に行うことができる。 In this way, flexible commentary based on the viewer's emotions becomes possible, improving the quality of live game coverage and commentary. It also enables efficient commentary of youth and mini-basketball games across the country.
応用例1における特定処理の流れについて図18を用いて説明する。 The flow of the specific processing in application example 1 is explained using Figure 18.
ステップ1: Step 1:
サーバは、スマートフォンのカメラとマイクから映像および音声データをリアルタイムで受信する。入力は、カメラとマイクからの映像および音声データであり、出力は、これらのデータを解析するための準備が整った状態である。 The server receives video and audio data from the smartphone's camera and microphone in real time. The input is the video and audio data from the camera and microphone, and the output is the data ready for analysis.
ステップ2: Step 2:
サーバは、OpenCVを用いて映像データを処理し、ユーザの顔を検出する。入力は、ステップ1で受信した映像データであり、出力は、検出された顔の領域である。具体的な動作としては、映像データをグレースケールに変換し、顔検出アルゴリズムを適用する。 The server processes the video data using OpenCV to detect the user's face. The input is the video data received in step 1, and the output is the detected face area. Specifically, the server converts the video data to grayscale and applies a face detection algorithm.
ステップ3: Step 3:
サーバは、Kerasを用いて感情認識モデルを実行し、ユーザの感情を認識する。入力は、ステップ2で検出された顔の領域であり、出力は、認識された感情(喜び、悲しみ、驚きなど)である。具体的な動作としては、顔の領域を適切なサイズにリサイズし、感情認識モデルに入力する。 The server runs an emotion recognition model using Keras to recognize the user's emotions. The input is the face region detected in step 2, and the output is the recognized emotion (happiness, sadness, surprise, etc.). Specifically, the server resizes the face region to an appropriate size and inputs it into the emotion recognition model.
ステップ4: Step 4:
サーバは、認識された感情に基づいて、生成AIモデルに入力するプロンプト文を生成する。入力は、ステップ3で認識された感情であり、出力は、生成されたプロンプト文である。具体的な動作としては、感情に応じたテンプレート文を選択し、プロンプト文を生成する。 The server generates a prompt sentence to be input to the generative AI model based on the recognized emotion. The input is the emotion recognized in step 3, and the output is the generated prompt sentence. Specifically, it selects a template sentence according to the emotion and generates the prompt sentence.
ステップ5: Step 5:
サーバは、生成AIモデル(例えばGPT-3)を用いて解説を生成する。入力は、ステップ4で生成されたプロンプト文であり、出力は、生成された解説文である。具体的な動作としては、生成AIモデルにプロンプト文を入力し、解説文を生成する。 The server generates an explanation using a generative AI model (e.g., GPT-3). The input is the prompt text generated in step 4, and the output is the generated explanation text. In concrete terms, the prompt text is input into the generative AI model, and an explanation text is generated.
ステップ6: Step 6:
サーバは、生成された解説文をリアルタイムでユーザに配信する。入力は、ステップ5で生成された解説文であり、出力は、ユーザのスマートフォンに配信される解説音声である。具体的な動作としては、解説文を音声合成エンジンに入力し、音声データを生成して配信する。 The server delivers the generated explanatory text to the user in real time. The input is the explanatory text generated in step 5, and the output is the explanatory audio delivered to the user's smartphone. In concrete terms, the explanatory text is input into a voice synthesis engine, and audio data is generated and delivered.
ステップ7: Step 7:
ユーザは、スマートフォンを通じて試合を視聴し、解説を聞く。入力は、サーバから配信された解説音声であり、出力は、ユーザの視聴体験の向上である。具体的な動作としては、スマートフォンのスピーカーから解説音声が再生される。 Users watch the game and listen to the commentary through their smartphones. The input is the commentary audio delivered from the server, and the output is an improvement to the user's viewing experience. In concrete terms, the commentary audio is played through the smartphone's speakers.
(実施例2) (Example 2)
次に、形態例2の実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, a second embodiment of the second embodiment will be described. In the following description, the
従来のバスケットボールの試合解説は、解説者の主観に依存しており、視聴者の感情に応じた解説を提供することが困難であった。また、全国のユースやミニバスの試合を広く視聴者に提供するためのシステムが不足しており、試合の進行状況や選手のパフォーマンスをリアルタイムで把握することが難しかった。さらに、試合のランニングスコアを手動で作成することは時間と労力を要し、効率的な運営が求められていた。 Traditional basketball game commentary relied on the commentator's subjective judgment, making it difficult to provide commentary that reflected the emotions of viewers. In addition, there was a lack of systems to provide youth and mini-basketball games from across the country to a wide audience, making it difficult to grasp the progress of the game and the performance of the players in real time. Furthermore, manually creating a running score for the game was time-consuming and labor-intensive, so efficient management was required.
実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説を人工知能が行う手段と、全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、試合映像と音声データを収集する手段と、収集したデータを解析し解説を生成する手段と、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、生成された解説を試合映像とともに配信する手段を含む。これにより、視聴者の感情に応じた解説を提供し、試合視聴の満足度を向上させることが可能となる。 In this invention, the server includes means for providing commentary on live coverage of basketball games using artificial intelligence, means for distributing commentary on youth and mini-basketball games from around the country with live coverage by artificial intelligence, means for automatically generating running scores using artificial intelligence that are created manually for each official and team, means for collecting game video and audio data, means for analyzing the collected data and generating commentary, means for recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions, and means for distributing the generated commentary together with the game video. This makes it possible to provide commentary that corresponds to the viewer's emotions and improve satisfaction with viewing the game.
「バスケットボールの試合の実況中継の解説を人工知能が行う手段」とは、バスケットボールの試合において、人工知能が試合の進行状況や選手のパフォーマンスを解析し、リアルタイムで解説を生成する技術である。 "Means for artificial intelligence to provide commentary for live broadcasts of basketball games" refers to technology in which artificial intelligence analyzes the progress of a basketball game and the performance of players, and generates commentary in real time.
「全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能が解析し、解説を生成してリアルタイムで配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games across the country with live coverage by artificial intelligence" refers to a technology in which artificial intelligence analyzes youth and mini-basketball games held across the country, generates commentary, and broadcasts it in real time.
「オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを人工知能が自動的に生成する技術である。 "Means for automatically generating running scores using artificial intelligence that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合映像と音声データを収集する手段」とは、試合会場に設置されたカメラやマイクを使用して、試合の映像と音声データをリアルタイムで収集する技術である。 "Means for collecting game video and audio data" refers to technology that uses cameras and microphones installed at the game venue to collect game video and audio data in real time.
「収集したデータを解析し解説を生成する手段」とは、収集された映像と音声データを人工知能が解析し、試合の進行状況や選手のパフォーマンスに基づいて解説を生成する技術である。 "Means of analyzing collected data and generating commentary" refers to technology in which artificial intelligence analyzes collected video and audio data and generates commentary based on the progress of the match and the performance of the players.
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段」とは、視聴者の表情や声のトーンを解析し、その感情に応じて解説の内容やトーンを調整する技術である。 "Means of recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions" refers to technology that analyzes the viewer's facial expressions and tone of voice, and adjusts the content and tone of the commentary according to those emotions.
「生成された解説を試合映像とともに配信する手段」とは、人工知能が生成した解説を試合映像とともにストリーミングプラットフォームを通じて配信する技術である。 "Means for distributing generated commentary together with game footage" refers to technology for distributing commentary generated by artificial intelligence together with game footage via a streaming platform.
この発明は、バスケットボールの試合の実況中継を人工知能(AI)が行い、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムである。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAIが自動生成する機能を含む。 This invention is a system in which artificial intelligence (AI) broadcasts live basketball games, and also distributes live commentary by AI for youth and mini-basketball games across the country. It also includes a function that allows the AI to automatically generate running scores that are currently created manually by officials and for each team.
サーバは、試合会場に設置されたカメラやマイクを使用して、試合の映像と音声データをリアルタイムで収集する。具体的には、Sonyの4KカメラやShureの高感度マイクなどのハードウェアを使用する。収集されたデータは、サーバ上のデータベースに保存される。 The server collects video and audio data from the match in real time using cameras and microphones installed at the match venue. Specifically, it uses hardware such as Sony's 4K cameras and Shure's high-sensitivity microphones. The collected data is stored in a database on the server.
次に、サーバは保存された映像と音声データをAIモデルに入力する。このAIモデルは、例えばOpenAIのGPT-4やGoogleのBERTなどの生成AIモデルを使用する。AIモデルは、入力されたデータを解析し、試合の進行状況や選手のパフォーマンスに基づいて解説を生成する。例えば、選手Aがシュートを決めた瞬間を解析し、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 The server then inputs the stored video and audio data into an AI model. This AI model uses a generative AI model such as OpenAI's GPT-4 or Google's BERT. The AI model analyzes the input data and generates commentary based on the progress of the match and the performance of the players. For example, it analyzes the moment when Player A makes a shot and generates commentary such as, "Player A made a great shot!".
さらに、端末は、試合を視聴しているユーザの感情を認識する。具体的には、端末のカメラやマイクを使用してユーザの表情や声のトーンをキャプチャする。これには、例えばAppleのFace ID技術やAmazonのAlexaが使用される。端末は、キャプチャしたデータをサーバに送信する。 In addition, the device will recognize the emotions of the user watching the game. Specifically, it will use the device's camera and microphone to capture the user's facial expressions and tone of voice. For example, Apple's Face ID technology or Amazon's Alexa will be used for this purpose. The device will then send the captured data to a server.
サーバは、端末から送信されたユーザの感情データを受信し、感情エンジンを使用して解析する。感情エンジンは、例えばAffectivaやIBM Watson(登録商標)の感情分析APIを使用する。ユーザが感動している場合、サーバは解説のトーンを感動的なものに調整し、「選手Aのシュートは本当に素晴らしいですね!観客も大いに盛り上がっています!」という解説を生成する。 The server receives the user's emotion data sent from the terminal and analyzes it using an emotion engine. The emotion engine uses, for example, Affectiva or IBM Watson (registered trademark) emotion analysis APIs. If the user is emotional, the server adjusts the tone of the commentary to be more emotional and generates a commentary such as, "Player A's shot was really amazing! The crowd is really excited!".
最後に、サーバは生成された解説を試合映像とともに配信する。配信には、YouTubeやTwitchなどのストリーミングプラットフォームが使用される。ユーザは、これらのプラットフォームを通じて試合を視聴し、感情に応じた解説を楽しむことができる。 Finally, the server distributes the generated commentary along with the game footage. Streaming platforms such as YouTube and Twitch are used for distribution. Users can watch the game through these platforms and enjoy the commentary according to their emotions.
具体例として、あるユースのバスケットボールの試合が行われているとする。サーバは、試合会場に設置されたSonyの4KカメラとShureの高感度マイクからリアルタイムで映像と音声データを収集する。次に、収集したデータをOpenAIのGPT-4に入力し、選手Aがシュートを決めた瞬間を解析する。AIモデルは、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 As a concrete example, let's say a youth basketball game is taking place. The server collects video and audio data in real time from Sony's 4K cameras and Shure's high-sensitivity microphones installed at the game venue. The collected data is then input into OpenAI's GPT-4, which analyzes the moment Player A makes a shot. The AI model generates a commentary such as, "Player A made a great shot!".
一方、端末は、試合を視聴しているユーザの表情をAppleのFace ID技術でキャプチャし、感動していることを認識する。サーバは、Affectivaの感情分析APIを使用してユーザの感情を解析し、解説のトーンを感動的なものに調整する。「選手Aのシュートは本当に素晴らしいですね!観客も大いに盛り上がっています!」という解説を生成し、YouTubeを通じて配信する。 Meanwhile, the device uses Apple's Face ID technology to capture the facial expressions of the user watching the game and recognizes that they are emotionally moved. The server then uses Affectiva's emotion analysis API to analyze the user's emotions and adjust the tone of the commentary to be more emotional. It generates a commentary such as, "Player A's shot was really amazing! The crowd is really excited!" and distributes it via YouTube.
プロンプト文の例としては、以下のようなものが考えられる: Examples of prompts might include:
「ユースのバスケットボールの試合映像と音声データを解析し、試合の進行状況や選手のパフォーマンスに関する解説を生成してください。また、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整してください。」 "Analyze video and audio data from youth basketball games to generate commentary on game progress and player performance. Also recognize viewer emotions and adjust the content and tone of the commentary accordingly."
このようにして、サーバはユーザに対して感情に応じた解説を提供し、試合視聴の満足度を向上させることができる。 In this way, the server can provide users with commentary that reflects their emotions, improving their satisfaction with watching the game.
実施例2における特定処理の流れについて図19を用いて説明する。 The flow of the identification process in Example 2 is explained using Figure 19.
ステップ1: Step 1:
サーバは、試合会場に設置されたカメラとマイクを使用して、試合の映像と音声データをリアルタイムで収集する。具体的には、Sonyの4KカメラとShureの高感度マイクを使用する。入力は、試合の映像と音声データであり、出力は収集された映像と音声データである。これらのデータはサーバ上のデータベースに保存される。 The server uses cameras and microphones installed at the venue to collect video and audio data of the match in real time. Specifically, it uses Sony 4K cameras and Shure high-sensitivity microphones. The input is the video and audio data of the match, and the output is the collected video and audio data. This data is stored in a database on the server.
ステップ2: Step 2:
サーバは、保存された映像と音声データをAIモデルに入力する。このAIモデルは、例えばOpenAIのGPT-4を使用する。入力は、収集された映像と音声データであり、出力は解析された試合の進行状況や選手のパフォーマンスに関するデータである。AIモデルは、映像データから選手の動きや試合の進行状況を解析し、音声データから実況や観客の反応を解析する。 The server inputs the stored video and audio data into an AI model. This AI model uses, for example, OpenAI's GPT-4. The input is the collected video and audio data, and the output is analyzed data on the progress of the match and the performance of the players. The AI model analyzes the movements of the players and the progress of the match from the video data, and analyzes the commentary and audience reactions from the audio data.
ステップ3: Step 3:
サーバは、AIモデルが解析したデータを基に試合の解説を生成する。入力は、解析された試合の進行状況や選手のパフォーマンスに関するデータであり、出力は生成された解説文である。例えば、選手Aがシュートを決めた瞬間を解析し、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 The server generates commentary on the match based on the data analyzed by the AI model. The input is the analyzed data on the progress of the match and the performance of the players, and the output is the generated commentary. For example, the server analyzes the moment when Player A makes a shot and generates a commentary such as, "Player A made a great shot!".
ステップ4: Step 4:
端末は、試合を視聴しているユーザの感情を認識する。具体的には、端末のカメラやマイクを使用してユーザの表情や声のトーンをキャプチャする。入力は、ユーザの表情や声のトーンに関するデータであり、出力は認識されたユーザの感情データである。これには、AppleのFace ID技術やAmazonのAlexaが使用される。 The device recognizes the emotions of users watching a game. Specifically, it uses the device's camera and microphone to capture the user's facial expressions and tone of voice. The input is data about the user's facial expressions and tone of voice, and the output is the recognized user's emotion data. This uses Apple's Face ID technology and Amazon's Alexa.
ステップ5: Step 5:
サーバは、端末から送信されたユーザの感情データを受信し、感情エンジンを使用して解析する。入力は、ユーザの感情データであり、出力は解析された感情情報である。感情エンジンは、例えばAffectivaの感情分析APIを使用する。ユーザが感動している場合、サーバは解説のトーンを感動的なものに調整する。 The server receives the user's emotion data sent from the terminal and analyzes it using an emotion engine. The input is the user's emotion data, and the output is the analyzed emotion information. The emotion engine uses, for example, Affectiva's emotion analysis API. If the user is emotional, the server adjusts the tone of the commentary to be emotional.
ステップ6: Step 6:
サーバは、生成された解説を試合映像とともに配信する。入力は、生成された解説文と試合映像であり、出力は配信されるストリーミングデータである。配信には、YouTubeやTwitchなどのストリーミングプラットフォームが使用される。ユーザは、これらのプラットフォームを通じて試合を視聴し、感情に応じた解説を楽しむことができる。 The server distributes the generated commentary together with the game footage. The input is the generated commentary and the game footage, and the output is the streaming data to be distributed. Streaming platforms such as YouTube and Twitch are used for distribution. Users can watch the game through these platforms and enjoy commentary according to their emotions.
(応用例2) (Application example 2)
次に、形態例2の応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, application example 2 of embodiment example 2 will be described. In the following description, the
従来のバスケットボールの試合実況中継システムでは、解説が一律であり、視聴者の感情に応じた柔軟な対応ができないという問題があった。また、試合のハイライトやリプレイ機能、視聴者同士のチャット機能が不足しており、視聴体験の向上が求められていた。さらに、全国のユースやミニバスの試合を広く視聴者に提供する手段が限られていたため、地域間の情報格差が生じていた。 Conventional live basketball game broadcasting systems had the problem that commentary was uniform and did not allow for flexible responses to viewer emotions. In addition, there was a lack of game highlights, replay functions, and chat functions between viewers, so there was a need to improve the viewing experience. Furthermore, there were limited ways to widely provide viewers with information about youth and mini-basketball games across the country, resulting in information disparities between regions.
応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、試合のハイライトやリプレイ機能を提供する手段と、視聴者同士のチャット機能を提供する手段と、を含む。これにより、視聴者の感情に応じた柔軟な解説が可能となり、視聴体験の向上が図られるとともに、全国のユースやミニバスの試合を広く視聴者に提供することが可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary of youth and mini-basketball games from around the country with AI commentary, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for recognizing the emotions of viewers and adjusting the content and tone of the commentary according to those emotions, a means for providing highlights and replay functions for games, and a means for providing a chat function between viewers. This allows for flexible commentary according to the emotions of viewers, improving the viewing experience and making it possible to widely provide youth and mini-basketball games from around the country to viewers.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合において、人工知能を用いてリアルタイムで解説を生成し、視聴者に提供する技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to generate commentary in real time for basketball games and provide it to viewers.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能による解説付きでリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games across the country with live coverage by AI" refers to technology that broadcasts youth and mini-basketball games held across the country in real time with commentary by artificial intelligence.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で記録しているスコアを人工知能が自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually recorded by officials and teams during a match.
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段」とは、視聴者の表情や声などから感情を認識し、その感情に応じて解説の内容やトーンを変える技術である。 "Means of recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions" refers to technology that recognizes emotions from the viewer's facial expressions, voice, etc., and changes the content and tone of the commentary according to those emotions.
「試合のハイライトやリプレイ機能を提供する手段」とは、試合の重要なシーンを抜粋して再生するハイライト機能や、特定のシーンを再度再生するリプレイ機能を提供する技術である。 "Means for providing match highlight and replay features" refers to technology that provides a highlight feature that extracts and plays important scenes from a match, and a replay feature that replays specific scenes.
「視聴者同士のチャット機能を提供する手段」とは、試合を視聴しているユーザー同士がリアルタイムでメッセージを交換できるチャット機能を提供する技術である。 "Means for providing a chat function between viewers" refers to technology that provides a chat function that enables users watching a match to exchange messages in real time.
この発明を実施するためのシステムは、以下の主要なコンポーネントを含む。バスケットボールの試合の実況中継の解説をAIが行う手段、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段、試合のハイライトやリプレイ機能を提供する手段、視聴者同士のチャット機能を提供する手段である。 The system for implementing this invention includes the following main components: a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games across the country with AI commentary, a means for AI to automatically generate running scores that are created manually for each official and team, a means for recognizing the emotions of viewers and adjusting the content and tone of the commentary according to those emotions, a means for providing game highlights and replay functions, and a means for providing a chat function between viewers.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア: スマートフォン(カメラ、マイク、ディスプレイ) Hardware: Smartphone (camera, microphone, display)
ソフトウェア: OpenCV(画像処理ライブラリ)、EmotionRecognizer(感情認識モデル)、AICommentary(AI解説生成モデル)、LiveStreaming(ライブストリーミングライブラリ) Software: OpenCV (image processing library), EmotionRecognizer (emotion recognition model), AICommentary (AI commentary generation model), LiveStreaming (live streaming library)
データ加工およびデータ演算 Data processing and data calculations
1. フレーム取得: サーバは、ライブストリーミングからフレームを取得する。これにより、リアルタイムで試合の映像データが収集される。 1. Frame acquisition: The server acquires frames from the live streaming, which allows video data of the match to be collected in real time.
2. 感情認識: サーバは、フレームから視聴者の顔を検出し、EmotionRecognizerを使用して感情を認識する。これにより、視聴者の感情データが取得される。 2. Emotion Recognition: The server detects the viewer's face from the frame and recognizes the emotion using EmotionRecognizer. This obtains the viewer's emotion data.
3. 解説生成: サーバは、認識された感情に基づいて、AICommentaryを使用して解説を生成する。これにより、視聴者の感情に応じた解説がリアルタイムで生成される。 3. Commentary generation: The server generates commentary using AICommentary based on the recognized emotions. This allows commentary to be generated in real time according to the viewer's emotions.
4. 解説追加: サーバは、生成された解説をライブストリームに追加する。これにより、視聴者は感情に応じた解説をリアルタイムで視聴できる。 4. Add commentary: The server adds the generated commentary to the live stream, allowing viewers to see emotional commentary in real time.
5. ハイライトおよびリプレイ: サーバは、試合の重要なシーンを自動的に抽出し、ハイライトやリプレイ機能を提供する。これにより、視聴者は試合の重要な瞬間を再度視聴できる。 5. Highlights and Replays: The server automatically extracts important scenes from the match and provides highlights and replays, allowing viewers to rewatch key moments of the match.
6. チャット機能: サーバは、視聴者同士がリアルタイムでメッセージを交換できるチャット機能を提供する。これにより、視聴者同士のコミュニケーションが促進される。 6. Chat function: The server provides a chat function that allows viewers to exchange messages with each other in real time. This promotes communication between viewers.
具体例 Specific examples
例えば、ユースバスケットボールの試合中、視聴者が感動している場合、サーバは「素晴らしいプレイですね!この瞬間は忘れられません!」という解説を生成する。また、視聴者が興奮している場合、サーバは「これは見逃せない!次のプレイに注目です!」という解説を生成する。 For example, during a youth basketball game, if the viewer is impressed, the server might generate a commentary like, "Great play! I'll never forget this moment!" Or, if the viewer is excited, the server might generate a commentary like, "You won't want to miss this! Watch the next play!"
プロンプト文の例 Example of a prompt
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整するAIモデルを作成してください。例えば、視聴者が感動している場合、解説が感動を共有する内容になるようにしてください。」 "Create an AI model that recognizes the emotions of your viewers and adjusts the content and tone of your commentary accordingly. For example, if your viewer is emotional, make sure your commentary reflects that emotion."
応用例2における特定処理の流れについて図20を用いて説明する。 The flow of the specific processing in application example 2 is explained using Figure 20.
ステップ1: Step 1:
サーバは、ライブストリーミングからフレームを取得する。入力は、リアルタイムの試合映像データであり、出力は、個々のフレーム画像である。具体的には、サーバはカメラから送信される映像データを受信し、OpenCVを使用してフレームごとに分割する。 The server obtains frames from live streaming. The input is real-time game video data, and the output is individual frame images. Specifically, the server receives the video data sent from the camera and splits it into frames using OpenCV.
ステップ2: Step 2:
サーバは、フレームから視聴者の顔を検出し、EmotionRecognizerを使用して感情を認識する。入力は、ステップ1で取得したフレーム画像であり、出力は、視聴者の感情データである。具体的には、サーバはフレーム内の顔を検出し、感情認識モデルに入力して感情を分類する。 The server detects the viewer's face from the frame and recognizes the emotion using EmotionRecognizer. The input is the frame image obtained in step 1, and the output is the viewer's emotion data. Specifically, the server detects the face in the frame and inputs it into the emotion recognition model to classify the emotion.
ステップ3: Step 3:
サーバは、認識された感情に基づいて、AICommentaryを使用して解説を生成する。入力は、ステップ2で得られた感情データであり、出力は、感情に応じた解説テキストである。具体的には、サーバは感情データをプロンプトとしてAI解説生成モデルに入力し、適切な解説文を生成する。 The server generates a commentary using AICommentary based on the recognized emotion. The input is the emotion data obtained in step 2, and the output is commentary text corresponding to the emotion. Specifically, the server inputs the emotion data as a prompt into the AI commentary generation model to generate an appropriate commentary.
ステップ4: Step 4:
サーバは、生成された解説をライブストリームに追加する。入力は、ステップ3で生成された解説テキストであり、出力は、解説が追加されたライブ映像である。具体的には、サーバは解説テキストを音声合成し、映像にオーバーレイする。 The server adds the generated commentary to the live stream. The input is the commentary text generated in step 3, and the output is the live video with the commentary added. Specifically, the server synthesizes the commentary text into speech and overlays it on the video.
ステップ5: Step 5:
サーバは、試合の重要なシーンを自動的に抽出し、ハイライトやリプレイ機能を提供する。入力は、リアルタイムの試合映像データであり、出力は、ハイライト映像やリプレイ映像である。具体的には、サーバは試合のイベントを検出し、重要なシーンを抽出して保存する。 The server automatically extracts important scenes from a match and provides highlight and replay functions. The input is real-time match video data, and the output is highlight and replay footage. Specifically, the server detects events in the match, extracts important scenes, and saves them.
ステップ6: Step 6:
サーバは、視聴者同士がリアルタイムでメッセージを交換できるチャット機能を提供する。入力は、視聴者からのメッセージデータであり、出力は、他の視聴者に送信されるメッセージである。具体的には、サーバはメッセージを受信し、チャットルーム内の他の視聴者に配信する。 The server provides a chat function that allows viewers to exchange messages with each other in real time. The input is message data from the viewer, and the output is the message to be sent to other viewers. Specifically, the server receives messages and distributes them to other viewers in the chat room.
(実施例3) (Example 3)
次に、形態例3の実施例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, a third embodiment of the third embodiment will be described. In the following description, the
従来のバスケットボールの試合において、ランニングスコアの作成や試合の進行状況の把握は手動で行われており、リアルタイムでの更新が困難であった。また、全国のチームや選手のデータベース化が進んでおらず、選手のパフォーマンス分析や育成のためのフィードバックが十分に提供されていなかった。さらに、試合の得点状況に対するユーザの感情を反映したスコア表示が行われておらず、試合視聴の満足度が低かった。 In conventional basketball games, creating a running score and understanding the progress of the game were done manually, making it difficult to update in real time. In addition, there was little progress in creating a database of teams and players nationwide, and feedback for analyzing player performance and training was not provided sufficiently. Furthermore, the score display did not reflect the user's feelings about the score situation in the game, resulting in low satisfaction when watching the game.
実施例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データを受信する手段と、受信した映像データを解析する手段と、受信した音声データを解析する手段と、解析結果から得点状況とファウル状況を抽出する手段と、抽出した情報を基にランニングスコアを生成する手段と、生成したランニングスコアをリアルタイムで更新し送信する手段と、送信されたランニングスコアを表示する手段と、ユーザの感情を認識し、スコア表示を調整する手段を含む。これにより、試合の進行状況をリアルタイムで把握し、ユーザの感情を反映したスコア表示を提供することが可能となる。 In this invention, the server includes means for receiving video data and audio data of the match, means for analyzing the received video data, means for analyzing the received audio data, means for extracting the score situation and foul situation from the analysis results, means for generating a running score based on the extracted information, means for updating and transmitting the generated running score in real time, means for displaying the transmitted running score, and means for recognizing the user's emotions and adjusting the score display. This makes it possible to grasp the progress of the match in real time and provide a score display that reflects the user's emotions.
「試合の映像データ」とは、バスケットボールの試合の進行状況を記録したビデオデータである。 "Game video data" refers to video data that records the progress of a basketball game.
「音声データ」とは、試合中の実況や解説、観客の反応などを記録したオーディオデータである。 "Audio data" refers to audio data that records commentary and commentary during a match, audience reactions, etc.
「受信する手段」とは、試合の映像データや音声データを外部から取得するための機能である。 "Means of receiving" refers to the function for acquiring video and audio data of the match from an external source.
「解析する手段」とは、受信した映像データや音声データを処理し、特定の情報を抽出するための機能である。 "Means of analysis" refers to the function of processing received video and audio data and extracting specific information.
「得点状況」とは、試合中にどのチームが何点を獲得したかを示す情報である。 "Scoring status" is information that shows how many points each team scored during the game.
「ファウル状況」とは、試合中にどの選手がどのようなファウルを犯したかを示す情報である。 "Foul situation" is information that shows which players committed what type of fouls during the game.
「ランニングスコア」とは、試合の進行に伴ってリアルタイムで更新される得点やファウルの状況を示すスコアボードである。 The "running score" is a scoreboard that shows the score and foul situation in real time as the game progresses.
「リアルタイムで更新し送信する手段」とは、生成したランニングスコアを即時に更新し、ユーザの端末に送信するための機能である。 "Means for updating and transmitting in real time" refers to a function for instantly updating the generated running score and transmitting it to the user's device.
「表示する手段」とは、送信されたランニングスコアをユーザに視覚的に提示するための機能である。 "Display means" is a function for visually presenting the submitted running score to the user.
「ユーザの感情を認識する手段」とは、試合の得点状況などに対するユーザの感情を解析し、理解するための機能である。 "Means of recognizing user emotions" refers to a function for analyzing and understanding the user's emotions regarding the score of a match, etc.
「スコア表示を調整する手段」とは、認識したユーザの感情に応じて、スコアボードの表示方法を変更するための機能である。 "Means for adjusting score display" is a function for changing the way the scoreboard is displayed depending on the recognized user's emotions.
「全国のチームや選手の試合結果やスタッツ情報」とは、全国のバスケットボールチームや選手の試合成績や個々のプレイヤーの統計データである。 "Game results and stats information for teams and players nationwide" refers to game results for basketball teams and players nationwide and statistical data for individual players.
「データベースに保存する手段」とは、収集した試合結果やスタッツ情報を整理し、データベースに格納するための機能である。 "Means of saving to a database" refers to the function for organizing collected match results and stats information and storing it in a database.
「パフォーマンスを分析する手段」とは、データベースに保存された情報を基に、選手の成績や能力を評価するための機能である。 "Means of analyzing performance" refers to a function for evaluating a player's performance and abilities based on the information stored in the database.
「フィードバックを生成する手段」とは、分析結果を基に、選手の育成や改善点を提案するためのレポートを作成する機能である。 "Means of generating feedback" refers to the function that creates reports based on the analysis results to suggest player development and areas for improvement.
「送信し表示する手段」とは、生成したフィードバックをユーザの端末に送信し、視覚的に提示するための機能である。 "Means for sending and displaying" refers to the function for sending the generated feedback to the user's device and presenting it visually.
「見える化」とは、データを視覚的に表示し、理解しやすくすることを指す。 "Visualization" refers to displaying data visually to make it easier to understand.
「育成に活用する手段」とは、データを基に選手のトレーニングや成長を支援するための方法である。 "Means for utilizing in development" refers to methods for supporting the training and development of players based on data.
この発明は、バスケットボールの試合におけるランニングスコアの自動生成および選手のパフォーマンス分析を行うシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that automatically generates running scores for basketball games and analyzes player performance. A specific embodiment of this system is described below.
システムの構成 System configuration
ハードウェアおよびソフトウェア Hardware and software
1. サーバ 1. Server
ハードウェア: 高性能なプロセッサと大容量のメモリを備えたサーバ Hardware: Server with high-performance processor and large memory capacity
ソフトウェア: 映像解析ソフトウェア(例: OpenCV)、音声解析ソフトウェア(例: Google Cloud Speech-to-Text)、データベース管理システム(例: MySQL)、感情解析エンジン(例: IBM Watson Tone Analyzer) Software: Video analysis software (e.g. OpenCV), audio analysis software (e.g. Google Cloud Speech-to-Text), database management system (e.g. MySQL), sentiment analysis engine (e.g. IBM Watson Tone Analyzer)
2. 端末 2. Terminal
ハードウェア: パソコン、タブレット、スマートフォンなど Hardware: PCs, tablets, smartphones, etc.
ソフトウェア: Webブラウザ、専用アプリケーション Software: Web browser, dedicated application
プログラムの処理 Program processing
試合データの受信と解析 Receiving and analyzing match data
サーバは、試合の映像データと音声データを受信する。映像データはカメラやストリーミングサービスから取得し、音声データは実況や解説の音声を含む。受信した映像データはOpenCVを用いて解析し、得点シーンやファウルシーンを検出する。音声データはGoogle Cloud Speech-to-Textを用いてテキストに変換し、実況音声から得点やファウルに関する情報を抽出する。 The server receives video and audio data of the match. The video data is obtained from cameras and streaming services, and the audio data includes commentary and narration. The received video data is analyzed using OpenCV to detect scoring and foul scenes. The audio data is converted to text using Google Cloud Speech-to-Text, and information about scores and fouls is extracted from the commentary.
得点状況とファウル状況の抽出 Extraction of scoring and foul situations
サーバは、映像解析結果と音声解析結果を統合し、得点状況とファウル状況を抽出する。これにより、試合の進行状況をリアルタイムで把握することが可能となる。 The server combines the results of video and audio analysis to extract the score and foul situations. This makes it possible to grasp the progress of the game in real time.
ランニングスコアの生成と表示 Generate and display running scores
サーバは、抽出した情報を基にランニングスコアを生成する。生成されたランニングスコアはリアルタイムで更新され、WebSocketやHTTPを用いて端末に送信される。端末は、受信したランニングスコアをユーザに表示する。これにより、ユーザは試合の進行状況をリアルタイムで確認することができる。 The server generates a running score based on the extracted information. The generated running score is updated in real time and sent to the terminal using WebSocket or HTTP. The terminal displays the received running score to the user, allowing the user to check the progress of the match in real time.
ユーザの感情の認識とスコア表示の調整 Recognizing user emotions and adjusting score display
サーバは、試合の得点状況に対するユーザの感情をIBM Watson Tone Analyzerを用いて認識する。認識した感情に応じて、スコア表示の方法を調整する。例えば、ユーザが得点に喜びを示している場合、スコア表示を明るい色やアニメーションで強調する。調整後のスコア表示は端末に送信され、ユーザに表示される。 The server uses IBM Watson Tone Analyzer to recognize the user's emotions regarding the score of the game. Depending on the recognized emotion, the way the score is displayed is adjusted. For example, if the user is happy about a score, the score display is emphasized with bright colors or animations. The adjusted score display is sent to the terminal and displayed to the user.
全国のチームや選手のデータベース化とパフォーマンス分析 Database of teams and players nationwide and performance analysis
サーバは、全国のチームや選手の試合結果やスタッツ情報を収集し、MySQLデータベースに保存する。保存された情報を基に、PythonのPandasライブラリを用いて選手のパフォーマンスを分析する。分析結果を基に、選手育成のためのフィードバックを生成し、端末に送信する。端末は、受信したフィードバックをユーザに表示する。 The server collects match results and stats for teams and players across the country, and stores them in a MySQL database. Based on the stored information, the performance of players is analyzed using Python's Pandas library. Based on the analysis results, feedback for player development is generated and sent to the terminal. The terminal displays the received feedback to the user.
具体例 Specific examples
試合の映像データをサーバに送信すると、サーバはOpenCVを用いて得点シーンを検出し、Google Cloud Speech-to-Textを用いて実況音声からファウル情報を抽出する。例えば、プロンプト文として「この試合の得点シーンとファウル情報を解析してランニングスコアを生成してください」と入力する。 When the video data of the match is sent to the server, the server uses OpenCV to detect scoring scenes and uses Google Cloud Speech-to-Text to extract foul information from the commentary audio. For example, the prompt text can be "Analyze the scoring scenes and foul information of this match to generate a running score."
サーバが全国の試合結果を収集し、MySQLデータベースに保存する。PythonのPandasライブラリを用いて選手のパフォーマンスを分析し、フィードバックを生成する。例えば、プロンプト文として「全国の試合結果を収集し、選手のパフォーマンスを分析してフィードバックを生成してください」と入力する。 The server collects the results of matches from around the country and stores them in a MySQL database. It uses Python's Pandas library to analyze players' performance and generate feedback. For example, enter the following prompt statement: "Collect the results of matches from around the country, analyze players' performance, and generate feedback."
サーバが得点シーンに対するユーザの喜びをIBM Watson Tone Analyzerで認識し、スコア表示を喜びを強調する形に調整する。例えば、プロンプト文として「得点シーンに対するユーザの感情を解析し、スコア表示を調整してください」と入力する。実施例3における特定処理の流れについて図21を用いて説明する。 The server recognizes the user's joy at the scoring scene using IBM Watson Tone Analyzer, and adjusts the score display to emphasize the joy. For example, the prompt text is input as "Analyze the user's emotions at the scoring scene and adjust the score display." The flow of the specific process in Example 3 is explained with reference to FIG. 21.
ステップ1: Step 1:
試合データの受信 Receive match data
サーバは、試合の映像データと音声データを受信する。入力として、カメラやストリーミングサービスからリアルタイムで提供される映像データと音声データを取得する。出力として、受信した映像データと音声データを内部メモリに保存する。具体的な動作として、サーバはネットワーク接続を通じてデータを取得し、指定されたフォーマットで保存する。 The server receives video and audio data of the match. As input, it obtains video and audio data provided in real time from cameras and streaming services. As output, it stores the received video and audio data in its internal memory. Specifically, the server obtains the data through a network connection and stores it in a specified format.
ステップ2: Step 2:
映像データの解析 Video data analysis
サーバは、受信した映像データを解析する。入力として、ステップ1で保存された映像データを使用する。出力として、得点シーンやファウルシーンの検出結果を得る。具体的な動作として、サーバはOpenCVを用いて映像データをフレームごとに解析し、特定のイベント(得点やファウル)を検出するアルゴリズムを実行する。 The server analyzes the received video data. As input, it uses the video data saved in step 1. As output, it obtains the results of detecting scoring and foul scenes. In concrete terms, the server uses OpenCV to analyze the video data frame by frame and executes an algorithm to detect specific events (scoring and fouls).
ステップ3: Step 3:
音声データの解析 Analysis of audio data
サーバは、受信した音声データを解析する。入力として、ステップ1で保存された音声データを使用する。出力として、音声データから抽出されたテキスト情報を得る。具体的な動作として、サーバはGoogle Cloud Speech-to-Textを用いて音声データをテキストに変換し、実況音声から得点やファウルに関する情報を抽出する。 The server analyzes the received audio data. As input, it uses the audio data stored in step 1. As output, it obtains text information extracted from the audio data. Specifically, the server converts the audio data into text using Google Cloud Speech-to-Text and extracts information about scores and fouls from the commentary.
ステップ4: Step 4:
得点状況とファウル状況の抽出 Extraction of scoring and foul situations
サーバは、映像解析結果と音声解析結果を統合し、得点状況とファウル状況を抽出する。入力として、ステップ2とステップ3の出力を使用する。出力として、得点状況とファウル状況を含むデータを得る。具体的な動作として、サーバは映像解析結果と音声解析結果を時系列に統合し、得点やファウルのタイミングを特定する。 The server integrates the video analysis results and audio analysis results to extract the scoring and foul situations. As input, it uses the outputs of steps 2 and 3. As output, it obtains data including the scoring and foul situations. In concrete terms, the server integrates the video analysis results and audio analysis results in a chronological order to identify the timing of scoring and fouls.
ステップ5: Step 5:
ランニングスコアの生成 Generate running scores
サーバは、抽出した情報を基にランニングスコアを生成する。入力として、ステップ4で得られた得点状況とファウル状況を使用する。出力として、ランニングスコアを含むデータを得る。具体的な動作として、サーバは得点やファウルの情報を時系列に整理し、スコアボード形式にまとめる。 The server generates a running score based on the extracted information. As input, it uses the score and foul status obtained in step 4. As output, it obtains data including the running score. Specifically, the server organizes the score and foul information in chronological order and compiles it in a scoreboard format.
ステップ6: Step 6:
ランニングスコアの更新と送信 Update and send running scores
サーバは、生成したランニングスコアをリアルタイムで更新し、端末に送信する。入力として、ステップ5で生成されたランニングスコアを使用する。出力として、更新されたランニングスコアを端末に送信する。具体的な動作として、サーバはWebSocketやHTTPを用いてデータを送信する。 The server updates the generated running score in real time and sends it to the terminal. As input, it uses the running score generated in step 5. As output, it sends the updated running score to the terminal. Specifically, the server sends data using WebSocket or HTTP.
ステップ7: Step 7:
ランニングスコアの表示 Display running score
端末は、受信したランニングスコアをユーザに表示する。入力として、ステップ6で送信されたランニングスコアを使用する。出力として、ユーザに視覚的に提示されるスコアボードを得る。具体的な動作として、端末はWebブラウザや専用アプリケーションを用いてスコアボードを表示する。 The terminal displays the received running score to the user. As input, it uses the running score sent in step 6. As output, it obtains a scoreboard that is visually presented to the user. In concrete terms, the terminal displays the scoreboard using a web browser or a dedicated application.
ステップ8: Step 8:
ユーザの感情の認識 Recognizing user emotions
サーバは、試合の得点状況に対するユーザの感情を認識する。入力として、ユーザのコメントやリアクションデータを使用する。出力として、認識された感情データを得る。具体的な動作として、サーバはIBM Watson Tone Analyzerを用いてユーザの感情を解析する。 The server recognizes the user's emotions regarding the score of the game. As input, it uses the user's comments and reaction data. As output, it obtains the recognized emotion data. Specifically, the server analyzes the user's emotions using IBM Watson Tone Analyzer.
ステップ9: Step 9:
スコア表示の調整 Score display adjustments
サーバは、認識した感情に応じてスコア表示の方法を調整する。入力として、ステップ8で得られた感情データとステップ5で生成されたランニングスコアを使用する。出力として、調整されたスコア表示データを得る。具体的な動作として、サーバはスコア表示の色やアニメーションを変更する。 The server adjusts the way the score is displayed depending on the recognized emotion. As input, it uses the emotion data obtained in step 8 and the running score generated in step 5. As output, it obtains the adjusted score display data. As a specific operation, the server changes the color and animation of the score display.
ステップ10: Step 10:
調整後のスコア表示の送信 Send adjusted score display
サーバは、調整後のスコア表示を端末に送信する。入力として、ステップ9で調整されたスコア表示データを使用する。出力として、調整後のスコア表示を端末に送信する。具体的な動作として、サーバはWebSocketやHTTPを用いてデータを送信する。 The server sends the adjusted score display to the terminal. As input, it uses the score display data adjusted in step 9. As output, it sends the adjusted score display to the terminal. Specifically, the server sends the data using WebSocket or HTTP.
ステップ11: Step 11:
調整後のスコア表示の表示 Displaying the adjusted score
端末は、調整後のスコア表示をユーザに表示する。入力として、ステップ10で送信された調整後のスコア表示データを使用する。出力として、ユーザに視覚的に提示される調整後のスコアボードを得る。具体的な動作として、端末はWebブラウザや専用アプリケーションを用いて調整後のスコアボードを表示する。
The terminal displays the adjusted score display to the user. As input, it uses the adjusted score display data sent in
ステップ12: Step 12:
全国のチームや選手のデータベース化 Database of teams and players nationwide
サーバは、全国のチームや選手の試合結果やスタッツ情報を収集し、データベースに保存する。入力として、各チームの公式サイトやスポーツデータ提供サービスから取得したデータを使用する。出力として、データベースに保存された試合結果やスタッツ情報を得る。具体的な動作として、サーバはデータを整理し、MySQLデータベースに格納する。 The server collects match results and stats information for teams and players across the country and stores it in a database. As input, it uses data obtained from each team's official website and sports data services. As output, it obtains match results and stats information stored in the database. Specifically, the server organizes the data and stores it in a MySQL database.
ステップ13: Step 13:
パフォーマンス分析 Performance analysis
サーバは、データベースに保存された情報を基に、選手のパフォーマンスを分析する。入力として、ステップ12で保存されたデータベース情報を使用する。出力として、選手の成績や能力を評価する分析結果を得る。具体的な動作として、サーバはPythonのPandasライブラリを用いてデータを処理し、選手の成績を評価する。
The server analyzes the players' performance based on the information stored in the database. As input, it uses the database information stored in
ステップ14: Step 14:
フィードバックの生成 Generating feedback
サーバは、分析結果を基に、選手育成のためのフィードバックを生成する。入力として、ステップ13で得られた分析結果を使用する。出力として、選手の強みや弱点を指摘し、改善点を提案するフィードバックレポートを得る。具体的な動作として、サーバはレポートを作成し、選手やコーチに提供する。 The server generates feedback for player development based on the analysis results. As input, it uses the analysis results obtained in step 13. As output, it obtains a feedback report that points out the player's strengths and weaknesses and suggests areas for improvement. In concrete terms, the server creates the report and provides it to the player and coach.
ステップ15: Step 15:
フィードバックの送信と表示 Submit and view feedback
サーバは、生成したフィードバックを端末に送信し、端末はそれをユーザに表示する。入力として、ステップ14で生成されたフィードバックレポートを使用する。出力として、ユーザに視覚的に提示されるフィードバックレポートを得る。具体的な動作として、サーバはメールや専用アプリケーションを通じてデータを送信し、端末はそれを表示する。
The server sends the generated feedback to the terminal, which displays it to the user. As input, it uses the feedback report generated in
(応用例3) (Application example 3)
次に、形態例3の応用例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマートデバイス14を「端末」と称する。
Next, application example 3 of embodiment example 3 will be described. In the following description, the
従来のバスケットボール試合の実況中継や解説は、人間の解説者に依存しており、リアルタイムでの得点状況やファウル状況の把握が困難であった。また、選手のパフォーマンス分析や育成に関するフィードバックも手動で行われており、効率が悪かった。さらに、ユーザの感情を反映したスコア表示ができず、視聴体験の向上が課題であった。 Traditionally, live broadcasts and commentary of basketball games relied on human commentators, making it difficult to grasp the score and foul situation in real time. In addition, analysis of player performance and feedback on development were also done manually, which was inefficient. Furthermore, it was not possible to display scores that reflected the user's emotions, making it difficult to improve the viewing experience.
応用例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段と、ユーザの感情を認識し、その感情に応じたスコア表示を行う手段と、全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段と、を含む。これにより、試合の進行状況をリアルタイムで把握し、ユーザの感情を反映したスコア表示が可能となり、選手のパフォーマンス分析や育成の効率が向上することが可能となる。 In this invention, the server includes: a means for AI to provide commentary on live coverage of basketball games; a means for distributing commentary on youth and mini-basketball games nationwide with AI live coverage; a means for AI to automatically generate running scores that are created manually for each official and team; a means for analyzing game video and audio data in real time and automatically generating the score situation and foul situation; a means for recognizing the user's emotions and displaying the score according to the emotions; and a means for providing feedback for player performance analysis and development using a database of teams and players nationwide. This makes it possible to grasp the progress of the game in real time and display scores that reflect the user's emotions, improving the efficiency of player performance analysis and development.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、人工知能を用いてバスケットボールの試合の進行状況やプレイ内容をリアルタイムで解説する技術である。 "A means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to provide real-time commentary on the progress and play of a basketball game.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国の若年層やミニバスケットボールの試合を人工知能が解説し、その解説を含む実況中継を配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a technology that uses artificial intelligence to provide commentary on youth and mini-basketball games from around the country, and broadcasts live coverage including that commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合の進行中に得点やファウルなどのスコアを人工知能が自動的に生成する技術である。 "A means of using AI to automatically generate running scores that are created manually by officials and for each team" refers to technology that uses artificial intelligence to automatically generate scores such as points and fouls as the game progresses.
「試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段」とは、試合中の映像と音声データをリアルタイムで解析し、得点やファウルの状況を自動的に生成する技術である。 "Means for analyzing game video and audio data in real time and automatically generating scoring and foul status" refers to technology that analyzes game video and audio data in real time and automatically generates scoring and foul status.
「ユーザの感情を認識し、その感情に応じたスコア表示を行う手段」とは、ユーザの表情や音声から感情を認識し、その感情に応じてスコア表示を調整する技術である。 "Means for recognizing the user's emotions and displaying a score according to those emotions" refers to technology that recognizes emotions from the user's facial expressions and voice, and adjusts the score display according to those emotions.
「全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段」とは、全国のバスケットボールチームや選手のデータベースを利用して、選手のパフォーマンスを分析し、育成のためのフィードバックを提供する技術である。 "Means of utilizing a database of teams and players nationwide to analyze player performance and provide feedback for development" refers to technology that utilizes a database of basketball teams and players nationwide to analyze player performance and provide feedback for development.
この発明を実施するためのシステムは、以下のハードウェアおよびソフトウェアを用いる。 The system for implementing this invention uses the following hardware and software.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア: スマートフォン、ヘッドマウントディスプレイ Hardware: Smartphone, head-mounted display
ソフトウェア: TensorFlow(AIモデル)、OpenCV(映像解析)、NLTK(自然言語処理)、Emotion API(感情認識) Software: TensorFlow (AI model), OpenCV (video analysis), NLTK (natural language processing), Emotion API (emotion recognition)
システムの構成 System configuration
サーバは、以下の手段を含む。 The server includes the following means:
1. バスケットボールの試合の実況中継の解説をAIが行う手段: 1. How AI can provide commentary for live broadcasts of basketball games:
サーバは、試合の映像および音声データをリアルタイムで受信し、TensorFlowを用いて試合の進行状況やプレイ内容を解析し、解説を生成する。 The server receives video and audio data from the match in real time, and uses TensorFlow to analyze the progress of the match and the content of the play, generating commentary.
2. 全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段: 2. How to provide live commentary of youth and mini-basketball games nationwide with AI:
サーバは、全国のユースやミニバスの試合映像を受信し、同様にAIを用いて解説を生成し、リアルタイムで配信する。 The server receives footage of youth and mini-basketball matches from across the country, and similarly uses AI to generate commentary, which it distributes in real time.
3. オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段: 3. A way to use AI to automatically generate running scores that are currently created by officials and each team:
サーバは、試合の映像および音声データを解析し、得点状況やファウル状況を自動的に生成する。 The server analyzes the video and audio data of the match and automatically generates the score and foul situations.
4. 試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段: 4. A method for analyzing game video and audio data in real time and automatically generating scoring and foul situations:
サーバは、OpenCVを使用して映像データをフレームごとに分割し、重要なシーンを抽出する。音声データはNLTKを使用してテキストに変換し、重要なキーワードを抽出する。 The server uses OpenCV to split the video data into frames and extract important scenes. The audio data is converted to text using NLTK and important keywords are extracted.
5. ユーザの感情を認識し、その感情に応じたスコア表示を行う手段: 5. How to recognize user emotions and display a score according to those emotions:
サーバは、Emotion APIを使用してユーザの表情や音声から感情を認識し、その感情に応じてスコア表示を調整する。 The server uses the Emotion API to recognize emotions from the user's facial expressions and voice, and adjusts the score display accordingly.
6. 全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段: 6. Using a national team and player database to analyze player performance and provide feedback for development:
サーバは、全国のチームや選手のデータベースを参照し、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。 The server accesses a database of teams and players from across the country, displays analysis of player performance, and provides feedback for the next match.
具体例 Specific examples
試合中にスマートフォンを使用しているユーザが得点シーンを見た際、サーバはAIを用いてそのシーンを解析し、得点状況をリアルタイムで表示する。ユーザが喜びの表情を見せた場合、サーバは感情エンジンを使用してそれを認識し、スコア表示をより華やかにする。また、試合終了後には、サーバは全国のデータベースを参照して、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。 When a user using a smartphone during a match sees a goal being scored, the server uses AI to analyze the scene and display the score in real time. If the user shows an expression of joy, the server will recognize it using an emotion engine and make the score display more colorful. After the match ends, the server also refers to a nationwide database to display an analysis of the players' performance and provide feedback for the next match.
プロンプト文の例 Example of a prompt
「試合の映像と音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成するAIモデルを使用して、ランニングスコアを表示してください。また、ユーザの感情を認識し、その感情に応じたスコア表示を行ってください。さらに、全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供してください。」 "Please analyze the video and audio data of the game in real time, and use an AI model that automatically generates the score and foul situation to display a running score. Also, please recognize the user's emotions and display the score according to those emotions. Furthermore, please use a database of teams and players from all over the country to provide feedback for analyzing player performance and development."
応用例3における特定処理の流れについて図22を用いて説明する。 The flow of the specific processing in application example 3 is explained using Figure 22.
ステップ1: Step 1:
試合の映像および音声データの取得 Acquisition of game video and audio data
サーバは、スマートフォンやヘッドマウントディスプレイから試合の映像および音声データをリアルタイムで受信する。入力は試合の映像および音声データであり、出力は解析のための前処理済みデータである。具体的な動作として、サーバはデータストリームを受信し、フレームごとに映像データを分割し、音声データをテキストに変換する。 The server receives video and audio data of the game in real time from a smartphone or head-mounted display. The input is the video and audio data of the game, and the output is preprocessed data for analysis. In concrete terms, the server receives the data stream, splits the video data into frames, and converts the audio data into text.
ステップ2: Step 2:
データの前処理 Data preprocessing
サーバは、OpenCVを使用して映像データをフレームごとに分割し、重要なシーンを抽出する。また、音声データはNLTKを使用してテキストに変換し、重要なキーワード(得点、ファウルなど)を抽出する。入力は前処理済みの映像および音声データであり、出力は解析のための重要シーンおよびキーワードである。具体的な動作として、サーバは映像フレームを解析し、得点シーンやファウルシーンを特定する。 The server uses OpenCV to split the video data into frames and extract important scenes. It also uses NLTK to convert the audio data into text and extracts important keywords (e.g., goals, fouls). The input is the preprocessed video and audio data, and the output is important scenes and keywords for analysis. Specifically, the server analyzes video frames and identifies scoring and foul scenes.
ステップ3: Step 3:
AIモデルによる解析 Analysis using AI models
サーバは、TensorFlowを使用して、映像および音声データから得点状況やファウル状況を解析する。入力は重要シーンおよびキーワードであり、出力は得点状況やファウル状況のデータである。具体的な動作として、サーバはAIモデルを実行し、各シーンの得点やファウルを自動的に判定する。 The server uses TensorFlow to analyze the scoring and foul situations from video and audio data. The input is important scenes and keywords, and the output is data on the scoring and foul situations. In concrete terms, the server runs an AI model and automatically determines the scores and fouls for each scene.
ステップ4: Step 4:
ランニングスコアの自動生成 Automatic generation of running scores
サーバは、解析結果をもとにランニングスコアを自動生成する。入力は得点状況やファウル状況のデータであり、出力はリアルタイムのランニングスコアである。具体的な動作として、サーバは得点やファウルの情報を集計し、スコアボードを更新する。 The server automatically generates a running score based on the analysis results. The input is data on the scoring and foul situations, and the output is a real-time running score. Specifically, the server tallys up the score and foul information and updates the scoreboard.
ステップ5: Step 5:
感情認識 Emotion recognition
サーバは、Emotion APIを使用して、ユーザの表情や音声から感情を認識する。入力はユーザの表情データおよび音声データであり、出力は認識された感情データである。具体的な動作として、サーバはカメラやマイクからユーザのデータを取得し、感情を解析する。 The server uses the Emotion API to recognize emotions from the user's facial expressions and voice. The input is the user's facial expression data and voice data, and the output is the recognized emotion data. In concrete terms, the server obtains user data from the camera and microphone and analyzes emotions.
ステップ6: Step 6:
感情に応じたスコア表示 Score display based on emotions
サーバは、認識された感情に応じてスコア表示を調整する。入力は感情データおよびランニングスコアであり、出力は感情に応じたスコア表示である。具体的な動作として、サーバはユーザの感情に基づいてスコア表示のデザインやエフェクトを変更する。 The server adjusts the score display according to the recognized emotion. The input is emotion data and the running score, and the output is a score display according to the emotion. In concrete terms, the server changes the design and effects of the score display based on the user's emotion.
ステップ7: Step 7:
データベースの活用 Utilizing the database
サーバは、全国のチームや選手のデータベースを参照し、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。入力は試合結果および選手データであり、出力はパフォーマンス分析結果およびフィードバックである。具体的な動作として、サーバはデータベースから関連情報を取得し、解析結果を表示する。 The server refers to a database of teams and players from around the country, displays the results of player performance analysis, and provides feedback for the next match. The input is the match results and player data, and the output is performance analysis results and feedback. In concrete terms, the server retrieves relevant information from the database and displays the analysis results.
特定処理部290は、特定処理の結果をスマートデバイス14に送信する。スマートデバイス14では、制御部46Aが、出力装置40に対して特定処理の結果を出力させる。マイクロフォン38Bは、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン38Bによって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
The
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(登録商標)(インターネット検索<URL: https://openai.com/blog/chatgpt>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。
The
生成AIの他の例としては、Gemini(登録商標)(インターネット検索<URL: https://gemini.google.com/?hl=ja>)が挙げられる。 Another example of generative AI is Gemini (registered trademark) (Internet search <URL: https://gemini.google.com/?hl=ja>).
上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、スマートデバイス14によって特定処理が行われるようにしてもよい。
In the above embodiment, an example was given in which the specific processing is performed by the
[第2実施形態] [Second embodiment]
図3には、第2実施形態に係るデータ処理システム210の構成の一例が示されている。
Figure 3 shows an example of the configuration of a
図3に示すように、データ処理システム210は、データ処理装置12及びスマート眼鏡214を備えている。データ処理装置12の一例としては、サーバが挙げられる。
As shown in FIG. 3, the
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
The
スマート眼鏡214は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、及び通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、及びカメラ42も、バス52に接続されている。
The
マイクロフォン238は、ユーザ20が発する音声を受け付けることで、ユーザ20から指示等を受け付ける。マイクロフォン238は、ユーザ20が発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
The
カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザ20の周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
The communication I/
図4には、データ処理装置12及びスマート眼鏡214の要部機能の一例が示されている。図4に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
Figure 4 shows an example of the main functions of the
特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
The
ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。
スマート眼鏡214では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。
In the
次に、データ処理装置12の特定処理部290による特定処理について説明する。
Next, we will explain the specific processing performed by the
「形態例1」 "Example 1"
本発明の形態例1として、AIがバスケットボールの試合の実況中継の解説を行うシステムがある。このシステムでは、試合の映像や音声データをAIが解析し、試合の状況や選手の動きを理解する。そして、その解析結果に基づいて、試合の解説を自動的に生成し、実況中継とともに配信する。 Example 1 of the present invention is a system in which AI provides commentary for a live broadcast of a basketball game. In this system, AI analyzes the video and audio data of the game to understand the situation of the game and the movements of the players. Then, based on the results of this analysis, a commentary of the game is automatically generated and distributed along with the live broadcast.
「形態例2」 "Example 2"
本発明の形態例2として、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムがある。このシステムでは、全国各地で行われるユースやミニバスの試合の映像や音声データを収集し、形態例1と同様にAIが解析して解説を生成する。そして、その解説を試合映像とともに配信することで、全国の試合を広く視聴者に提供する。 Example 2 of the present invention is a system that distributes commentary of youth and mini-basketball games from around the country, with live coverage by AI. This system collects video and audio data from youth and mini-basketball games held around the country, which are analyzed by AI in the same way as example 1 to generate commentary. Then, by distributing the commentary together with the game footage, games from around the country are made available to a wide audience.
「形態例3」 "Example 3"
本発明の形態例3として、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成するシステムがある。このシステムでは、試合の映像や音声データから得点状況やファウル状況などをAIが解析し、ランニングスコアを自動的に生成する。これにより、試合の進行状況をリアルタイムで把握することが可能となる。 Example 3 of the present invention is a system that uses AI to automatically generate running scores that are created manually by officials or for each team. In this system, AI analyzes the scoring situation, foul situation, etc. from video and audio data of the game, and automatically generates a running score. This makes it possible to grasp the progress of the game in real time.
「形態例4」 "Example 4"
本発明の形態例4として、全国のチームや選手のデータベース化を行い、そのデータベース化された情報を日本の登録バスケ選手の見える化、育成に活用するシステムがある。このシステムでは、全国のチームや選手の試合結果やスタッツなどの情報を収集し、データベース化する。そして、そのデータベースを活用して、選手のパフォーマンスの分析や育成のためのフィードバックを提供する。 Example 4 of the present invention is a system that creates a database of teams and players from across the country, and uses the information in the database to visualize and develop registered basketball players in Japan. This system collects information such as game results and stats for teams and players from across the country, and creates a database. The database is then used to provide feedback for analyzing players' performance and developing them.
以下に、各形態例の処理の流れについて説明する。 The process flow for each example is explained below.
「形態例1」 "Example 1"
ステップ1:AIがバスケットボールの試合の映像や音声データを収集する。 Step 1: AI collects video and audio data from basketball games.
ステップ2:収集したデータをAIが解析し、試合の状況や選手の動きを理解する。 Step 2: AI analyzes the collected data to understand the situation of the game and the movements of the players.
ステップ3:解析結果に基づいて、AIが試合の解説を自動的に生成する。 Step 3: Based on the analysis results, the AI automatically generates commentary for the match.
ステップ4:生成した解説を実況中継とともに配信する。 Step 4: Distribute the generated commentary along with the live broadcast.
「形態例2」 "Example 2"
ステップ1:全国各地で行われるユースやミニバスの試合の映像や音声データを収集する。 Step 1: Collect video and audio data from youth and mini-basketball matches held across the country.
ステップ2:収集したデータをAIが解析し、試合の状況や選手の動きを理解する。 Step 2: AI analyzes the collected data to understand the situation of the game and the movements of the players.
ステップ3:解析結果に基づいて、AIが試合の解説を自動的に生成する。 Step 3: Based on the analysis results, the AI automatically generates commentary for the match.
ステップ4:生成した解説を試合映像とともに配信する。 Step 4: Distribute the generated commentary along with the game footage.
「形態例3」 "Example 3"
ステップ1:試合の映像や音声データから得点状況やファウル状況などをAIが解析する。 Step 1: AI analyzes the scoring situation, foul situation, etc. from video and audio data of the game.
ステップ2:解析結果に基づいて、AIがランニングスコアを自動的に生成する。 Step 2: Based on the analysis results, the AI automatically generates a running score.
「形態例4」 "Example 4"
ステップ1:全国のチームや選手の試合結果やスタッツなどの情報を収集する。 Step 1: Collect information such as match results and stats for teams and players across the country.
ステップ2:収集した情報をデータベース化する。 Step 2: Create a database of the collected information.
ステップ3:データベース化された情報を活用して、選手のパフォーマンスの分析や育成のためのフィードバックを提供する。 Step 3: Use the databased information to analyze player performance and provide feedback for development.
(実施例1) (Example 1)
次に、形態例1の実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, a first embodiment of the first embodiment will be described. In the following description, the
従来のバスケットボールの試合の実況中継では、解説者の質や量に依存するため、試合の詳細な状況や選手の動きをリアルタイムで正確に伝えることが難しい。また、全国のユースやミニバスの試合解説を行うためには、多くの人手が必要であり、コストや労力がかかる。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアは、手作業によるため時間がかかり、正確性に欠けることがある。これらの課題を解決するためには、AIを活用した自動化システムが必要である。 Traditional live broadcasts of basketball games depend on the quality and quantity of commentators, making it difficult to accurately convey the detailed situation of the game and the movements of the players in real time. In addition, commentary on youth and mini-basketball games across the country is required by many people, which is costly and labor intensive. Furthermore, running scores created by officials and people for each team are done manually, so they take time and can lack accuracy. To solve these issues, an automated system that utilizes AI is needed.
実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データをリアルタイムで収集する手段と、収集した映像データと音声データを解析する手段と、解析結果に基づいて試合の解説を生成する手段と、生成された解説を実況中継とともに配信する手段と、を含む。これにより、試合の詳細な状況や選手の動きをリアルタイムで正確に伝えることが可能となる。また、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信することができ、コストや労力を削減することができる。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成することで、時間を短縮し、正確性を向上させることができる。 In this invention, the server includes means for collecting video data and audio data of the match in real time, means for analyzing the collected video data and audio data, means for generating commentary on the match based on the analysis results, and means for distributing the generated commentary together with a live broadcast. This makes it possible to accurately convey the detailed situation of the match and the movements of the players in real time. In addition, commentary on youth and mini-basketball matches from all over the country can be distributed with live broadcasts by AI, reducing costs and labor. Furthermore, by automatically generating running scores by AI instead of manually created by officials and for each team, it is possible to reduce time and improve accuracy.
「試合の映像データ」とは、バスケットボールの試合の進行状況を視覚的に記録したデジタルデータである。 "Game video data" refers to digital data that visually records the progress of a basketball game.
「音声データ」とは、バスケットボールの試合中に発生する音声をデジタル形式で記録したデータである。 "Audio data" refers to data that is a digital recording of the sounds generated during a basketball game.
「リアルタイムで収集する手段」とは、試合の進行と同時に映像データと音声データを取得するための技術や装置である。 "Means of collecting data in real time" refers to technology and devices that allow for the acquisition of video and audio data as the match progresses.
「解析する手段」とは、収集した映像データと音声データを処理し、試合の状況や選手の動きを理解するための技術やソフトウェアである。 "Means of analysis" refers to technology and software that processes collected video and audio data to understand the situation of the game and the movements of the players.
「解説を生成する手段」とは、解析結果に基づいて試合の状況や選手の動きを説明する文章を自動的に作成するための技術やソフトウェアである。 "Means for generating commentary" refers to technology or software that automatically creates text that explains the situation of the game and the movements of players based on the analysis results.
「実況中継とともに配信する手段」とは、生成された解説を試合の映像と音声と一緒にリアルタイムで視聴者に届けるための技術や装置である。 "Means of distribution along with live broadcast" refers to the technology and devices that deliver the generated commentary to viewers in real time along with the video and audio of the match.
「ユースやミニバスの試合解説」とは、若年層や小学生向けのバスケットボール試合に関する解説である。 "Youth and mini-basketball game commentary" is commentary on basketball games aimed at young people and elementary school students.
「ランニングスコア」とは、試合中にリアルタイムで更新される得点や選手のパフォーマンスを記録したデータである。 "Running score" is data that records the scores and player performances that are updated in real time during the game.
「AI自動生成する手段」とは、人工知能を用いて手作業を自動化し、データを生成するための技術やソフトウェアである。 "AI automatic generation means" refers to technology and software that uses artificial intelligence to automate manual tasks and generate data.
「データベース化を行う手段」とは、収集した情報を整理し、検索や利用が容易な形式で保存するための技術やソフトウェアである。 "Means of database creation" refers to technology and software for organizing collected information and storing it in a format that is easy to search and use.
「見える化」とは、データを視覚的に表示し、理解しやすくするための技術や方法である。 "Visualization" refers to techniques and methods for visually displaying data and making it easier to understand.
「育成に活用する手段」とは、データを基に選手のトレーニングや成長を支援するための技術や方法である。 "Means to be used in development" refers to technologies and methods that use data to support the training and development of athletes.
この発明は、バスケットボールの試合の実況中継において、AIを活用して試合の解説を自動生成し、リアルタイムで配信するシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that uses AI to automatically generate commentary on a basketball game and deliver it in real time during live broadcasts. A specific embodiment of this system is described below.
サーバの動作 Server operation
1. データ収集 1. Data collection
サーバは、試合の映像データと音声データをリアルタイムで収集する。具体的には、カメラとマイクロフォンを使用して試合の映像と音声をキャプチャする。映像データは1080pの解像度で、音声データは44.1kHzのサンプリングレートで収集する。 The server collects video and audio data of the match in real time. Specifically, it uses a camera and microphone to capture video and audio of the match. Video data is collected at a resolution of 1080p, and audio data is collected at a sampling rate of 44.1kHz.
2. データ解析 2. Data analysis
サーバは、収集した映像データと音声データを解析する。この解析には、画像認識ソフトウェア(例:OpenCV)や音声認識ソフトウェア(例:Google Speech-to-Text API)を使用する。これにより、試合の状況や選手の動きを理解する。例えば、選手Aがシュートを打つ動作を検出し、その瞬間の実況音声をテキスト化する。 The server analyzes the collected video and audio data. This analysis uses image recognition software (e.g. OpenCV) and voice recognition software (e.g. Google Speech-to-Text API). This allows the system to understand the situation of the game and the movements of the players. For example, it detects the action of Player A taking a shot and converts the live audio of that moment into text.
3. 解説生成 3. Description generation
サーバは、解析結果に基づいて試合の解説を生成する。この解説生成には、生成AIモデル(例:GPT-4)を使用する。生成AIモデルは、試合の状況や選手の動きに関する情報を入力として受け取り、自然言語で解説文を生成する。例えば、「選手Aが3ポイントシュートを成功させた」という情報を入力し、「選手Aが見事な3ポイントシュートを決めました」といった解説文を生成する。 The server generates commentary on the game based on the analysis results. A generative AI model (e.g. GPT-4) is used to generate this commentary. The generative AI model receives information about the game situation and player movements as input, and generates commentary in natural language. For example, it inputs information such as "Player A made a successful three-point shot" and generates commentary such as "Player A made a brilliant three-point shot."
4. 配信 4. Distribution
サーバは、生成された解説文を実況中継とともに配信する。配信には、ストリーミングサーバ(例:Wowza Streaming Engine)を使用する。これにより、ユーザはインターネットを通じてリアルタイムで試合の映像と解説を視聴することができる。 The server distributes the generated commentary along with the live broadcast. A streaming server (e.g. Wowza Streaming Engine) is used for distribution. This allows users to watch the game footage and commentary in real time over the Internet.
端末の動作 Device operation
1. データ受信 1. Data reception
端末は、サーバから配信される試合の映像と解説をリアルタイムで受信する。受信には、インターネット接続とストリーミングソフトウェア(例:VLCメディアプレーヤー)を使用する。 The device receives real-time game footage and commentary from the server using an internet connection and streaming software (e.g. VLC media player).
2. 表示 2. Display
端末は、受信した映像と解説をユーザに表示する。表示には、ディスプレイやスピーカーなどのハードウェアを使用する。例えば、ユーザがスマートフォンで視聴している場合、映像はスマートフォンの画面に表示され、解説音声は内蔵スピーカーから再生される。 The device displays the received video and commentary to the user. For display purposes, hardware such as a display and speakers are used. For example, if the user is watching on a smartphone, the video will be displayed on the smartphone screen and the commentary audio will be played through the built-in speaker.
ユーザの動作 User actions
1. 視聴 1. Viewing
ユーザは、端末を通じて試合の映像と解説を視聴する。ユーザは、試合の進行状況や選手の動きについての詳細な解説をリアルタイムで得ることができる。例えば、ユーザがリビングルームでテレビを通じて視聴している場合、テレビ画面に試合の映像が表示され、テレビのスピーカーから解説音声が流れる。 The user watches the game footage and commentary through the terminal. The user can get detailed commentary on the progress of the game and the movements of the players in real time. For example, if the user is watching on a television in the living room, the game footage will be displayed on the television screen and commentary will be played from the television speakers.
具体例 Specific examples
具体例1 Example 1
試合の状況: 第3クォーター、残り時間5分、スコアはホームチームが75点、アウェイチームが70点。 Game Situation: 3rd quarter, 5 minutes remaining, home team 75, away team 70.
選手の動き: ホームチームの選手Aが3ポイントシュートを成功させた。 Player Action: Home team player A makes a three-point shot.
生成AIモデルへのプロンプト文の例 Example prompts for generative AI models
試合の状況: 第3クォーター、残り時間5分、スコアはホームチームが75点、アウェイチームが70点。 Game Situation: 3rd quarter, 5 minutes remaining, home team 75, away team 70.
選手の動き: ホームチームの選手Aが3ポイントシュートを成功させた。 Player Action: Home team player A makes a three-point shot.
生成された解説文の例 Example of generated description
「第3クォーター残り5分、ホームチームが75点、アウェイチームが70点と接戦が続いています。ホームチームの選手Aが見事な3ポイントシュートを成功させ、スコアをさらに引き離しました。」 "With five minutes left in the third quarter, the home team is tied at 75 points and the away team at 70 points. Home team player A makes a great three-point shot, widening the gap even further."
このようにして、ユーザは試合の進行状況や選手の動きについての詳細な解説をリアルタイムで視聴することができる。 In this way, users can watch detailed commentary on the progress of the match and the players' movements in real time.
実施例1における特定処理の流れについて図11を用いて説明する。 The flow of the identification process in Example 1 is explained using Figure 11.
ステップ1: Step 1:
サーバは、試合の映像データと音声データをリアルタイムで収集する。 The server collects video and audio data from the match in real time.
具体的な動作として、カメラとマイクロフォンを使用して試合の映像と音声をキャプチャする。 Specific tasks include using cameras and microphones to capture video and audio of the game.
入力は、カメラとマイクロフォンからの映像と音声であり、出力はデジタル形式の映像データと音声データである。 The input is video and audio from the camera and microphone, and the output is video and audio data in digital format.
映像データは1080pの解像度で、音声データは44.1kHzのサンプリングレートで収集される。 Video data is collected at 1080p resolution, and audio data is collected at a sampling rate of 44.1kHz.
ステップ2: Step 2:
サーバは、収集した映像データと音声データを解析する。 The server analyzes the collected video and audio data.
具体的な動作として、画像認識ソフトウェア(例:OpenCV)を使用して映像データから選手の動きを検出し、音声認識ソフトウェア(例:Google Speech-to-Text API)を使用して音声データから実況の内容をテキストに変換する。 Specific operations include using image recognition software (e.g. OpenCV) to detect player movements from video data, and using voice recognition software (e.g. Google Speech-to-Text API) to convert the audio data into text to provide commentary.
入力は、ステップ1で収集された映像データと音声データであり、出力は解析された選手の動き情報とテキスト化された実況内容である。 The input is the video and audio data collected in step 1, and the output is the analyzed player movement information and the text commentary.
例えば、選手Aがシュートを打つ動作を検出し、その瞬間の実況音声をテキスト化する。 For example, it detects when Player A is about to take a shot and converts the audio commentary at that moment into text.
ステップ3: Step 3:
サーバは、解析結果に基づいて試合の解説を生成する。 The server generates commentary for the match based on the analysis results.
具体的な動作として、生成AIモデル(例:GPT-4)にプロンプト文を入力し、解説文を生成する。 Specifically, the prompt text is input into a generative AI model (e.g. GPT-4) to generate an explanatory text.
入力は、ステップ2で得られた選手の動き情報とテキスト化された実況内容であり、出力は生成された解説文である。 The input is the player movement information obtained in step 2 and the text commentary, and the output is the generated commentary.
例えば、「選手Aが3ポイントシュートを成功させた」という情報を入力し、「選手Aが見事な3ポイントシュートを決めました」といった解説文を生成する。 For example, input information such as "Player A made a successful three-point shot" and generate an explanatory text such as "Player A made a brilliant three-point shot."
ステップ4: Step 4:
サーバは、生成された解説文を実況中継とともに配信する。 The server distributes the generated commentary along with the live broadcast.
具体的な動作として、ストリーミングサーバ(例:Wowza Streaming Engine)を使用して、映像と解説音声をリアルタイムでストリーミング配信する。 Specifically, the video and commentary audio are streamed in real time using a streaming server (e.g. Wowza Streaming Engine).
入力は、ステップ3で生成された解説文とステップ1で収集された映像データであり、出力はリアルタイムで配信される映像と解説音声である。 The input is the explanatory text generated in step 3 and the video data collected in step 1, and the output is the video and explanatory audio delivered in real time.
ステップ5: Step 5:
端末は、サーバから配信される試合の映像と解説をリアルタイムで受信する。 The device receives game footage and commentary streamed from the server in real time.
具体的な動作として、インターネット接続とストリーミングソフトウェア(例:VLCメディアプレーヤー)を使用する。 Specific actions include using an internet connection and streaming software (e.g. VLC media player).
入力は、サーバからのストリーミングデータであり、出力は端末に表示される映像と再生される解説音声である。 The input is streaming data from the server, and the output is the video displayed on the terminal and the commentary audio played.
ステップ6: Step 6:
端末は、受信した映像と解説をユーザに表示する。 The device displays the received video and commentary to the user.
具体的な動作として、ディスプレイに映像を表示し、スピーカーから解説音声を再生する。 Specific operations include showing images on the display and playing explanatory audio from the speaker.
入力は、ステップ5で受信した映像と解説音声であり、出力はユーザに視覚と聴覚で提供される試合の実況中継である。 The input is the video and commentary audio received in step 5, and the output is a live broadcast of the game provided to the user in both visual and audio.
ステップ7: Step 7:
ユーザは、端末を通じて試合の映像と解説を視聴する。 Users can watch game footage and commentary through their devices.
具体的な動作として、端末のディスプレイで試合の映像を見ながら、スピーカーから流れる解説を聞く。 Specific actions include watching the game footage on the device display and listening to commentary coming from the speaker.
入力は、ステップ6で表示された映像と再生された解説音声であり、出力はユーザの視聴体験である。 The input is the video displayed in step 6 and the commentary audio played, and the output is the user's viewing experience.
例えば、ユーザがリビングルームでテレビを通じて視聴している場合、テレビ画面に試合の映像が表示され、テレビのスピーカーから解説音声が流れる。 For example, if a user is watching on a television in their living room, the game footage will be displayed on the television screen and commentary will be played from the television speakers.
(応用例1) (Application example 1)
次に、形態例1の応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, application example 1 of embodiment example 1 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、リアルタイムでの解説や試合後のハイライト生成、選手の詳細なパフォーマンス解析が十分に行われていない。また、ユーザーが特定の選手やプレイについて質問した際に、即座に適切な解説を提供することが難しいという課題がある。 Existing basketball game commentary systems do not adequately provide real-time commentary, post-game highlight generation, or detailed analysis of players' performance. In addition, there is a problem that it is difficult to provide appropriate commentary immediately when a user asks about a specific player or play.
応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像データを解析し、リアルタイムで解説を生成する手段と、試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段と、選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段と、ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段と、を含む。これにより、リアルタイムでの解説提供、試合後のハイライト生成、選手の詳細なパフォーマンス解析、ユーザーの質問に対する即座の解説提供が可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games nationwide with AI commentary, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for analyzing game video data and generating commentary in real time, a means for automatically extracting important scenes after the game ends and generating a highlight video, a means for analyzing player movements and performance and providing detailed statistical information, and a means for AI to provide commentary when a user asks a question about a specific player or play. This makes it possible to provide commentary in real time, generate post-game highlights, analyze players' performance in detail, and provide immediate commentary in response to user questions.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合の映像や音声データを解析し、試合の状況や選手の動きを理解して、AIが自動的に解説を生成する技術である。 "A means for AI to provide commentary for live broadcasts of basketball games" refers to technology in which AI analyzes video and audio data from basketball games, understands the situation of the game and the movements of the players, and automatically generates commentary.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合をAIが解説し、その解説付きで試合をリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a technology that uses AI to provide commentary on youth and mini-basketball games from around the country and broadcasts the games in real time with that commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で記録しているスコアを、AIが自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses AI to automatically generate scores that are manually recorded by officials and teams during a match.
「試合の映像データを解析し、リアルタイムで解説を生成する手段」とは、試合の映像データをリアルタイムで解析し、その解析結果に基づいて即座に解説を生成する技術である。 "Means for analyzing game video data and generating commentary in real time" refers to technology that analyzes game video data in real time and instantly generates commentary based on the analysis results.
「試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段」とは、試合終了後に試合の映像データを解析し、重要なシーンを自動的に抽出してハイライト動画を生成する技術である。 "Means for automatically extracting important scenes after the end of a match and generating a highlight video" refers to a technology that analyzes video data of a match after the end of the match, automatically extracts important scenes, and generates a highlight video.
「選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段」とは、選手の動きやパフォーマンスを解析し、その結果に基づいて詳細な統計情報を提供する技術である。 "Means of analyzing player movements and performance and providing detailed statistical information" refers to technology that analyzes player movements and performance and provides detailed statistical information based on the results.
「ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段」とは、ユーザーが特定の選手やプレイについて質問した際に、AIがその質問に対して適切な解説を提供する技術である。 "A means for an AI to provide commentary when a user asks a question about a specific player or play" refers to technology that enables an AI to provide an appropriate commentary in response to a question when a user asks about a specific player or play.
この発明を実施するためには、以下のようなシステム構成と処理手順が必要である。 To implement this invention, the following system configuration and processing steps are required.
システム構成 System configuration
ハードウェア Hardware
サーバ:AIモデルの実行とデータ解析を行うための高性能なコンピュータ。 Server: A high-performance computer for running AI models and analyzing data.
スマートフォン:ユーザーが試合の解説を視聴し、インタラクションを行うためのデバイス。 Smartphone: The device on which users watch and interact with the game commentary.
カメラ:試合の映像をキャプチャするためのデバイス。 Camera: A device used to capture footage of the match.
ソフトウェア Software
OpenCV:映像データの読み込みと解析に使用するライブラリ。 OpenCV: A library used to read and analyze video data.
TensorFlow:AIモデルの実行に使用するフレームワーク。 TensorFlow: A framework used to run AI models.
Transformers:GPT-2モデルを使用して解説を生成するライブラリ。 Transformers: A library that generates explanations using the GPT-2 model.
処理の流れ Processing flow
1. 映像データの読み込み 1. Loading video data
サーバは、カメラから取得した試合の映像データをOpenCVを用いてフレームごとに読み込む。 The server uses OpenCV to read the game video data obtained from the camera frame by frame.
2. フレームの解析 2. Frame analysis
サーバは、読み込んだフレームを解析し、選手の動きや重要なアクションを検出する。この解析には、TensorFlowを用いたディープラーニングモデルを使用する。 The server analyzes the loaded frames to detect player movements and important actions. This analysis uses a deep learning model using TensorFlow.
3. 解説の生成 3. Generate explanations
サーバは、解析結果に基づいて解説文を生成する。具体的には、Transformersライブラリを用いてGPT-2モデルを実行し、プロンプト文を入力として解説文を生成する。 The server generates an explanatory text based on the analysis results. Specifically, it runs the GPT-2 model using the Transformers library and generates an explanatory text using the prompt text as input.
4. 解説の配信 4. Delivering commentary
生成された解説文は、リアルタイムでスマートフォンに配信される。ユーザーは、スマートフォンを通じて試合の解説を視聴することができる。 The generated commentary is delivered to smartphones in real time, allowing users to watch and listen to commentary on the match via their smartphones.
5. ハイライト動画の生成 5. Highlight video generation
試合終了後、サーバは重要なシーンを自動で抽出し、ハイライト動画を生成する。このハイライト動画もスマートフォンに配信される。 After the match ends, the server automatically extracts important scenes and generates a highlight video. This highlight video is also distributed to smartphones.
6. 選手のパフォーマンス解析 6. Player performance analysis
サーバは、選手の動きやパフォーマンスを詳細に解析し、統計情報を生成する。この統計情報は、ユーザーがスマートフォンで確認できる。 The server performs detailed analysis of the players' movements and performance and generates statistical information that users can view on their smartphones.
7. ユーザーインタラクション 7. User interaction
ユーザーが特定の選手やプレイについて質問すると、サーバはその質問に対して適切な解説を生成し、スマートフォンに配信する。 When a user asks a question about a particular player or play, the server generates an appropriate commentary for that question and delivers it to the smartphone.
具体例 Specific examples
試合の得点シーン:選手Aがスリーポイントシュートを決めた瞬間を検出し、「Player A scores a three-pointer」という解説を生成する。 Scoring scene in the game: Detect the moment when Player A makes a three-point shot and generate a commentary such as "Player A scores a three-pointer."
ディフェンスのハイライト:選手Bがブロックショットを成功させたシーンを検出し、「Player B makes a great block」という解説を生成する。 Defensive highlights: Detects a scene where Player B successfully blocks a shot and generates a commentary such as "Player B makes a great block."
プロンプト文の例 Example of a prompt
「Player A scores a three-pointer. Generate a commentary for this action.」 "Player A scores a three-pointer. Generate a commentary for this action."
「Player B makes a great block. Generate a commentary for this action.」 "Player B makes a great block. Generate a commentary for this action."
このようにして、サーバは試合の映像データをリアルタイムで解析し、ユーザーに対して自動的に解説を提供することができる。これにより、リアルタイムでの解説提供、試合後のハイライト生成、選手の詳細なパフォーマンス解析、ユーザーの質問に対する即座の解説提供が可能となる。 In this way, the server can analyze the game video data in real time and automatically provide commentary to the user. This allows for real-time commentary, post-game highlights, detailed analysis of player performance, and instant commentary in response to user questions.
応用例1における特定処理の流れについて図12を用いて説明する。 The flow of the specific processing in application example 1 is explained using Figure 12.
ステップ1: Step 1:
サーバは、カメラから取得した試合の映像データをOpenCVを用いてフレームごとに読み込む。入力はカメラからの映像データであり、出力は個々のフレーム画像である。具体的には、サーバは映像データを連続する静止画として分割し、各フレームをメモリに格納する。 The server uses OpenCV to read the game video data captured by the camera frame by frame. The input is the video data from the camera, and the output is the individual frame images. Specifically, the server splits the video data into a series of still images and stores each frame in memory.
ステップ2: Step 2:
サーバは、読み込んだフレームを解析し、選手の動きや重要なアクションを検出する。この解析には、TensorFlowを用いたディープラーニングモデルを使用する。入力はステップ1で得られたフレーム画像であり、出力は選手の動きやアクションの情報である。具体的には、サーバはフレーム内の選手の位置や動きを検出し、得点やブロックなどの重要なアクションを識別する。 The server analyzes the loaded frames to detect player movements and important actions. A deep learning model using TensorFlow is used for this analysis. The input is the frame image obtained in step 1, and the output is information about the player movements and actions. Specifically, the server detects the positions and movements of players within the frames and identifies important actions such as points and blocks.
ステップ3: Step 3:
サーバは、解析結果に基づいて解説文を生成する。具体的には、Transformersライブラリを用いてGPT-2モデルを実行し、プロンプト文を入力として解説文を生成する。入力はステップ2で得られたアクション情報とプロンプト文であり、出力は生成された解説文である。サーバは、選手のアクションに対応するプロンプト文を生成し、それをGPT-2モデルに入力して解説文を得る。 The server generates a commentary based on the analysis results. Specifically, it runs the GPT-2 model using the Transformers library and generates a commentary using the prompt as input. The input is the action information and prompt obtained in step 2, and the output is the generated commentary. The server generates a prompt corresponding to the player's action and inputs it into the GPT-2 model to obtain the commentary.
ステップ4: Step 4:
サーバは、生成された解説文をリアルタイムでスマートフォンに配信する。入力はステップ3で生成された解説文であり、出力はスマートフォンに表示される解説文である。具体的には、サーバは解説文をネットワークを通じてスマートフォンに送信し、ユーザーが視聴できるようにする。 The server delivers the generated commentary to the smartphone in real time. The input is the commentary generated in step 3, and the output is the commentary displayed on the smartphone. Specifically, the server transmits the commentary to the smartphone via the network so that the user can view it.
ステップ5: Step 5:
試合終了後、サーバは重要なシーンを自動で抽出し、ハイライト動画を生成する。入力は試合全体の映像データであり、出力はハイライト動画である。具体的には、サーバは試合中に検出された重要なアクションを基に、ハイライトシーンを選定し、それらを連結してハイライト動画を作成する。 After the match ends, the server automatically extracts important scenes and generates a highlight video. The input is the video data of the entire match, and the output is the highlight video. Specifically, the server selects highlight scenes based on important actions detected during the match and links them together to create a highlight video.
ステップ6: Step 6:
サーバは、選手の動きやパフォーマンスを詳細に解析し、統計情報を生成する。入力は試合中のフレーム画像と選手のアクション情報であり、出力は詳細な統計情報である。具体的には、サーバは選手ごとの得点、リバウンド、アシストなどのデータを集計し、統計情報としてまとめる。 The server performs detailed analysis of players' movements and performance and generates statistical information. The input is frame images from the game and information about players' actions, and the output is detailed statistical information. Specifically, the server compiles data such as points, rebounds, and assists for each player and compiles it as statistical information.
ステップ7: Step 7:
ユーザーが特定の選手やプレイについて質問すると、サーバはその質問に対して適切な解説を生成し、スマートフォンに配信する。入力はユーザーからの質問とプロンプト文であり、出力は生成された解説文である。具体的には、サーバはユーザーの質問を解析し、それに対応するプロンプト文を生成してGPT-2モデルに入力し、解説文を得てスマートフォンに送信する。 When a user asks a question about a specific player or play, the server generates an appropriate commentary for that question and delivers it to the smartphone. The input is the user's question and prompt text, and the output is the generated commentary text. Specifically, the server analyzes the user's question, generates a corresponding prompt text, inputs it into the GPT-2 model, obtains the commentary text, and sends it to the smartphone.
(実施例2) (Example 2)
次に、形態例2の実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, a second embodiment of the second embodiment will be described. In the following description, the
従来のバスケットボールの試合解説は、専門の解説者が必要であり、全国各地で行われるユースやミニバスの試合においては、解説者の確保が難しいという問題があった。また、試合の進行状況や選手の動きをリアルタイムで視聴者に伝えることが困難であり、視聴体験が限定されていた。さらに、試合データの収集や解析が手動で行われるため、効率が悪く、データの一貫性や正確性に欠けることがあった。 Traditionally, commentary on basketball games required a specialized commentator, and there was the problem of difficulty in securing commentators for youth and mini-basketball games held all over the country. It was also difficult to convey the progress of the game and the movements of the players to viewers in real time, limiting the viewing experience. Furthermore, the collection and analysis of game data was done manually, which was inefficient and sometimes lacked consistency and accuracy.
実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、全国各地で行われる試合の映像や音声データを収集する手段と、収集したデータをクラウドストレージに保存する手段と、保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段と、生成された解説を試合映像と同期させる手段と、解説付きの試合映像をストリーミング配信する手段と、ユーザが視聴するためのインターフェースを提供する手段と、サーバからストリーミング配信される解説付き試合映像を受信する手段と、受信した映像をユーザに表示する手段を含む。これにより、全国各地で行われるユースやミニバスの試合においても、AIによる高品質な解説付きの実況中継が可能となり、視聴体験が向上する。また、試合データの収集や解析が自動化されるため、効率的かつ正確なデータ管理が実現できる。 In this invention, the server includes means for collecting video and audio data of matches held throughout the country, means for storing the collected data in cloud storage, means for transmitting the stored data to a generative AI model and generating commentary for the match, means for synchronizing the generated commentary with the match video, means for streaming the match video with commentary, means for providing an interface for users to view, means for receiving the match video with commentary streamed from the server, and means for displaying the received video to the user. This enables live broadcasts with high-quality commentary by AI even for youth and mini-basketball matches held throughout the country, improving the viewing experience. In addition, efficient and accurate data management can be achieved because the collection and analysis of match data is automated.
「全国各地で行われる試合の映像や音声データを収集する手段」とは、各地の試合会場に設置されたカメラやマイクロフォンを用いて、試合の映像および音声をリアルタイムでキャプチャし、サーバに送信するための装置やシステムである。 "Means for collecting video and audio data from matches held around the country" refers to devices and systems that use cameras and microphones installed at match venues around the country to capture video and audio data from matches in real time and transmit it to a server.
「収集したデータをクラウドストレージに保存する手段」とは、収集された映像や音声データを適切なフォーマットに変換し、クラウドサービスを利用してデータを保存するための装置やシステムである。 "Means for storing collected data in cloud storage" refers to devices or systems that convert collected video and audio data into an appropriate format and store the data using cloud services.
「保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段」とは、クラウドストレージに保存されたデータを取得し、生成AIモデルに対してプロンプト文を送信してデータを解析し、試合の解説を生成するための装置やシステムである。 "Means for sending stored data to a generative AI model and generating commentary on a match" refers to a device or system that retrieves data stored in cloud storage, sends prompt text to the generative AI model to analyze the data, and generates commentary on a match.
「生成された解説を試合映像と同期させる手段」とは、生成された解説テキストを試合映像の特定のタイムスタンプに合わせて挿入し、映像と解説が同期された状態で再生できるようにするための装置やシステムである。 "Means for synchronizing the generated commentary with the game video" refers to a device or system that inserts the generated commentary text at a specific timestamp in the game video, allowing the video and commentary to be played in a synchronized state.
「解説付きの試合映像をストリーミング配信する手段」とは、同期された映像データをリアルタイムでエンコードし、ストリーミングプラットフォームに送信して視聴者に配信するための装置やシステムである。 "Means for streaming game footage with commentary" refers to a device or system that encodes synchronized video data in real time and transmits it to a streaming platform for distribution to viewers.
「ユーザが視聴するためのインターフェースを提供する手段」とは、スマートフォンやタブレット、PCなどのデバイスを通じて、ユーザに視聴インターフェースを表示するための装置やシステムである。 "Means for providing an interface for users to view" refers to a device or system for displaying a viewing interface to users through a device such as a smartphone, tablet, or PC.
「サーバからストリーミング配信される解説付き試合映像を受信する手段」とは、インターネット接続を通じてサーバから配信される解説付き試合映像をリアルタイムで受信するための装置やシステムである。 "Means for receiving game footage with commentary streamed from a server" refers to a device or system for receiving game footage with commentary streamed from a server in real time via an Internet connection.
「受信した映像をユーザに表示する手段」とは、受信した映像データをデコードし、ユーザのデバイス画面に表示するための装置やシステムである。 "Means for displaying received video to a user" refers to a device or system for decoding received video data and displaying it on the user's device screen.
この発明は、全国各地で行われるユースやミニバスの試合をAIによる解説付きで配信するシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that broadcasts youth and mini-basketball matches held around the country with commentary by AI. A specific embodiment of this system is described below.
サーバの役割 Server role
サーバは、全国各地で行われる試合の映像や音声データを収集する。各地の試合会場に設置されたカメラやマイクロフォンを用いて、試合の映像および音声をリアルタイムでキャプチャし、これらのデータをサーバに送信する。収集されたデータは、Amazon S3やGoogle Cloud Storageなどのクラウドストレージに保存される。 The server collects video and audio data from matches held around the country. Cameras and microphones installed at match venues around the country capture video and audio from matches in real time and send this data to the server. The collected data is stored in cloud storage such as Amazon S3 and Google Cloud Storage.
次に、サーバは保存されたデータを生成AIモデルに送信する。生成AIモデルには、例えばOpenAIのGPT-4やGoogleのBERTなどが使用される。サーバは、クラウドストレージからデータを取得し、生成AIモデルに対してプロンプト文を送信する。プロンプト文には、試合の進行状況や選手の動き、得点状況などを解析する指示が含まれる。 The server then sends the stored data to a generative AI model. Examples of generative AI models that can be used include OpenAI's GPT-4 and Google's BERT. The server retrieves the data from cloud storage and sends a prompt to the generative AI model. The prompt includes instructions for analyzing the progress of the game, the movements of players, the score, etc.
生成AIモデルは、プロンプト文に基づいてデータを解析し、自然言語で解説を生成する。生成された解説は、テキスト形式でサーバに返送される。サーバは、生成された解説を試合映像と同期させる。この同期処理には、FFmpegなどの動画編集ソフトウェアが使用される。サーバは、解説テキストを映像の特定のタイムスタンプに合わせて挿入し、映像と解説が同期された状態で再生できるようにする。 The generative AI model analyzes the data based on the prompt text and generates commentary in natural language. The generated commentary is sent back to the server in text format. The server then synchronizes the generated commentary with the game footage. This synchronization process is performed using video editing software such as FFmpeg. The server inserts the commentary text at specific timestamps in the footage, allowing the footage and commentary to be played in sync.
最後に、サーバは解説付きの試合映像をストリーミング配信する。この配信には、YouTube LiveやTwitchなどのストリーミングプラットフォームが利用される。サーバは、同期された映像データをリアルタイムでエンコードし、ストリーミングプラットフォームに送信する。 Finally, the server streams the match footage with commentary to a streaming platform such as YouTube Live or Twitch. The server encodes the synchronized video data in real time and sends it to the streaming platform.
端末の役割 Role of the device
端末は、ユーザが視聴するためのインターフェースを提供する。ここでは、スマートフォンやタブレット、PCなどのデバイスが使用される。端末は、専用アプリケーションやウェブブラウザを通じて、ユーザに視聴インターフェースを表示する。インターフェースには、試合一覧や検索機能が含まれる。 The terminal provides the user with an interface for viewing. Devices such as smartphones, tablets, and PCs are used here. The terminal displays the viewing interface to the user through a dedicated application or web browser. The interface includes a list of matches and a search function.
端末は、サーバからストリーミング配信される解説付き試合映像を受信する。この受信には、インターネット接続が必要である。端末は、ストリーミングプラットフォームから映像データをリアルタイムで受信し、バッファリングを行う。受信した映像データをデコードし、ユーザのデバイス画面に表示する。 The device receives game footage with commentary streamed from the server. An Internet connection is required for this reception. The device receives video data from the streaming platform in real time and buffers it. The device decodes the received video data and displays it on the user's device screen.
ユーザの役割 User Roles
ユーザは、端末を使用してシステムにアクセスする。アクセスには、専用のアプリケーションやウェブブラウザが使用される。ユーザは、スマートフォンやPCで専用アプリを起動するか、ウェブブラウザでシステムのURLにアクセスする。 Users access the system using a terminal. To do so, they use a dedicated application or a web browser. Users launch a dedicated application on their smartphone or PC, or access the system's URL using a web browser.
ユーザは、視聴したい試合を選択する。選択には、試合一覧や検索機能が提供される。ユーザは、インターフェース上で試合一覧をスクロールし、視聴したい試合をクリックする。検索機能を使用して特定の試合を検索することもできる。 The user selects the match they wish to watch. For this selection, a list of matches and a search function are provided. The user scrolls through the list of matches on the interface and clicks on the match they wish to watch. They can also use the search function to find a specific match.
ユーザは、選択した試合の解説付き映像を視聴する。視聴中に、ユーザは再生、一時停止、巻き戻しなどの操作を行うことができる。ユーザは、再生ボタンをクリックして映像を視聴開始し、必要に応じて、一時停止ボタンや巻き戻しボタンを使用して映像を操作する。 The user watches the commentary-enhanced video of the selected match. While watching, the user can play, pause, rewind, and perform other operations. The user clicks the play button to start watching the video, and uses the pause and rewind buttons to navigate the video as needed.
具体例 Specific examples
例えば、ユーザがスマートフォンを使用して、全国ユースバスケットボール大会の試合を視聴する場合、以下の手順を踏む: For example, if a user wants to watch a national youth basketball tournament game on their smartphone, they would follow these steps:
1. ユーザは、スマートフォンの専用アプリを起動する。 1. The user launches the dedicated app on their smartphone.
2. アプリ内の検索機能を使用して、「全国ユースバスケットボール大会」と入力する。 2. Use the in-app search function and type in "National Youth Basketball Tournament."
3. 検索結果から視聴したい試合を選択する。 3. Select the match you want to watch from the search results.
4. アプリは、サーバから解説付き試合映像をストリーミング配信する。 4. The app streams game footage with commentary from the server.
5. ユーザは、スマートフォンの画面で試合を視聴し、解説を楽しむ。 5. Users can watch the game on their smartphone screen and enjoy the commentary.
生成AIモデルへ入力するプロンプト文の例としては、「全国ユースバスケットボール大会の試合映像と音声データを解析し、試合の進行状況、選手の動き、得点状況などを含む解説を生成してください。」が挙げられる。このプロンプト文を使用して、AI解析システムに試合の解説を生成させる。 An example of a prompt sentence to be input to the generative AI model is, "Analyze the game video and audio data of the National Youth Basketball Tournament and generate commentary including the progress of the game, player movements, score status, etc." Using this prompt sentence, the AI analysis system generates commentary of the game.
実施例2における特定処理の流れについて図13を用いて説明する。 The flow of the identification process in Example 2 is explained using Figure 13.
ステップ1: Step 1:
サーバは、全国各地で行われる試合の映像や音声データを収集する。入力として、各地の試合会場に設置されたカメラやマイクロフォンからのリアルタイムデータを受け取る。具体的な動作として、これらのデバイスがキャプチャした映像と音声をインターネットを通じてサーバに送信する。出力として、収集された映像と音声データが得られる。 The server collects video and audio data from matches held around the country. As input, it receives real-time data from cameras and microphones installed at match venues around the country. Specifically, it transmits the video and audio captured by these devices to the server via the internet. As output, it obtains the collected video and audio data.
ステップ2: Step 2:
サーバは、収集したデータをクラウドストレージに保存する。入力として、ステップ1で収集された映像と音声データを受け取る。具体的な動作として、データを適切なフォーマットに変換し、Amazon S3やGoogle Cloud Storageなどのクラウドサービスにアップロードする。出力として、クラウドストレージに保存されたデータが得られる。 The server stores the collected data in cloud storage. As input, it receives the video and audio data collected in step 1. Specifically, it converts the data into an appropriate format and uploads it to a cloud service such as Amazon S3 or Google Cloud Storage. As output, it obtains the data stored in cloud storage.
ステップ3: Step 3:
サーバは、保存されたデータを生成AIモデルに送信し、試合の解説を生成する。入力として、クラウドストレージから取得した映像と音声データを受け取る。具体的な動作として、生成AIモデルに対してプロンプト文を送信し、データを解析させる。プロンプト文には、試合の進行状況や選手の動き、得点状況などを解析する指示が含まれる。出力として、生成AIモデルから返送された解説テキストが得られる。 The server sends the saved data to the generative AI model to generate commentary on the match. As input, it receives video and audio data obtained from cloud storage. Specifically, it sends a prompt to the generative AI model to analyze the data. The prompt includes instructions to analyze the progress of the match, player movements, the score, etc. The output is the commentary text returned from the generative AI model.
ステップ4: Step 4:
サーバは、生成された解説を試合映像と同期させる。入力として、ステップ3で得られた解説テキストとクラウドストレージから取得した映像データを受け取る。具体的な動作として、FFmpegなどの動画編集ソフトウェアを使用して、解説テキストを映像の特定のタイムスタンプに合わせて挿入する。出力として、解説と同期された試合映像が得られる。 The server synchronizes the generated commentary with the game footage. As input, it receives the commentary text obtained in step 3 and the video data obtained from the cloud storage. Specifically, it uses video editing software such as FFmpeg to insert the commentary text at a specific timestamp in the video. As output, it obtains the game footage synchronized with the commentary.
ステップ5: Step 5:
サーバは、解説付きの試合映像をストリーミング配信する。入力として、ステップ4で得られた解説と同期された試合映像を受け取る。具体的な動作として、映像データをリアルタイムでエンコードし、YouTube LiveやTwitchなどのストリーミングプラットフォームに送信する。出力として、視聴者に配信されるストリーミング映像が得られる。 The server streams the game footage with commentary. As input, it receives the game footage synchronized with the commentary obtained in step 4. Specifically, it encodes the video data in real time and transmits it to a streaming platform such as YouTube Live or Twitch. As output, it obtains the streaming video that is distributed to the viewers.
ステップ6: Step 6:
端末は、ユーザが視聴するためのインターフェースを提供する。入力として、ユーザの操作を受け取る。具体的な動作として、専用アプリケーションやウェブブラウザを通じて、視聴インターフェースを表示する。インターフェースには、試合一覧や検索機能が含まれる。出力として、ユーザが視聴したい試合を選択するための情報が得られる。 The terminal provides an interface for users to watch. It receives user operations as input. Its specific operation is to display the viewing interface through a dedicated application or web browser. The interface includes a list of matches and a search function. As output, it provides information that allows the user to select the match they wish to watch.
ステップ7: Step 7:
端末は、サーバからストリーミング配信される解説付き試合映像を受信する。入力として、サーバからのストリーミングデータを受け取る。具体的な動作として、インターネット接続を通じて映像データをリアルタイムで受信し、バッファリングを行う。出力として、受信された映像データが得られる。 The terminal receives game footage with commentary that is streamed from the server. As input, it receives streaming data from the server. Specifically, it receives video data in real time via an Internet connection and buffers it. As output, it obtains the received video data.
ステップ8: Step 8:
端末は、受信した映像をユーザに表示する。入力として、ステップ7で受信された映像データを受け取る。具体的な動作として、映像データをデコードし、ユーザのデバイス画面に表示する。出力として、ユーザが視聴する映像が得られる。 The terminal displays the received video to the user. As input, it receives the video data received in step 7. Specifically, it decodes the video data and displays it on the user's device screen. As output, it obtains the video that the user watches.
ステップ9: Step 9:
ユーザは、端末を使用してシステムにアクセスする。入力として、専用のアプリケーションやウェブブラウザを使用する。具体的な動作として、スマートフォンやPCで専用アプリを起動するか、ウェブブラウザでシステムのURLにアクセスする。出力として、システムへのアクセスが得られる。 The user accesses the system using a terminal. A dedicated application or a web browser is used as input. Specifically, the user launches a dedicated application on a smartphone or PC, or accesses the system's URL in a web browser. Access to the system is obtained as output.
ステップ10: Step 10:
ユーザは、視聴したい試合を選択する。入力として、視聴インターフェース上の試合一覧や検索機能を使用する。具体的な動作として、試合一覧をスクロールし、視聴したい試合をクリックする。検索機能を使用して特定の試合を検索することもできる。出力として、選択された試合が得られる。 The user selects the match they want to watch. As input, they use the match list and search functionality on the viewing interface. They scroll through the match list and click on the match they want to watch. They can also use the search functionality to search for a specific match. As output, they get the selected match.
ステップ11: Step 11:
ユーザは、選択した試合の解説付き映像を視聴する。入力として、ステップ10で選択された試合を受け取る。具体的な動作として、再生ボタンをクリックして映像を視聴開始し、必要に応じて、一時停止ボタンや巻き戻しボタンを使用して映像を操作する。出力として、視聴される試合映像が得られる。
The user watches the commentary-enhanced video of the selected match. As input, the match selected in
(応用例2) (Application example 2)
次に、形態例2の応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, application example 2 of embodiment example 2 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、試合の実況中継や解説が人手に依存しており、全国各地で行われるユースやミニバスの試合を広く視聴者に提供することが困難であった。また、試合のハイライトやリプレイ機能、試合後の統計データや分析レポートの提供が不足しており、視聴者の満足度を高めることができなかった。さらに、ユーザーが好きなチームや選手をフォローする機能がなく、個別のニーズに応えることができなかった。 In conventional basketball game commentary systems, live broadcasts and commentary of games were dependent on human labor, making it difficult to provide youth and mini-basketball games held all over the country to a wide audience. In addition, there was a lack of game highlights and replay functions, and post-game statistical data and analysis reports, making it difficult to increase viewer satisfaction. Furthermore, there was no function for users to follow their favorite teams or players, making it difficult to meet individual needs.
応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像や音声データを収集し、AIが解析して解説を生成する手段と、スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段と、試合のハイライトやリプレイ機能を提供する手段と、ユーザーが好きなチームや選手をフォローできる機能を提供する手段と、試合後の統計データや分析レポートを提供する手段を含む。これにより、全国各地で行われるユースやミニバスの試合を広く視聴者に提供し、視聴者の満足度を高めることが可能となる。
The specific processing by the
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合中に人工知能を用いてリアルタイムで解説を生成し、視聴者に提供する技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to generate commentary in real time during a basketball game and provide it to viewers.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能による解説付きでリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to technology that broadcasts youth and mini-basketball games held around the country in real time with commentary by artificial intelligence.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを人工知能が自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合の映像や音声データを収集し、AIが解析して解説を生成する手段」とは、試合中の映像や音声データを収集し、それを人工知能が解析して解説を生成する技術である。 "Method of collecting video and audio data from the match and analyzing it with AI to generate commentary" refers to technology that collects video and audio data from the match and uses artificial intelligence to analyze it and generate commentary.
「スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段」とは、スマートフォン用のアプリケーションを用いて、リアルタイムで試合を配信し、人工知能による解説を提供する技術である。 "Means of broadcasting matches in real time and providing commentary by AI through an application installed on a smartphone" refers to a technology that uses a smartphone application to broadcast matches in real time and provide commentary by artificial intelligence.
「試合のハイライトやリプレイ機能を提供する手段」とは、試合中の重要なシーンやプレイをハイライトとしてまとめたり、リプレイとして再生する機能を提供する技術である。 "Means for providing match highlight and replay features" refers to technology that provides the functionality to compile important scenes and plays during a match as highlights or play them back as replays.
「ユーザーが好きなチームや選手をフォローできる機能を提供する手段」とは、ユーザーが自分の好きなチームや選手を選んでフォローし、その情報を優先的に受け取ることができる機能を提供する技術である。 "Means for providing a function that enables users to follow their favorite teams and players" refers to technology that provides a function that enables users to select and follow their favorite teams and players and receive information about them on a priority basis.
「試合後の統計データや分析レポートを提供する手段」とは、試合終了後に試合の統計データや分析レポートを生成し、ユーザーに提供する技術である。 "Means for providing post-match statistical data and analytical reports" refers to technology that generates match statistical data and analytical reports after the match ends and provides them to users.
この発明を実施するための形態として、以下のシステム構成を説明する。 The following system configuration is described as a form for implementing this invention.
システム構成 System configuration
システムは、サーバ、スマートフォン、及びAIモデルを含む。サーバは、試合の映像や音声データを収集し、AIモデルを用いて解析を行い、解説を生成する。スマートフォンは、ユーザーが試合をリアルタイムで視聴し、AIによる解説を受け取るためのアプリケーションを提供する。 The system includes a server, a smartphone, and an AI model. The server collects video and audio data from the match, analyzes it using the AI model, and generates commentary. The smartphone provides an application that enables users to watch the match in real time and receive commentary by the AI.
使用するハードウェア及びソフトウェア Hardware and software used
サーバ: 高性能なデータ処理能力を持つサーバ(例:AWS EC2インスタンス) Server: A server with high-performance data processing capabilities (e.g. AWS EC2 instance)
スマートフォン: iOSまたはAndroidデバイス Smartphone: iOS or Android device
AIモデル: OpenAIのGPT-4 AI model: OpenAI's GPT-4
データ処理ライブラリ: OpenCV(映像処理用)、Python(プログラム言語) Data processing library: OpenCV (for image processing), Python (programming language)
データ加工及びデータ演算 Data processing and data calculations
1. 試合の映像や音声データの収集: 1. Collecting video and audio data from the match:
サーバは、全国各地で行われるユースやミニバスの試合の映像や音声データをリアルタイムで収集する。これには、カメラやマイクなどの入力デバイスが使用される。 The server collects video and audio data in real time from youth and mini-basketball matches held across the country. This is done using input devices such as cameras and microphones.
2. AIによる解析と解説生成: 2. AI-based analysis and explanation generation:
サーバは、収集した映像や音声データをOpenCVを用いて解析し、試合の重要なシーンやプレイを抽出する。抽出された情報を基に、OpenAIのGPT-4を使用して解説を生成する。具体的には、以下のプロンプト文を用いる。 The server uses OpenCV to analyze the collected video and audio data and extracts important scenes and plays from the match. Based on the extracted information, it uses OpenAI's GPT-4 to generate commentary. Specifically, it uses the following prompt sentence:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
3. リアルタイム配信と解説提供: 3. Real-time broadcasting and commentary:
サーバは、生成された解説とともに試合の映像をスマートフォンにリアルタイムで配信する。スマートフォンにインストールされたアプリケーションは、ユーザーが試合を視聴しながらAIによる解説を受け取ることを可能にする。 The server delivers the game footage along with the generated commentary to smartphones in real time. An application installed on the smartphone allows users to receive the AI commentary while watching the game.
4. ハイライトやリプレイ機能の提供: 4. Providing highlight and replay features:
サーバは、試合中の重要なシーンをハイライトとしてまとめ、リプレイ機能を提供する。これにより、ユーザーは試合の重要な瞬間を再度視聴することができる。 The server compiles highlights of key scenes during the match and provides a replay function, allowing users to rewatch key moments of the match.
5. ユーザーのフォロー機能: 5. User following feature:
スマートフォンのアプリケーションは、ユーザーが好きなチームや選手をフォローする機能を提供する。これにより、ユーザーはフォローしたチームや選手の情報を優先的に受け取ることができる。 The smartphone application provides users with the ability to follow their favorite teams and players. This allows users to receive information about the teams and players they follow preferentially.
6. 試合後の統計データや分析レポートの提供: 6. Providing post-match statistics and analysis reports:
サーバは、試合終了後に統計データや分析レポートを生成し、スマートフォンのアプリケーションを通じてユーザーに提供する。これにより、ユーザーは試合の詳細な分析情報を得ることができる。 After the match ends, the server generates statistical data and analysis reports and provides them to users via a smartphone application, allowing users to obtain detailed analysis information about the match.
具体例 Specific examples
例えば、ユーザーがスマートフォンのアプリケーションを通じてユースバスケットボールの試合を視聴している場合、サーバはリアルタイムで試合の映像とAIによる解説を配信する。試合中に選手Aがゴールを決めた瞬間、サーバはそのシーンを解析し、以下のプロンプト文を生成する。 For example, when a user is watching a youth basketball game through a smartphone application, the server delivers real-time game footage and AI commentary. The moment Player A scores a goal during the game, the server analyzes the scene and generates the following prompt:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
このプロンプト文を基に、AIモデルが解説を生成し、ユーザーに提供する。ユーザーは試合を視聴しながら、AIによる解説をリアルタイムで楽しむことができる。また、試合後には統計データや分析レポートを通じて、試合の詳細な情報を得ることができる。 Based on this prompt, the AI model will generate commentary and provide it to the user. Users can enjoy the AI commentary in real time while watching the match. In addition, after the match, users can obtain detailed information about the match through statistical data and analysis reports.
応用例2における特定処理の流れについて図14を用いて説明する。 The flow of the specific processing in application example 2 is explained using Figure 14.
ステップ1: Step 1:
サーバは、全国各地で行われるユースやミニバスの試合の映像や音声データを収集する。入力として、カメラやマイクなどの入力デバイスからのリアルタイムデータを受け取り、出力として、これらのデータをストレージに保存する。具体的な動作として、サーバは各試合会場から送信される映像と音声データを受信し、適切なフォーマットに変換して保存する。 The server collects video and audio data from youth and mini-basketball matches held around the country. As input, it receives real-time data from input devices such as cameras and microphones, and as output, it stores this data in storage. In concrete terms, the server receives video and audio data sent from each match venue, converts it into an appropriate format, and stores it.
ステップ2: Step 2:
サーバは、収集した映像や音声データを解析する。入力として、ステップ1で保存された映像と音声データを使用し、出力として、試合の重要なシーンやプレイの情報を抽出する。具体的な動作として、サーバはOpenCVを用いて映像データをフレームごとに解析し、選手の動きやボールの位置を特定する。また、音声データからは得点やファウルなどのイベントを抽出する。 The server analyzes the collected video and audio data. It uses the video and audio data saved in step 1 as input, and extracts information about important scenes and plays in the match as output. Specifically, the server uses OpenCV to analyze the video data frame by frame and identify the movements of players and the position of the ball. It also extracts events such as goals and fouls from the audio data.
ステップ3: Step 3:
サーバは、解析結果を基にプロンプト文を生成する。入力として、ステップ2で抽出された試合の重要なシーンやプレイの情報を使用し、出力として、AIモデルに渡すためのプロンプト文を生成する。具体的な動作として、サーバは選手の動きや得点状況などの情報をテキスト形式に変換し、以下のようなプロンプト文を生成する。 The server generates a prompt sentence based on the analysis results. As input, it uses information about important scenes and plays in the match extracted in step 2, and as output, it generates a prompt sentence to pass to the AI model. Specifically, the server converts information such as player movements and scoring status into text format and generates a prompt sentence like the following:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
ステップ4: Step 4:
サーバは、生成したプロンプト文をAIモデルに送信し、解説を生成する。入力として、ステップ3で生成されたプロンプト文を使用し、出力として、AIモデルから生成された解説テキストを受け取る。具体的な動作として、サーバはOpenAIのGPT-4 APIを呼び出し、プロンプト文を送信して解説を生成する。 The server sends the generated prompt text to the AI model and generates an explanation. It uses the prompt text generated in step 3 as input and receives the explanation text generated from the AI model as output. In concrete terms, the server calls OpenAI's GPT-4 API, sends the prompt text, and generates an explanation.
ステップ5: Step 5:
サーバは、生成された解説と試合の映像をスマートフォンにリアルタイムで配信する。入力として、ステップ4で生成された解説テキストとステップ1で収集された映像データを使用し、出力として、ユーザーのスマートフォンに配信するデータを生成する。具体的な動作として、サーバは映像データに解説テキストをオーバーレイし、ストリーミング形式でスマートフォンに送信する。 The server delivers the generated commentary and game footage to smartphones in real time. It uses the commentary text generated in step 4 and the video data collected in step 1 as input, and generates data to be delivered to the user's smartphone as output. In concrete terms, the server overlays the commentary text on the video data and transmits it to the smartphone in streaming format.
ステップ6: Step 6:
ユーザーは、スマートフォンのアプリケーションを通じて試合を視聴し、AIによる解説を受け取る。入力として、サーバから配信された映像と解説データを使用し、出力として、ユーザーに試合の映像と解説を表示する。具体的な動作として、スマートフォンのアプリケーションは、受信したデータをデコードし、画面上に表示する。 Users watch the game through a smartphone application and receive commentary by AI. As input, it uses video and commentary data distributed from the server, and as output, it displays the game video and commentary to the user. In concrete terms, the smartphone application decodes the received data and displays it on the screen.
ステップ7: Step 7:
サーバは、試合中の重要なシーンをハイライトとしてまとめ、リプレイ機能を提供する。入力として、ステップ2で抽出された重要なシーンの情報を使用し、出力として、ハイライト映像を生成する。具体的な動作として、サーバは重要なシーンを編集し、ユーザーがリプレイできる形式で保存する。 The server summarizes important scenes during the match as highlights and provides a replay function. It uses the information of important scenes extracted in step 2 as input and generates highlight videos as output. In concrete terms, the server edits the important scenes and saves them in a format that users can replay.
ステップ8: Step 8:
ユーザーは、スマートフォンのアプリケーションを通じて好きなチームや選手をフォローする。入力として、ユーザーの選択情報を使用し、出力として、フォローしたチームや選手の情報を優先的に表示する。具体的な動作として、アプリケーションはユーザーの選択を記録し、関連する情報を優先的に取得して表示する。 Users follow their favorite teams and players through a smartphone application. The application uses the user's selection information as input, and prioritizes displaying information about the followed teams and players as output. In concrete terms, the application records the user's selection, and prioritizes retrieving and displaying related information.
ステップ9: Step 9:
サーバは、試合終了後に統計データや分析レポートを生成し、ユーザーに提供する。入力として、試合中に収集されたデータを使用し、出力として、統計データや分析レポートを生成する。具体的な動作として、サーバは試合のデータを集計し、視覚的に分かりやすい形式でレポートを作成し、スマートフォンのアプリケーションを通じてユーザーに提供する。 After the match ends, the server generates statistical data and analysis reports and provides them to the user. It uses data collected during the match as input and generates statistical data and analysis reports as output. In concrete terms, the server aggregates the match data, creates a report in a visually easy-to-understand format, and provides it to the user through a smartphone application.
(実施例3) (Example 3)
次に、形態例3の実施例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, a third embodiment of the third embodiment will be described. In the following description, the
従来のバスケットボールの試合において、得点状況やファウル状況をリアルタイムで把握するためには、人手によるランニングスコアの作成が必要であり、これには時間と労力がかかるという問題があった。また、全国のチームや選手のデータを効果的に収集・解析し、選手の育成に活用するためのシステムが不足していた。これにより、選手のパフォーマンスの見える化や育成のためのフィードバックが十分に行われていなかった。 In traditional basketball games, in order to grasp the score and foul situation in real time, it was necessary to manually create a running score, which was time-consuming and labor-intensive. In addition, there was a lack of a system to effectively collect and analyze data on teams and players across the country and use it for player development. This meant that there was insufficient visualization of player performance and feedback for development.
実施例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データを受信する手段と、受信した映像データを解析する手段と、受信した音声データを解析する手段と、解析結果から得点状況やファウル状況を抽出する手段と、抽出した情報を基にランニングスコアを生成する手段と、生成されたランニングスコアをリアルタイムで更新し、端末に送信する手段と、端末に送信されたランニングスコアを表示する手段と、全国のチームや選手の試合結果やスタッツなどの情報を収集する手段と、収集した情報をデータベース化する手段と、データベース化された情報を解析し、選手のパフォーマンスを評価する手段と、解析結果を基に選手の育成のためのフィードバックを生成する手段と、生成されたフィードバックを端末に送信する手段と、端末に送信されたフィードバックを表示する手段と、を含む。これにより、試合の進行状況をリアルタイムで把握することが可能となり、選手のパフォーマンスの見える化や育成のためのフィードバックを効果的に行うことが可能となる。 In this invention, the server includes a means for receiving video data and audio data of a match, a means for analyzing the received video data, a means for analyzing the received audio data, a means for extracting the score situation and the foul situation from the analysis result, a means for generating a running score based on the extracted information, a means for updating the generated running score in real time and transmitting it to the terminal, a means for displaying the running score transmitted to the terminal, a means for collecting information such as the match results and stats of teams and players nationwide, a means for database-izing the collected information, a means for analyzing the databased information and evaluating the performance of players, a means for generating feedback for player development based on the analysis result, a means for transmitting the generated feedback to the terminal, and a means for displaying the feedback transmitted to the terminal. This makes it possible to grasp the progress of the match in real time, and effectively visualize the performance of players and provide feedback for development.
「試合の映像データ」とは、バスケットボールの試合の様子をカメラで撮影した動画ファイルである。 "Game video data" refers to video files captured by a camera showing a basketball game.
「音声データ」とは、バスケットボールの試合中の音声をマイクで録音した音声ファイルである。 "Audio data" refers to audio files recorded by a microphone during a basketball game.
「受信する手段」とは、サーバが外部からデータを取得するための機能である。 "Means of receiving" refers to the function that allows the server to obtain data from outside.
「解析する手段」とは、受信したデータを処理し、必要な情報を抽出するための機能である。 "Means of analysis" refers to the function for processing received data and extracting necessary information.
「得点状況」とは、試合中にどのチームが何点を得たかを示す情報である。 "Scoring status" is information that shows how many points each team has scored during a match.
「ファウル状況」とは、試合中にどの選手がどのようなファウルを犯したかを示す情報である。 "Foul situation" is information that shows which players committed what type of fouls during the game.
「ランニングスコア」とは、試合の進行に伴ってリアルタイムで更新される得点やファウルの記録である。 The "running score" is a record of points and fouls that is updated in real time as the game progresses.
「リアルタイムで更新する手段」とは、試合の進行に合わせてデータを即時に反映させる機能である。 "Means of updating in real time" refers to a function that instantly reflects data as the match progresses.
「端末」とは、ユーザが情報を確認するために使用するデバイスである。 "Terminal" refers to the device that a user uses to view information.
「表示する手段」とは、端末に情報を視覚的に提示するための機能である。 "Means of display" refers to the functionality for visually presenting information on a terminal.
「試合結果」とは、試合終了後の最終的な得点や勝敗を示す情報である。 "Match results" refers to information showing the final score and outcome after the match has ended.
「スタッツ」とは、選手やチームのパフォーマンスを数値化した統計データである。 "Stats" are statistical data that quantify the performance of players and teams.
「収集する手段」とは、必要なデータを集めるための機能である。 "Means of collection" refers to the function for collecting the necessary data.
「データベース化する手段」とは、収集したデータを整理し、保存するための機能である。 "Means of database creation" refers to the function of organizing and storing collected data.
「解析する手段」とは、データベース化された情報を処理し、意味のある結果を導き出すための機能である。 "Means of analysis" refers to the function of processing databased information and deriving meaningful results.
「フィードバック」とは、解析結果に基づいて提供されるアドバイスや評価である。 "Feedback" refers to advice or evaluation provided based on the analysis results.
「見える化」とは、データを視覚的に表示し、理解しやすくすることを指す。 "Visualization" refers to displaying data visually to make it easier to understand.
「育成」とは、選手の能力を向上させるためのトレーニングや指導を指す。 "Development" refers to training and guidance to improve players' abilities.
この発明は、バスケットボールの試合における得点状況やファウル状況をリアルタイムで把握し、選手のパフォーマンスを評価・育成するためのシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system for grasping the score and foul situation in a basketball game in real time and evaluating and developing the performance of players. A specific embodiment of this system is described below.
システムの構成 System configuration
ハードウェア Hardware
サーバ: 高性能な計算能力を持つコンピュータであり、データの受信、解析、生成、送信を行う。 Server: A computer with high-performance computing power that receives, analyzes, generates, and transmits data.
端末: ユーザが情報を確認するためのデバイスであり、スマートフォン、タブレット、パソコンなどが含まれる。 Device: The device on which the user checks information, including smartphones, tablets, and computers.
カメラ: 試合の映像データを取得するための装置。 Camera: A device used to capture video data of a match.
マイク: 試合の音声データを取得するための装置。 Microphone: A device used to capture audio data from a match.
ソフトウェア Software
映像解析ソフトウェア: OpenCVなどのライブラリを使用して、映像データを解析する。 Video analysis software: Analyzes video data using libraries such as OpenCV.
音声解析ソフトウェア: LibROSAなどのライブラリを使用して、音声データを解析する。 Speech analysis software: Use libraries such as LibROSA to analyze speech data.
データベース管理システム: MySQLなどを使用して、収集したデータをデータベース化する。 Database management system: Collected data is stored in a database using a system such as MySQL.
データ解析ツール: PandasやNumPyなどを使用して、データを解析する。 Data analysis tools: Analyze data using tools such as Pandas and NumPy.
生成AIモデル: GPT-4などを使用して、ランニングスコアやフィードバックを生成する。 Generative AI models: Use models such as GPT-4 to generate running scores and feedback.
システムの動作 System operation
データ受信と解析 Data reception and analysis
サーバは、試合の映像データと音声データをカメラとマイクからリアルタイムで受信する。受信した映像データは映像解析ソフトウェアを使用して解析され、得点やファウルのシーンを検出する。音声データは音声解析ソフトウェアを使用して解析され、実況や観客の反応を解析する。 The server receives video and audio data of the game in real time from the cameras and microphones. The received video data is analyzed using video analysis software to detect goals and fouls. The audio data is analyzed using audio analysis software to analyze the commentary and crowd reactions.
情報抽出とランニングスコア生成 Information extraction and running score generation
サーバは、解析結果から得点状況やファウル状況を抽出する。抽出した情報を基に、生成AIモデルを使用してランニングスコアを生成する。生成されたランニングスコアはリアルタイムで更新され、端末に送信される。 The server extracts the scoring and foul situations from the analysis results. Based on the extracted information, a generative AI model is used to generate a running score. The generated running score is updated in real time and sent to the terminal.
データ表示 Display data
端末は、受信したランニングスコアを表示する。これにより、ユーザは試合の進行状況をリアルタイムで把握することができる。 The device displays the received running score, allowing the user to follow the progress of the match in real time.
データ収集とデータベース化 Data collection and database creation
サーバは、全国のチームや選手の試合結果やスタッツなどの情報を収集する。収集した情報はデータベース管理システムを使用してデータベース化される。 The server collects information such as match results and stats for teams and players across the country. The collected information is stored in a database using a database management system.
データ解析とフィードバック生成 Data analysis and feedback generation
サーバは、データベース化された情報を解析し、選手のパフォーマンスを評価する。解析結果を基に、生成AIモデルを使用して選手の育成のためのフィードバックを生成する。生成されたフィードバックは端末に送信され、端末はこれを表示する。これにより、ユーザは選手のパフォーマンスの分析結果や育成のためのアドバイスを確認することができる。 The server analyzes the databased information and evaluates the player's performance. Based on the analysis results, a generative AI model is used to generate feedback for the player's development. The generated feedback is sent to the terminal, which displays it. This allows the user to check the analysis results of the player's performance and advice for development.
具体例 Specific examples
ユーザがバスケットボールの試合を観戦しているとき、サーバは試合の映像と音声を解析し、得点やファウルの情報を自動的に抽出する。 When a user is watching a basketball game, the server analyzes the video and audio of the game and automatically extracts information about scores and fouls.
サーバは「チームAが得点しました」「チームBがファウルしました」といった情報をリアルタイムで生成し、端末に送信する。 The server generates information in real time, such as "Team A has scored" or "Team B has committed a foul," and sends it to the terminal.
端末はこれらの情報を表示し、ユーザは試合の進行状況をリアルタイムで確認できる。 The device displays this information, allowing users to check the progress of the match in real time.
プロンプト文の例 Example of a prompt
「バスケットボールの試合映像と音声データを解析し、得点状況とファウル状況を抽出してランニングスコアを生成してください。」 "Analyze video and audio data from basketball games, extract the scoring and foul situations, and generate a running score."
「全国のバスケットボールチームや選手の試合結果とスタッツを解析し、選手のパフォーマンスを評価して育成のためのフィードバックを生成してください。」実施例3における特定処理の流れについて図15を用いて説明する。 "Analyze the game results and stats of basketball teams and players nationwide, evaluate the performance of players, and generate feedback for training." The flow of the specific process in Example 3 is explained with reference to FIG. 15.
ステップ1: Step 1:
サーバは試合の映像データと音声データを受信する。 The server receives video and audio data from the match.
入力:カメラとマイクからのリアルタイムデータ Input: Real-time data from camera and microphone
具体的な動作:カメラとマイクから送信される映像と音声をネットワークを通じて受信する。 Specific operation: Receives video and audio transmitted from the camera and microphone via the network.
出力:受信した映像データと音声データ Output: Received video and audio data
ステップ2: Step 2:
サーバは受信した映像データを解析する。 The server analyzes the received video data.
入力:受信した映像データ Input: Received video data
具体的な動作:映像解析ソフトウェア(例: OpenCV)を使用して、映像データから得点やファウルのシーンを検出する。 Specific operation: Use video analysis software (e.g. OpenCV) to detect scoring and foul scenes from video data.
出力:得点シーンとファウルシーンのタイムスタンプ付きデータ Output: Data with timestamps for goals and fouls
ステップ3: Step 3:
サーバは受信した音声データを解析する。 The server analyzes the received audio data.
入力:受信した音声データ Input: Received audio data
具体的な動作:音声解析ソフトウェア(例: LibROSA)を使用して、音声データから実況や観客の反応を解析する。 Specific actions: Use audio analysis software (e.g. LibROSA) to analyze commentary and audience reactions from audio data.
出力:実況や観客の反応のタイムスタンプ付きデータ Output: Timestamped data of commentary and audience reactions
ステップ4: Step 4:
サーバは解析結果から得点状況やファウル状況を抽出する。 The server extracts the scoring and foul situations from the analysis results.
入力:得点シーンとファウルシーンのタイムスタンプ付きデータ、および実況や観客の反応のタイムスタンプ付きデータ Input: Timestamped data on goals and fouls, as well as timestamped data on commentary and crowd reactions
具体的な動作:映像解析と音声解析の結果を統合し、得点やファウルの発生状況を抽出する。 Specific operation: Integrate the results of video and audio analysis to extract the occurrence of goals and fouls.
出力:得点状況とファウル状況のデータ Output: Scoring and foul situation data
ステップ5: Step 5:
サーバは抽出した情報を基にランニングスコアを生成する。 The server generates a running score based on the extracted information.
入力:得点状況とファウル状況のデータ Input: Scoring and foul situation data
具体的な動作:生成AIモデル(例: GPT-4)を使用して、得点やファウルの情報をテキスト形式で生成する。 Specific behavior: Uses a generative AI model (e.g. GPT-4) to generate points and foul information in text format.
出力:ランニングスコアのテキストデータ Output: Text data of running score
ステップ6: Step 6:
サーバは生成されたランニングスコアをリアルタイムで更新し、端末に送信する。 The server updates the generated running score in real time and sends it to the device.
入力:ランニングスコアのテキストデータ Input: Text data of running score
具体的な動作:WebSocketやHTTPプロトコルを使用して、ランニングスコアを端末に送信する。 Specific operation: Sends the running score to the device using WebSocket or HTTP protocol.
出力:端末に送信されたランニングスコア Output: Running score sent to the device
ステップ7: Step 7:
端末は受信したランニングスコアを表示する。 The device will display the received running score.
入力:端末に送信されたランニングスコア Input: Running score sent to the device
具体的な動作:端末のディスプレイにランニングスコアを視覚的に表示する。 Specific operation: Visually display the running score on the device display.
出力:ユーザが視覚的に確認できるランニングスコア Output: A running score that the user can visually check
ステップ8: Step 8:
サーバは全国のチームや選手の試合結果やスタッツなどの情報を収集する。 The server collects information such as match results and stats for teams and players across the country.
入力:各チームの公式サイトやスポーツデータ提供サービスからのデータ Input: Data from each team's official website and sports data services
具体的な動作:WebスクレイピングやAPIを使用して、試合結果やスタッツを収集する。 Specific actions: Collect match results and stats using web scraping and APIs.
出力:収集された試合結果とスタッツのデータ Output: Collected match results and stats data
ステップ9: Step 9:
サーバは収集した情報をデータベース化する。 The server stores the collected information in a database.
入力:収集された試合結果とスタッツのデータ Input: Collected match results and stats data
具体的な動作:データベース管理システム(例: MySQL)を使用して、データをテーブルに格納する。 Specific action: Store data in a table using a database management system (e.g. MySQL).
出力:データベースに格納された試合結果とスタッツのデータ Output: Match results and stats data stored in a database
ステップ10: Step 10:
サーバはデータベース化された情報を解析し、選手のパフォーマンスを評価する。 The server analyzes the databased information and evaluates the players' performance.
入力:データベースに格納された試合結果とスタッツのデータ Input: Match results and stats data stored in the database
具体的な動作:データ解析ツール(例: Pandas, NumPy)を使用して、選手のシュート成功率やディフェンスの強さなどを計算する。 Specific operations: Use data analysis tools (e.g. Pandas, NumPy) to calculate players' shooting success rates, defensive strength, etc.
出力:選手のパフォーマンス評価データ Output: Player performance evaluation data
ステップ11: Step 11:
サーバは解析結果を基に選手の育成のためのフィードバックを生成する。 The server generates feedback for player development based on the analysis results.
入力:選手のパフォーマンス評価データ Input: Player performance evaluation data
具体的な動作:生成AIモデル(例: GPT-4)を使用して、選手の育成のためのフィードバックをテキスト形式で生成する。 Specific actions: Use a generative AI model (e.g. GPT-4) to generate textual feedback for player development.
出力:育成のためのフィードバックのテキストデータ Output: Text data of feedback for training
ステップ12: Step 12:
サーバは生成されたフィードバックを端末に送信する。 The server sends the generated feedback to the device.
入力:育成のためのフィードバックのテキストデータ Input: Text data for feedback for training
具体的な動作:WebSocketやHTTPプロトコルを使用して、フィードバックを端末に送信する。 Specific behavior: Sends feedback to the device using WebSocket or HTTP protocol.
出力:端末に送信されたフィードバック Output: Feedback sent to the device
ステップ13: Step 13:
端末は受信したフィードバックを表示する。 The device will display the feedback it receives.
入力:端末に送信されたフィードバック Input: Feedback sent to device
具体的な動作:端末のディスプレイにフィードバックを視覚的に表示する。 Specific action: Visually display feedback on the device display.
出力:ユーザが視覚的に確認できるフィードバック Output: Visual feedback for the user
(応用例3) (Application example 3)
次に、形態例3の応用例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, application example 3 of embodiment example 3 will be described. In the following description, the
従来のバスケットボールの試合の実況中継や解説は、人間の解説者に依存しており、リアルタイムでの正確な情報提供が難しい場合がある。また、全国のユースやミニバスの試合解説も同様に人手に依存しており、効率的な情報提供が困難である。さらに、工場内の生産ラインの監視においても、異常発生の検出や生産効率の向上が課題となっている。これらの課題を解決するためには、AIを活用した自動化システムが必要である。 Traditional live broadcasts and commentary of basketball games rely on human commentators, which can make it difficult to provide accurate information in real time. Commentary on youth and mini-basketball games across the country also relies on human input, making it difficult to provide information efficiently. Furthermore, when monitoring production lines in factories, detecting abnormalities and improving production efficiency are issues. To solve these issues, an automated system that utilizes AI is needed.
応用例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段と、過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段と、を含む。これにより、試合の進行状況や生産ラインの状況をリアルタイムで正確に把握し、効率的な情報提供と生産効率の向上が可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games from around the country with AI live coverage, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for analyzing camera footage and audio data within the factory to detect production status and abnormal occurrences in real time and provide scores, and a means for storing past production data in a database and providing feedback for efficiency. This allows for accurate understanding of the progress of the game and the status of the production line in real time, making it possible to provide efficient information and improve production efficiency.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合において、人工知能を用いてリアルタイムで試合の進行状況やプレイの解説を自動的に行う技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to automatically provide commentary on the progress of a basketball game and plays in real time.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合において、人工知能を用いて試合の解説を行い、その解説をリアルタイムで配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games nationwide with live coverage by AI" refers to a technology that uses artificial intelligence to provide commentary on youth and mini-basketball games nationwide and broadcasts that commentary in real time.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合の進行中に得点やファウルなどのスコアを人工知能が自動的に解析し、リアルタイムでスコアを生成する技術である。 "A means of using AI to automatically generate running scores that are created manually by officials and for each team" refers to technology in which artificial intelligence automatically analyzes points, fouls, and other scores as the game progresses, and generates scores in real time.
「工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段」とは、工場内に設置されたカメラやマイクから得られる映像や音声データを人工知能が解析し、生産ラインの状況や異常をリアルタイムで検出し、その結果をスコアとして表示する技術である。 "A means of analyzing camera footage and audio data within a factory to detect and score production status and abnormalities in real time" refers to a technology in which artificial intelligence analyzes video and audio data obtained from cameras and microphones installed within the factory, detects the status and abnormalities of the production line in real time, and displays the results as a score.
「過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段」とは、工場内で収集された過去の生産データをデータベースに保存し、そのデータを解析して生産効率を向上させるためのフィードバックを提供する技術である。 "Means of compiling past production data into a database and providing feedback for improving efficiency" refers to a technology that stores past production data collected within a factory in a database, analyzes the data, and provides feedback for improving production efficiency.
この発明を実施するための形態として、以下のシステム構成を説明する。 The following system configuration is described as a form for implementing this invention.
システム構成 System configuration
ハードウェア Hardware
カメラ: 工場内に設置されるカメラで、映像データを取得する。 Camera: Cameras installed in the factory capture video data.
マイク: 工場内に設置されるマイクで、音声データを取得する。 Microphones: Microphones installed in the factory capture audio data.
サーバ: データの解析と保存を行うためのサーバ。 Server: A server for analyzing and storing data.
端末: 管理者が結果を確認するための端末(PCやスマートフォンなど)。 Device: The device (PC, smartphone, etc.) used by the administrator to check the results.
ソフトウェア Software
OpenCV: カメラ映像の取得と前処理を行うためのライブラリ。 OpenCV: A library for acquiring and preprocessing camera images.
TensorFlow/Keras: AIモデルのロードと予測を行うためのライブラリ。 TensorFlow/Keras: Libraries for loading AI models and making predictions.
SQLite: 生産データの保存を行うためのデータベース管理システム。 SQLite: A database management system for storing production data.
データ加工とデータ演算 Data processing and data calculations
サーバは、工場内のカメラ映像と音声データをリアルタイムで取得し、OpenCVを用いて前処理を行う。前処理されたデータは、TensorFlow/Kerasを用いてAIモデルに入力され、生産状況や異常発生の検出が行われる。検出結果はスコアとして表示され、SQLiteデータベースに保存される。 The server acquires camera footage and audio data from within the factory in real time and performs preprocessing using OpenCV. The preprocessed data is input into an AI model using TensorFlow/Keras to detect production status and abnormalities. The detection results are displayed as a score and stored in a SQLite database.
具体例 Specific examples
例えば、工場内で異常が発生した場合、カメラ映像から異常を検出し、リアルタイムで管理者に通知する。また、過去の生産データを分析し、効率化のためのフィードバックを提供することができる。 For example, if an abnormality occurs in a factory, it will be detected from camera footage and notified to managers in real time. It can also analyze past production data and provide feedback to improve efficiency.
プロンプト文の例 Example of a prompt
生成AIモデルへ入力するプロンプト文の例は以下の通りである: An example of a prompt to input to the generative AI model is as follows:
「工場内のカメラ映像を解析し、生産ラインの異常をリアルタイムで検出するAIモデルを作成してください。異常が検出された場合、管理者に通知する機能も追加してください。また、過去の生産データをデータベースに保存し、効率化のためのフィードバックを提供するシステムを構築してください。」 "Please create an AI model that analyzes camera footage in the factory and detects abnormalities on the production line in real time. Please also add a function to notify the administrator if an abnormality is detected. Also, please create a system that stores past production data in a database and provides feedback to improve efficiency."
このようにして、サーバはリアルタイムで生産ラインの状況を監視し、異常を検出することができる。また、過去のデータを基に効率化のためのフィードバックを提供することが可能である。 In this way, the server can monitor the status of the production line in real time and detect any anomalies. It can also provide feedback for efficiency improvements based on past data.
応用例3における特定処理の流れについて図16を用いて説明する。 The flow of the specific processing in application example 3 is explained using Figure 16.
ステップ1: Step 1:
サーバは、工場内に設置されたカメラとマイクからリアルタイムで映像データと音声データを取得する。入力はカメラとマイクからの生データであり、出力は取得された映像データと音声データである。具体的な動作として、サーバはカメラとマイクに接続し、データストリームを開始する。 The server captures video and audio data in real time from cameras and microphones installed in the factory. The input is the raw data from the cameras and microphones, and the output is the captured video and audio data. In concrete terms, the server connects to the cameras and microphones and starts the data stream.
ステップ2: Step 2:
サーバは、取得した映像データをOpenCVを用いて前処理する。入力はステップ1で取得された映像データであり、出力は前処理された映像データである。具体的な動作として、サーバは映像データを224x224ピクセルにリサイズし、正規化を行う。 The server preprocesses the acquired video data using OpenCV. The input is the video data acquired in step 1, and the output is the preprocessed video data. Specifically, the server resizes the video data to 224x224 pixels and normalizes it.
ステップ3: Step 3:
サーバは、前処理された映像データをTensorFlow/Kerasを用いてAIモデルに入力し、予測を行う。入力はステップ2で前処理された映像データであり、出力は生産状況や異常発生の予測結果である。具体的な動作として、サーバはAIモデルをロードし、前処理されたデータをモデルに入力して予測を実行する。 The server inputs the preprocessed video data into the AI model using TensorFlow/Keras to make predictions. The input is the video data preprocessed in step 2, and the output is the predicted results of production status and abnormality occurrence. In concrete terms, the server loads the AI model, inputs the preprocessed data into the model, and makes predictions.
ステップ4: Step 4:
サーバは、予測結果をスコアとして表示し、SQLiteデータベースに保存する。入力はステップ3で得られた予測結果であり、出力は表示されたスコアとデータベースに保存されたデータである。具体的な動作として、サーバは予測結果をスコアに変換し、画面に表示するとともに、データベースに挿入する。 The server displays the prediction result as a score and saves it in a SQLite database. The input is the prediction result obtained in step 3, and the output is the displayed score and the data saved in the database. In concrete terms, the server converts the prediction result into a score, displays it on the screen, and inserts it into the database.
ステップ5: Step 5:
端末は、サーバから送信されたスコアと異常検出の通知を受け取り、管理者に表示する。入力はサーバから送信されたスコアと通知であり、出力は管理者が確認できる表示情報である。具体的な動作として、端末はサーバからのデータを受信し、ユーザインターフェースに表示する。 The terminal receives the score and anomaly detection notifications sent from the server and displays them to the administrator. The input is the score and notifications sent from the server, and the output is the display information that the administrator can check. In concrete terms, the terminal receives data from the server and displays it on the user interface.
ステップ6: Step 6:
サーバは、過去の生産データを解析し、効率化のためのフィードバックを生成する。入力はデータベースに保存された過去の生産データであり、出力は効率化のためのフィードバック情報である。具体的な動作として、サーバはデータベースから過去のデータを取得し、解析アルゴリズムを適用してフィードバックを生成する。 The server analyzes past production data and generates feedback for efficiency improvements. The input is past production data stored in a database, and the output is feedback information for efficiency improvements. In concrete terms, the server retrieves past data from the database and applies an analysis algorithm to generate feedback.
ステップ7: Step 7:
端末は、サーバから送信されたフィードバック情報を受け取り、管理者に表示する。入力はサーバから送信されたフィードバック情報であり、出力は管理者が確認できる表示情報である。具体的な動作として、端末はサーバからのフィードバック情報を受信し、ユーザインターフェースに表示する。 The terminal receives feedback information sent from the server and displays it to the administrator. The input is the feedback information sent from the server, and the output is the display information that the administrator can check. In concrete terms, the terminal receives feedback information from the server and displays it on the user interface.
なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。
Furthermore, an emotion engine that estimates the user's emotion may be combined. That is, the
「形態例1」 "Example 1"
本発明の一実施形態として、AIがバスケットボールの試合の実況中継の解説を行うシステムにおいて、ユーザの感情を認識する感情エンジンが組み合わされている。具体的には、ユーザが試合の視聴中に示す感情(喜び、悲しみ、驚きなど)を感情エンジンが認識し、その感情に応じて解説の内容やトーンを調整する。例えば、ユーザが試合の展開に喜びを示している場合、解説もその喜びを共有するような内容となる。これにより、ユーザは自身の感情が反映された解説を聞くことができ、より試合視聴の満足度が向上する。 In one embodiment of the present invention, a system in which AI provides commentary on a live broadcast of a basketball game is combined with an emotion engine that recognizes the user's emotions. Specifically, the emotion engine recognizes the emotions (happiness, sadness, surprise, etc.) that the user expresses while watching the game, and adjusts the content and tone of the commentary according to those emotions. For example, if the user expresses joy at how the game is progressing, the commentary will also share that joy. This allows the user to hear commentary that reflects their own emotions, further improving their satisfaction with watching the game.
「形態例2」 "Example 2"
また、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムにおいても、同様に感情エンジンが組み合わされている。具体的には、ユースやミニバスの試合を視聴するユーザの感情を感情エンジンが認識し、その感情に応じて解説の内容やトーンを調整する。例えば、ユーザが子供の活躍に感動している場合、解説もその感動を共有するような内容となる。これにより、ユーザは自身の感情が反映された解説を聞くことができ、より試合視聴の満足度が向上する。 The emotion engine is also incorporated into a system that broadcasts commentary on youth and mini-basketball games from around the country, complete with live coverage by AI. Specifically, the emotion engine recognizes the emotions of users watching youth and mini-basketball games, and adjusts the content and tone of the commentary according to those emotions. For example, if a user is impressed by their child's performance, the commentary will be one that shares that emotion. This allows users to hear commentary that reflects their own emotions, further increasing their satisfaction with watching the games.
「形態例3」 "Example 3"
さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成するシステムにおいても、感情エンジンが組み合わされている。具体的には、試合の得点状況などに対するユーザの感情を感情エンジンが認識し、その感情に応じてスコア表示の方法を調整する。例えば、ユーザが得点に喜びを示している場合、スコア表示もその喜びを強調するような形で表示される。これにより、ユーザは自身の感情が反映されたスコア表示を見ることができ、より試合視聴の満足度が向上する。 Furthermore, emotion engines are also being incorporated into systems that use AI to automatically generate running scores that are manually created by officials and for each team. Specifically, the emotion engine recognizes the user's emotions regarding the score situation of the match, and adjusts the way the score is displayed according to those emotions. For example, if the user is happy about a score, the score display will also be displayed in a way that emphasizes that joy. This allows users to see a score display that reflects their own emotions, further increasing their satisfaction when watching the match.
以下に、各形態例の処理の流れについて説明する。 The process flow for each example is explained below.
「形態例1」 "Example 1"
ステップ1:AIがバスケットボールの試合の実況中継の解説を開始する。 Step 1: The AI begins commentating on a live broadcast of a basketball game.
ステップ2:感情エンジンがユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the user's emotions in real time.
ステップ3:感情エンジンが認識した感情に応じて、AIが解説の内容やトーンを調整する。 Step 3: The AI adjusts the content and tone of the commentary based on the emotion recognized by the emotion engine.
「形態例2」 "Example 2"
ステップ1:AIが全国のユースやミニバスの試合の実況中継の解説を開始する。 Step 1: AI will begin providing live commentary for youth and mini-basketball matches across the country.
ステップ2:感情エンジンが試合を視聴するユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the emotions of users watching the game in real time.
ステップ3:感情エンジンが認識した感情に応じて、AIが解説の内容やトーンを調整する。 Step 3: The AI adjusts the content and tone of the commentary based on the emotion recognized by the emotion engine.
「形態例3」 "Example 3"
ステップ1:AIが試合の得点状況に基づいてランニングスコアを自動生成する。 Step 1: AI automatically generates a running score based on the game's scoring situation.
ステップ2:感情エンジンが試合の得点状況に対するユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the user's emotions in real time regarding the score of the game.
ステップ3:感情エンジンが認識した感情に応じて、AIがスコア表示の方法を調整する。 Step 3: The AI adjusts the way the score is displayed depending on the emotion recognized by the emotion engine.
(実施例1) (Example 1)
次に、形態例1の実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, a first embodiment of the first embodiment will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、試合の状況や選手の動きをリアルタイムで解析し、ユーザの感情に応じた解説を提供することが困難であった。また、全国のユースやミニバスの試合解説を効率的に配信する手段や、オフィシャルやチーム毎に人が作成しているランニングスコアを自動生成する手段が不足していた。さらに、ユーザの視聴体験を向上させるための感情認識技術の活用が不十分であった。 In conventional basketball game commentary systems, it was difficult to analyze the game situation and player movements in real time and provide commentary that corresponded to the user's emotions. In addition, there was a lack of means to efficiently distribute commentary of youth and mini-basketball games across the country, or to automatically generate running scores that are created manually by officials and for each team. Furthermore, there was insufficient use of emotion recognition technology to improve the user's viewing experience.
実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説を人工知能が行う手段と、全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、試合の映像データを解析する手段と、試合の音声データを解析する手段と、ユーザの感情データを受信し解析する手段と、解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段と、調整後の解説を実況中継とともに配信する手段を含む。これにより、試合の状況や選手の動きをリアルタイムで解析し、ユーザの感情に応じた解説を提供することが可能となる。 In this invention, the server includes means for providing commentary on live coverage of basketball games using artificial intelligence, means for delivering commentary on youth and mini-basketball games across the country with live coverage by artificial intelligence, means for automatically generating running scores using artificial intelligence that are created manually for each official and team, means for analyzing game video data, means for analyzing game audio data, means for receiving and analyzing user emotion data, means for automatically generating commentary based on the analysis results and adjusting the content and tone of the commentary according to the user's emotions, and means for delivering the adjusted commentary together with the live coverage. This makes it possible to analyze the situation of the game and the movements of the players in real time and provide commentary according to the user's emotions.
「バスケットボールの試合の実況中継の解説を人工知能が行う手段」とは、バスケットボールの試合の映像や音声データを解析し、その解析結果に基づいて人工知能が自動的に解説を生成し、実況中継とともに配信する技術である。 "Means for artificial intelligence to provide commentary for live broadcasts of basketball games" refers to technology that analyzes video and audio data of basketball games, and automatically generates commentary based on the results of that analysis using artificial intelligence, which is then distributed along with the live broadcast.
「全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合を対象に、人工知能が自動的に解説を生成し、その解説を実況中継とともに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games nationwide with live coverage by artificial intelligence" refers to a technology in which artificial intelligence automatically generates commentary for youth and mini-basketball games nationwide and broadcasts that commentary together with live coverage.
「オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを、人工知能が自動的に生成する技術である。 "Means for automatically generating running scores using artificial intelligence that are created manually for each official or team" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合の映像データを解析する手段」とは、試合の映像データをフレームごとに解析し、選手の位置や動き、ボールの位置などを特定する技術である。 "Means for analyzing game video data" refers to technology that analyzes game video data frame by frame to identify the positions and movements of players, the position of the ball, etc.
「試合の音声データを解析する手段」とは、試合の音声データを解析し、実況の内容や観客の反応を特定する技術である。 "Means for analyzing audio data from a match" refers to technology that analyzes audio data from a match and identifies the content of the commentary and the reactions of the audience.
「ユーザの感情データを受信し解析する手段」とは、ユーザの表情や音声をキャプチャし、そのデータを解析してユーザの感情を特定する技術である。 "Means for receiving and analyzing user emotion data" refers to technology that captures the user's facial expressions and voice, and analyzes that data to identify the user's emotions.
「解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段」とは、映像や音声データの解析結果を基に解説を自動生成し、さらにユーザの感情データを考慮して解説の内容やトーンを調整する技術である。 "Means for automatically generating commentary based on analysis results and adjusting the content and tone of the commentary according to the user's emotions" refers to a technology that automatically generates commentary based on the analysis results of video and audio data, and further adjusts the content and tone of the commentary taking into account the user's emotional data.
「調整後の解説を実況中継とともに配信する手段」とは、調整された解説をリアルタイムで実況中継とともにユーザの端末に配信する技術である。 "Means for delivering adjusted commentary together with live broadcast" refers to technology that delivers adjusted commentary in real time to a user's device together with the live broadcast.
発明を実施するための形態 Form for implementing the invention
この発明は、バスケットボールの試合の実況中継の解説を人工知能が行うシステムであり、試合の映像や音声データを解析し、ユーザの感情に応じた解説を提供するものである。以下に、このシステムの具体的な実施形態を示す。 This invention is a system in which artificial intelligence provides commentary for live coverage of basketball games, analyzing video and audio data from the game and providing commentary that reflects the user's emotions. A specific embodiment of this system is shown below.
使用するハードウェアとソフトウェア Hardware and software used
ハードウェア: 高性能なサーバ、ユーザの端末(PC、スマートフォン、タブレットなど) Hardware: High-performance servers, user devices (PCs, smartphones, tablets, etc.)
ソフトウェア: 映像解析ソフトウェア(例:OpenCV)、音声解析ソフトウェア(例:Google Cloud Speech-to-Text API)、感情エンジン(例:Microsoft Azure Emotion API)、生成AIモデル(例:GPT-4) Software: Video analysis software (e.g. OpenCV), audio analysis software (e.g. Google Cloud Speech-to-Text API), emotion engines (e.g. Microsoft Azure Emotion API), generative AI models (e.g. GPT-4)
システムの構成 System configuration
1. サーバが試合の映像データと音声データをリアルタイムで受信する。試合会場から送信されるストリーミングデータを受け取るために、高速なネットワーク接続を使用する。 1. The server receives the game video and audio data in real time. It uses a high-speed network connection to receive the streaming data sent from the game venue.
2. サーバが映像解析ソフトウェアを用いて、受信した映像データをフレームごとに解析する。具体的には、選手の位置、動き、ボールの位置を特定するために、コンピュータビジョン技術を使用する。例えば、OpenCVを用いる。 2. The server uses video analysis software to analyze the received video data frame by frame. Specifically, computer vision techniques are used to identify the positions of players, their movements, and the position of the ball. For example, OpenCV is used.
3. サーバが音声解析ソフトウェアを用いて、受信した音声データを解析する。具体的には、実況の内容や観客の反応を特定するために、音声認識技術を使用する。例えば、Google Cloud Speech-to-Text APIを用いる。 3. The server uses voice analysis software to analyze the received voice data. Specifically, it uses voice recognition technology to identify the content of the commentary and the reactions of the audience. For example, it uses the Google Cloud Speech-to-Text API.
4. サーバが映像解析と音声解析の結果を基に、生成AIモデルを用いて試合の解説を自動生成する。具体的には、GPT-4などの自然言語生成モデルを使用し、試合の状況や選手の動きを解説する文章を生成する。 4. The server uses a generative AI model to automatically generate commentary on the match based on the results of video and audio analysis. Specifically, it uses a natural language generation model such as GPT-4 to generate sentences that explain the situation of the match and the movements of the players.
5. 端末がユーザの表情や音声をリアルタイムでキャプチャし、感情データとしてサーバに送信する。具体的には、カメラやマイクを使用する。 5. The device captures the user's facial expressions and voice in real time and transmits them as emotion data to the server. Specifically, the device uses a camera and microphone.
6. サーバが感情エンジンを用いて、受信した感情データを解析する。具体的には、ユーザの表情や音声から喜び、悲しみ、驚きなどの感情を特定するために、感情認識技術を使用する。例えば、Microsoft Azure Emotion APIを用いる。 6. The server uses an emotion engine to analyze the received emotion data. Specifically, it uses emotion recognition technology to identify emotions such as happiness, sadness, surprise, etc. from the user's facial expressions and voice. For example, it uses the Microsoft Azure Emotion API.
7. サーバが解析したユーザの感情に応じて、生成した解説の内容やトーンを調整する。具体的には、ユーザが喜びを示している場合、解説のトーンを明るくし、ポジティブな表現を増やす。 7. The server adjusts the content and tone of the generated commentary according to the user's emotions analyzed by the server. Specifically, if the user is happy, the tone of the commentary is brightened and more positive expressions are included.
8. サーバが調整後の解説を実況中継とともにユーザの端末に配信する。具体的には、ストリーミング技術を用いて、リアルタイムで配信する。例えば、WebRTCを用いる。 8. The server delivers the adjusted commentary along with the live broadcast to the user's device. Specifically, it delivers in real time using streaming technology. For example, WebRTC is used.
具体例 Specific examples
例えば、ユーザが試合の視聴中に喜びを示している場合、感情エンジンがその喜びを認識する。サーバはその情報を基に、生成AIモデルが生成した解説のトーンを明るくし、喜びを共有するような内容に調整する。これにより、ユーザは自身の感情が反映された解説を聞くことができ、試合視聴の満足度が向上する。 For example, if a user expresses joy while watching a game, the emotion engine will recognize that joy. Based on that information, the server will lighten the tone of the commentary generated by the generative AI model and adjust it to share the joy. This allows users to hear commentary that reflects their own emotions, improving their satisfaction watching the game.
プロンプト文の例 Example of a prompt
「バスケットボールの試合の実況中継の解説を行うAIシステムを設計してください。試合の映像や音声データを解析し、試合の状況や選手の動きを理解する機能を持ち、ユーザの感情に応じて解説の内容やトーンを調整する感情エンジンを組み合わせてください。」 "Design an AI system to provide commentary for live broadcasts of basketball games. It must analyze video and audio data from the game, understand the game situation and the movements of the players, and incorporate an emotion engine that adjusts the content and tone of the commentary according to the user's emotions."
実施例1における特定処理の流れについて図17を用いて説明する。 The flow of the identification process in Example 1 is explained using Figure 17.
ステップ1: Step 1:
サーバが試合の映像データと音声データをリアルタイムで受信する。入力は試合会場から送信されるストリーミングデータであり、出力はサーバ内に保存された映像データと音声データである。具体的な動作としては、高速なネットワーク接続を使用してデータを受信し、適切なフォーマットで保存する。 The server receives the video and audio data of the match in real time. The input is streaming data sent from the match venue, and the output is the video and audio data stored in the server. Specifically, the server receives the data using a high-speed network connection and stores it in an appropriate format.
ステップ2: Step 2:
サーバが映像解析ソフトウェアを用いて、受信した映像データをフレームごとに解析する。入力は保存された映像データであり、出力は選手の位置、動き、ボールの位置などの解析結果である。具体的な動作としては、OpenCVを使用して各フレームを解析し、選手やボールの位置を特定する。 The server uses video analysis software to analyze the received video data frame by frame. The input is the saved video data, and the output is the analysis results, such as the positions and movements of the players and the position of the ball. In concrete terms, it uses OpenCV to analyze each frame and identify the positions of the players and the ball.
ステップ3: Step 3:
サーバが音声解析ソフトウェアを用いて、受信した音声データを解析する。入力は保存された音声データであり、出力は実況の内容や観客の反応をテキスト化した解析結果である。具体的な動作としては、Google Cloud Speech-to-Text APIを使用して音声データをテキストに変換し、重要な情報を抽出する。 The server uses voice analysis software to analyze the received voice data. The input is the stored voice data, and the output is the analysis results in the form of text that contains the commentary and the reactions of the audience. Specifically, the Google Cloud Speech-to-Text API is used to convert the voice data into text and extract key information.
ステップ4: Step 4:
サーバが映像解析と音声解析の結果を基に、生成AIモデルを用いて試合の解説を自動生成する。入力は映像解析と音声解析の結果であり、出力は生成された解説文である。具体的な動作としては、GPT-4などの自然言語生成モデルを使用して、試合の状況や選手の動きを解説する文章を生成する。 The server uses a generative AI model to automatically generate commentary on the match based on the results of video and audio analysis. The input is the results of video and audio analysis, and the output is the generated commentary. Specifically, it uses a natural language generation model such as GPT-4 to generate sentences that explain the situation of the match and the movements of the players.
ステップ5: Step 5:
端末がユーザの表情や音声をリアルタイムでキャプチャし、感情データとしてサーバに送信する。入力はユーザの表情や音声であり、出力はサーバに送信された感情データである。具体的な動作としては、カメラやマイクを使用してユーザの表情や音声をキャプチャし、リアルタイムでサーバに送信する。 The device captures the user's facial expressions and voice in real time and sends them to the server as emotion data. The input is the user's facial expressions and voice, and the output is the emotion data sent to the server. In concrete terms, the device uses a camera and microphone to capture the user's facial expressions and voice, and sends them to the server in real time.
ステップ6: Step 6:
サーバが感情エンジンを用いて、受信した感情データを解析する。入力は送信された感情データであり、出力はユーザの感情を特定した解析結果である。具体的な動作としては、Microsoft Azure Emotion APIを使用して、ユーザの表情や音声から喜び、悲しみ、驚きなどの感情を特定する。 The server uses an emotion engine to analyze the received emotion data. The input is the emotion data sent, and the output is the analysis results that identify the user's emotion. Specifically, it uses the Microsoft Azure Emotion API to identify emotions such as joy, sadness, and surprise from the user's facial expressions and voice.
ステップ7: Step 7:
サーバが解析したユーザの感情に応じて、生成した解説の内容やトーンを調整する。入力は感情解析の結果と生成された解説文であり、出力は調整後の解説文である。具体的な動作としては、ユーザが喜びを示している場合、解説のトーンを明るくし、ポジティブな表現を増やす。 The content and tone of the generated commentary is adjusted according to the user's emotions analyzed by the server. The input is the result of emotion analysis and the generated commentary, and the output is the adjusted commentary. Specifically, if the user shows joy, the tone of the commentary is brightened and more positive expressions are used.
ステップ8: Step 8:
サーバが調整後の解説を実況中継とともにユーザの端末に配信する。入力は調整後の解説文と実況中継のデータであり、出力はユーザの端末に配信されるリアルタイムの解説付き実況中継である。具体的な動作としては、WebRTCを使用して、調整後の解説をリアルタイムで配信する。 The server delivers the adjusted commentary to the user's device along with the live broadcast. The input is the adjusted commentary and the live broadcast data, and the output is the live broadcast with real-time commentary delivered to the user's device. In concrete terms, it uses WebRTC to deliver the adjusted commentary in real time.
(応用例1) (Application example 1)
次に、形態例1の応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, application example 1 of embodiment example 1 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、解説が一律であり、視聴者の感情に応じた柔軟な対応ができないという課題があった。また、試合の実況中継や解説の質を向上させるためには、多くの人手が必要であり、コストや労力がかかるという問題も存在していた。さらに、全国のユースやミニバスの試合解説を効率的に行う手段が不足していた。 Conventional basketball game commentary systems had the problem that the commentary was uniform and could not flexibly respond to the emotions of the viewers. In addition, improving the quality of the live broadcast and commentary of the game required a large number of people, which was costly and laborious. Furthermore, there was a lack of efficient means to provide commentary on youth and mini-basketball games across the country.
応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段と、生成AIモデルを用いて解説を生成する手段と、プロンプト文を入力して解説を生成する手段と、を含む。これにより、視聴者の感情に応じた柔軟な解説が可能となり、試合の実況中継や解説の質を向上させることができる。また、全国のユースやミニバスの試合解説を効率的に行うことができる。
The specific processing by the
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合の映像や音声データを解析し、試合の状況や選手の動きを理解して解説を自動的に生成する人工知能技術を用いた手段である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to a means that uses artificial intelligence technology to analyze video and audio data of basketball games, understand the situation of the game and the movements of the players, and automatically generate commentary.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合をAIが解説し、その解説を含む実況中継を配信する手段である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a means of broadcasting live coverage including commentary on youth and mini-basketball games from around the country with AI providing commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを、AIが自動的に生成する手段である。 "Means of using AI to automatically generate running scores that are created manually by officials and teams" refers to a means of using AI to automatically generate scores that are manually created by officials and teams during a match.
「ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段」とは、ユーザの感情(喜び、悲しみ、驚きなど)を認識し、その感情に応じて解説の内容やトーンを調整するための感情認識技術を用いた手段である。 "Means for adjusting the content and tone of commentary using an emotion engine that recognizes the user's emotions" refers to means that use emotion recognition technology to recognize the user's emotions (happiness, sadness, surprise, etc.) and adjust the content and tone of the commentary in accordance with those emotions.
「生成AIモデルを用いて解説を生成する手段」とは、生成AIモデル(例えばGPT-3など)を用いて、試合の状況に応じた解説を生成する手段である。 "Means for generating commentary using a generative AI model" refers to means for generating commentary based on the situation of a match using a generative AI model (e.g., GPT-3).
「プロンプト文を入力して解説を生成する手段」とは、特定のプロンプト文を生成AIモデルに入力し、そのプロンプトに基づいて解説を生成する手段である。 "Means for inputting a prompt sentence and generating an explanation" refers to means for inputting a specific prompt sentence into a generative AI model and generating an explanation based on that prompt.
この発明を実施するためのシステムは、バスケットボールの試合の実況中継の解説をAIが行う手段、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段、ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段、生成AIモデルを用いて解説を生成する手段、プロンプト文を入力して解説を生成する手段を含む。 A system for implementing this invention includes a means for AI to provide commentary for live coverage of basketball games, a means for distributing commentary for youth and mini-basketball games across the country with AI commentary, a means for AI to automatically generate running scores that are created manually for each official or team, a means for adjusting the content and tone of the commentary using an emotion engine that recognizes the user's emotions, a means for generating commentary using a generative AI model, and a means for generating commentary by inputting a prompt text.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア:スマートフォンのカメラとマイク Hardware: Smartphone camera and microphone
ソフトウェア:OpenCV、Keras、Transformers Software: OpenCV, Keras, Transformers
データ加工およびデータ演算 Data processing and data calculations
サーバ Server
サーバは、バスケットボールの試合の映像や音声データをリアルタイムで受信し、解析を行う。OpenCVを用いて映像データを取得し、Kerasを用いて感情認識モデルを実行する。感情認識モデルは、ユーザの顔の表情を解析し、喜び、悲しみ、驚きなどの感情を認識する。 The server receives and analyzes video and audio data from the basketball game in real time. It uses OpenCV to acquire the video data and Keras to run an emotion recognition model. The emotion recognition model analyzes the user's facial expressions and recognizes emotions such as happiness, sadness, and surprise.
端末 Terminal
端末は、生成AIモデル(例えばGPT-3)を用いて解説を生成する。生成AIモデルにプロンプト文を入力し、そのプロンプトに基づいて解説を生成する。プロンプト文の例として、「The user is happy. Generate a joyful commentary for the basketball game.」や「The user is sad. Generate a comforting commentary for the basketball game.」がある。 The device generates commentary using a generative AI model (e.g., GPT-3). A prompt sentence is input into the generative AI model, which generates commentary based on the prompt. Examples of prompt sentences include "The user is happy. Generate a joyful commentary for the basketball game." and "The user is sad. Generate a comforting commentary for the basketball game."
ユーザ User
ユーザは、スマートフォンのカメラとマイクを通じて試合を視聴し、その際の感情が認識される。感情エンジンは、ユーザの感情に応じて解説の内容やトーンを調整する。例えば、ユーザが試合のハイライトシーンで喜びを示している場合、解説は「素晴らしいプレイですね!この瞬間を待っていました!」といった内容になる。逆に、ユーザが試合の逆転シーンで悲しみを示している場合、解説は「残念な結果ですが、まだチャンスはあります。次のプレイに期待しましょう。」といった内容になる。 Users watch the game through their smartphone's camera and microphone, and their emotions are recognized. The emotion engine adjusts the content and tone of the commentary based on the user's emotions. For example, if the user expresses joy at a highlight scene in the game, the commentary might say something like, "Great play! We've been waiting for this moment!" Conversely, if the user expresses sadness at a comeback scene in the game, the commentary might say something like, "It's a disappointing result, but there's still a chance. Let's look forward to the next play."
このようにして、視聴者の感情に応じた柔軟な解説が可能となり、試合の実況中継や解説の質を向上させることができる。また、全国のユースやミニバスの試合解説を効率的に行うことができる。 In this way, flexible commentary based on the viewer's emotions becomes possible, improving the quality of live game coverage and commentary. It also enables efficient commentary of youth and mini-basketball games across the country.
応用例1における特定処理の流れについて図18を用いて説明する。 The flow of the specific processing in application example 1 is explained using Figure 18.
ステップ1: Step 1:
サーバは、スマートフォンのカメラとマイクから映像および音声データをリアルタイムで受信する。入力は、カメラとマイクからの映像および音声データであり、出力は、これらのデータを解析するための準備が整った状態である。 The server receives video and audio data from the smartphone's camera and microphone in real time. The input is the video and audio data from the camera and microphone, and the output is the data ready for analysis.
ステップ2: Step 2:
サーバは、OpenCVを用いて映像データを処理し、ユーザの顔を検出する。入力は、ステップ1で受信した映像データであり、出力は、検出された顔の領域である。具体的な動作としては、映像データをグレースケールに変換し、顔検出アルゴリズムを適用する。 The server processes the video data using OpenCV to detect the user's face. The input is the video data received in step 1, and the output is the detected face area. Specifically, the server converts the video data to grayscale and applies a face detection algorithm.
ステップ3: Step 3:
サーバは、Kerasを用いて感情認識モデルを実行し、ユーザの感情を認識する。入力は、ステップ2で検出された顔の領域であり、出力は、認識された感情(喜び、悲しみ、驚きなど)である。具体的な動作としては、顔の領域を適切なサイズにリサイズし、感情認識モデルに入力する。 The server runs an emotion recognition model using Keras to recognize the user's emotions. The input is the face region detected in step 2, and the output is the recognized emotion (happiness, sadness, surprise, etc.). Specifically, the server resizes the face region to an appropriate size and inputs it into the emotion recognition model.
ステップ4: Step 4:
サーバは、認識された感情に基づいて、生成AIモデルに入力するプロンプト文を生成する。入力は、ステップ3で認識された感情であり、出力は、生成されたプロンプト文である。具体的な動作としては、感情に応じたテンプレート文を選択し、プロンプト文を生成する。 The server generates a prompt sentence to be input to the generative AI model based on the recognized emotion. The input is the emotion recognized in step 3, and the output is the generated prompt sentence. Specifically, it selects a template sentence according to the emotion and generates the prompt sentence.
ステップ5: Step 5:
サーバは、生成AIモデル(例えばGPT-3)を用いて解説を生成する。入力は、ステップ4で生成されたプロンプト文であり、出力は、生成された解説文である。具体的な動作としては、生成AIモデルにプロンプト文を入力し、解説文を生成する。 The server generates an explanation using a generative AI model (e.g., GPT-3). The input is the prompt text generated in step 4, and the output is the generated explanation text. In concrete terms, the prompt text is input into the generative AI model, and an explanation text is generated.
ステップ6: Step 6:
サーバは、生成された解説文をリアルタイムでユーザに配信する。入力は、ステップ5で生成された解説文であり、出力は、ユーザのスマートフォンに配信される解説音声である。具体的な動作としては、解説文を音声合成エンジンに入力し、音声データを生成して配信する。 The server delivers the generated explanatory text to the user in real time. The input is the explanatory text generated in step 5, and the output is the explanatory audio delivered to the user's smartphone. In concrete terms, the explanatory text is input into a voice synthesis engine, and audio data is generated and delivered.
ステップ7: Step 7:
ユーザは、スマートフォンを通じて試合を視聴し、解説を聞く。入力は、サーバから配信された解説音声であり、出力は、ユーザの視聴体験の向上である。具体的な動作としては、スマートフォンのスピーカーから解説音声が再生される。 Users watch the game and listen to the commentary through their smartphones. The input is the commentary audio delivered from the server, and the output is an improvement to the user's viewing experience. In concrete terms, the commentary audio is played through the smartphone's speakers.
(実施例2) (Example 2)
次に、形態例2の実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, a second embodiment of the second embodiment will be described. In the following description, the
従来のバスケットボールの試合解説は、解説者の主観に依存しており、視聴者の感情に応じた解説を提供することが困難であった。また、全国のユースやミニバスの試合を広く視聴者に提供するためのシステムが不足しており、試合の進行状況や選手のパフォーマンスをリアルタイムで把握することが難しかった。さらに、試合のランニングスコアを手動で作成することは時間と労力を要し、効率的な運営が求められていた。 Traditional basketball game commentary relied on the commentator's subjective judgment, making it difficult to provide commentary that reflected the emotions of viewers. In addition, there was a lack of systems to provide youth and mini-basketball games from across the country to a wide audience, making it difficult to grasp the progress of the game and the performance of the players in real time. Furthermore, manually creating a running score for the game was time-consuming and labor-intensive, so efficient management was required.
実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説を人工知能が行う手段と、全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、試合映像と音声データを収集する手段と、収集したデータを解析し解説を生成する手段と、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、生成された解説を試合映像とともに配信する手段を含む。これにより、視聴者の感情に応じた解説を提供し、試合視聴の満足度を向上させることが可能となる。 In this invention, the server includes means for providing commentary on live coverage of basketball games using artificial intelligence, means for distributing commentary on youth and mini-basketball games from around the country with live coverage by artificial intelligence, means for automatically generating running scores using artificial intelligence that are created manually for each official and team, means for collecting game video and audio data, means for analyzing the collected data and generating commentary, means for recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions, and means for distributing the generated commentary together with the game video. This makes it possible to provide commentary that corresponds to the viewer's emotions and improve satisfaction with viewing the game.
「バスケットボールの試合の実況中継の解説を人工知能が行う手段」とは、バスケットボールの試合において、人工知能が試合の進行状況や選手のパフォーマンスを解析し、リアルタイムで解説を生成する技術である。 "Means for artificial intelligence to provide commentary for live broadcasts of basketball games" refers to technology in which artificial intelligence analyzes the progress of a basketball game and the performance of players, and generates commentary in real time.
「全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能が解析し、解説を生成してリアルタイムで配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games across the country with live coverage by artificial intelligence" refers to a technology in which artificial intelligence analyzes youth and mini-basketball games held across the country, generates commentary, and broadcasts it in real time.
「オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを人工知能が自動的に生成する技術である。 "Means for automatically generating running scores using artificial intelligence that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合映像と音声データを収集する手段」とは、試合会場に設置されたカメラやマイクを使用して、試合の映像と音声データをリアルタイムで収集する技術である。 "Means for collecting game video and audio data" refers to technology that uses cameras and microphones installed at the game venue to collect game video and audio data in real time.
「収集したデータを解析し解説を生成する手段」とは、収集された映像と音声データを人工知能が解析し、試合の進行状況や選手のパフォーマンスに基づいて解説を生成する技術である。 "Means of analyzing collected data and generating commentary" refers to technology in which artificial intelligence analyzes collected video and audio data and generates commentary based on the progress of the match and the performance of the players.
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段」とは、視聴者の表情や声のトーンを解析し、その感情に応じて解説の内容やトーンを調整する技術である。 "Means of recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions" refers to technology that analyzes the viewer's facial expressions and tone of voice, and adjusts the content and tone of the commentary according to those emotions.
「生成された解説を試合映像とともに配信する手段」とは、人工知能が生成した解説を試合映像とともにストリーミングプラットフォームを通じて配信する技術である。 "Means for distributing generated commentary together with game footage" refers to technology for distributing commentary generated by artificial intelligence together with game footage via a streaming platform.
この発明は、バスケットボールの試合の実況中継を人工知能(AI)が行い、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムである。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAIが自動生成する機能を含む。 This invention is a system in which artificial intelligence (AI) broadcasts live basketball games, and also distributes live commentary by AI for youth and mini-basketball games across the country. It also includes a function that allows the AI to automatically generate running scores that are currently created manually by officials and for each team.
サーバは、試合会場に設置されたカメラやマイクを使用して、試合の映像と音声データをリアルタイムで収集する。具体的には、Sonyの4KカメラやShureの高感度マイクなどのハードウェアを使用する。収集されたデータは、サーバ上のデータベースに保存される。 The server collects video and audio data from the match in real time using cameras and microphones installed at the match venue. Specifically, it uses hardware such as Sony's 4K cameras and Shure's high-sensitivity microphones. The collected data is stored in a database on the server.
次に、サーバは保存された映像と音声データをAIモデルに入力する。このAIモデルは、例えばOpenAIのGPT-4やGoogleのBERTなどの生成AIモデルを使用する。AIモデルは、入力されたデータを解析し、試合の進行状況や選手のパフォーマンスに基づいて解説を生成する。例えば、選手Aがシュートを決めた瞬間を解析し、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 The server then inputs the stored video and audio data into an AI model. This AI model uses a generative AI model such as OpenAI's GPT-4 or Google's BERT. The AI model analyzes the input data and generates commentary based on the progress of the match and the performance of the players. For example, it analyzes the moment when Player A makes a shot and generates commentary such as, "Player A made a great shot!".
さらに、端末は、試合を視聴しているユーザの感情を認識する。具体的には、端末のカメラやマイクを使用してユーザの表情や声のトーンをキャプチャする。これには、例えばAppleのFace ID技術やAmazonのAlexaが使用される。端末は、キャプチャしたデータをサーバに送信する。 In addition, the device will recognize the emotions of the user watching the game. Specifically, it will use the device's camera and microphone to capture the user's facial expressions and tone of voice. For example, Apple's Face ID technology or Amazon's Alexa will be used for this purpose. The device will then send the captured data to a server.
サーバは、端末から送信されたユーザの感情データを受信し、感情エンジンを使用して解析する。感情エンジンは、例えばAffectivaやIBM Watsonの感情分析APIを使用する。ユーザが感動している場合、サーバは解説のトーンを感動的なものに調整し、「選手Aのシュートは本当に素晴らしいですね!観客も大いに盛り上がっています!」という解説を生成する。 The server receives the user's emotion data sent from the terminal and analyzes it using an emotion engine. The emotion engine uses, for example, Affectiva or IBM Watson's emotion analysis API. If the user is emotional, the server adjusts the tone of the commentary to be more emotional and generates a commentary such as, "Player A's shot was really amazing! The crowd is really excited!".
最後に、サーバは生成された解説を試合映像とともに配信する。配信には、YouTubeやTwitchなどのストリーミングプラットフォームが使用される。ユーザは、これらのプラットフォームを通じて試合を視聴し、感情に応じた解説を楽しむことができる。 Finally, the server distributes the generated commentary along with the game footage. Streaming platforms such as YouTube and Twitch are used for distribution. Users can watch the game through these platforms and enjoy the commentary according to their emotions.
具体例として、あるユースのバスケットボールの試合が行われているとする。サーバは、試合会場に設置されたSonyの4KカメラとShureの高感度マイクからリアルタイムで映像と音声データを収集する。次に、収集したデータをOpenAIのGPT-4に入力し、選手Aがシュートを決めた瞬間を解析する。AIモデルは、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 As a concrete example, let's say a youth basketball game is taking place. The server collects video and audio data in real time from Sony's 4K cameras and Shure's high-sensitivity microphones installed at the game venue. The collected data is then input into OpenAI's GPT-4, which analyzes the moment Player A makes a shot. The AI model generates a commentary such as, "Player A made a great shot!".
一方、端末は、試合を視聴しているユーザの表情をAppleのFace ID技術でキャプチャし、感動していることを認識する。サーバは、Affectivaの感情分析APIを使用してユーザの感情を解析し、解説のトーンを感動的なものに調整する。「選手Aのシュートは本当に素晴らしいですね!観客も大いに盛り上がっています!」という解説を生成し、YouTubeを通じて配信する。 Meanwhile, the device uses Apple's Face ID technology to capture the facial expressions of the user watching the game and recognizes that they are emotionally moved. The server then uses Affectiva's emotion analysis API to analyze the user's emotions and adjust the tone of the commentary to be more emotional. It generates a commentary such as, "Player A's shot was really amazing! The crowd is really excited!" and distributes it via YouTube.
プロンプト文の例としては、以下のようなものが考えられる: Examples of prompts might include:
「ユースのバスケットボールの試合映像と音声データを解析し、試合の進行状況や選手のパフォーマンスに関する解説を生成してください。また、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整してください。」 "Analyze video and audio data from youth basketball games to generate commentary on game progress and player performance. Also recognize viewer emotions and adjust the content and tone of the commentary accordingly."
このようにして、サーバはユーザに対して感情に応じた解説を提供し、試合視聴の満足度を向上させることができる。 In this way, the server can provide users with commentary that reflects their emotions, improving their satisfaction with watching the game.
実施例2における特定処理の流れについて図19を用いて説明する。 The flow of the identification process in Example 2 is explained using Figure 19.
ステップ1: Step 1:
サーバは、試合会場に設置されたカメラとマイクを使用して、試合の映像と音声データをリアルタイムで収集する。具体的には、Sonyの4KカメラとShureの高感度マイクを使用する。入力は、試合の映像と音声データであり、出力は収集された映像と音声データである。これらのデータはサーバ上のデータベースに保存される。 The server uses cameras and microphones installed at the venue to collect video and audio data of the match in real time. Specifically, it uses Sony 4K cameras and Shure high-sensitivity microphones. The input is the video and audio data of the match, and the output is the collected video and audio data. This data is stored in a database on the server.
ステップ2: Step 2:
サーバは、保存された映像と音声データをAIモデルに入力する。このAIモデルは、例えばOpenAIのGPT-4を使用する。入力は、収集された映像と音声データであり、出力は解析された試合の進行状況や選手のパフォーマンスに関するデータである。AIモデルは、映像データから選手の動きや試合の進行状況を解析し、音声データから実況や観客の反応を解析する。 The server inputs the stored video and audio data into an AI model. This AI model uses, for example, OpenAI's GPT-4. The input is the collected video and audio data, and the output is analyzed data on the progress of the match and the performance of the players. The AI model analyzes the movements of the players and the progress of the match from the video data, and analyzes the commentary and audience reactions from the audio data.
ステップ3: Step 3:
サーバは、AIモデルが解析したデータを基に試合の解説を生成する。入力は、解析された試合の進行状況や選手のパフォーマンスに関するデータであり、出力は生成された解説文である。例えば、選手Aがシュートを決めた瞬間を解析し、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 The server generates commentary on the match based on the data analyzed by the AI model. The input is the analyzed data on the progress of the match and the performance of the players, and the output is the generated commentary. For example, the server analyzes the moment when Player A makes a shot and generates a commentary such as, "Player A made a great shot!".
ステップ4: Step 4:
端末は、試合を視聴しているユーザの感情を認識する。具体的には、端末のカメラやマイクを使用してユーザの表情や声のトーンをキャプチャする。入力は、ユーザの表情や声のトーンに関するデータであり、出力は認識されたユーザの感情データである。これには、AppleのFace ID技術やAmazonのAlexaが使用される。 The device recognizes the emotions of users watching a game. Specifically, it uses the device's camera and microphone to capture the user's facial expressions and tone of voice. The input is data about the user's facial expressions and tone of voice, and the output is the recognized user's emotion data. This uses Apple's Face ID technology and Amazon's Alexa.
ステップ5: Step 5:
サーバは、端末から送信されたユーザの感情データを受信し、感情エンジンを使用して解析する。入力は、ユーザの感情データであり、出力は解析された感情情報である。感情エンジンは、例えばAffectivaの感情分析APIを使用する。ユーザが感動している場合、サーバは解説のトーンを感動的なものに調整する。 The server receives the user's emotion data sent from the terminal and analyzes it using an emotion engine. The input is the user's emotion data, and the output is the analyzed emotion information. The emotion engine uses, for example, Affectiva's emotion analysis API. If the user is emotional, the server adjusts the tone of the commentary to be emotional.
ステップ6: Step 6:
サーバは、生成された解説を試合映像とともに配信する。入力は、生成された解説文と試合映像であり、出力は配信されるストリーミングデータである。配信には、YouTubeやTwitchなどのストリーミングプラットフォームが使用される。ユーザは、これらのプラットフォームを通じて試合を視聴し、感情に応じた解説を楽しむことができる。 The server distributes the generated commentary together with the game footage. The input is the generated commentary and the game footage, and the output is the streaming data to be distributed. Streaming platforms such as YouTube and Twitch are used for distribution. Users can watch the game through these platforms and enjoy commentary according to their emotions.
(応用例2) (Application example 2)
次に、形態例2の応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, application example 2 of embodiment example 2 will be described. In the following description, the
従来のバスケットボールの試合実況中継システムでは、解説が一律であり、視聴者の感情に応じた柔軟な対応ができないという問題があった。また、試合のハイライトやリプレイ機能、視聴者同士のチャット機能が不足しており、視聴体験の向上が求められていた。さらに、全国のユースやミニバスの試合を広く視聴者に提供する手段が限られていたため、地域間の情報格差が生じていた。 Conventional live basketball game broadcasting systems had the problem that commentary was uniform and did not allow for flexible responses to viewer emotions. In addition, there was a lack of game highlights, replay functions, and chat functions between viewers, so there was a need to improve the viewing experience. Furthermore, there were limited ways to widely provide viewers with information about youth and mini-basketball games across the country, resulting in information disparities between regions.
応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、試合のハイライトやリプレイ機能を提供する手段と、視聴者同士のチャット機能を提供する手段と、を含む。これにより、視聴者の感情に応じた柔軟な解説が可能となり、視聴体験の向上が図られるとともに、全国のユースやミニバスの試合を広く視聴者に提供することが可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary of youth and mini-basketball games from around the country with AI commentary, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for recognizing the emotions of viewers and adjusting the content and tone of the commentary according to those emotions, a means for providing highlights and replay functions for games, and a means for providing a chat function between viewers. This allows for flexible commentary according to the emotions of viewers, improving the viewing experience and making it possible to widely provide youth and mini-basketball games from around the country to viewers.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合において、人工知能を用いてリアルタイムで解説を生成し、視聴者に提供する技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to generate commentary in real time for basketball games and provide it to viewers.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能による解説付きでリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games across the country with live coverage by AI" refers to technology that broadcasts youth and mini-basketball games held across the country in real time with commentary by artificial intelligence.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で記録しているスコアを人工知能が自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually recorded by officials and teams during a match.
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段」とは、視聴者の表情や声などから感情を認識し、その感情に応じて解説の内容やトーンを変える技術である。 "Means of recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions" refers to technology that recognizes emotions from the viewer's facial expressions, voice, etc., and changes the content and tone of the commentary according to those emotions.
「試合のハイライトやリプレイ機能を提供する手段」とは、試合の重要なシーンを抜粋して再生するハイライト機能や、特定のシーンを再度再生するリプレイ機能を提供する技術である。 "Means for providing match highlight and replay features" refers to technology that provides a highlight feature that extracts and plays important scenes from a match, and a replay feature that replays specific scenes.
「視聴者同士のチャット機能を提供する手段」とは、試合を視聴しているユーザー同士がリアルタイムでメッセージを交換できるチャット機能を提供する技術である。 "Means for providing a chat function between viewers" refers to technology that provides a chat function that enables users watching a match to exchange messages in real time.
この発明を実施するためのシステムは、以下の主要なコンポーネントを含む。バスケットボールの試合の実況中継の解説をAIが行う手段、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段、試合のハイライトやリプレイ機能を提供する手段、視聴者同士のチャット機能を提供する手段である。 The system for implementing this invention includes the following main components: a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games across the country with AI commentary, a means for AI to automatically generate running scores that are created manually for each official and team, a means for recognizing the emotions of viewers and adjusting the content and tone of the commentary according to those emotions, a means for providing game highlights and replay functions, and a means for providing a chat function between viewers.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア: スマートフォン(カメラ、マイク、ディスプレイ) Hardware: Smartphone (camera, microphone, display)
ソフトウェア: OpenCV(画像処理ライブラリ)、EmotionRecognizer(感情認識モデル)、AICommentary(AI解説生成モデル)、LiveStreaming(ライブストリーミングライブラリ) Software: OpenCV (image processing library), EmotionRecognizer (emotion recognition model), AICommentary (AI commentary generation model), LiveStreaming (live streaming library)
データ加工およびデータ演算 Data processing and data calculations
1. フレーム取得: サーバは、ライブストリーミングからフレームを取得する。これにより、リアルタイムで試合の映像データが収集される。 1. Frame acquisition: The server acquires frames from the live streaming, which allows video data of the match to be collected in real time.
2. 感情認識: サーバは、フレームから視聴者の顔を検出し、EmotionRecognizerを使用して感情を認識する。これにより、視聴者の感情データが取得される。 2. Emotion Recognition: The server detects the viewer's face from the frame and recognizes the emotion using EmotionRecognizer. This obtains the viewer's emotion data.
3. 解説生成: サーバは、認識された感情に基づいて、AICommentaryを使用して解説を生成する。これにより、視聴者の感情に応じた解説がリアルタイムで生成される。 3. Commentary generation: The server generates commentary using AICommentary based on the recognized emotions. This allows commentary to be generated in real time according to the viewer's emotions.
4. 解説追加: サーバは、生成された解説をライブストリームに追加する。これにより、視聴者は感情に応じた解説をリアルタイムで視聴できる。 4. Add commentary: The server adds the generated commentary to the live stream, allowing viewers to see emotional commentary in real time.
5. ハイライトおよびリプレイ: サーバは、試合の重要なシーンを自動的に抽出し、ハイライトやリプレイ機能を提供する。これにより、視聴者は試合の重要な瞬間を再度視聴できる。 5. Highlights and Replays: The server automatically extracts important scenes from the match and provides highlights and replays, allowing viewers to rewatch key moments of the match.
6. チャット機能: サーバは、視聴者同士がリアルタイムでメッセージを交換できるチャット機能を提供する。これにより、視聴者同士のコミュニケーションが促進される。 6. Chat function: The server provides a chat function that allows viewers to exchange messages with each other in real time. This promotes communication between viewers.
具体例 Specific examples
例えば、ユースバスケットボールの試合中、視聴者が感動している場合、サーバは「素晴らしいプレイですね!この瞬間は忘れられません!」という解説を生成する。また、視聴者が興奮している場合、サーバは「これは見逃せない!次のプレイに注目です!」という解説を生成する。 For example, during a youth basketball game, if the viewer is impressed, the server might generate a commentary like, "Great play! I'll never forget this moment!" Or, if the viewer is excited, the server might generate a commentary like, "You won't want to miss this! Watch the next play!"
プロンプト文の例 Example of a prompt
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整するAIモデルを作成してください。例えば、視聴者が感動している場合、解説が感動を共有する内容になるようにしてください。」 "Create an AI model that recognizes the emotions of your viewers and adjusts the content and tone of your commentary accordingly. For example, if your viewer is emotional, make sure your commentary reflects that emotion."
応用例2における特定処理の流れについて図20を用いて説明する。 The flow of the specific processing in application example 2 is explained using Figure 20.
ステップ1: Step 1:
サーバは、ライブストリーミングからフレームを取得する。入力は、リアルタイムの試合映像データであり、出力は、個々のフレーム画像である。具体的には、サーバはカメラから送信される映像データを受信し、OpenCVを使用してフレームごとに分割する。 The server obtains frames from live streaming. The input is real-time game video data, and the output is individual frame images. Specifically, the server receives the video data sent from the camera and splits it into frames using OpenCV.
ステップ2: Step 2:
サーバは、フレームから視聴者の顔を検出し、EmotionRecognizerを使用して感情を認識する。入力は、ステップ1で取得したフレーム画像であり、出力は、視聴者の感情データである。具体的には、サーバはフレーム内の顔を検出し、感情認識モデルに入力して感情を分類する。 The server detects the viewer's face from the frame and recognizes the emotion using EmotionRecognizer. The input is the frame image obtained in step 1, and the output is the viewer's emotion data. Specifically, the server detects the face in the frame and inputs it into the emotion recognition model to classify the emotion.
ステップ3: Step 3:
サーバは、認識された感情に基づいて、AICommentaryを使用して解説を生成する。入力は、ステップ2で得られた感情データであり、出力は、感情に応じた解説テキストである。具体的には、サーバは感情データをプロンプトとしてAI解説生成モデルに入力し、適切な解説文を生成する。 The server generates a commentary using AICommentary based on the recognized emotion. The input is the emotion data obtained in step 2, and the output is commentary text corresponding to the emotion. Specifically, the server inputs the emotion data as a prompt into the AI commentary generation model to generate an appropriate commentary.
ステップ4: Step 4:
サーバは、生成された解説をライブストリームに追加する。入力は、ステップ3で生成された解説テキストであり、出力は、解説が追加されたライブ映像である。具体的には、サーバは解説テキストを音声合成し、映像にオーバーレイする。 The server adds the generated commentary to the live stream. The input is the commentary text generated in step 3, and the output is the live video with the commentary added. Specifically, the server synthesizes the commentary text into speech and overlays it on the video.
ステップ5: Step 5:
サーバは、試合の重要なシーンを自動的に抽出し、ハイライトやリプレイ機能を提供する。入力は、リアルタイムの試合映像データであり、出力は、ハイライト映像やリプレイ映像である。具体的には、サーバは試合のイベントを検出し、重要なシーンを抽出して保存する。 The server automatically extracts important scenes from the match and provides highlight and replay functions. The input is real-time match video data, and the output is highlight and replay footage. Specifically, the server detects events in the match, extracts important scenes, and saves them.
ステップ6: Step 6:
サーバは、視聴者同士がリアルタイムでメッセージを交換できるチャット機能を提供する。入力は、視聴者からのメッセージデータであり、出力は、他の視聴者に送信されるメッセージである。具体的には、サーバはメッセージを受信し、チャットルーム内の他の視聴者に配信する。 The server provides a chat function that allows viewers to exchange messages with each other in real time. The input is message data from the viewer, and the output is the message to be sent to other viewers. Specifically, the server receives messages and distributes them to other viewers in the chat room.
(実施例3) (Example 3)
次に、形態例3の実施例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, a third embodiment of the third embodiment will be described. In the following description, the
従来のバスケットボールの試合において、ランニングスコアの作成や試合の進行状況の把握は手動で行われており、リアルタイムでの更新が困難であった。また、全国のチームや選手のデータベース化が進んでおらず、選手のパフォーマンス分析や育成のためのフィードバックが十分に提供されていなかった。さらに、試合の得点状況に対するユーザの感情を反映したスコア表示が行われておらず、試合視聴の満足度が低かった。 In conventional basketball games, creating a running score and understanding the progress of the game were done manually, making it difficult to update in real time. In addition, there was little progress in creating a database of teams and players nationwide, and feedback for analyzing player performance and training was not provided sufficiently. Furthermore, the score display did not reflect the user's feelings about the score situation in the game, resulting in low satisfaction when watching the game.
実施例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データを受信する手段と、受信した映像データを解析する手段と、受信した音声データを解析する手段と、解析結果から得点状況とファウル状況を抽出する手段と、抽出した情報を基にランニングスコアを生成する手段と、生成したランニングスコアをリアルタイムで更新し送信する手段と、送信されたランニングスコアを表示する手段と、ユーザの感情を認識し、スコア表示を調整する手段を含む。これにより、試合の進行状況をリアルタイムで把握し、ユーザの感情を反映したスコア表示を提供することが可能となる。 In this invention, the server includes means for receiving video data and audio data of the match, means for analyzing the received video data, means for analyzing the received audio data, means for extracting the score situation and foul situation from the analysis results, means for generating a running score based on the extracted information, means for updating and transmitting the generated running score in real time, means for displaying the transmitted running score, and means for recognizing the user's emotions and adjusting the score display. This makes it possible to grasp the progress of the match in real time and provide a score display that reflects the user's emotions.
「試合の映像データ」とは、バスケットボールの試合の進行状況を記録したビデオデータである。 "Game video data" refers to video data that records the progress of a basketball game.
「音声データ」とは、試合中の実況や解説、観客の反応などを記録したオーディオデータである。 "Audio data" refers to audio data that records commentary and commentary during a match, audience reactions, etc.
「受信する手段」とは、試合の映像データや音声データを外部から取得するための機能である。 "Means of receiving" refers to the function for acquiring video and audio data of the match from an external source.
「解析する手段」とは、受信した映像データや音声データを処理し、特定の情報を抽出するための機能である。 "Means of analysis" refers to the function of processing received video and audio data and extracting specific information.
「得点状況」とは、試合中にどのチームが何点を獲得したかを示す情報である。 "Scoring status" is information that shows how many points each team scored during the game.
「ファウル状況」とは、試合中にどの選手がどのようなファウルを犯したかを示す情報である。 "Foul situation" is information that shows which players committed what type of fouls during the game.
「ランニングスコア」とは、試合の進行に伴ってリアルタイムで更新される得点やファウルの状況を示すスコアボードである。 The "running score" is a scoreboard that shows the score and foul situation in real time as the game progresses.
「リアルタイムで更新し送信する手段」とは、生成したランニングスコアを即時に更新し、ユーザの端末に送信するための機能である。 "Means for updating and transmitting in real time" refers to a function for instantly updating the generated running score and transmitting it to the user's device.
「表示する手段」とは、送信されたランニングスコアをユーザに視覚的に提示するための機能である。 "Display means" is a function for visually presenting the submitted running score to the user.
「ユーザの感情を認識する手段」とは、試合の得点状況などに対するユーザの感情を解析し、理解するための機能である。 "Means of recognizing user emotions" refers to a function for analyzing and understanding the user's emotions regarding the score of a match, etc.
「スコア表示を調整する手段」とは、認識したユーザの感情に応じて、スコアボードの表示方法を変更するための機能である。 "Means for adjusting score display" is a function for changing the way the scoreboard is displayed depending on the recognized user's emotions.
「全国のチームや選手の試合結果やスタッツ情報」とは、全国のバスケットボールチームや選手の試合成績や個々のプレイヤーの統計データである。 "Game results and stats information for teams and players nationwide" refers to game results for basketball teams and players nationwide and statistical data for individual players.
「データベースに保存する手段」とは、収集した試合結果やスタッツ情報を整理し、データベースに格納するための機能である。 "Means of saving to a database" refers to the function for organizing collected match results and stats information and storing it in a database.
「パフォーマンスを分析する手段」とは、データベースに保存された情報を基に、選手の成績や能力を評価するための機能である。 "Means of analyzing performance" refers to a function for evaluating a player's performance and abilities based on the information stored in the database.
「フィードバックを生成する手段」とは、分析結果を基に、選手の育成や改善点を提案するためのレポートを作成する機能である。 "Means of generating feedback" refers to the function that creates reports based on the analysis results to suggest player development and areas for improvement.
「送信し表示する手段」とは、生成したフィードバックをユーザの端末に送信し、視覚的に提示するための機能である。 "Means for sending and displaying" refers to the function for sending the generated feedback to the user's device and presenting it visually.
「見える化」とは、データを視覚的に表示し、理解しやすくすることを指す。 "Visualization" refers to displaying data visually to make it easier to understand.
「育成に活用する手段」とは、データを基に選手のトレーニングや成長を支援するための方法である。 "Means for utilizing in development" refers to methods for supporting the training and development of players based on data.
この発明は、バスケットボールの試合におけるランニングスコアの自動生成および選手のパフォーマンス分析を行うシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that automatically generates running scores for basketball games and analyzes player performance. A specific embodiment of this system is described below.
システムの構成 System configuration
ハードウェアおよびソフトウェア Hardware and software
1. サーバ 1. Server
ハードウェア: 高性能なプロセッサと大容量のメモリを備えたサーバ Hardware: Server with high-performance processor and large memory capacity
ソフトウェア: 映像解析ソフトウェア(例: OpenCV)、音声解析ソフトウェア(例: Google Cloud Speech-to-Text)、データベース管理システム(例: MySQL)、感情解析エンジン(例: IBM Watson Tone Analyzer) Software: Video analysis software (e.g. OpenCV), audio analysis software (e.g. Google Cloud Speech-to-Text), database management system (e.g. MySQL), sentiment analysis engine (e.g. IBM Watson Tone Analyzer)
2. 端末 2. Terminal
ハードウェア: パソコン、タブレット、スマートフォンなど Hardware: PCs, tablets, smartphones, etc.
ソフトウェア: Webブラウザ、専用アプリケーション Software: Web browser, dedicated application
プログラムの処理 Program processing
試合データの受信と解析 Receiving and analyzing match data
サーバは、試合の映像データと音声データを受信する。映像データはカメラやストリーミングサービスから取得し、音声データは実況や解説の音声を含む。受信した映像データはOpenCVを用いて解析し、得点シーンやファウルシーンを検出する。音声データはGoogle Cloud Speech-to-Textを用いてテキストに変換し、実況音声から得点やファウルに関する情報を抽出する。 The server receives video and audio data of the match. The video data is obtained from cameras and streaming services, and the audio data includes commentary and narration. The received video data is analyzed using OpenCV to detect scoring and foul scenes. The audio data is converted to text using Google Cloud Speech-to-Text, and information about scores and fouls is extracted from the commentary.
得点状況とファウル状況の抽出 Extraction of scoring and foul situations
サーバは、映像解析結果と音声解析結果を統合し、得点状況とファウル状況を抽出する。これにより、試合の進行状況をリアルタイムで把握することが可能となる。 The server combines the results of video and audio analysis to extract the score and foul situations. This makes it possible to grasp the progress of the game in real time.
ランニングスコアの生成と表示 Generate and display running scores
サーバは、抽出した情報を基にランニングスコアを生成する。生成されたランニングスコアはリアルタイムで更新され、WebSocketやHTTPを用いて端末に送信される。端末は、受信したランニングスコアをユーザに表示する。これにより、ユーザは試合の進行状況をリアルタイムで確認することができる。 The server generates a running score based on the extracted information. The generated running score is updated in real time and sent to the terminal using WebSocket or HTTP. The terminal displays the received running score to the user, allowing the user to check the progress of the match in real time.
ユーザの感情の認識とスコア表示の調整 Recognizing user emotions and adjusting score display
サーバは、試合の得点状況に対するユーザの感情をIBM Watson Tone Analyzerを用いて認識する。認識した感情に応じて、スコア表示の方法を調整する。例えば、ユーザが得点に喜びを示している場合、スコア表示を明るい色やアニメーションで強調する。調整後のスコア表示は端末に送信され、ユーザに表示される。 The server uses IBM Watson Tone Analyzer to recognize the user's emotions regarding the score of the game. Depending on the recognized emotion, the way the score is displayed is adjusted. For example, if the user is happy about a score, the score display is emphasized with bright colors or animations. The adjusted score display is sent to the terminal and displayed to the user.
全国のチームや選手のデータベース化とパフォーマンス分析 Database of teams and players nationwide and performance analysis
サーバは、全国のチームや選手の試合結果やスタッツ情報を収集し、MySQLデータベースに保存する。保存された情報を基に、PythonのPandasライブラリを用いて選手のパフォーマンスを分析する。分析結果を基に、選手育成のためのフィードバックを生成し、端末に送信する。端末は、受信したフィードバックをユーザに表示する。 The server collects match results and stats for teams and players across the country, and stores them in a MySQL database. Based on the stored information, the performance of players is analyzed using Python's Pandas library. Based on the analysis results, feedback for player development is generated and sent to the terminal. The terminal displays the received feedback to the user.
具体例 Specific examples
試合の映像データをサーバに送信すると、サーバはOpenCVを用いて得点シーンを検出し、Google Cloud Speech-to-Textを用いて実況音声からファウル情報を抽出する。例えば、プロンプト文として「この試合の得点シーンとファウル情報を解析してランニングスコアを生成してください」と入力する。 When the video data of the match is sent to the server, the server uses OpenCV to detect scoring scenes and uses Google Cloud Speech-to-Text to extract foul information from the commentary audio. For example, the prompt text can be "Analyze the scoring scenes and foul information of this match to generate a running score."
サーバが全国の試合結果を収集し、MySQLデータベースに保存する。PythonのPandasライブラリを用いて選手のパフォーマンスを分析し、フィードバックを生成する。例えば、プロンプト文として「全国の試合結果を収集し、選手のパフォーマンスを分析してフィードバックを生成してください」と入力する。 The server collects the results of matches from around the country and stores them in a MySQL database. It uses Python's Pandas library to analyze players' performance and generate feedback. For example, enter the following prompt statement: "Collect the results of matches from around the country, analyze players' performance, and generate feedback."
サーバが得点シーンに対するユーザの喜びをIBM Watson Tone Analyzerで認識し、スコア表示を喜びを強調する形に調整する。例えば、プロンプト文として「得点シーンに対するユーザの感情を解析し、スコア表示を調整してください」と入力する。実施例3における特定処理の流れについて図21を用いて説明する。 The server recognizes the user's joy at the scoring scene using IBM Watson Tone Analyzer, and adjusts the score display to emphasize the joy. For example, the prompt text is input as "Analyze the user's emotions at the scoring scene and adjust the score display." The flow of the specific process in Example 3 is explained with reference to FIG. 21.
ステップ1: Step 1:
試合データの受信 Receive match data
サーバは、試合の映像データと音声データを受信する。入力として、カメラやストリーミングサービスからリアルタイムで提供される映像データと音声データを取得する。出力として、受信した映像データと音声データを内部メモリに保存する。具体的な動作として、サーバはネットワーク接続を通じてデータを取得し、指定されたフォーマットで保存する。 The server receives video and audio data of the match. As input, it obtains video and audio data provided in real time from cameras and streaming services. As output, it stores the received video and audio data in its internal memory. Specifically, the server obtains the data through a network connection and stores it in a specified format.
ステップ2: Step 2:
映像データの解析 Video data analysis
サーバは、受信した映像データを解析する。入力として、ステップ1で保存された映像データを使用する。出力として、得点シーンやファウルシーンの検出結果を得る。具体的な動作として、サーバはOpenCVを用いて映像データをフレームごとに解析し、特定のイベント(得点やファウル)を検出するアルゴリズムを実行する。 The server analyzes the received video data. As input, it uses the video data saved in step 1. As output, it obtains the results of detecting scoring and foul scenes. In concrete terms, the server uses OpenCV to analyze the video data frame by frame and executes an algorithm to detect specific events (scoring and fouls).
ステップ3: Step 3:
音声データの解析 Analysis of audio data
サーバは、受信した音声データを解析する。入力として、ステップ1で保存された音声データを使用する。出力として、音声データから抽出されたテキスト情報を得る。具体的な動作として、サーバはGoogle Cloud Speech-to-Textを用いて音声データをテキストに変換し、実況音声から得点やファウルに関する情報を抽出する。 The server analyzes the received audio data. As input, it uses the audio data stored in step 1. As output, it obtains text information extracted from the audio data. Specifically, the server converts the audio data into text using Google Cloud Speech-to-Text and extracts information about scores and fouls from the commentary.
ステップ4: Step 4:
得点状況とファウル状況の抽出 Extraction of scoring and foul situations
サーバは、映像解析結果と音声解析結果を統合し、得点状況とファウル状況を抽出する。入力として、ステップ2とステップ3の出力を使用する。出力として、得点状況とファウル状況を含むデータを得る。具体的な動作として、サーバは映像解析結果と音声解析結果を時系列に統合し、得点やファウルのタイミングを特定する。 The server integrates the video analysis results and audio analysis results to extract the scoring and foul situations. As input, it uses the outputs of steps 2 and 3. As output, it obtains data including the scoring and foul situations. In concrete terms, the server integrates the video analysis results and audio analysis results in a chronological order to identify the timing of scoring and fouls.
ステップ5: Step 5:
ランニングスコアの生成 Generate running scores
サーバは、抽出した情報を基にランニングスコアを生成する。入力として、ステップ4で得られた得点状況とファウル状況を使用する。出力として、ランニングスコアを含むデータを得る。具体的な動作として、サーバは得点やファウルの情報を時系列に整理し、スコアボード形式にまとめる。 The server generates a running score based on the extracted information. As input, it uses the score and foul status obtained in step 4. As output, it obtains data including the running score. Specifically, the server organizes the score and foul information in chronological order and compiles it in a scoreboard format.
ステップ6: Step 6:
ランニングスコアの更新と送信 Update and send running scores
サーバは、生成したランニングスコアをリアルタイムで更新し、端末に送信する。入力として、ステップ5で生成されたランニングスコアを使用する。出力として、更新されたランニングスコアを端末に送信する。具体的な動作として、サーバはWebSocketやHTTPを用いてデータを送信する。 The server updates the generated running score in real time and sends it to the terminal. As input, it uses the running score generated in step 5. As output, it sends the updated running score to the terminal. Specifically, the server sends data using WebSocket or HTTP.
ステップ7: Step 7:
ランニングスコアの表示 Display running score
端末は、受信したランニングスコアをユーザに表示する。入力として、ステップ6で送信されたランニングスコアを使用する。出力として、ユーザに視覚的に提示されるスコアボードを得る。具体的な動作として、端末はWebブラウザや専用アプリケーションを用いてスコアボードを表示する。 The terminal displays the received running score to the user. As input, it uses the running score sent in step 6. As output, it obtains a scoreboard that is visually presented to the user. In concrete terms, the terminal displays the scoreboard using a web browser or a dedicated application.
ステップ8: Step 8:
ユーザの感情の認識 Recognizing user emotions
サーバは、試合の得点状況に対するユーザの感情を認識する。入力として、ユーザのコメントやリアクションデータを使用する。出力として、認識された感情データを得る。具体的な動作として、サーバはIBM Watson Tone Analyzerを用いてユーザの感情を解析する。 The server recognizes the user's emotions regarding the score of the game. As input, it uses the user's comments and reaction data. As output, it obtains the recognized emotion data. Specifically, the server analyzes the user's emotions using IBM Watson Tone Analyzer.
ステップ9: Step 9:
スコア表示の調整 Score display adjustments
サーバは、認識した感情に応じてスコア表示の方法を調整する。入力として、ステップ8で得られた感情データとステップ5で生成されたランニングスコアを使用する。出力として、調整されたスコア表示データを得る。具体的な動作として、サーバはスコア表示の色やアニメーションを変更する。 The server adjusts the way the score is displayed depending on the recognized emotion. As input, it uses the emotion data obtained in step 8 and the running score generated in step 5. As output, it obtains the adjusted score display data. As a specific operation, the server changes the color and animation of the score display.
ステップ10: Step 10:
調整後のスコア表示の送信 Send adjusted score display
サーバは、調整後のスコア表示を端末に送信する。入力として、ステップ9で調整されたスコア表示データを使用する。出力として、調整後のスコア表示を端末に送信する。具体的な動作として、サーバはWebSocketやHTTPを用いてデータを送信する。 The server sends the adjusted score display to the terminal. As input, it uses the score display data adjusted in step 9. As output, it sends the adjusted score display to the terminal. Specifically, the server sends the data using WebSocket or HTTP.
ステップ11: Step 11:
調整後のスコア表示の表示 Displaying the adjusted score
端末は、調整後のスコア表示をユーザに表示する。入力として、ステップ10で送信された調整後のスコア表示データを使用する。出力として、ユーザに視覚的に提示される調整後のスコアボードを得る。具体的な動作として、端末はWebブラウザや専用アプリケーションを用いて調整後のスコアボードを表示する。
The terminal displays the adjusted score display to the user. As input, it uses the adjusted score display data sent in
ステップ12: Step 12:
全国のチームや選手のデータベース化 Database of teams and players nationwide
サーバは、全国のチームや選手の試合結果やスタッツ情報を収集し、データベースに保存する。入力として、各チームの公式サイトやスポーツデータ提供サービスから取得したデータを使用する。出力として、データベースに保存された試合結果やスタッツ情報を得る。具体的な動作として、サーバはデータを整理し、MySQLデータベースに格納する。 The server collects match results and stats information for teams and players across the country and stores it in a database. As input, it uses data obtained from each team's official website and sports data services. As output, it obtains match results and stats information stored in the database. Specifically, the server organizes the data and stores it in a MySQL database.
ステップ13: Step 13:
パフォーマンス分析 Performance analysis
サーバは、データベースに保存された情報を基に、選手のパフォーマンスを分析する。入力として、ステップ12で保存されたデータベース情報を使用する。出力として、選手の成績や能力を評価する分析結果を得る。具体的な動作として、サーバはPythonのPandasライブラリを用いてデータを処理し、選手の成績を評価する。
The server analyzes the players' performance based on the information stored in the database. As input, it uses the database information stored in
ステップ14: Step 14:
フィードバックの生成 Generating feedback
サーバは、分析結果を基に、選手育成のためのフィードバックを生成する。入力として、ステップ13で得られた分析結果を使用する。出力として、選手の強みや弱点を指摘し、改善点を提案するフィードバックレポートを得る。具体的な動作として、サーバはレポートを作成し、選手やコーチに提供する。 The server generates feedback for player development based on the analysis results. As input, it uses the analysis results obtained in step 13. As output, it obtains a feedback report that points out the player's strengths and weaknesses and suggests areas for improvement. In concrete terms, the server creates the report and provides it to the player and coach.
ステップ15: Step 15:
フィードバックの送信と表示 Submit and view feedback
サーバは、生成したフィードバックを端末に送信し、端末はそれをユーザに表示する。入力として、ステップ14で生成されたフィードバックレポートを使用する。出力として、ユーザに視覚的に提示されるフィードバックレポートを得る。具体的な動作として、サーバはメールや専用アプリケーションを通じてデータを送信し、端末はそれを表示する。
The server sends the generated feedback to the terminal, which displays it to the user. As input, it uses the feedback report generated in
(応用例3) (Application example 3)
次に、形態例3の応用例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、スマート眼鏡214を「端末」と称する。
Next, application example 3 of embodiment example 3 will be described. In the following description, the
従来のバスケットボール試合の実況中継や解説は、人間の解説者に依存しており、リアルタイムでの得点状況やファウル状況の把握が困難であった。また、選手のパフォーマンス分析や育成に関するフィードバックも手動で行われており、効率が悪かった。さらに、ユーザの感情を反映したスコア表示ができず、視聴体験の向上が課題であった。 Traditionally, live broadcasts and commentary of basketball games relied on human commentators, making it difficult to grasp the score and foul situation in real time. In addition, analysis of player performance and feedback on development were also done manually, which was inefficient. Furthermore, it was not possible to display scores that reflected the user's emotions, making it difficult to improve the viewing experience.
応用例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段と、ユーザの感情を認識し、その感情に応じたスコア表示を行う手段と、全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段と、を含む。これにより、試合の進行状況をリアルタイムで把握し、ユーザの感情を反映したスコア表示が可能となり、選手のパフォーマンス分析や育成の効率が向上することが可能となる。 In this invention, the server includes: a means for AI to provide commentary on live coverage of basketball games; a means for distributing commentary on youth and mini-basketball games nationwide with AI live coverage; a means for AI to automatically generate running scores that are created manually for each official and team; a means for analyzing game video and audio data in real time and automatically generating the score situation and foul situation; a means for recognizing the user's emotions and displaying the score according to the emotions; and a means for providing feedback for player performance analysis and development using a database of teams and players nationwide. This makes it possible to grasp the progress of the game in real time and display scores that reflect the user's emotions, improving the efficiency of player performance analysis and development.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、人工知能を用いてバスケットボールの試合の進行状況やプレイ内容をリアルタイムで解説する技術である。 "A means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to provide real-time commentary on the progress and play of a basketball game.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国の若年層やミニバスケットボールの試合を人工知能が解説し、その解説を含む実況中継を配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a technology that uses artificial intelligence to provide commentary on youth and mini-basketball games from around the country, and broadcasts live coverage including that commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合の進行中に得点やファウルなどのスコアを人工知能が自動的に生成する技術である。 "A means of using AI to automatically generate running scores that are created manually by officials and for each team" refers to technology that uses artificial intelligence to automatically generate scores such as points and fouls as the game progresses.
「試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段」とは、試合中の映像と音声データをリアルタイムで解析し、得点やファウルの状況を自動的に生成する技術である。 "Means for analyzing game video and audio data in real time and automatically generating scoring and foul status" refers to technology that analyzes game video and audio data in real time and automatically generates scoring and foul status.
「ユーザの感情を認識し、その感情に応じたスコア表示を行う手段」とは、ユーザの表情や音声から感情を認識し、その感情に応じてスコア表示を調整する技術である。 "Means for recognizing the user's emotions and displaying a score according to those emotions" refers to technology that recognizes emotions from the user's facial expressions and voice, and adjusts the score display according to those emotions.
「全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段」とは、全国のバスケットボールチームや選手のデータベースを利用して、選手のパフォーマンスを分析し、育成のためのフィードバックを提供する技術である。 "Means of utilizing a database of teams and players nationwide to analyze player performance and provide feedback for development" refers to technology that utilizes a database of basketball teams and players nationwide to analyze player performance and provide feedback for development.
この発明を実施するためのシステムは、以下のハードウェアおよびソフトウェアを用いる。 The system for implementing this invention uses the following hardware and software.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア: スマートフォン、ヘッドマウントディスプレイ Hardware: Smartphone, head-mounted display
ソフトウェア: TensorFlow(AIモデル)、OpenCV(映像解析)、NLTK(自然言語処理)、Emotion API(感情認識) Software: TensorFlow (AI model), OpenCV (video analysis), NLTK (natural language processing), Emotion API (emotion recognition)
システムの構成 System configuration
サーバは、以下の手段を含む。 The server includes the following means:
1. バスケットボールの試合の実況中継の解説をAIが行う手段: 1. How AI can provide commentary for live broadcasts of basketball games:
サーバは、試合の映像および音声データをリアルタイムで受信し、TensorFlowを用いて試合の進行状況やプレイ内容を解析し、解説を生成する。 The server receives video and audio data from the match in real time, and uses TensorFlow to analyze the progress of the match and the content of the play, generating commentary.
2. 全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段: 2. How to broadcast live commentary of youth and mini-basketball games nationwide with AI:
サーバは、全国のユースやミニバスの試合映像を受信し、同様にAIを用いて解説を生成し、リアルタイムで配信する。 The server receives footage of youth and mini-basketball matches from across the country, and similarly uses AI to generate commentary, which it distributes in real time.
3. オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段: 3. A way to use AI to automatically generate running scores that are currently created manually by officials and teams:
サーバは、試合の映像および音声データを解析し、得点状況やファウル状況を自動的に生成する。 The server analyzes the video and audio data of the match and automatically generates the score and foul situations.
4. 試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段: 4. A method for analyzing game video and audio data in real time and automatically generating scoring and foul situations:
サーバは、OpenCVを使用して映像データをフレームごとに分割し、重要なシーンを抽出する。音声データはNLTKを使用してテキストに変換し、重要なキーワードを抽出する。 The server uses OpenCV to split the video data into frames and extract important scenes. It uses NLTK to convert the audio data into text and extract important keywords.
5. ユーザの感情を認識し、その感情に応じたスコア表示を行う手段: 5. How to recognize user emotions and display a score according to those emotions:
サーバは、Emotion APIを使用してユーザの表情や音声から感情を認識し、その感情に応じてスコア表示を調整する。 The server uses the Emotion API to recognize emotions from the user's facial expressions and voice, and adjusts the score display accordingly.
6. 全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段: 6. Using a national team and player database to analyze player performance and provide feedback for development:
サーバは、全国のチームや選手のデータベースを参照し、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。 The server accesses a database of teams and players from across the country, displays analysis of player performance, and provides feedback for the next match.
具体例 Specific examples
試合中にスマートフォンを使用しているユーザが得点シーンを見た際、サーバはAIを用いてそのシーンを解析し、得点状況をリアルタイムで表示する。ユーザが喜びの表情を見せた場合、サーバは感情エンジンを使用してそれを認識し、スコア表示をより華やかにする。また、試合終了後には、サーバは全国のデータベースを参照して、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。 When a user using a smartphone during a match sees a goal being scored, the server uses AI to analyze the scene and display the score in real time. If the user shows an expression of joy, the server will recognize it using an emotion engine and make the score display more colorful. After the match ends, the server also refers to a nationwide database to display an analysis of the players' performance and provide feedback for the next match.
プロンプト文の例 Example of a prompt
「試合の映像と音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成するAIモデルを使用して、ランニングスコアを表示してください。また、ユーザの感情を認識し、その感情に応じたスコア表示を行ってください。さらに、全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供してください。」 "Please analyze the video and audio data of the game in real time, and use an AI model that automatically generates the score and foul situation to display a running score. Also, please recognize the user's emotions and display the score according to those emotions. Furthermore, please use a database of teams and players from all over the country to provide feedback for analyzing player performance and development."
応用例3における特定処理の流れについて図22を用いて説明する。 The flow of the specific processing in application example 3 is explained using Figure 22.
ステップ1: Step 1:
試合の映像および音声データの取得 Acquisition of game video and audio data
サーバは、スマートフォンやヘッドマウントディスプレイから試合の映像および音声データをリアルタイムで受信する。入力は試合の映像および音声データであり、出力は解析のための前処理済みデータである。具体的な動作として、サーバはデータストリームを受信し、フレームごとに映像データを分割し、音声データをテキストに変換する。 The server receives video and audio data of the game in real time from a smartphone or head-mounted display. The input is the video and audio data of the game, and the output is preprocessed data for analysis. In concrete terms, the server receives the data stream, splits the video data into frames, and converts the audio data into text.
ステップ2: Step 2:
データの前処理 Data preprocessing
サーバは、OpenCVを使用して映像データをフレームごとに分割し、重要なシーンを抽出する。また、音声データはNLTKを使用してテキストに変換し、重要なキーワード(得点、ファウルなど)を抽出する。入力は前処理済みの映像および音声データであり、出力は解析のための重要シーンおよびキーワードである。具体的な動作として、サーバは映像フレームを解析し、得点シーンやファウルシーンを特定する。 The server uses OpenCV to split the video data into frames and extract important scenes. It also uses NLTK to convert the audio data into text and extracts important keywords (e.g., goals, fouls). The input is the preprocessed video and audio data, and the output is important scenes and keywords for analysis. Specifically, the server analyzes video frames and identifies scoring and foul scenes.
ステップ3: Step 3:
AIモデルによる解析 Analysis using AI models
サーバは、TensorFlowを使用して、映像および音声データから得点状況やファウル状況を解析する。入力は重要シーンおよびキーワードであり、出力は得点状況やファウル状況のデータである。具体的な動作として、サーバはAIモデルを実行し、各シーンの得点やファウルを自動的に判定する。 The server uses TensorFlow to analyze the scoring and foul situations from video and audio data. The input is important scenes and keywords, and the output is data on the scoring and foul situations. In concrete terms, the server runs an AI model and automatically determines the scores and fouls for each scene.
ステップ4: Step 4:
ランニングスコアの自動生成 Automatic generation of running scores
サーバは、解析結果をもとにランニングスコアを自動生成する。入力は得点状況やファウル状況のデータであり、出力はリアルタイムのランニングスコアである。具体的な動作として、サーバは得点やファウルの情報を集計し、スコアボードを更新する。 The server automatically generates a running score based on the analysis results. The input is data on the scoring and foul situations, and the output is a real-time running score. Specifically, the server tallys up the score and foul information and updates the scoreboard.
ステップ5: Step 5:
感情認識 Emotion recognition
サーバは、Emotion APIを使用して、ユーザの表情や音声から感情を認識する。入力はユーザの表情データおよび音声データであり、出力は認識された感情データである。具体的な動作として、サーバはカメラやマイクからユーザのデータを取得し、感情を解析する。 The server uses the Emotion API to recognize emotions from the user's facial expressions and voice. The input is the user's facial expression data and voice data, and the output is the recognized emotion data. In concrete terms, the server obtains user data from the camera and microphone and analyzes emotions.
ステップ6: Step 6:
感情に応じたスコア表示 Score display based on emotions
サーバは、認識された感情に応じてスコア表示を調整する。入力は感情データおよびランニングスコアであり、出力は感情に応じたスコア表示である。具体的な動作として、サーバはユーザの感情に基づいてスコア表示のデザインやエフェクトを変更する。 The server adjusts the score display according to the recognized emotion. The input is emotion data and the running score, and the output is a score display according to the emotion. In concrete terms, the server changes the design and effects of the score display based on the user's emotion.
ステップ7: Step 7:
データベースの活用 Utilizing the database
サーバは、全国のチームや選手のデータベースを参照し、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。入力は試合結果および選手データであり、出力はパフォーマンス分析結果およびフィードバックである。具体的な動作として、サーバはデータベースから関連情報を取得し、解析結果を表示する。 The server refers to a database of teams and players from around the country, displays the results of player performance analysis, and provides feedback for the next match. The input is the match results and player data, and the output is performance analysis results and feedback. In concrete terms, the server retrieves relevant information from the database and displays the analysis results.
特定処理部290は、特定処理の結果をスマート眼鏡214に送信する。スマート眼鏡214では、制御部46Aが、スピーカ240に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
The
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。
The
生成AIの他の例としては、Gemini(インターネット検索<URL: https://gemini.google.com/?hl=ja>)が挙げられる。 Another example of generative AI is Gemini (Internet search <URL: https://gemini.google.com/?hl=ja>).
上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、スマート眼鏡214によって特定処理が行われるようにしてもよい。
In the above embodiment, an example was given in which the specific processing is performed by the
[第3実施形態] [Third embodiment]
図5には、第3実施形態に係るデータ処理システム310の構成の一例が示されている。
Figure 5 shows an example of the configuration of a
図5に示すように、データ処理システム310は、データ処理装置12及びヘッドセット型端末314を備えている。データ処理装置12の一例としては、サーバが挙げられる。
As shown in FIG. 5, the
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
The
ヘッドセット型端末314は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、通信I/F44、及びディスプレイ343を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、カメラ42、及びディスプレイ343も、バス52に接続されている。
The
マイクロフォン238は、ユーザ20が発する音声を受け付けることで、ユーザ20から指示等を受け付ける。マイクロフォン238は、ユーザ20が発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
The
カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザ20の周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
The communication I/
図6には、データ処理装置12及びヘッドセット型端末314の要部機能の一例が示されている。図6に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
Figure 6 shows an example of the main functions of the
特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
The
ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。
ヘッドセット型端末314では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。
In the
次に、データ処理装置12の特定処理部290による特定処理について説明する。
Next, we will explain the specific processing performed by the
「形態例1」 "Example 1"
本発明の形態例1として、AIがバスケットボールの試合の実況中継の解説を行うシステムがある。このシステムでは、試合の映像や音声データをAIが解析し、試合の状況や選手の動きを理解する。そして、その解析結果に基づいて、試合の解説を自動的に生成し、実況中継とともに配信する。 Example 1 of the present invention is a system in which AI provides commentary for a live broadcast of a basketball game. In this system, AI analyzes the video and audio data of the game to understand the situation of the game and the movements of the players. Then, based on the results of this analysis, a commentary of the game is automatically generated and distributed along with the live broadcast.
「形態例2」 "Example 2"
本発明の形態例2として、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムがある。このシステムでは、全国各地で行われるユースやミニバスの試合の映像や音声データを収集し、形態例1と同様にAIが解析して解説を生成する。そして、その解説を試合映像とともに配信することで、全国の試合を広く視聴者に提供する。 Example 2 of the present invention is a system that distributes commentary of youth and mini-basketball games from around the country, with live coverage by AI. This system collects video and audio data from youth and mini-basketball games held around the country, which are analyzed by AI in the same way as example 1 to generate commentary. Then, by distributing the commentary together with the game footage, games from around the country are made available to a wide audience.
「形態例3」 "Example 3"
本発明の形態例3として、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成するシステムがある。このシステムでは、試合の映像や音声データから得点状況やファウル状況などをAIが解析し、ランニングスコアを自動的に生成する。これにより、試合の進行状況をリアルタイムで把握することが可能となる。 Example 3 of the present invention is a system that uses AI to automatically generate running scores that are created manually by officials or for each team. In this system, AI analyzes the scoring situation, foul situation, etc. from video and audio data of the game, and automatically generates a running score. This makes it possible to grasp the progress of the game in real time.
「形態例4」 "Example 4"
本発明の形態例4として、全国のチームや選手のデータベース化を行い、そのデータベース化された情報を日本の登録バスケ選手の見える化、育成に活用するシステムがある。このシステムでは、全国のチームや選手の試合結果やスタッツなどの情報を収集し、データベース化する。そして、そのデータベースを活用して、選手のパフォーマンスの分析や育成のためのフィードバックを提供する。 Example 4 of the present invention is a system that creates a database of teams and players from across the country, and uses the information in the database to visualize and develop registered basketball players in Japan. This system collects information such as game results and stats for teams and players from across the country, and creates a database. The database is then used to provide feedback for analyzing players' performance and developing them.
以下に、各形態例の処理の流れについて説明する。 The process flow for each example is explained below.
「形態例1」 "Example 1"
ステップ1:AIがバスケットボールの試合の映像や音声データを収集する。 Step 1: AI collects video and audio data from basketball games.
ステップ2:収集したデータをAIが解析し、試合の状況や選手の動きを理解する。 Step 2: AI analyzes the collected data to understand the situation of the game and the movements of the players.
ステップ3:解析結果に基づいて、AIが試合の解説を自動的に生成する。 Step 3: Based on the analysis results, the AI automatically generates commentary for the match.
ステップ4:生成した解説を実況中継とともに配信する。 Step 4: Distribute the generated commentary along with the live broadcast.
「形態例2」 "Example 2"
ステップ1:全国各地で行われるユースやミニバスの試合の映像や音声データを収集する。 Step 1: Collect video and audio data from youth and mini-basketball matches held across the country.
ステップ2:収集したデータをAIが解析し、試合の状況や選手の動きを理解する。 Step 2: AI analyzes the collected data to understand the situation of the game and the movements of the players.
ステップ3:解析結果に基づいて、AIが試合の解説を自動的に生成する。 Step 3: Based on the analysis results, the AI automatically generates commentary for the match.
ステップ4:生成した解説を試合映像とともに配信する。 Step 4: Distribute the generated commentary along with the game footage.
「形態例3」 "Example 3"
ステップ1:試合の映像や音声データから得点状況やファウル状況などをAIが解析する。 Step 1: AI analyzes the scoring situation, foul situation, etc. from video and audio data of the game.
ステップ2:解析結果に基づいて、AIがランニングスコアを自動的に生成する。 Step 2: Based on the analysis results, the AI automatically generates a running score.
「形態例4」 "Example 4"
ステップ1:全国のチームや選手の試合結果やスタッツなどの情報を収集する。 Step 1: Collect information such as match results and stats for teams and players across the country.
ステップ2:収集した情報をデータベース化する。 Step 2: Create a database of the collected information.
ステップ3:データベース化された情報を活用して、選手のパフォーマンスの分析や育成のためのフィードバックを提供する。 Step 3: Use the databased information to analyze player performance and provide feedback for development.
(実施例1) (Example 1)
次に、形態例1の実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, a first embodiment of the first embodiment will be described. In the following description, the
従来のバスケットボールの試合の実況中継では、解説者の質や量に依存するため、試合の詳細な状況や選手の動きをリアルタイムで正確に伝えることが難しい。また、全国のユースやミニバスの試合解説を行うためには、多くの人手が必要であり、コストや労力がかかる。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアは、手作業によるため時間がかかり、正確性に欠けることがある。これらの課題を解決するためには、AIを活用した自動化システムが必要である。 Traditional live broadcasts of basketball games depend on the quality and quantity of commentators, making it difficult to accurately convey the detailed situation of the game and the movements of the players in real time. In addition, commentary on youth and mini-basketball games across the country is required by many people, which is costly and labor intensive. Furthermore, running scores created by officials and people for each team are done manually, so they take time and can lack accuracy. To solve these issues, an automated system that utilizes AI is needed.
実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データをリアルタイムで収集する手段と、収集した映像データと音声データを解析する手段と、解析結果に基づいて試合の解説を生成する手段と、生成された解説を実況中継とともに配信する手段と、を含む。これにより、試合の詳細な状況や選手の動きをリアルタイムで正確に伝えることが可能となる。また、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信することができ、コストや労力を削減することができる。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成することで、時間を短縮し、正確性を向上させることができる。 In this invention, the server includes means for collecting video data and audio data of the match in real time, means for analyzing the collected video data and audio data, means for generating commentary on the match based on the analysis results, and means for distributing the generated commentary together with a live broadcast. This makes it possible to accurately convey the detailed situation of the match and the movements of the players in real time. In addition, commentary on youth and mini-basketball matches from all over the country can be distributed with live broadcasts by AI, reducing costs and labor. Furthermore, by automatically generating running scores by AI instead of manually created by officials and for each team, it is possible to reduce time and improve accuracy.
「試合の映像データ」とは、バスケットボールの試合の進行状況を視覚的に記録したデジタルデータである。 "Game video data" refers to digital data that visually records the progress of a basketball game.
「音声データ」とは、バスケットボールの試合中に発生する音声をデジタル形式で記録したデータである。 "Audio data" refers to data that is a digital recording of the sounds generated during a basketball game.
「リアルタイムで収集する手段」とは、試合の進行と同時に映像データと音声データを取得するための技術や装置である。 "Means of collecting data in real time" refers to technology and devices that allow for the acquisition of video and audio data as the match progresses.
「解析する手段」とは、収集した映像データと音声データを処理し、試合の状況や選手の動きを理解するための技術やソフトウェアである。 "Means of analysis" refers to technology and software that processes collected video and audio data to understand the situation of the game and the movements of the players.
「解説を生成する手段」とは、解析結果に基づいて試合の状況や選手の動きを説明する文章を自動的に作成するための技術やソフトウェアである。 "Means for generating commentary" refers to technology or software that automatically creates text that explains the situation of the game and the movements of players based on the analysis results.
「実況中継とともに配信する手段」とは、生成された解説を試合の映像と音声と一緒にリアルタイムで視聴者に届けるための技術や装置である。 "Means of distribution along with live broadcast" refers to the technology and devices that deliver the generated commentary to viewers in real time along with the video and audio of the match.
「ユースやミニバスの試合解説」とは、若年層や小学生向けのバスケットボール試合に関する解説である。 "Youth and mini-basketball game commentary" is commentary on basketball games aimed at young people and elementary school students.
「ランニングスコア」とは、試合中にリアルタイムで更新される得点や選手のパフォーマンスを記録したデータである。 "Running score" is data that records the scores and player performances that are updated in real time during the game.
「AI自動生成する手段」とは、人工知能を用いて手作業を自動化し、データを生成するための技術やソフトウェアである。 "AI automatic generation means" refers to technology and software that uses artificial intelligence to automate manual tasks and generate data.
「データベース化を行う手段」とは、収集した情報を整理し、検索や利用が容易な形式で保存するための技術やソフトウェアである。 "Means of database creation" refers to technology and software for organizing collected information and storing it in a format that is easy to search and use.
「見える化」とは、データを視覚的に表示し、理解しやすくするための技術や方法である。 "Visualization" refers to techniques and methods for visually displaying data and making it easier to understand.
「育成に活用する手段」とは、データを基に選手のトレーニングや成長を支援するための技術や方法である。 "Means to be used in development" refers to technologies and methods that use data to support the training and development of athletes.
この発明は、バスケットボールの試合の実況中継において、AIを活用して試合の解説を自動生成し、リアルタイムで配信するシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that uses AI to automatically generate commentary on a basketball game and deliver it in real time during live broadcasts. A specific embodiment of this system is described below.
サーバの動作 Server operation
1. データ収集 1. Data collection
サーバは、試合の映像データと音声データをリアルタイムで収集する。具体的には、カメラとマイクロフォンを使用して試合の映像と音声をキャプチャする。映像データは1080pの解像度で、音声データは44.1kHzのサンプリングレートで収集する。 The server collects video and audio data of the match in real time. Specifically, it uses a camera and microphone to capture video and audio of the match. Video data is collected at a resolution of 1080p, and audio data is collected at a sampling rate of 44.1kHz.
2. データ解析 2. Data analysis
サーバは、収集した映像データと音声データを解析する。この解析には、画像認識ソフトウェア(例:OpenCV)や音声認識ソフトウェア(例:Google Speech-to-Text API)を使用する。これにより、試合の状況や選手の動きを理解する。例えば、選手Aがシュートを打つ動作を検出し、その瞬間の実況音声をテキスト化する。 The server analyzes the collected video and audio data. This analysis uses image recognition software (e.g. OpenCV) and voice recognition software (e.g. Google Speech-to-Text API). This allows the server to understand the situation of the game and the movements of the players. For example, it detects the action of Player A taking a shot and converts the live audio of that moment into text.
3. 解説生成 3. Description generation
サーバは、解析結果に基づいて試合の解説を生成する。この解説生成には、生成AIモデル(例:GPT-4)を使用する。生成AIモデルは、試合の状況や選手の動きに関する情報を入力として受け取り、自然言語で解説文を生成する。例えば、「選手Aが3ポイントシュートを成功させた」という情報を入力し、「選手Aが見事な3ポイントシュートを決めました」といった解説文を生成する。 The server generates commentary on the game based on the analysis results. A generative AI model (e.g. GPT-4) is used to generate this commentary. The generative AI model receives information about the game situation and player movements as input, and generates commentary in natural language. For example, it inputs information such as "Player A made a successful three-point shot" and generates commentary such as "Player A made a brilliant three-point shot."
4. 配信 4. Distribution
サーバは、生成された解説文を実況中継とともに配信する。配信には、ストリーミングサーバ(例:Wowza Streaming Engine)を使用する。これにより、ユーザはインターネットを通じてリアルタイムで試合の映像と解説を視聴することができる。 The server distributes the generated commentary along with the live broadcast. A streaming server (e.g. Wowza Streaming Engine) is used for distribution. This allows users to watch the game footage and commentary in real time over the Internet.
端末の動作 Device operation
1. データ受信 1. Data reception
端末は、サーバから配信される試合の映像と解説をリアルタイムで受信する。受信には、インターネット接続とストリーミングソフトウェア(例:VLCメディアプレーヤー)を使用する。 The device receives real-time game footage and commentary from the server using an internet connection and streaming software (e.g. VLC media player).
2. 表示 2. Display
端末は、受信した映像と解説をユーザに表示する。表示には、ディスプレイやスピーカーなどのハードウェアを使用する。例えば、ユーザがスマートフォンで視聴している場合、映像はスマートフォンの画面に表示され、解説音声は内蔵スピーカーから再生される。 The device displays the received video and commentary to the user. For display purposes, hardware such as a display and speakers are used. For example, if the user is watching on a smartphone, the video will be displayed on the smartphone screen and the commentary audio will be played through the built-in speaker.
ユーザの動作 User actions
1. 視聴 1. Viewing
ユーザは、端末を通じて試合の映像と解説を視聴する。ユーザは、試合の進行状況や選手の動きについての詳細な解説をリアルタイムで得ることができる。例えば、ユーザがリビングルームでテレビを通じて視聴している場合、テレビ画面に試合の映像が表示され、テレビのスピーカーから解説音声が流れる。 The user watches the game footage and commentary through the terminal. The user can get detailed commentary on the progress of the game and the movements of the players in real time. For example, if the user is watching on a television in the living room, the game footage will be displayed on the television screen and commentary will be played from the television speakers.
具体例 Specific examples
具体例1 Example 1
試合の状況: 第3クォーター、残り時間5分、スコアはホームチームが75点、アウェイチームが70点。 Game Situation: 3rd quarter, 5 minutes remaining, home team 75, away team 70.
選手の動き: ホームチームの選手Aが3ポイントシュートを成功させた。 Player Action: Home team player A makes a three-point shot.
生成AIモデルへのプロンプト文の例 Example prompts for generative AI models
試合の状況: 第3クォーター、残り時間5分、スコアはホームチームが75点、アウェイチームが70点。 Game Situation: 3rd quarter, 5 minutes remaining, home team 75, away team 70.
選手の動き: ホームチームの選手Aが3ポイントシュートを成功させた。 Player Action: Home team player A makes a three-point shot.
生成された解説文の例 Example of generated description
「第3クォーター残り5分、ホームチームが75点、アウェイチームが70点と接戦が続いています。ホームチームの選手Aが見事な3ポイントシュートを成功させ、スコアをさらに引き離しました。」 "With five minutes left in the third quarter, the home team is tied at 75 points and the away team at 70 points. Home team player A makes a great three-point shot, widening the gap even further."
このようにして、ユーザは試合の進行状況や選手の動きについての詳細な解説をリアルタイムで視聴することができる。 In this way, users can watch detailed commentary on the progress of the match and the players' movements in real time.
実施例1における特定処理の流れについて図11を用いて説明する。 The flow of the identification process in Example 1 is explained using Figure 11.
ステップ1: Step 1:
サーバは、試合の映像データと音声データをリアルタイムで収集する。 The server collects video and audio data from the match in real time.
具体的な動作として、カメラとマイクロフォンを使用して試合の映像と音声をキャプチャする。 Specific tasks include using cameras and microphones to capture video and audio of the game.
入力は、カメラとマイクロフォンからの映像と音声であり、出力はデジタル形式の映像データと音声データである。 The input is video and audio from the camera and microphone, and the output is video and audio data in digital format.
映像データは1080pの解像度で、音声データは44.1kHzのサンプリングレートで収集される。 Video data is collected at 1080p resolution, and audio data is collected at a sampling rate of 44.1kHz.
ステップ2: Step 2:
サーバは、収集した映像データと音声データを解析する。 The server analyzes the collected video and audio data.
具体的な動作として、画像認識ソフトウェア(例:OpenCV)を使用して映像データから選手の動きを検出し、音声認識ソフトウェア(例:Google Speech-to-Text API)を使用して音声データから実況の内容をテキストに変換する。 Specific operations include using image recognition software (e.g. OpenCV) to detect player movements from video data, and using voice recognition software (e.g. Google Speech-to-Text API) to convert the audio data into text to provide commentary.
入力は、ステップ1で収集された映像データと音声データであり、出力は解析された選手の動き情報とテキスト化された実況内容である。 The input is the video and audio data collected in step 1, and the output is the analyzed player movement information and the text commentary.
例えば、選手Aがシュートを打つ動作を検出し、その瞬間の実況音声をテキスト化する。 For example, it detects when Player A is about to take a shot and converts the audio commentary at that moment into text.
ステップ3: Step 3:
サーバは、解析結果に基づいて試合の解説を生成する。 The server generates commentary for the match based on the analysis results.
具体的な動作として、生成AIモデル(例:GPT-4)にプロンプト文を入力し、解説文を生成する。 Specifically, the prompt text is input into a generative AI model (e.g. GPT-4) to generate an explanatory text.
入力は、ステップ2で得られた選手の動き情報とテキスト化された実況内容であり、出力は生成された解説文である。 The input is the player movement information obtained in step 2 and the text commentary, and the output is the generated commentary.
例えば、「選手Aが3ポイントシュートを成功させた」という情報を入力し、「選手Aが見事な3ポイントシュートを決めました」といった解説文を生成する。 For example, input information such as "Player A made a successful three-point shot" and generate an explanatory text such as "Player A made a brilliant three-point shot."
ステップ4: Step 4:
サーバは、生成された解説文を実況中継とともに配信する。 The server distributes the generated commentary along with the live broadcast.
具体的な動作として、ストリーミングサーバ(例:Wowza Streaming Engine)を使用して、映像と解説音声をリアルタイムでストリーミング配信する。 Specifically, the video and commentary audio are streamed in real time using a streaming server (e.g. Wowza Streaming Engine).
入力は、ステップ3で生成された解説文とステップ1で収集された映像データであり、出力はリアルタイムで配信される映像と解説音声である。 The input is the explanatory text generated in step 3 and the video data collected in step 1, and the output is the video and explanatory audio delivered in real time.
ステップ5: Step 5:
端末は、サーバから配信される試合の映像と解説をリアルタイムで受信する。 The device receives game footage and commentary streamed from the server in real time.
具体的な動作として、インターネット接続とストリーミングソフトウェア(例:VLCメディアプレーヤー)を使用する。 Specific actions include using an internet connection and streaming software (e.g. VLC media player).
入力は、サーバからのストリーミングデータであり、出力は端末に表示される映像と再生される解説音声である。 The input is streaming data from the server, and the output is the video displayed on the terminal and the commentary audio played.
ステップ6: Step 6:
端末は、受信した映像と解説をユーザに表示する。 The device displays the received video and commentary to the user.
具体的な動作として、ディスプレイに映像を表示し、スピーカーから解説音声を再生する。 Specific operations include showing images on the display and playing explanatory audio from the speaker.
入力は、ステップ5で受信した映像と解説音声であり、出力はユーザに視覚と聴覚で提供される試合の実況中継である。 The input is the video and commentary audio received in step 5, and the output is a live broadcast of the game provided to the user in both visual and audio.
ステップ7: Step 7:
ユーザは、端末を通じて試合の映像と解説を視聴する。 Users can watch game footage and commentary through their devices.
具体的な動作として、端末のディスプレイで試合の映像を見ながら、スピーカーから流れる解説を聞く。 Specific actions include watching the game footage on the device display and listening to commentary coming from the speaker.
入力は、ステップ6で表示された映像と再生された解説音声であり、出力はユーザの視聴体験である。 The input is the video displayed in step 6 and the commentary audio played, and the output is the user's viewing experience.
例えば、ユーザがリビングルームでテレビを通じて視聴している場合、テレビ画面に試合の映像が表示され、テレビのスピーカーから解説音声が流れる。 For example, if a user is watching on a television in their living room, the game footage will be displayed on the television screen and commentary will be played from the television speakers.
(応用例1) (Application example 1)
次に、形態例1の応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, application example 1 of embodiment example 1 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、リアルタイムでの解説や試合後のハイライト生成、選手の詳細なパフォーマンス解析が十分に行われていない。また、ユーザーが特定の選手やプレイについて質問した際に、即座に適切な解説を提供することが難しいという課題がある。 Existing basketball game commentary systems do not adequately provide real-time commentary, post-game highlight generation, or detailed analysis of players' performance. In addition, there is a problem that it is difficult to provide appropriate commentary immediately when a user asks about a specific player or play.
応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像データを解析し、リアルタイムで解説を生成する手段と、試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段と、選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段と、ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段と、を含む。これにより、リアルタイムでの解説提供、試合後のハイライト生成、選手の詳細なパフォーマンス解析、ユーザーの質問に対する即座の解説提供が可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games nationwide with AI commentary, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for analyzing game video data and generating commentary in real time, a means for automatically extracting important scenes after the game ends and generating a highlight video, a means for analyzing player movements and performance and providing detailed statistical information, and a means for AI to provide commentary when a user asks a question about a specific player or play. This makes it possible to provide commentary in real time, generate post-game highlights, analyze players' performance in detail, and provide immediate commentary in response to user questions.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合の映像や音声データを解析し、試合の状況や選手の動きを理解して、AIが自動的に解説を生成する技術である。 "A means for AI to provide commentary for live broadcasts of basketball games" refers to technology in which AI analyzes video and audio data from basketball games, understands the situation of the game and the movements of the players, and automatically generates commentary.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合をAIが解説し、その解説付きで試合をリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a technology that uses AI to provide commentary on youth and mini-basketball games from around the country and broadcasts the games in real time with that commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で記録しているスコアを、AIが自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses AI to automatically generate scores that are manually recorded by officials and teams during a match.
「試合の映像データを解析し、リアルタイムで解説を生成する手段」とは、試合の映像データをリアルタイムで解析し、その解析結果に基づいて即座に解説を生成する技術である。 "Means for analyzing game video data and generating commentary in real time" refers to technology that analyzes game video data in real time and instantly generates commentary based on the analysis results.
「試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段」とは、試合終了後に試合の映像データを解析し、重要なシーンを自動的に抽出してハイライト動画を生成する技術である。 "Means for automatically extracting important scenes after the end of a match and generating a highlight video" refers to a technology that analyzes video data of a match after the end of the match, automatically extracts important scenes, and generates a highlight video.
「選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段」とは、選手の動きやパフォーマンスを解析し、その結果に基づいて詳細な統計情報を提供する技術である。 "Means of analyzing player movements and performance and providing detailed statistical information" refers to technology that analyzes player movements and performance and provides detailed statistical information based on the results.
「ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段」とは、ユーザーが特定の選手やプレイについて質問した際に、AIがその質問に対して適切な解説を提供する技術である。 "A means for an AI to provide commentary when a user asks a question about a specific player or play" refers to technology that enables an AI to provide an appropriate commentary in response to a question when a user asks about a specific player or play.
この発明を実施するためには、以下のようなシステム構成と処理手順が必要である。 To implement this invention, the following system configuration and processing steps are required.
システム構成 System configuration
ハードウェア Hardware
サーバ:AIモデルの実行とデータ解析を行うための高性能なコンピュータ。 Server: A high-performance computer for running AI models and analyzing data.
スマートフォン:ユーザーが試合の解説を視聴し、インタラクションを行うためのデバイス。 Smartphone: The device on which users watch and interact with the game commentary.
カメラ:試合の映像をキャプチャするためのデバイス。 Camera: A device used to capture footage of the match.
ソフトウェア Software
OpenCV:映像データの読み込みと解析に使用するライブラリ。 OpenCV: A library used to read and analyze video data.
TensorFlow:AIモデルの実行に使用するフレームワーク。 TensorFlow: A framework used to run AI models.
Transformers:GPT-2モデルを使用して解説を生成するライブラリ。 Transformers: A library that generates explanations using the GPT-2 model.
処理の流れ Processing flow
1. 映像データの読み込み 1. Loading video data
サーバは、カメラから取得した試合の映像データをOpenCVを用いてフレームごとに読み込む。 The server uses OpenCV to read the game video data obtained from the camera frame by frame.
2. フレームの解析 2. Frame analysis
サーバは、読み込んだフレームを解析し、選手の動きや重要なアクションを検出する。この解析には、TensorFlowを用いたディープラーニングモデルを使用する。 The server analyzes the loaded frames to detect player movements and important actions. This analysis uses a deep learning model using TensorFlow.
3. 解説の生成 3. Generate explanations
サーバは、解析結果に基づいて解説文を生成する。具体的には、Transformersライブラリを用いてGPT-2モデルを実行し、プロンプト文を入力として解説文を生成する。 The server generates an explanatory text based on the analysis results. Specifically, it runs the GPT-2 model using the Transformers library and generates an explanatory text using the prompt text as input.
4. 解説の配信 4. Delivering commentary
生成された解説文は、リアルタイムでスマートフォンに配信される。ユーザーは、スマートフォンを通じて試合の解説を視聴することができる。 The generated commentary is delivered to smartphones in real time, allowing users to watch and listen to commentary on the match via their smartphones.
5. ハイライト動画の生成 5. Highlight video generation
試合終了後、サーバは重要なシーンを自動で抽出し、ハイライト動画を生成する。このハイライト動画もスマートフォンに配信される。 After the match ends, the server automatically extracts important scenes and generates a highlight video. This highlight video is also distributed to smartphones.
6. 選手のパフォーマンス解析 6. Player performance analysis
サーバは、選手の動きやパフォーマンスを詳細に解析し、統計情報を生成する。この統計情報は、ユーザーがスマートフォンで確認できる。 The server performs detailed analysis of the players' movements and performance and generates statistical information that users can view on their smartphones.
7. ユーザーインタラクション 7. User interaction
ユーザーが特定の選手やプレイについて質問すると、サーバはその質問に対して適切な解説を生成し、スマートフォンに配信する。 When a user asks a question about a particular player or play, the server generates an appropriate commentary for that question and delivers it to the smartphone.
具体例 Specific examples
試合の得点シーン:選手Aがスリーポイントシュートを決めた瞬間を検出し、「Player A scores a three-pointer」という解説を生成する。 Scoring scene in the game: Detect the moment when Player A makes a three-point shot and generate a commentary such as "Player A scores a three-pointer."
ディフェンスのハイライト:選手Bがブロックショットを成功させたシーンを検出し、「Player B makes a great block」という解説を生成する。 Defensive highlights: Detects a scene where Player B successfully blocks a shot and generates a commentary such as "Player B makes a great block."
プロンプト文の例 Example of a prompt
「Player A scores a three-pointer. Generate a commentary for this action.」 "Player A scores a three-pointer. Generate a commentary for this action."
「Player B makes a great block. Generate a commentary for this action.」 "Player B makes a great block. Generate a commentary for this action."
このようにして、サーバは試合の映像データをリアルタイムで解析し、ユーザーに対して自動的に解説を提供することができる。これにより、リアルタイムでの解説提供、試合後のハイライト生成、選手の詳細なパフォーマンス解析、ユーザーの質問に対する即座の解説提供が可能となる。 In this way, the server can analyze the game video data in real time and automatically provide commentary to the user. This allows for real-time commentary, post-game highlights, detailed analysis of player performance, and instant commentary in response to user questions.
応用例1における特定処理の流れについて図12を用いて説明する。 The flow of the specific processing in application example 1 is explained using Figure 12.
ステップ1: Step 1:
サーバは、カメラから取得した試合の映像データをOpenCVを用いてフレームごとに読み込む。入力はカメラからの映像データであり、出力は個々のフレーム画像である。具体的には、サーバは映像データを連続する静止画として分割し、各フレームをメモリに格納する。 The server uses OpenCV to read the game video data captured by the camera frame by frame. The input is the video data from the camera, and the output is the individual frame images. Specifically, the server splits the video data into a series of still images and stores each frame in memory.
ステップ2: Step 2:
サーバは、読み込んだフレームを解析し、選手の動きや重要なアクションを検出する。この解析には、TensorFlowを用いたディープラーニングモデルを使用する。入力はステップ1で得られたフレーム画像であり、出力は選手の動きやアクションの情報である。具体的には、サーバはフレーム内の選手の位置や動きを検出し、得点やブロックなどの重要なアクションを識別する。 The server analyzes the loaded frames to detect player movements and important actions. A deep learning model using TensorFlow is used for this analysis. The input is the frame image obtained in step 1, and the output is information about the player movements and actions. Specifically, the server detects the positions and movements of players within the frames and identifies important actions such as points and blocks.
ステップ3: Step 3:
サーバは、解析結果に基づいて解説文を生成する。具体的には、Transformersライブラリを用いてGPT-2モデルを実行し、プロンプト文を入力として解説文を生成する。入力はステップ2で得られたアクション情報とプロンプト文であり、出力は生成された解説文である。サーバは、選手のアクションに対応するプロンプト文を生成し、それをGPT-2モデルに入力して解説文を得る。 The server generates a commentary based on the analysis results. Specifically, it runs the GPT-2 model using the Transformers library and generates a commentary using the prompt as input. The input is the action information and prompt obtained in step 2, and the output is the generated commentary. The server generates a prompt corresponding to the player's action and inputs it into the GPT-2 model to obtain the commentary.
ステップ4: Step 4:
サーバは、生成された解説文をリアルタイムでスマートフォンに配信する。入力はステップ3で生成された解説文であり、出力はスマートフォンに表示される解説文である。具体的には、サーバは解説文をネットワークを通じてスマートフォンに送信し、ユーザーが視聴できるようにする。 The server delivers the generated commentary to the smartphone in real time. The input is the commentary generated in step 3, and the output is the commentary displayed on the smartphone. Specifically, the server transmits the commentary to the smartphone via the network so that the user can view it.
ステップ5: Step 5:
試合終了後、サーバは重要なシーンを自動で抽出し、ハイライト動画を生成する。入力は試合全体の映像データであり、出力はハイライト動画である。具体的には、サーバは試合中に検出された重要なアクションを基に、ハイライトシーンを選定し、それらを連結してハイライト動画を作成する。 After the match ends, the server automatically extracts important scenes and generates a highlight video. The input is the video data of the entire match, and the output is the highlight video. Specifically, the server selects highlight scenes based on important actions detected during the match and links them together to create a highlight video.
ステップ6: Step 6:
サーバは、選手の動きやパフォーマンスを詳細に解析し、統計情報を生成する。入力は試合中のフレーム画像と選手のアクション情報であり、出力は詳細な統計情報である。具体的には、サーバは選手ごとの得点、リバウンド、アシストなどのデータを集計し、統計情報としてまとめる。 The server performs detailed analysis of players' movements and performance and generates statistical information. The input is frame images from the game and information about players' actions, and the output is detailed statistical information. Specifically, the server compiles data such as points, rebounds, and assists for each player and compiles it as statistical information.
ステップ7: Step 7:
ユーザーが特定の選手やプレイについて質問すると、サーバはその質問に対して適切な解説を生成し、スマートフォンに配信する。入力はユーザーからの質問とプロンプト文であり、出力は生成された解説文である。具体的には、サーバはユーザーの質問を解析し、それに対応するプロンプト文を生成してGPT-2モデルに入力し、解説文を得てスマートフォンに送信する。 When a user asks a question about a specific player or play, the server generates an appropriate commentary for that question and delivers it to the smartphone. The input is the user's question and prompt text, and the output is the generated commentary text. Specifically, the server analyzes the user's question, generates a corresponding prompt text, inputs it into the GPT-2 model, obtains the commentary text, and sends it to the smartphone.
(実施例2) (Example 2)
次に、形態例2の実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, a second embodiment of the second embodiment will be described. In the following description, the
従来のバスケットボールの試合解説は、専門の解説者が必要であり、全国各地で行われるユースやミニバスの試合においては、解説者の確保が難しいという問題があった。また、試合の進行状況や選手の動きをリアルタイムで視聴者に伝えることが困難であり、視聴体験が限定されていた。さらに、試合データの収集や解析が手動で行われるため、効率が悪く、データの一貫性や正確性に欠けることがあった。 Traditionally, commentary on basketball games required a specialized commentator, and there was the problem of difficulty in securing commentators for youth and mini-basketball games held all over the country. It was also difficult to convey the progress of the game and the movements of the players to viewers in real time, limiting the viewing experience. Furthermore, the collection and analysis of game data was done manually, which was inefficient and sometimes lacked consistency and accuracy.
実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、全国各地で行われる試合の映像や音声データを収集する手段と、収集したデータをクラウドストレージに保存する手段と、保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段と、生成された解説を試合映像と同期させる手段と、解説付きの試合映像をストリーミング配信する手段と、ユーザが視聴するためのインターフェースを提供する手段と、サーバからストリーミング配信される解説付き試合映像を受信する手段と、受信した映像をユーザに表示する手段を含む。これにより、全国各地で行われるユースやミニバスの試合においても、AIによる高品質な解説付きの実況中継が可能となり、視聴体験が向上する。また、試合データの収集や解析が自動化されるため、効率的かつ正確なデータ管理が実現できる。 In this invention, the server includes means for collecting video and audio data of matches held throughout the country, means for storing the collected data in cloud storage, means for transmitting the stored data to a generative AI model and generating commentary for the match, means for synchronizing the generated commentary with the match video, means for streaming the match video with commentary, means for providing an interface for users to view, means for receiving the match video with commentary streamed from the server, and means for displaying the received video to the user. This enables live broadcasts with high-quality commentary by AI even for youth and mini-basketball matches held throughout the country, improving the viewing experience. In addition, efficient and accurate data management can be achieved because the collection and analysis of match data is automated.
「全国各地で行われる試合の映像や音声データを収集する手段」とは、各地の試合会場に設置されたカメラやマイクロフォンを用いて、試合の映像および音声をリアルタイムでキャプチャし、サーバに送信するための装置やシステムである。 "Means for collecting video and audio data from matches held around the country" refers to devices and systems that use cameras and microphones installed at match venues around the country to capture video and audio data from matches in real time and transmit it to a server.
「収集したデータをクラウドストレージに保存する手段」とは、収集された映像や音声データを適切なフォーマットに変換し、クラウドサービスを利用してデータを保存するための装置やシステムである。 "Means for storing collected data in cloud storage" refers to devices or systems that convert collected video and audio data into an appropriate format and store the data using cloud services.
「保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段」とは、クラウドストレージに保存されたデータを取得し、生成AIモデルに対してプロンプト文を送信してデータを解析し、試合の解説を生成するための装置やシステムである。 "Means for sending stored data to a generative AI model and generating commentary on a match" refers to a device or system that retrieves data stored in cloud storage, sends prompt text to the generative AI model to analyze the data, and generates commentary on a match.
「生成された解説を試合映像と同期させる手段」とは、生成された解説テキストを試合映像の特定のタイムスタンプに合わせて挿入し、映像と解説が同期された状態で再生できるようにするための装置やシステムである。 "Means for synchronizing the generated commentary with the game video" refers to a device or system that inserts the generated commentary text at a specific timestamp in the game video, allowing the video and commentary to be played in a synchronized state.
「解説付きの試合映像をストリーミング配信する手段」とは、同期された映像データをリアルタイムでエンコードし、ストリーミングプラットフォームに送信して視聴者に配信するための装置やシステムである。 "Means for streaming game footage with commentary" refers to a device or system that encodes synchronized video data in real time and transmits it to a streaming platform for distribution to viewers.
「ユーザが視聴するためのインターフェースを提供する手段」とは、スマートフォンやタブレット、PCなどのデバイスを通じて、ユーザに視聴インターフェースを表示するための装置やシステムである。 "Means for providing an interface for users to view" refers to a device or system for displaying a viewing interface to users through a device such as a smartphone, tablet, or PC.
「サーバからストリーミング配信される解説付き試合映像を受信する手段」とは、インターネット接続を通じてサーバから配信される解説付き試合映像をリアルタイムで受信するための装置やシステムである。 "Means for receiving game footage with commentary streamed from a server" refers to a device or system for receiving game footage with commentary streamed from a server in real time via an Internet connection.
「受信した映像をユーザに表示する手段」とは、受信した映像データをデコードし、ユーザのデバイス画面に表示するための装置やシステムである。 "Means for displaying received video to a user" refers to a device or system for decoding received video data and displaying it on the user's device screen.
この発明は、全国各地で行われるユースやミニバスの試合をAIによる解説付きで配信するシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that broadcasts youth and mini-basketball matches held around the country with commentary by AI. A specific embodiment of this system is described below.
サーバの役割 Server role
サーバは、全国各地で行われる試合の映像や音声データを収集する。各地の試合会場に設置されたカメラやマイクロフォンを用いて、試合の映像および音声をリアルタイムでキャプチャし、これらのデータをサーバに送信する。収集されたデータは、Amazon S3やGoogle Cloud Storageなどのクラウドストレージに保存される。 The server collects video and audio data from matches held around the country. Cameras and microphones installed at match venues around the country capture video and audio from matches in real time and send this data to the server. The collected data is stored in cloud storage such as Amazon S3 and Google Cloud Storage.
次に、サーバは保存されたデータを生成AIモデルに送信する。生成AIモデルには、例えばOpenAIのGPT-4やGoogleのBERTなどが使用される。サーバは、クラウドストレージからデータを取得し、生成AIモデルに対してプロンプト文を送信する。プロンプト文には、試合の進行状況や選手の動き、得点状況などを解析する指示が含まれる。 The server then sends the stored data to a generative AI model. Examples of generative AI models that can be used include OpenAI's GPT-4 and Google's BERT. The server retrieves the data from cloud storage and sends a prompt to the generative AI model. The prompt includes instructions for analyzing the progress of the game, the movements of players, the score, etc.
生成AIモデルは、プロンプト文に基づいてデータを解析し、自然言語で解説を生成する。生成された解説は、テキスト形式でサーバに返送される。サーバは、生成された解説を試合映像と同期させる。この同期処理には、FFmpegなどの動画編集ソフトウェアが使用される。サーバは、解説テキストを映像の特定のタイムスタンプに合わせて挿入し、映像と解説が同期された状態で再生できるようにする。 The generative AI model analyzes the data based on the prompt text and generates commentary in natural language. The generated commentary is sent back to the server in text format. The server then synchronizes the generated commentary with the game footage. This synchronization process is performed using video editing software such as FFmpeg. The server inserts the commentary text at specific timestamps in the footage, allowing the footage and commentary to be played in sync.
最後に、サーバは解説付きの試合映像をストリーミング配信する。この配信には、YouTube LiveやTwitchなどのストリーミングプラットフォームが利用される。サーバは、同期された映像データをリアルタイムでエンコードし、ストリーミングプラットフォームに送信する。 Finally, the server streams the match footage with commentary to a streaming platform such as YouTube Live or Twitch. The server encodes the synchronized video data in real time and sends it to the streaming platform.
端末の役割 Role of the device
端末は、ユーザが視聴するためのインターフェースを提供する。ここでは、スマートフォンやタブレット、PCなどのデバイスが使用される。端末は、専用アプリケーションやウェブブラウザを通じて、ユーザに視聴インターフェースを表示する。インターフェースには、試合一覧や検索機能が含まれる。 The terminal provides the user with an interface for viewing. Devices such as smartphones, tablets, and PCs are used here. The terminal displays the viewing interface to the user through a dedicated application or web browser. The interface includes a list of matches and a search function.
端末は、サーバからストリーミング配信される解説付き試合映像を受信する。この受信には、インターネット接続が必要である。端末は、ストリーミングプラットフォームから映像データをリアルタイムで受信し、バッファリングを行う。受信した映像データをデコードし、ユーザのデバイス画面に表示する。 The device receives game footage with commentary streamed from the server. An Internet connection is required for this reception. The device receives video data from the streaming platform in real time and buffers it. The device decodes the received video data and displays it on the user's device screen.
ユーザの役割 User Roles
ユーザは、端末を使用してシステムにアクセスする。アクセスには、専用のアプリケーションやウェブブラウザが使用される。ユーザは、スマートフォンやPCで専用アプリを起動するか、ウェブブラウザでシステムのURLにアクセスする。 Users access the system using a terminal. To do so, they use a dedicated application or a web browser. Users launch a dedicated application on their smartphone or PC, or access the system's URL using a web browser.
ユーザは、視聴したい試合を選択する。選択には、試合一覧や検索機能が提供される。ユーザは、インターフェース上で試合一覧をスクロールし、視聴したい試合をクリックする。検索機能を使用して特定の試合を検索することもできる。 The user selects the match they wish to watch. For this selection, a list of matches and a search function are provided. The user scrolls through the list of matches on the interface and clicks on the match they wish to watch. They can also use the search function to find a specific match.
ユーザは、選択した試合の解説付き映像を視聴する。視聴中に、ユーザは再生、一時停止、巻き戻しなどの操作を行うことができる。ユーザは、再生ボタンをクリックして映像を視聴開始し、必要に応じて、一時停止ボタンや巻き戻しボタンを使用して映像を操作する。 The user watches the commentary-enhanced video of the selected match. While watching, the user can play, pause, rewind, and perform other operations. The user clicks the play button to start watching the video, and uses the pause and rewind buttons to navigate the video as needed.
具体例 Specific examples
例えば、ユーザがスマートフォンを使用して、全国ユースバスケットボール大会の試合を視聴する場合、以下の手順を踏む: For example, if a user wants to watch a national youth basketball tournament game on their smartphone, they would follow these steps:
1. ユーザは、スマートフォンの専用アプリを起動する。 1. The user launches the dedicated app on their smartphone.
2. アプリ内の検索機能を使用して、「全国ユースバスケットボール大会」と入力する。 2. Use the in-app search function and type in "National Youth Basketball Tournament."
3. 検索結果から視聴したい試合を選択する。 3. Select the match you want to watch from the search results.
4. アプリは、サーバから解説付き試合映像をストリーミング配信する。 4. The app streams game footage with commentary from the server.
5. ユーザは、スマートフォンの画面で試合を視聴し、解説を楽しむ。 5. Users can watch the game on their smartphone screen and enjoy the commentary.
生成AIモデルへ入力するプロンプト文の例としては、「全国ユースバスケットボール大会の試合映像と音声データを解析し、試合の進行状況、選手の動き、得点状況などを含む解説を生成してください。」が挙げられる。このプロンプト文を使用して、AI解析システムに試合の解説を生成させる。 An example of a prompt sentence to be input to the generative AI model is, "Analyze the game video and audio data of the National Youth Basketball Tournament and generate commentary including the progress of the game, player movements, score status, etc." Using this prompt sentence, the AI analysis system generates commentary of the game.
実施例2における特定処理の流れについて図13を用いて説明する。 The flow of the identification process in Example 2 is explained using Figure 13.
ステップ1: Step 1:
サーバは、全国各地で行われる試合の映像や音声データを収集する。入力として、各地の試合会場に設置されたカメラやマイクロフォンからのリアルタイムデータを受け取る。具体的な動作として、これらのデバイスがキャプチャした映像と音声をインターネットを通じてサーバに送信する。出力として、収集された映像と音声データが得られる。 The server collects video and audio data from matches held around the country. As input, it receives real-time data from cameras and microphones installed at match venues around the country. Specifically, it transmits the video and audio captured by these devices to the server via the internet. As output, it obtains the collected video and audio data.
ステップ2: Step 2:
サーバは、収集したデータをクラウドストレージに保存する。入力として、ステップ1で収集された映像と音声データを受け取る。具体的な動作として、データを適切なフォーマットに変換し、Amazon S3やGoogle Cloud Storageなどのクラウドサービスにアップロードする。出力として、クラウドストレージに保存されたデータが得られる。 The server stores the collected data in cloud storage. As input, it receives the video and audio data collected in step 1. Specifically, it converts the data into an appropriate format and uploads it to a cloud service such as Amazon S3 or Google Cloud Storage. As output, it obtains the data stored in cloud storage.
ステップ3: Step 3:
サーバは、保存されたデータを生成AIモデルに送信し、試合の解説を生成する。入力として、クラウドストレージから取得した映像と音声データを受け取る。具体的な動作として、生成AIモデルに対してプロンプト文を送信し、データを解析させる。プロンプト文には、試合の進行状況や選手の動き、得点状況などを解析する指示が含まれる。出力として、生成AIモデルから返送された解説テキストが得られる。 The server sends the saved data to the generative AI model to generate commentary on the match. As input, it receives video and audio data obtained from cloud storage. Specifically, it sends a prompt to the generative AI model to analyze the data. The prompt includes instructions to analyze the progress of the match, player movements, the score, etc. The output is the commentary text returned from the generative AI model.
ステップ4: Step 4:
サーバは、生成された解説を試合映像と同期させる。入力として、ステップ3で得られた解説テキストとクラウドストレージから取得した映像データを受け取る。具体的な動作として、FFmpegなどの動画編集ソフトウェアを使用して、解説テキストを映像の特定のタイムスタンプに合わせて挿入する。出力として、解説と同期された試合映像が得られる。 The server synchronizes the generated commentary with the game footage. As input, it receives the commentary text obtained in step 3 and the video data obtained from the cloud storage. Specifically, it uses video editing software such as FFmpeg to insert the commentary text at a specific timestamp in the video. As output, it obtains the game footage synchronized with the commentary.
ステップ5: Step 5:
サーバは、解説付きの試合映像をストリーミング配信する。入力として、ステップ4で得られた解説と同期された試合映像を受け取る。具体的な動作として、映像データをリアルタイムでエンコードし、YouTube LiveやTwitchなどのストリーミングプラットフォームに送信する。出力として、視聴者に配信されるストリーミング映像が得られる。 The server streams the game footage with commentary. As input, it receives the game footage synchronized with the commentary obtained in step 4. Specifically, it encodes the video data in real time and transmits it to a streaming platform such as YouTube Live or Twitch. As output, it obtains the streaming video that is distributed to the viewers.
ステップ6: Step 6:
端末は、ユーザが視聴するためのインターフェースを提供する。入力として、ユーザの操作を受け取る。具体的な動作として、専用アプリケーションやウェブブラウザを通じて、視聴インターフェースを表示する。インターフェースには、試合一覧や検索機能が含まれる。出力として、ユーザが視聴したい試合を選択するための情報が得られる。 The terminal provides an interface for users to watch. It receives user operations as input. Its specific operation is to display the viewing interface through a dedicated application or web browser. The interface includes a list of matches and a search function. As output, it provides information that allows the user to select the match they wish to watch.
ステップ7: Step 7:
端末は、サーバからストリーミング配信される解説付き試合映像を受信する。入力として、サーバからのストリーミングデータを受け取る。具体的な動作として、インターネット接続を通じて映像データをリアルタイムで受信し、バッファリングを行う。出力として、受信された映像データが得られる。 The terminal receives game footage with commentary that is streamed from the server. As input, it receives streaming data from the server. Specifically, it receives video data in real time via an Internet connection and buffers it. As output, it obtains the received video data.
ステップ8: Step 8:
端末は、受信した映像をユーザに表示する。入力として、ステップ7で受信された映像データを受け取る。具体的な動作として、映像データをデコードし、ユーザのデバイス画面に表示する。出力として、ユーザが視聴する映像が得られる。 The terminal displays the received video to the user. As input, it receives the video data received in step 7. Specifically, it decodes the video data and displays it on the user's device screen. As output, it obtains the video that the user watches.
ステップ9: Step 9:
ユーザは、端末を使用してシステムにアクセスする。入力として、専用のアプリケーションやウェブブラウザを使用する。具体的な動作として、スマートフォンやPCで専用アプリを起動するか、ウェブブラウザでシステムのURLにアクセスする。出力として、システムへのアクセスが得られる。 The user accesses the system using a terminal. A dedicated application or a web browser is used as input. Specifically, the user launches a dedicated application on a smartphone or PC, or accesses the system's URL in a web browser. Access to the system is obtained as output.
ステップ10: Step 10:
ユーザは、視聴したい試合を選択する。入力として、視聴インターフェース上の試合一覧や検索機能を使用する。具体的な動作として、試合一覧をスクロールし、視聴したい試合をクリックする。検索機能を使用して特定の試合を検索することもできる。出力として、選択された試合が得られる。 The user selects the match they want to watch. As input, they use the match list and search functionality on the viewing interface. They scroll through the match list and click on the match they want to watch. They can also use the search functionality to search for a specific match. As output, they get the selected match.
ステップ11: Step 11:
ユーザは、選択した試合の解説付き映像を視聴する。入力として、ステップ10で選択された試合を受け取る。具体的な動作として、再生ボタンをクリックして映像を視聴開始し、必要に応じて、一時停止ボタンや巻き戻しボタンを使用して映像を操作する。出力として、視聴される試合映像が得られる。
The user watches the commentary-enhanced video of the selected match. As input, the match selected in
(応用例2) (Application example 2)
次に、形態例2の応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, application example 2 of embodiment example 2 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、試合の実況中継や解説が人手に依存しており、全国各地で行われるユースやミニバスの試合を広く視聴者に提供することが困難であった。また、試合のハイライトやリプレイ機能、試合後の統計データや分析レポートの提供が不足しており、視聴者の満足度を高めることができなかった。さらに、ユーザーが好きなチームや選手をフォローする機能がなく、個別のニーズに応えることができなかった。 In conventional basketball game commentary systems, live broadcasts and commentary of games were dependent on human labor, making it difficult to provide youth and mini-basketball games held all over the country to a wide audience. In addition, there was a lack of game highlights and replay functions, and post-game statistical data and analysis reports, making it difficult to increase viewer satisfaction. Furthermore, there was no function for users to follow their favorite teams or players, making it difficult to meet individual needs.
応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像や音声データを収集し、AIが解析して解説を生成する手段と、スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段と、試合のハイライトやリプレイ機能を提供する手段と、ユーザーが好きなチームや選手をフォローできる機能を提供する手段と、試合後の統計データや分析レポートを提供する手段を含む。これにより、全国各地で行われるユースやミニバスの試合を広く視聴者に提供し、視聴者の満足度を高めることが可能となる。
The specific processing by the
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合中に人工知能を用いてリアルタイムで解説を生成し、視聴者に提供する技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to generate commentary in real time during a basketball game and provide it to viewers.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能による解説付きでリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to technology that broadcasts youth and mini-basketball games held around the country in real time with commentary by artificial intelligence.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを人工知能が自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合の映像や音声データを収集し、AIが解析して解説を生成する手段」とは、試合中の映像や音声データを収集し、それを人工知能が解析して解説を生成する技術である。 "Method of collecting video and audio data from the match and analyzing it with AI to generate commentary" refers to technology that collects video and audio data from the match and uses artificial intelligence to analyze it and generate commentary.
「スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段」とは、スマートフォン用のアプリケーションを用いて、リアルタイムで試合を配信し、人工知能による解説を提供する技術である。 "Means of broadcasting matches in real time and providing commentary by AI through an application installed on a smartphone" refers to a technology that uses a smartphone application to broadcast matches in real time and provide commentary by artificial intelligence.
「試合のハイライトやリプレイ機能を提供する手段」とは、試合中の重要なシーンやプレイをハイライトとしてまとめたり、リプレイとして再生する機能を提供する技術である。 "Means for providing match highlight and replay features" refers to technology that provides the functionality to compile important scenes and plays during a match as highlights or play them back as replays.
「ユーザーが好きなチームや選手をフォローできる機能を提供する手段」とは、ユーザーが自分の好きなチームや選手を選んでフォローし、その情報を優先的に受け取ることができる機能を提供する技術である。 "Means for providing a function that enables users to follow their favorite teams and players" refers to technology that provides a function that enables users to select and follow their favorite teams and players and receive information about them on a priority basis.
「試合後の統計データや分析レポートを提供する手段」とは、試合終了後に試合の統計データや分析レポートを生成し、ユーザーに提供する技術である。 "Means for providing post-match statistical data and analytical reports" refers to technology that generates match statistical data and analytical reports after the match ends and provides them to users.
この発明を実施するための形態として、以下のシステム構成を説明する。 The following system configuration is described as a form for implementing this invention.
システム構成 System configuration
システムは、サーバ、スマートフォン、及びAIモデルを含む。サーバは、試合の映像や音声データを収集し、AIモデルを用いて解析を行い、解説を生成する。スマートフォンは、ユーザーが試合をリアルタイムで視聴し、AIによる解説を受け取るためのアプリケーションを提供する。 The system includes a server, a smartphone, and an AI model. The server collects video and audio data from the match, analyzes it using the AI model, and generates commentary. The smartphone provides an application that enables users to watch the match in real time and receive commentary by the AI.
使用するハードウェア及びソフトウェア Hardware and software used
サーバ: 高性能なデータ処理能力を持つサーバ(例:AWS EC2インスタンス) Server: A server with high-performance data processing capabilities (e.g. AWS EC2 instance)
スマートフォン: iOSまたはAndroidデバイス Smartphone: iOS or Android device
AIモデル: OpenAIのGPT-4 AI model: OpenAI's GPT-4
データ処理ライブラリ: OpenCV(映像処理用)、Python(プログラム言語) Data processing library: OpenCV (for image processing), Python (programming language)
データ加工及びデータ演算 Data processing and data calculations
1. 試合の映像や音声データの収集: 1. Collecting video and audio data from the match:
サーバは、全国各地で行われるユースやミニバスの試合の映像や音声データをリアルタイムで収集する。これには、カメラやマイクなどの入力デバイスが使用される。 The server collects video and audio data in real time from youth and mini-basketball matches held across the country. This is done using input devices such as cameras and microphones.
2. AIによる解析と解説生成: 2. AI-based analysis and explanation generation:
サーバは、収集した映像や音声データをOpenCVを用いて解析し、試合の重要なシーンやプレイを抽出する。抽出された情報を基に、OpenAIのGPT-4を使用して解説を生成する。具体的には、以下のプロンプト文を用いる。 The server uses OpenCV to analyze the collected video and audio data and extracts important scenes and plays from the match. Based on the extracted information, it uses OpenAI's GPT-4 to generate commentary. Specifically, it uses the following prompt sentence:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
3. リアルタイム配信と解説提供: 3. Real-time broadcasting and commentary:
サーバは、生成された解説とともに試合の映像をスマートフォンにリアルタイムで配信する。スマートフォンにインストールされたアプリケーションは、ユーザーが試合を視聴しながらAIによる解説を受け取ることを可能にする。 The server delivers the game footage along with the generated commentary to smartphones in real time. An application installed on the smartphone allows users to receive the AI commentary while watching the game.
4. ハイライトやリプレイ機能の提供: 4. Providing highlight and replay features:
サーバは、試合中の重要なシーンをハイライトとしてまとめ、リプレイ機能を提供する。これにより、ユーザーは試合の重要な瞬間を再度視聴することができる。 The server compiles highlights of key scenes during the match and provides a replay function, allowing users to rewatch key moments of the match.
5. ユーザーのフォロー機能: 5. User following feature:
スマートフォンのアプリケーションは、ユーザーが好きなチームや選手をフォローする機能を提供する。これにより、ユーザーはフォローしたチームや選手の情報を優先的に受け取ることができる。 The smartphone application provides users with the ability to follow their favorite teams and players. This allows users to receive information about the teams and players they follow preferentially.
6. 試合後の統計データや分析レポートの提供: 6. Providing post-match statistics and analysis reports:
サーバは、試合終了後に統計データや分析レポートを生成し、スマートフォンのアプリケーションを通じてユーザーに提供する。これにより、ユーザーは試合の詳細な分析情報を得ることができる。 After the match ends, the server generates statistical data and analysis reports and provides them to users via a smartphone application, allowing users to obtain detailed analysis information about the match.
具体例 Specific examples
例えば、ユーザーがスマートフォンのアプリケーションを通じてユースバスケットボールの試合を視聴している場合、サーバはリアルタイムで試合の映像とAIによる解説を配信する。試合中に選手Aがゴールを決めた瞬間、サーバはそのシーンを解析し、以下のプロンプト文を生成する。 For example, when a user is watching a youth basketball game through a smartphone application, the server delivers real-time game footage and AI commentary. The moment Player A scores a goal during the game, the server analyzes the scene and generates the following prompt:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
このプロンプト文を基に、AIモデルが解説を生成し、ユーザーに提供する。ユーザーは試合を視聴しながら、AIによる解説をリアルタイムで楽しむことができる。また、試合後には統計データや分析レポートを通じて、試合の詳細な情報を得ることができる。 Based on this prompt, the AI model will generate commentary and provide it to the user. Users can enjoy the AI commentary in real time while watching the match. In addition, after the match, users can obtain detailed information about the match through statistical data and analysis reports.
応用例2における特定処理の流れについて図14を用いて説明する。 The flow of the specific processing in application example 2 is explained using Figure 14.
ステップ1: Step 1:
サーバは、全国各地で行われるユースやミニバスの試合の映像や音声データを収集する。入力として、カメラやマイクなどの入力デバイスからのリアルタイムデータを受け取り、出力として、これらのデータをストレージに保存する。具体的な動作として、サーバは各試合会場から送信される映像と音声データを受信し、適切なフォーマットに変換して保存する。 The server collects video and audio data from youth and mini-basketball matches held around the country. As input, it receives real-time data from input devices such as cameras and microphones, and as output, it stores this data in storage. In concrete terms, the server receives video and audio data sent from each match venue, converts it into an appropriate format, and stores it.
ステップ2: Step 2:
サーバは、収集した映像や音声データを解析する。入力として、ステップ1で保存された映像と音声データを使用し、出力として、試合の重要なシーンやプレイの情報を抽出する。具体的な動作として、サーバはOpenCVを用いて映像データをフレームごとに解析し、選手の動きやボールの位置を特定する。また、音声データからは得点やファウルなどのイベントを抽出する。 The server analyzes the collected video and audio data. It uses the video and audio data saved in step 1 as input, and extracts information about important scenes and plays in the match as output. Specifically, the server uses OpenCV to analyze the video data frame by frame and identify the movements of players and the position of the ball. It also extracts events such as goals and fouls from the audio data.
ステップ3: Step 3:
サーバは、解析結果を基にプロンプト文を生成する。入力として、ステップ2で抽出された試合の重要なシーンやプレイの情報を使用し、出力として、AIモデルに渡すためのプロンプト文を生成する。具体的な動作として、サーバは選手の動きや得点状況などの情報をテキスト形式に変換し、以下のようなプロンプト文を生成する。 The server generates a prompt sentence based on the analysis results. As input, it uses information about important scenes and plays in the match extracted in step 2, and as output, it generates a prompt sentence to pass to the AI model. Specifically, the server converts information such as player movements and scoring status into text format and generates a prompt sentence like the following:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
ステップ4: Step 4:
サーバは、生成したプロンプト文をAIモデルに送信し、解説を生成する。入力として、ステップ3で生成されたプロンプト文を使用し、出力として、AIモデルから生成された解説テキストを受け取る。具体的な動作として、サーバはOpenAIのGPT-4 APIを呼び出し、プロンプト文を送信して解説を生成する。 The server sends the generated prompt text to the AI model and generates an explanation. It uses the prompt text generated in step 3 as input and receives the explanation text generated from the AI model as output. In concrete terms, the server calls OpenAI's GPT-4 API, sends the prompt text, and generates an explanation.
ステップ5: Step 5:
サーバは、生成された解説と試合の映像をスマートフォンにリアルタイムで配信する。入力として、ステップ4で生成された解説テキストとステップ1で収集された映像データを使用し、出力として、ユーザーのスマートフォンに配信するデータを生成する。具体的な動作として、サーバは映像データに解説テキストをオーバーレイし、ストリーミング形式でスマートフォンに送信する。 The server delivers the generated commentary and game footage to smartphones in real time. It uses the commentary text generated in step 4 and the video data collected in step 1 as input, and generates data to be delivered to the user's smartphone as output. In concrete terms, the server overlays the commentary text on the video data and transmits it to the smartphone in streaming format.
ステップ6: Step 6:
ユーザーは、スマートフォンのアプリケーションを通じて試合を視聴し、AIによる解説を受け取る。入力として、サーバから配信された映像と解説データを使用し、出力として、ユーザーに試合の映像と解説を表示する。具体的な動作として、スマートフォンのアプリケーションは、受信したデータをデコードし、画面上に表示する。 Users watch the game through a smartphone application and receive commentary by AI. As input, it uses video and commentary data distributed from the server, and as output, it displays the game video and commentary to the user. In concrete terms, the smartphone application decodes the received data and displays it on the screen.
ステップ7: Step 7:
サーバは、試合中の重要なシーンをハイライトとしてまとめ、リプレイ機能を提供する。入力として、ステップ2で抽出された重要なシーンの情報を使用し、出力として、ハイライト映像を生成する。具体的な動作として、サーバは重要なシーンを編集し、ユーザーがリプレイできる形式で保存する。 The server summarizes important scenes during the match as highlights and provides a replay function. It uses the information of important scenes extracted in step 2 as input and generates highlight videos as output. In concrete terms, the server edits the important scenes and saves them in a format that users can replay.
ステップ8: Step 8:
ユーザーは、スマートフォンのアプリケーションを通じて好きなチームや選手をフォローする。入力として、ユーザーの選択情報を使用し、出力として、フォローしたチームや選手の情報を優先的に表示する。具体的な動作として、アプリケーションはユーザーの選択を記録し、関連する情報を優先的に取得して表示する。 Users follow their favorite teams and players through a smartphone application. The application uses the user's selection information as input, and prioritizes displaying information about the followed teams and players as output. In concrete terms, the application records the user's selection, and prioritizes retrieving and displaying related information.
ステップ9: Step 9:
サーバは、試合終了後に統計データや分析レポートを生成し、ユーザーに提供する。入力として、試合中に収集されたデータを使用し、出力として、統計データや分析レポートを生成する。具体的な動作として、サーバは試合のデータを集計し、視覚的に分かりやすい形式でレポートを作成し、スマートフォンのアプリケーションを通じてユーザーに提供する。 After the match ends, the server generates statistical data and analysis reports and provides them to the user. It uses data collected during the match as input and generates statistical data and analysis reports as output. In concrete terms, the server aggregates the match data, creates a report in a visually easy-to-understand format, and provides it to the user through a smartphone application.
(実施例3) (Example 3)
次に、形態例3の実施例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, a third embodiment of the third embodiment will be described. In the following description, the
従来のバスケットボールの試合において、得点状況やファウル状況をリアルタイムで把握するためには、人手によるランニングスコアの作成が必要であり、これには時間と労力がかかるという問題があった。また、全国のチームや選手のデータを効果的に収集・解析し、選手の育成に活用するためのシステムが不足していた。これにより、選手のパフォーマンスの見える化や育成のためのフィードバックが十分に行われていなかった。 In traditional basketball games, in order to grasp the score and foul situation in real time, it was necessary to manually create a running score, which was time-consuming and labor-intensive. In addition, there was a lack of a system to effectively collect and analyze data on teams and players across the country and use it for player development. This meant that there was insufficient visualization of player performance and feedback for development.
実施例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データを受信する手段と、受信した映像データを解析する手段と、受信した音声データを解析する手段と、解析結果から得点状況やファウル状況を抽出する手段と、抽出した情報を基にランニングスコアを生成する手段と、生成されたランニングスコアをリアルタイムで更新し、端末に送信する手段と、端末に送信されたランニングスコアを表示する手段と、全国のチームや選手の試合結果やスタッツなどの情報を収集する手段と、収集した情報をデータベース化する手段と、データベース化された情報を解析し、選手のパフォーマンスを評価する手段と、解析結果を基に選手の育成のためのフィードバックを生成する手段と、生成されたフィードバックを端末に送信する手段と、端末に送信されたフィードバックを表示する手段と、を含む。これにより、試合の進行状況をリアルタイムで把握することが可能となり、選手のパフォーマンスの見える化や育成のためのフィードバックを効果的に行うことが可能となる。 In this invention, the server includes a means for receiving video data and audio data of a match, a means for analyzing the received video data, a means for analyzing the received audio data, a means for extracting the score situation and the foul situation from the analysis result, a means for generating a running score based on the extracted information, a means for updating the generated running score in real time and transmitting it to the terminal, a means for displaying the running score transmitted to the terminal, a means for collecting information such as the match results and stats of teams and players nationwide, a means for database-izing the collected information, a means for analyzing the databased information and evaluating the performance of players, a means for generating feedback for player development based on the analysis result, a means for transmitting the generated feedback to the terminal, and a means for displaying the feedback transmitted to the terminal. This makes it possible to grasp the progress of the match in real time, and effectively visualize the performance of players and provide feedback for development.
「試合の映像データ」とは、バスケットボールの試合の様子をカメラで撮影した動画ファイルである。 "Game video data" refers to video files captured by a camera showing a basketball game.
「音声データ」とは、バスケットボールの試合中の音声をマイクで録音した音声ファイルである。 "Audio data" refers to audio files recorded by a microphone during a basketball game.
「受信する手段」とは、サーバが外部からデータを取得するための機能である。 "Means of receiving" refers to the function that allows the server to obtain data from outside.
「解析する手段」とは、受信したデータを処理し、必要な情報を抽出するための機能である。 "Means of analysis" refers to the function for processing received data and extracting necessary information.
「得点状況」とは、試合中にどのチームが何点を得たかを示す情報である。 "Scoring status" is information that shows how many points each team has scored during a match.
「ファウル状況」とは、試合中にどの選手がどのようなファウルを犯したかを示す情報である。 "Foul situation" is information that shows which players committed what type of fouls during the game.
「ランニングスコア」とは、試合の進行に伴ってリアルタイムで更新される得点やファウルの記録である。 The "running score" is a record of points and fouls that is updated in real time as the game progresses.
「リアルタイムで更新する手段」とは、試合の進行に合わせてデータを即時に反映させる機能である。 "Means of updating in real time" refers to a function that instantly reflects data as the match progresses.
「端末」とは、ユーザが情報を確認するために使用するデバイスである。 "Terminal" refers to the device that a user uses to view information.
「表示する手段」とは、端末に情報を視覚的に提示するための機能である。 "Means of display" refers to the functionality for visually presenting information on a terminal.
「試合結果」とは、試合終了後の最終的な得点や勝敗を示す情報である。 "Match results" refers to information showing the final score and outcome after the match has ended.
「スタッツ」とは、選手やチームのパフォーマンスを数値化した統計データである。 "Stats" are statistical data that quantify the performance of players and teams.
「収集する手段」とは、必要なデータを集めるための機能である。 "Means of collection" refers to the function for collecting the necessary data.
「データベース化する手段」とは、収集したデータを整理し、保存するための機能である。 "Means of database creation" refers to the function of organizing and storing collected data.
「解析する手段」とは、データベース化された情報を処理し、意味のある結果を導き出すための機能である。 "Means of analysis" refers to the function of processing databased information and deriving meaningful results.
「フィードバック」とは、解析結果に基づいて提供されるアドバイスや評価である。 "Feedback" refers to advice or evaluation provided based on the analysis results.
「見える化」とは、データを視覚的に表示し、理解しやすくすることを指す。 "Visualization" refers to displaying data visually to make it easier to understand.
「育成」とは、選手の能力を向上させるためのトレーニングや指導を指す。 "Development" refers to training and guidance to improve players' abilities.
この発明は、バスケットボールの試合における得点状況やファウル状況をリアルタイムで把握し、選手のパフォーマンスを評価・育成するためのシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system for grasping the score and foul situation in a basketball game in real time and evaluating and developing the performance of players. A specific embodiment of this system is described below.
システムの構成 System configuration
ハードウェア Hardware
サーバ: 高性能な計算能力を持つコンピュータであり、データの受信、解析、生成、送信を行う。 Server: A computer with high-performance computing power that receives, analyzes, generates, and transmits data.
端末: ユーザが情報を確認するためのデバイスであり、スマートフォン、タブレット、パソコンなどが含まれる。 Device: The device on which the user checks information, including smartphones, tablets, and computers.
カメラ: 試合の映像データを取得するための装置。 Camera: A device used to capture video data of a match.
マイク: 試合の音声データを取得するための装置。 Microphone: A device used to capture audio data from a match.
ソフトウェア Software
映像解析ソフトウェア: OpenCVなどのライブラリを使用して、映像データを解析する。 Video analysis software: Analyzes video data using libraries such as OpenCV.
音声解析ソフトウェア: LibROSAなどのライブラリを使用して、音声データを解析する。 Speech analysis software: Use libraries such as LibROSA to analyze speech data.
データベース管理システム: MySQLなどを使用して、収集したデータをデータベース化する。 Database management system: Collected data is stored in a database using a system such as MySQL.
データ解析ツール: PandasやNumPyなどを使用して、データを解析する。 Data analysis tools: Analyze data using tools such as Pandas and NumPy.
生成AIモデル: GPT-4などを使用して、ランニングスコアやフィードバックを生成する。 Generative AI models: Use models such as GPT-4 to generate running scores and feedback.
システムの動作 System operation
データ受信と解析 Data reception and analysis
サーバは、試合の映像データと音声データをカメラとマイクからリアルタイムで受信する。受信した映像データは映像解析ソフトウェアを使用して解析され、得点やファウルのシーンを検出する。音声データは音声解析ソフトウェアを使用して解析され、実況や観客の反応を解析する。 The server receives video and audio data of the game in real time from the cameras and microphones. The received video data is analyzed using video analysis software to detect goals and fouls. The audio data is analyzed using audio analysis software to analyze the commentary and crowd reactions.
情報抽出とランニングスコア生成 Information extraction and running score generation
サーバは、解析結果から得点状況やファウル状況を抽出する。抽出した情報を基に、生成AIモデルを使用してランニングスコアを生成する。生成されたランニングスコアはリアルタイムで更新され、端末に送信される。 The server extracts the scoring and foul situations from the analysis results. Based on the extracted information, a generative AI model is used to generate a running score. The generated running score is updated in real time and sent to the terminal.
データ表示 Display data
端末は、受信したランニングスコアを表示する。これにより、ユーザは試合の進行状況をリアルタイムで把握することができる。 The device displays the received running score, allowing the user to follow the progress of the match in real time.
データ収集とデータベース化 Data collection and database creation
サーバは、全国のチームや選手の試合結果やスタッツなどの情報を収集する。収集した情報はデータベース管理システムを使用してデータベース化される。 The server collects information such as match results and stats for teams and players across the country. The collected information is stored in a database using a database management system.
データ解析とフィードバック生成 Data analysis and feedback generation
サーバは、データベース化された情報を解析し、選手のパフォーマンスを評価する。解析結果を基に、生成AIモデルを使用して選手の育成のためのフィードバックを生成する。生成されたフィードバックは端末に送信され、端末はこれを表示する。これにより、ユーザは選手のパフォーマンスの分析結果や育成のためのアドバイスを確認することができる。 The server analyzes the databased information and evaluates the player's performance. Based on the analysis results, a generative AI model is used to generate feedback for the player's development. The generated feedback is sent to the terminal, which displays it. This allows the user to check the analysis results of the player's performance and advice for development.
具体例 Specific examples
ユーザがバスケットボールの試合を観戦しているとき、サーバは試合の映像と音声を解析し、得点やファウルの情報を自動的に抽出する。 When a user is watching a basketball game, the server analyzes the video and audio of the game and automatically extracts information about scores and fouls.
サーバは「チームAが得点しました」「チームBがファウルしました」といった情報をリアルタイムで生成し、端末に送信する。 The server generates information in real time, such as "Team A has scored" or "Team B has committed a foul," and sends it to the terminal.
端末はこれらの情報を表示し、ユーザは試合の進行状況をリアルタイムで確認できる。 The device displays this information, allowing users to check the progress of the match in real time.
プロンプト文の例 Example of a prompt
「バスケットボールの試合映像と音声データを解析し、得点状況とファウル状況を抽出してランニングスコアを生成してください。」 "Analyze video and audio data from basketball games, extract the scoring and foul situations, and generate a running score."
「全国のバスケットボールチームや選手の試合結果とスタッツを解析し、選手のパフォーマンスを評価して育成のためのフィードバックを生成してください。」実施例3における特定処理の流れについて図15を用いて説明する。 "Analyze the game results and stats of basketball teams and players nationwide, evaluate the performance of players, and generate feedback for training." The flow of the specific process in Example 3 is explained with reference to FIG. 15.
ステップ1: Step 1:
サーバは試合の映像データと音声データを受信する。 The server receives video and audio data from the match.
入力:カメラとマイクからのリアルタイムデータ Input: Real-time data from camera and microphone
具体的な動作:カメラとマイクから送信される映像と音声をネットワークを通じて受信する。 Specific operation: Receives video and audio transmitted from the camera and microphone via the network.
出力:受信した映像データと音声データ Output: Received video and audio data
ステップ2: Step 2:
サーバは受信した映像データを解析する。 The server analyzes the received video data.
入力:受信した映像データ Input: Received video data
具体的な動作:映像解析ソフトウェア(例: OpenCV)を使用して、映像データから得点やファウルのシーンを検出する。 Specific operation: Use video analysis software (e.g. OpenCV) to detect scoring and foul scenes from video data.
出力:得点シーンとファウルシーンのタイムスタンプ付きデータ Output: Data with timestamps for goals and fouls
ステップ3: Step 3:
サーバは受信した音声データを解析する。 The server analyzes the received audio data.
入力:受信した音声データ Input: Received audio data
具体的な動作:音声解析ソフトウェア(例: LibROSA)を使用して、音声データから実況や観客の反応を解析する。 Specific actions: Use audio analysis software (e.g. LibROSA) to analyze commentary and audience reactions from audio data.
出力:実況や観客の反応のタイムスタンプ付きデータ Output: Timestamped data of commentary and audience reactions
ステップ4: Step 4:
サーバは解析結果から得点状況やファウル状況を抽出する。 The server extracts the scoring and foul situations from the analysis results.
入力:得点シーンとファウルシーンのタイムスタンプ付きデータ、および実況や観客の反応のタイムスタンプ付きデータ Input: Timestamped data on goals and fouls, as well as timestamped data on commentary and crowd reactions
具体的な動作:映像解析と音声解析の結果を統合し、得点やファウルの発生状況を抽出する。 Specific operation: Integrate the results of video and audio analysis to extract the occurrence of goals and fouls.
出力:得点状況とファウル状況のデータ Output: Scoring and foul situation data
ステップ5: Step 5:
サーバは抽出した情報を基にランニングスコアを生成する。 The server generates a running score based on the extracted information.
入力:得点状況とファウル状況のデータ Input: Scoring and foul situation data
具体的な動作:生成AIモデル(例: GPT-4)を使用して、得点やファウルの情報をテキスト形式で生成する。 Specific behavior: Uses a generative AI model (e.g. GPT-4) to generate points and foul information in text format.
出力:ランニングスコアのテキストデータ Output: Text data of running score
ステップ6: Step 6:
サーバは生成されたランニングスコアをリアルタイムで更新し、端末に送信する。 The server updates the generated running score in real time and sends it to the device.
入力:ランニングスコアのテキストデータ Input: Text data of running score
具体的な動作:WebSocketやHTTPプロトコルを使用して、ランニングスコアを端末に送信する。 Specific operation: Sends the running score to the device using WebSocket or HTTP protocol.
出力:端末に送信されたランニングスコア Output: Running score sent to the device
ステップ7: Step 7:
端末は受信したランニングスコアを表示する。 The device will display the received running score.
入力:端末に送信されたランニングスコア Input: Running score sent to the device
具体的な動作:端末のディスプレイにランニングスコアを視覚的に表示する。 Specific operation: Visually display the running score on the device display.
出力:ユーザが視覚的に確認できるランニングスコア Output: A running score that the user can visually check
ステップ8: Step 8:
サーバは全国のチームや選手の試合結果やスタッツなどの情報を収集する。 The server collects information such as match results and stats for teams and players across the country.
入力:各チームの公式サイトやスポーツデータ提供サービスからのデータ Input: Data from each team's official website and sports data services
具体的な動作:WebスクレイピングやAPIを使用して、試合結果やスタッツを収集する。 Specific actions: Collect match results and stats using web scraping and APIs.
出力:収集された試合結果とスタッツのデータ Output: Collected match results and stats data
ステップ9: Step 9:
サーバは収集した情報をデータベース化する。 The server stores the collected information in a database.
入力:収集された試合結果とスタッツのデータ Input: Collected match results and stats data
具体的な動作:データベース管理システム(例: MySQL)を使用して、データをテーブルに格納する。 Specific action: Store data in a table using a database management system (e.g. MySQL).
出力:データベースに格納された試合結果とスタッツのデータ Output: Match results and stats data stored in a database
ステップ10: Step 10:
サーバはデータベース化された情報を解析し、選手のパフォーマンスを評価する。 The server analyzes the databased information and evaluates the players' performance.
入力:データベースに格納された試合結果とスタッツのデータ Input: Match results and stats data stored in the database
具体的な動作:データ解析ツール(例: Pandas, NumPy)を使用して、選手のシュート成功率やディフェンスの強さなどを計算する。 Specific operations: Use data analysis tools (e.g. Pandas, NumPy) to calculate players' shooting success rates, defensive strength, etc.
出力:選手のパフォーマンス評価データ Output: Player performance evaluation data
ステップ11: Step 11:
サーバは解析結果を基に選手の育成のためのフィードバックを生成する。 The server generates feedback for player development based on the analysis results.
入力:選手のパフォーマンス評価データ Input: Player performance evaluation data
具体的な動作:生成AIモデル(例: GPT-4)を使用して、選手の育成のためのフィードバックをテキスト形式で生成する。 Specific actions: Use a generative AI model (e.g. GPT-4) to generate textual feedback for player development.
出力:育成のためのフィードバックのテキストデータ Output: Text data of feedback for training
ステップ12: Step 12:
サーバは生成されたフィードバックを端末に送信する。 The server sends the generated feedback to the device.
入力:育成のためのフィードバックのテキストデータ Input: Text data for feedback for training
具体的な動作:WebSocketやHTTPプロトコルを使用して、フィードバックを端末に送信する。 Specific behavior: Sends feedback to the device using WebSocket or HTTP protocol.
出力:端末に送信されたフィードバック Output: Feedback sent to the device
ステップ13: Step 13:
端末は受信したフィードバックを表示する。 The device will display the feedback it receives.
入力:端末に送信されたフィードバック Input: Feedback sent to device
具体的な動作:端末のディスプレイにフィードバックを視覚的に表示する。 Specific action: Visually display feedback on the device display.
出力:ユーザが視覚的に確認できるフィードバック Output: Visual feedback for the user
(応用例3) (Application example 3)
次に、形態例3の応用例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, application example 3 of embodiment example 3 will be described. In the following description, the
従来のバスケットボールの試合の実況中継や解説は、人間の解説者に依存しており、リアルタイムでの正確な情報提供が難しい場合がある。また、全国のユースやミニバスの試合解説も同様に人手に依存しており、効率的な情報提供が困難である。さらに、工場内の生産ラインの監視においても、異常発生の検出や生産効率の向上が課題となっている。これらの課題を解決するためには、AIを活用した自動化システムが必要である。 Traditional live broadcasts and commentary of basketball games rely on human commentators, which can make it difficult to provide accurate information in real time. Commentary on youth and mini-basketball games across the country also relies on human input, making it difficult to provide information efficiently. Furthermore, when monitoring production lines in factories, detecting abnormalities and improving production efficiency are issues. To solve these issues, an automated system that utilizes AI is needed.
応用例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段と、過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段と、を含む。これにより、試合の進行状況や生産ラインの状況をリアルタイムで正確に把握し、効率的な情報提供と生産効率の向上が可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games from around the country with AI live coverage, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for analyzing camera footage and audio data within the factory to detect production status and abnormal occurrences in real time and provide scores, and a means for storing past production data in a database and providing feedback for efficiency. This allows for accurate understanding of the progress of the game and the status of the production line in real time, making it possible to provide efficient information and improve production efficiency.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合において、人工知能を用いてリアルタイムで試合の進行状況やプレイの解説を自動的に行う技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to automatically provide commentary on the progress of a basketball game and plays in real time.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合において、人工知能を用いて試合の解説を行い、その解説をリアルタイムで配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games nationwide with live coverage by AI" refers to a technology that uses artificial intelligence to provide commentary on youth and mini-basketball games nationwide and broadcasts that commentary in real time.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合の進行中に得点やファウルなどのスコアを人工知能が自動的に解析し、リアルタイムでスコアを生成する技術である。 "A means of using AI to automatically generate running scores that are created manually by officials and for each team" refers to technology in which artificial intelligence automatically analyzes points, fouls, and other scores as the game progresses, and generates scores in real time.
「工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段」とは、工場内に設置されたカメラやマイクから得られる映像や音声データを人工知能が解析し、生産ラインの状況や異常をリアルタイムで検出し、その結果をスコアとして表示する技術である。 "A means of analyzing camera footage and audio data within a factory to detect and score production status and abnormalities in real time" refers to a technology in which artificial intelligence analyzes video and audio data obtained from cameras and microphones installed within the factory, detects the status and abnormalities of the production line in real time, and displays the results as a score.
「過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段」とは、工場内で収集された過去の生産データをデータベースに保存し、そのデータを解析して生産効率を向上させるためのフィードバックを提供する技術である。 "Means of compiling past production data into a database and providing feedback for improving efficiency" refers to a technology that stores past production data collected within a factory in a database, analyzes the data, and provides feedback for improving production efficiency.
この発明を実施するための形態として、以下のシステム構成を説明する。 The following system configuration is described as a form for implementing this invention.
システム構成 System configuration
ハードウェア Hardware
カメラ: 工場内に設置されるカメラで、映像データを取得する。 Camera: Cameras installed in the factory capture video data.
マイク: 工場内に設置されるマイクで、音声データを取得する。 Microphones: Microphones installed in the factory capture audio data.
サーバ: データの解析と保存を行うためのサーバ。 Server: A server for analyzing and storing data.
端末: 管理者が結果を確認するための端末(PCやスマートフォンなど)。 Device: The device (PC, smartphone, etc.) used by the administrator to check the results.
ソフトウェア Software
OpenCV: カメラ映像の取得と前処理を行うためのライブラリ。 OpenCV: A library for acquiring and preprocessing camera images.
TensorFlow/Keras: AIモデルのロードと予測を行うためのライブラリ。 TensorFlow/Keras: Libraries for loading AI models and making predictions.
SQLite: 生産データの保存を行うためのデータベース管理システム。 SQLite: A database management system for storing production data.
データ加工とデータ演算 Data processing and data calculations
サーバは、工場内のカメラ映像と音声データをリアルタイムで取得し、OpenCVを用いて前処理を行う。前処理されたデータは、TensorFlow/Kerasを用いてAIモデルに入力され、生産状況や異常発生の検出が行われる。検出結果はスコアとして表示され、SQLiteデータベースに保存される。 The server acquires camera footage and audio data from within the factory in real time and performs preprocessing using OpenCV. The preprocessed data is input into an AI model using TensorFlow/Keras to detect production status and abnormalities. The detection results are displayed as a score and stored in a SQLite database.
具体例 Specific examples
例えば、工場内で異常が発生した場合、カメラ映像から異常を検出し、リアルタイムで管理者に通知する。また、過去の生産データを分析し、効率化のためのフィードバックを提供することができる。 For example, if an abnormality occurs in a factory, it will be detected from camera footage and notified to managers in real time. It can also analyze past production data and provide feedback to improve efficiency.
プロンプト文の例 Example of a prompt
生成AIモデルへ入力するプロンプト文の例は以下の通りである: An example of a prompt to input to the generative AI model is as follows:
「工場内のカメラ映像を解析し、生産ラインの異常をリアルタイムで検出するAIモデルを作成してください。異常が検出された場合、管理者に通知する機能も追加してください。また、過去の生産データをデータベースに保存し、効率化のためのフィードバックを提供するシステムを構築してください。」 "Please create an AI model that analyzes camera footage in the factory and detects abnormalities on the production line in real time. Please also add a function to notify the administrator if an abnormality is detected. Also, please create a system that stores past production data in a database and provides feedback to improve efficiency."
このようにして、サーバはリアルタイムで生産ラインの状況を監視し、異常を検出することができる。また、過去のデータを基に効率化のためのフィードバックを提供することが可能である。 In this way, the server can monitor the status of the production line in real time and detect any anomalies. It can also provide feedback for efficiency improvements based on past data.
応用例3における特定処理の流れについて図16を用いて説明する。 The flow of the specific processing in application example 3 is explained using Figure 16.
ステップ1: Step 1:
サーバは、工場内に設置されたカメラとマイクからリアルタイムで映像データと音声データを取得する。入力はカメラとマイクからの生データであり、出力は取得された映像データと音声データである。具体的な動作として、サーバはカメラとマイクに接続し、データストリームを開始する。 The server captures video and audio data in real time from cameras and microphones installed in the factory. The input is the raw data from the cameras and microphones, and the output is the captured video and audio data. In concrete terms, the server connects to the cameras and microphones and starts the data stream.
ステップ2: Step 2:
サーバは、取得した映像データをOpenCVを用いて前処理する。入力はステップ1で取得された映像データであり、出力は前処理された映像データである。具体的な動作として、サーバは映像データを224x224ピクセルにリサイズし、正規化を行う。 The server preprocesses the acquired video data using OpenCV. The input is the video data acquired in step 1, and the output is the preprocessed video data. Specifically, the server resizes the video data to 224x224 pixels and normalizes it.
ステップ3: Step 3:
サーバは、前処理された映像データをTensorFlow/Kerasを用いてAIモデルに入力し、予測を行う。入力はステップ2で前処理された映像データであり、出力は生産状況や異常発生の予測結果である。具体的な動作として、サーバはAIモデルをロードし、前処理されたデータをモデルに入力して予測を実行する。 The server inputs the preprocessed video data into the AI model using TensorFlow/Keras to make predictions. The input is the video data preprocessed in step 2, and the output is the predicted results of production status and abnormality occurrence. In concrete terms, the server loads the AI model, inputs the preprocessed data into the model, and makes predictions.
ステップ4: Step 4:
サーバは、予測結果をスコアとして表示し、SQLiteデータベースに保存する。入力はステップ3で得られた予測結果であり、出力は表示されたスコアとデータベースに保存されたデータである。具体的な動作として、サーバは予測結果をスコアに変換し、画面に表示するとともに、データベースに挿入する。 The server displays the prediction result as a score and saves it in a SQLite database. The input is the prediction result obtained in step 3, and the output is the displayed score and the data saved in the database. In concrete terms, the server converts the prediction result into a score, displays it on the screen, and inserts it into the database.
ステップ5: Step 5:
端末は、サーバから送信されたスコアと異常検出の通知を受け取り、管理者に表示する。入力はサーバから送信されたスコアと通知であり、出力は管理者が確認できる表示情報である。具体的な動作として、端末はサーバからのデータを受信し、ユーザインターフェースに表示する。 The terminal receives the score and anomaly detection notifications sent from the server and displays them to the administrator. The input is the score and notifications sent from the server, and the output is the display information that the administrator can check. In concrete terms, the terminal receives data from the server and displays it on the user interface.
ステップ6: Step 6:
サーバは、過去の生産データを解析し、効率化のためのフィードバックを生成する。入力はデータベースに保存された過去の生産データであり、出力は効率化のためのフィードバック情報である。具体的な動作として、サーバはデータベースから過去のデータを取得し、解析アルゴリズムを適用してフィードバックを生成する。 The server analyzes past production data and generates feedback for efficiency improvements. The input is past production data stored in a database, and the output is feedback information for efficiency improvements. In concrete terms, the server retrieves past data from the database and applies an analysis algorithm to generate feedback.
ステップ7: Step 7:
端末は、サーバから送信されたフィードバック情報を受け取り、管理者に表示する。入力はサーバから送信されたフィードバック情報であり、出力は管理者が確認できる表示情報である。具体的な動作として、端末はサーバからのフィードバック情報を受信し、ユーザインターフェースに表示する。 The terminal receives feedback information sent from the server and displays it to the administrator. The input is the feedback information sent from the server, and the output is the display information that the administrator can check. In concrete terms, the terminal receives feedback information from the server and displays it on the user interface.
なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。
Furthermore, an emotion engine that estimates the user's emotion may be combined. That is, the
「形態例1」 "Example 1"
本発明の一実施形態として、AIがバスケットボールの試合の実況中継の解説を行うシステムにおいて、ユーザの感情を認識する感情エンジンが組み合わされている。具体的には、ユーザが試合の視聴中に示す感情(喜び、悲しみ、驚きなど)を感情エンジンが認識し、その感情に応じて解説の内容やトーンを調整する。例えば、ユーザが試合の展開に喜びを示している場合、解説もその喜びを共有するような内容となる。これにより、ユーザは自身の感情が反映された解説を聞くことができ、より試合視聴の満足度が向上する。 In one embodiment of the present invention, a system in which AI provides commentary on a live broadcast of a basketball game is combined with an emotion engine that recognizes the user's emotions. Specifically, the emotion engine recognizes the emotions (happiness, sadness, surprise, etc.) that the user expresses while watching the game, and adjusts the content and tone of the commentary according to those emotions. For example, if the user expresses joy at how the game is progressing, the commentary will also share that joy. This allows the user to hear commentary that reflects their own emotions, further improving their satisfaction with watching the game.
「形態例2」 "Example 2"
また、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムにおいても、同様に感情エンジンが組み合わされている。具体的には、ユースやミニバスの試合を視聴するユーザの感情を感情エンジンが認識し、その感情に応じて解説の内容やトーンを調整する。例えば、ユーザが子供の活躍に感動している場合、解説もその感動を共有するような内容となる。これにより、ユーザは自身の感情が反映された解説を聞くことができ、より試合視聴の満足度が向上する。 The emotion engine is also incorporated into a system that broadcasts commentary on youth and mini-basketball games from around the country, complete with live coverage by AI. Specifically, the emotion engine recognizes the emotions of users watching youth and mini-basketball games, and adjusts the content and tone of the commentary according to those emotions. For example, if a user is impressed by their child's performance, the commentary will be one that shares that emotion. This allows users to hear commentary that reflects their own emotions, further increasing their satisfaction with watching the games.
「形態例3」 "Example 3"
さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成するシステムにおいても、感情エンジンが組み合わされている。具体的には、試合の得点状況などに対するユーザの感情を感情エンジンが認識し、その感情に応じてスコア表示の方法を調整する。例えば、ユーザが得点に喜びを示している場合、スコア表示もその喜びを強調するような形で表示される。これにより、ユーザは自身の感情が反映されたスコア表示を見ることができ、より試合視聴の満足度が向上する。 Furthermore, emotion engines are also being incorporated into systems that use AI to automatically generate running scores that are manually created by officials and for each team. Specifically, the emotion engine recognizes the user's emotions regarding the score situation of the match, and adjusts the way the score is displayed according to those emotions. For example, if the user is happy about a score, the score display will also be displayed in a way that emphasizes that joy. This allows users to see a score display that reflects their own emotions, further increasing their satisfaction when watching the match.
以下に、各形態例の処理の流れについて説明する。 The process flow for each example is explained below.
「形態例1」 "Example 1"
ステップ1:AIがバスケットボールの試合の実況中継の解説を開始する。 Step 1: The AI begins commentating on a live broadcast of a basketball game.
ステップ2:感情エンジンがユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the user's emotions in real time.
ステップ3:感情エンジンが認識した感情に応じて、AIが解説の内容やトーンを調整する。 Step 3: The AI adjusts the content and tone of the commentary based on the emotion recognized by the emotion engine.
「形態例2」 "Example 2"
ステップ1:AIが全国のユースやミニバスの試合の実況中継の解説を開始する。 Step 1: AI will begin providing live commentary for youth and mini-basketball matches across the country.
ステップ2:感情エンジンが試合を視聴するユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the emotions of users watching the game in real time.
ステップ3:感情エンジンが認識した感情に応じて、AIが解説の内容やトーンを調整する。 Step 3: The AI adjusts the content and tone of the commentary based on the emotion recognized by the emotion engine.
「形態例3」 "Example 3"
ステップ1:AIが試合の得点状況に基づいてランニングスコアを自動生成する。 Step 1: AI automatically generates a running score based on the game's scoring situation.
ステップ2:感情エンジンが試合の得点状況に対するユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the user's emotions in real time regarding the score of the game.
ステップ3:感情エンジンが認識した感情に応じて、AIがスコア表示の方法を調整する。 Step 3: The AI adjusts the way the score is displayed depending on the emotion recognized by the emotion engine.
(実施例1) (Example 1)
次に、形態例1の実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, a first embodiment of the first embodiment will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、試合の状況や選手の動きをリアルタイムで解析し、ユーザの感情に応じた解説を提供することが困難であった。また、全国のユースやミニバスの試合解説を効率的に配信する手段や、オフィシャルやチーム毎に人が作成しているランニングスコアを自動生成する手段が不足していた。さらに、ユーザの視聴体験を向上させるための感情認識技術の活用が不十分であった In conventional basketball game commentary systems, it was difficult to analyze the game situation and player movements in real time and provide commentary that corresponded to the user's emotions. In addition, there was a lack of means to efficiently deliver commentary on youth and mini-basketball games nationwide, or to automatically generate running scores that are created manually by officials and for each team. Furthermore, there was insufficient use of emotion recognition technology to improve the user's viewing experience.
実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説を人工知能が行う手段と、全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、試合の映像データを解析する手段と、試合の音声データを解析する手段と、ユーザの感情データを受信し解析する手段と、解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段と、調整後の解説を実況中継とともに配信する手段を含む。これにより、試合の状況や選手の動きをリアルタイムで解析し、ユーザの感情に応じた解説を提供することが可能となる。 In this invention, the server includes means for providing commentary on live coverage of basketball games using artificial intelligence, means for delivering commentary on youth and mini-basketball games across the country with live coverage by artificial intelligence, means for automatically generating running scores using artificial intelligence that are created manually for each official and team, means for analyzing game video data, means for analyzing game audio data, means for receiving and analyzing user emotion data, means for automatically generating commentary based on the analysis results and adjusting the content and tone of the commentary according to the user's emotions, and means for delivering the adjusted commentary together with the live coverage. This makes it possible to analyze the situation of the game and the movements of the players in real time and provide commentary according to the user's emotions.
「バスケットボールの試合の実況中継の解説を人工知能が行う手段」とは、バスケットボールの試合の映像や音声データを解析し、その解析結果に基づいて人工知能が自動的に解説を生成し、実況中継とともに配信する技術である。 "Means for artificial intelligence to provide commentary for live broadcasts of basketball games" refers to technology that analyzes video and audio data of basketball games, and automatically generates commentary based on the results of that analysis using artificial intelligence, which is then distributed along with the live broadcast.
「全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合を対象に、人工知能が自動的に解説を生成し、その解説を実況中継とともに配信する技術である。 "A means of delivering commentary on youth and mini-basketball games nationwide with live coverage by artificial intelligence" refers to a technology in which artificial intelligence automatically generates commentary for youth and mini-basketball games nationwide and delivers that commentary along with live coverage.
「オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを、人工知能が自動的に生成する技術である。 "Method of automatically generating running scores using artificial intelligence that are created manually for each official or team" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合の映像データを解析する手段」とは、試合の映像データをフレームごとに解析し、選手の位置や動き、ボールの位置などを特定する技術である。 "Means for analyzing game video data" refers to technology that analyzes game video data frame by frame to identify the positions and movements of players, the position of the ball, etc.
「試合の音声データを解析する手段」とは、試合の音声データを解析し、実況の内容や観客の反応を特定する技術である。 "Means for analyzing audio data from a match" refers to technology that analyzes audio data from a match and identifies the content of the commentary and the reactions of the audience.
「ユーザの感情データを受信し解析する手段」とは、ユーザの表情や音声をキャプチャし、そのデータを解析してユーザの感情を特定する技術である。 "Means for receiving and analyzing user emotion data" refers to technology that captures the user's facial expressions and voice, and analyzes that data to identify the user's emotions.
「解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段」とは、映像や音声データの解析結果を基に解説を自動生成し、さらにユーザの感情データを考慮して解説の内容やトーンを調整する技術である。 "Means for automatically generating commentary based on analysis results and adjusting the content and tone of the commentary according to the user's emotions" refers to a technology that automatically generates commentary based on the analysis results of video and audio data, and further adjusts the content and tone of the commentary taking into account the user's emotional data.
「調整後の解説を実況中継とともに配信する手段」とは、調整された解説をリアルタイムで実況中継とともにユーザの端末に配信する技術である。 "Means for delivering adjusted commentary together with live broadcast" refers to technology that delivers adjusted commentary in real time to a user's device together with the live broadcast.
発明を実施するための形態 Form for implementing the invention
この発明は、バスケットボールの試合の実況中継の解説を人工知能が行うシステムであり、試合の映像や音声データを解析し、ユーザの感情に応じた解説を提供するものである。以下に、このシステムの具体的な実施形態を示す。 This invention is a system in which artificial intelligence provides commentary for live coverage of basketball games, analyzing video and audio data from the game and providing commentary that reflects the user's emotions. A specific embodiment of this system is shown below.
使用するハードウェアとソフトウェア Hardware and software used
ハードウェア: 高性能なサーバ、ユーザの端末(PC、スマートフォン、タブレットなど) Hardware: High-performance servers, user devices (PCs, smartphones, tablets, etc.)
ソフトウェア: 映像解析ソフトウェア(例:OpenCV)、音声解析ソフトウェア(例:Google Cloud Speech-to-Text API)、感情エンジン(例:Microsoft Azure Emotion API)、生成AIモデル(例:GPT-4) Software: Video analysis software (e.g. OpenCV), audio analysis software (e.g. Google Cloud Speech-to-Text API), emotion engines (e.g. Microsoft Azure Emotion API), generative AI models (e.g. GPT-4)
システムの構成 System configuration
1. サーバが試合の映像データと音声データをリアルタイムで受信する。試合会場から送信されるストリーミングデータを受け取るために、高速なネットワーク接続を使用する。 1. The server receives the game video and audio data in real time. It uses a high-speed network connection to receive the streaming data sent from the game venue.
2. サーバが映像解析ソフトウェアを用いて、受信した映像データをフレームごとに解析する。具体的には、選手の位置、動き、ボールの位置を特定するために、コンピュータビジョン技術を使用する。例えば、OpenCVを用いる。 2. The server uses video analysis software to analyze the received video data frame by frame. Specifically, computer vision techniques are used to identify the positions of players, their movements, and the position of the ball. For example, OpenCV is used.
3. サーバが音声解析ソフトウェアを用いて、受信した音声データを解析する。具体的には、実況の内容や観客の反応を特定するために、音声認識技術を使用する。例えば、Google Cloud Speech-to-Text APIを用いる。 3. The server uses voice analysis software to analyze the received voice data. Specifically, it uses voice recognition technology to identify the content of the commentary and the reactions of the audience. For example, it uses the Google Cloud Speech-to-Text API.
4. サーバが映像解析と音声解析の結果を基に、生成AIモデルを用いて試合の解説を自動生成する。具体的には、GPT-4などの自然言語生成モデルを使用し、試合の状況や選手の動きを解説する文章を生成する。 4. The server uses a generative AI model to automatically generate commentary on the match based on the results of video and audio analysis. Specifically, it uses a natural language generation model such as GPT-4 to generate sentences that explain the situation of the match and the movements of the players.
5. 端末がユーザの表情や音声をリアルタイムでキャプチャし、感情データとしてサーバに送信する。具体的には、カメラやマイクを使用する。 5. The device captures the user's facial expressions and voice in real time and transmits them as emotion data to the server. Specifically, the device uses a camera and microphone.
6. サーバが感情エンジンを用いて、受信した感情データを解析する。具体的には、ユーザの表情や音声から喜び、悲しみ、驚きなどの感情を特定するために、感情認識技術を使用する。例えば、Microsoft Azure Emotion APIを用いる。 6. The server uses an emotion engine to analyze the received emotion data. Specifically, it uses emotion recognition technology to identify emotions such as happiness, sadness, surprise, etc. from the user's facial expressions and voice. For example, it uses the Microsoft Azure Emotion API.
7. サーバが解析したユーザの感情に応じて、生成した解説の内容やトーンを調整する。具体的には、ユーザが喜びを示している場合、解説のトーンを明るくし、ポジティブな表現を増やす。 7. The server adjusts the content and tone of the generated commentary according to the user's emotions analyzed by the server. Specifically, if the user is happy, the tone of the commentary is brightened and more positive expressions are included.
8. サーバが調整後の解説を実況中継とともにユーザの端末に配信する。具体的には、ストリーミング技術を用いて、リアルタイムで配信する。例えば、WebRTCを用いる。 8. The server delivers the adjusted commentary along with the live broadcast to the user's device. Specifically, it delivers in real time using streaming technology. For example, WebRTC is used.
具体例 Specific examples
例えば、ユーザが試合の視聴中に喜びを示している場合、感情エンジンがその喜びを認識する。サーバはその情報を基に、生成AIモデルが生成した解説のトーンを明るくし、喜びを共有するような内容に調整する。これにより、ユーザは自身の感情が反映された解説を聞くことができ、試合視聴の満足度が向上する。 For example, if a user expresses joy while watching a game, the emotion engine will recognize that joy. Based on that information, the server will lighten the tone of the commentary generated by the generative AI model and adjust it to share the joy. This allows users to hear commentary that reflects their own emotions, improving their satisfaction watching the game.
プロンプト文の例 Example of a prompt
「バスケットボールの試合の実況中継の解説を行うAIシステムを設計してください。試合の映像や音声データを解析し、試合の状況や選手の動きを理解する機能を持ち、ユーザの感情に応じて解説の内容やトーンを調整する感情エンジンを組み合わせてください。」 "Design an AI system to provide commentary for live broadcasts of basketball games. It must analyze video and audio data from the game, understand the game situation and the movements of the players, and incorporate an emotion engine that adjusts the content and tone of the commentary according to the user's emotions."
実施例1における特定処理の流れについて図17を用いて説明する。 The flow of the identification process in Example 1 is explained using Figure 17.
ステップ1: Step 1:
サーバが試合の映像データと音声データをリアルタイムで受信する。入力は試合会場から送信されるストリーミングデータであり、出力はサーバ内に保存された映像データと音声データである。具体的な動作としては、高速なネットワーク接続を使用してデータを受信し、適切なフォーマットで保存する。 The server receives the video and audio data of the match in real time. The input is streaming data sent from the match venue, and the output is the video and audio data stored in the server. Specifically, the server receives the data using a high-speed network connection and stores it in an appropriate format.
ステップ2: Step 2:
サーバが映像解析ソフトウェアを用いて、受信した映像データをフレームごとに解析する。入力は保存された映像データであり、出力は選手の位置、動き、ボールの位置などの解析結果である。具体的な動作としては、OpenCVを使用して各フレームを解析し、選手やボールの位置を特定する。 The server uses video analysis software to analyze the received video data frame by frame. The input is the saved video data, and the output is the analysis results, such as the positions and movements of the players and the position of the ball. In concrete terms, it uses OpenCV to analyze each frame and identify the positions of the players and the ball.
ステップ3: Step 3:
サーバが音声解析ソフトウェアを用いて、受信した音声データを解析する。入力は保存された音声データであり、出力は実況の内容や観客の反応をテキスト化した解析結果である。具体的な動作としては、Google Cloud Speech-to-Text APIを使用して音声データをテキストに変換し、重要な情報を抽出する。 The server uses voice analysis software to analyze the received voice data. The input is the stored voice data, and the output is the analysis results in the form of text that contains the commentary and the reactions of the audience. Specifically, the Google Cloud Speech-to-Text API is used to convert the voice data into text and extract key information.
ステップ4: Step 4:
サーバが映像解析と音声解析の結果を基に、生成AIモデルを用いて試合の解説を自動生成する。入力は映像解析と音声解析の結果であり、出力は生成された解説文である。具体的な動作としては、GPT-4などの自然言語生成モデルを使用して、試合の状況や選手の動きを解説する文章を生成する。 The server uses a generative AI model to automatically generate commentary on the match based on the results of video and audio analysis. The input is the results of video and audio analysis, and the output is the generated commentary. Specifically, it uses a natural language generation model such as GPT-4 to generate sentences that explain the situation of the match and the movements of the players.
ステップ5: Step 5:
端末がユーザの表情や音声をリアルタイムでキャプチャし、感情データとしてサーバに送信する。入力はユーザの表情や音声であり、出力はサーバに送信された感情データである。具体的な動作としては、カメラやマイクを使用してユーザの表情や音声をキャプチャし、リアルタイムでサーバに送信する。 The device captures the user's facial expressions and voice in real time and sends them to the server as emotion data. The input is the user's facial expressions and voice, and the output is the emotion data sent to the server. In concrete terms, the device uses a camera and microphone to capture the user's facial expressions and voice, and sends them to the server in real time.
ステップ6: Step 6:
サーバが感情エンジンを用いて、受信した感情データを解析する。入力は送信された感情データであり、出力はユーザの感情を特定した解析結果である。具体的な動作としては、Microsoft Azure Emotion APIを使用して、ユーザの表情や音声から喜び、悲しみ、驚きなどの感情を特定する。 The server uses an emotion engine to analyze the received emotion data. The input is the emotion data sent, and the output is the analysis results that identify the user's emotion. Specifically, it uses the Microsoft Azure Emotion API to identify emotions such as joy, sadness, and surprise from the user's facial expressions and voice.
ステップ7: Step 7:
サーバが解析したユーザの感情に応じて、生成した解説の内容やトーンを調整する。入力は感情解析の結果と生成された解説文であり、出力は調整後の解説文である。具体的な動作としては、ユーザが喜びを示している場合、解説のトーンを明るくし、ポジティブな表現を増やす。 The content and tone of the generated commentary is adjusted according to the user's emotions analyzed by the server. The input is the result of emotion analysis and the generated commentary, and the output is the adjusted commentary. Specifically, if the user shows joy, the tone of the commentary is brightened and more positive expressions are used.
ステップ8: Step 8:
サーバが調整後の解説を実況中継とともにユーザの端末に配信する。入力は調整後の解説文と実況中継のデータであり、出力はユーザの端末に配信されるリアルタイムの解説付き実況中継である。具体的な動作としては、WebRTCを使用して、調整後の解説をリアルタイムで配信する。 The server delivers the adjusted commentary to the user's device along with the live broadcast. The input is the adjusted commentary and the live broadcast data, and the output is the live broadcast with real-time commentary delivered to the user's device. In concrete terms, it uses WebRTC to deliver the adjusted commentary in real time.
(応用例1) (Application example 1)
次に、形態例1の応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, application example 1 of embodiment example 1 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、解説が一律であり、視聴者の感情に応じた柔軟な対応ができないという課題があった。また、試合の実況中継や解説の質を向上させるためには、多くの人手が必要であり、コストや労力がかかるという問題も存在していた。さらに、全国のユースやミニバスの試合解説を効率的に行う手段が不足していた。 Conventional basketball game commentary systems had the problem that the commentary was uniform and could not flexibly respond to the emotions of the viewers. In addition, improving the quality of the live broadcast and commentary of the game required a large number of people, which was costly and laborious. Furthermore, there was a lack of efficient means to provide commentary on youth and mini-basketball games across the country.
応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段と、生成AIモデルを用いて解説を生成する手段と、プロンプト文を入力して解説を生成する手段と、を含む。これにより、視聴者の感情に応じた柔軟な解説が可能となり、試合の実況中継や解説の質を向上させることができる。また、全国のユースやミニバスの試合解説を効率的に行うことができる。
The specific processing by the
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合の映像や音声データを解析し、試合の状況や選手の動きを理解して解説を自動的に生成する人工知能技術を用いた手段である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to a means that uses artificial intelligence technology to analyze video and audio data of basketball games, understand the situation of the game and the movements of the players, and automatically generate commentary.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合をAIが解説し、その解説を含む実況中継を配信する手段である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a means of broadcasting live coverage including commentary on youth and mini-basketball games from around the country with AI providing commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを、AIが自動的に生成する手段である。 "Means of using AI to automatically generate running scores that are created manually by officials and teams" refers to a means of using AI to automatically generate scores that are manually created by officials and teams during a match.
「ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段」とは、ユーザの感情(喜び、悲しみ、驚きなど)を認識し、その感情に応じて解説の内容やトーンを調整するための感情認識技術を用いた手段である。 "Means for adjusting the content and tone of commentary using an emotion engine that recognizes the user's emotions" refers to means that use emotion recognition technology to recognize the user's emotions (happiness, sadness, surprise, etc.) and adjust the content and tone of the commentary in accordance with those emotions.
「生成AIモデルを用いて解説を生成する手段」とは、生成AIモデル(例えばGPT-3など)を用いて、試合の状況に応じた解説を生成する手段である。 "Means for generating commentary using a generative AI model" refers to means for generating commentary based on the situation of a match using a generative AI model (e.g., GPT-3).
「プロンプト文を入力して解説を生成する手段」とは、特定のプロンプト文を生成AIモデルに入力し、そのプロンプトに基づいて解説を生成する手段である。 "Means for inputting a prompt sentence and generating an explanation" refers to means for inputting a specific prompt sentence into a generative AI model and generating an explanation based on that prompt.
この発明を実施するためのシステムは、バスケットボールの試合の実況中継の解説をAIが行う手段、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段、ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段、生成AIモデルを用いて解説を生成する手段、プロンプト文を入力して解説を生成する手段を含む。 A system for implementing this invention includes a means for AI to provide commentary for live coverage of basketball games, a means for distributing commentary for youth and mini-basketball games across the country with AI commentary, a means for AI to automatically generate running scores that are created manually for each official or team, a means for adjusting the content and tone of the commentary using an emotion engine that recognizes the user's emotions, a means for generating commentary using a generative AI model, and a means for generating commentary by inputting a prompt text.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア:スマートフォンのカメラとマイク Hardware: Smartphone camera and microphone
ソフトウェア:OpenCV、Keras、Transformers Software: OpenCV, Keras, Transformers
データ加工およびデータ演算 Data processing and data calculations
サーバ Server
サーバは、バスケットボールの試合の映像や音声データをリアルタイムで受信し、解析を行う。OpenCVを用いて映像データを取得し、Kerasを用いて感情認識モデルを実行する。感情認識モデルは、ユーザの顔の表情を解析し、喜び、悲しみ、驚きなどの感情を認識する。 The server receives and analyzes video and audio data from the basketball game in real time. It uses OpenCV to acquire the video data and Keras to run an emotion recognition model. The emotion recognition model analyzes the user's facial expressions and recognizes emotions such as happiness, sadness, and surprise.
端末 Terminal
端末は、生成AIモデル(例えばGPT-3)を用いて解説を生成する。生成AIモデルにプロンプト文を入力し、そのプロンプトに基づいて解説を生成する。プロンプト文の例として、「The user is happy. Generate a joyful commentary for the basketball game.」や「The user is sad. Generate a comforting commentary for the basketball game.」がある。 The device generates commentary using a generative AI model (e.g., GPT-3). A prompt sentence is input into the generative AI model, which generates commentary based on the prompt. Examples of prompt sentences include "The user is happy. Generate a joyful commentary for the basketball game." and "The user is sad. Generate a comforting commentary for the basketball game."
ユーザ User
ユーザは、スマートフォンのカメラとマイクを通じて試合を視聴し、その際の感情が認識される。感情エンジンは、ユーザの感情に応じて解説の内容やトーンを調整する。例えば、ユーザが試合のハイライトシーンで喜びを示している場合、解説は「素晴らしいプレイですね!この瞬間を待っていました!」といった内容になる。逆に、ユーザが試合の逆転シーンで悲しみを示している場合、解説は「残念な結果ですが、まだチャンスはあります。次のプレイに期待しましょう。」といった内容になる。 Users watch the game through their smartphone's camera and microphone, and their emotions are recognized. The emotion engine adjusts the content and tone of the commentary based on the user's emotions. For example, if the user expresses joy at a highlight scene in the game, the commentary might say something like, "Great play! We've been waiting for this moment!" Conversely, if the user expresses sadness at a comeback scene in the game, the commentary might say something like, "It's a disappointing result, but there's still a chance. Let's look forward to the next play."
このようにして、視聴者の感情に応じた柔軟な解説が可能となり、試合の実況中継や解説の質を向上させることができる。また、全国のユースやミニバスの試合解説を効率的に行うことができる。 In this way, flexible commentary based on the viewer's emotions becomes possible, improving the quality of live game coverage and commentary. It also enables efficient commentary of youth and mini-basketball games across the country.
応用例1における特定処理の流れについて図18を用いて説明する。 The flow of the specific processing in application example 1 is explained using Figure 18.
ステップ1: Step 1:
サーバは、スマートフォンのカメラとマイクから映像および音声データをリアルタイムで受信する。入力は、カメラとマイクからの映像および音声データであり、出力は、これらのデータを解析するための準備が整った状態である。 The server receives video and audio data from the smartphone's camera and microphone in real time. The input is the video and audio data from the camera and microphone, and the output is the data ready for analysis.
ステップ2: Step 2:
サーバは、OpenCVを用いて映像データを処理し、ユーザの顔を検出する。入力は、ステップ1で受信した映像データであり、出力は、検出された顔の領域である。具体的な動作としては、映像データをグレースケールに変換し、顔検出アルゴリズムを適用する。 The server processes the video data using OpenCV to detect the user's face. The input is the video data received in step 1, and the output is the detected face area. Specifically, the server converts the video data to grayscale and applies a face detection algorithm.
ステップ3: Step 3:
サーバは、Kerasを用いて感情認識モデルを実行し、ユーザの感情を認識する。入力は、ステップ2で検出された顔の領域であり、出力は、認識された感情(喜び、悲しみ、驚きなど)である。具体的な動作としては、顔の領域を適切なサイズにリサイズし、感情認識モデルに入力する。 The server runs an emotion recognition model using Keras to recognize the user's emotions. The input is the face region detected in step 2, and the output is the recognized emotion (happiness, sadness, surprise, etc.). Specifically, the server resizes the face region to an appropriate size and inputs it into the emotion recognition model.
ステップ4: Step 4:
サーバは、認識された感情に基づいて、生成AIモデルに入力するプロンプト文を生成する。入力は、ステップ3で認識された感情であり、出力は、生成されたプロンプト文である。具体的な動作としては、感情に応じたテンプレート文を選択し、プロンプト文を生成する。 The server generates a prompt sentence to be input to the generative AI model based on the recognized emotion. The input is the emotion recognized in step 3, and the output is the generated prompt sentence. Specifically, it selects a template sentence according to the emotion and generates the prompt sentence.
ステップ5: Step 5:
サーバは、生成AIモデル(例えばGPT-3)を用いて解説を生成する。入力は、ステップ4で生成されたプロンプト文であり、出力は、生成された解説文である。具体的な動作としては、生成AIモデルにプロンプト文を入力し、解説文を生成する。 The server generates an explanation using a generative AI model (e.g., GPT-3). The input is the prompt text generated in step 4, and the output is the generated explanation text. In concrete terms, the prompt text is input into the generative AI model, and an explanation text is generated.
ステップ6: Step 6:
サーバは、生成された解説文をリアルタイムでユーザに配信する。入力は、ステップ5で生成された解説文であり、出力は、ユーザのスマートフォンに配信される解説音声である。具体的な動作としては、解説文を音声合成エンジンに入力し、音声データを生成して配信する。 The server delivers the generated explanatory text to the user in real time. The input is the explanatory text generated in step 5, and the output is the explanatory audio delivered to the user's smartphone. In concrete terms, the explanatory text is input into a voice synthesis engine, and audio data is generated and delivered.
ステップ7: Step 7:
ユーザは、スマートフォンを通じて試合を視聴し、解説を聞く。入力は、サーバから配信された解説音声であり、出力は、ユーザの視聴体験の向上である。具体的な動作としては、スマートフォンのスピーカーから解説音声が再生される。 Users watch the game and listen to the commentary through their smartphones. The input is the commentary audio delivered from the server, and the output is an improvement to the user's viewing experience. In concrete terms, the commentary audio is played through the smartphone's speakers.
(実施例2) (Example 2)
次に、形態例2の実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, a second embodiment of the second embodiment will be described. In the following description, the
従来のバスケットボールの試合解説は、解説者の主観に依存しており、視聴者の感情に応じた解説を提供することが困難であった。また、全国のユースやミニバスの試合を広く視聴者に提供するためのシステムが不足しており、試合の進行状況や選手のパフォーマンスをリアルタイムで把握することが難しかった。さらに、試合のランニングスコアを手動で作成することは時間と労力を要し、効率的な運営が求められていた。 Traditional basketball game commentary relied on the commentator's subjective judgment, making it difficult to provide commentary that reflected the emotions of viewers. In addition, there was a lack of systems to provide youth and mini-basketball games from across the country to a wide audience, making it difficult to grasp the progress of the game and the performance of the players in real time. Furthermore, manually creating a running score for the game was time-consuming and labor-intensive, so efficient management was required.
実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説を人工知能が行う手段と、全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、試合映像と音声データを収集する手段と、収集したデータを解析し解説を生成する手段と、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、生成された解説を試合映像とともに配信する手段を含む。これにより、視聴者の感情に応じた解説を提供し、試合視聴の満足度を向上させることが可能となる。 In this invention, the server includes means for providing commentary on live coverage of basketball games using artificial intelligence, means for distributing commentary on youth and mini-basketball games from around the country with live coverage by artificial intelligence, means for automatically generating running scores using artificial intelligence that are created manually for each official and team, means for collecting game video and audio data, means for analyzing the collected data and generating commentary, means for recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions, and means for distributing the generated commentary together with the game video. This makes it possible to provide commentary that corresponds to the viewer's emotions and improve satisfaction with viewing the game.
「バスケットボールの試合の実況中継の解説を人工知能が行う手段」とは、バスケットボールの試合において、人工知能が試合の進行状況や選手のパフォーマンスを解析し、リアルタイムで解説を生成する技術である。 "Means for artificial intelligence to provide commentary for live broadcasts of basketball games" refers to technology in which artificial intelligence analyzes the progress of a basketball game and the performance of players, and generates commentary in real time.
「全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能が解析し、解説を生成してリアルタイムで配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games across the country with live coverage by artificial intelligence" refers to a technology in which artificial intelligence analyzes youth and mini-basketball games held across the country, generates commentary, and broadcasts it in real time.
「オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを人工知能が自動的に生成する技術である。 "Means for automatically generating running scores using artificial intelligence that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合映像と音声データを収集する手段」とは、試合会場に設置されたカメラやマイクを使用して、試合の映像と音声データをリアルタイムで収集する技術である。 "Means for collecting game video and audio data" refers to technology that uses cameras and microphones installed at the game venue to collect game video and audio data in real time.
「収集したデータを解析し解説を生成する手段」とは、収集された映像と音声データを人工知能が解析し、試合の進行状況や選手のパフォーマンスに基づいて解説を生成する技術である。 "Means of analyzing collected data and generating commentary" refers to technology in which artificial intelligence analyzes collected video and audio data and generates commentary based on the progress of the match and the performance of the players.
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段」とは、視聴者の表情や声のトーンを解析し、その感情に応じて解説の内容やトーンを調整する技術である。 "Means of recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions" refers to technology that analyzes the viewer's facial expressions and tone of voice, and adjusts the content and tone of the commentary according to those emotions.
「生成された解説を試合映像とともに配信する手段」とは、人工知能が生成した解説を試合映像とともにストリーミングプラットフォームを通じて配信する技術である。 "Means for distributing generated commentary together with game footage" refers to technology for distributing commentary generated by artificial intelligence together with game footage via a streaming platform.
この発明は、バスケットボールの試合の実況中継を人工知能(AI)が行い、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムである。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAIが自動生成する機能を含む。 This invention is a system in which artificial intelligence (AI) broadcasts live basketball games, and also distributes live commentary by AI for youth and mini-basketball games across the country. It also includes a function that allows the AI to automatically generate running scores that are currently created manually by officials and for each team.
サーバは、試合会場に設置されたカメラやマイクを使用して、試合の映像と音声データをリアルタイムで収集する。具体的には、Sonyの4KカメラやShureの高感度マイクなどのハードウェアを使用する。収集されたデータは、サーバ上のデータベースに保存される。 The server collects video and audio data from the match in real time using cameras and microphones installed at the match venue. Specifically, it uses hardware such as Sony's 4K cameras and Shure's high-sensitivity microphones. The collected data is stored in a database on the server.
次に、サーバは保存された映像と音声データをAIモデルに入力する。このAIモデルは、例えばOpenAIのGPT-4やGoogleのBERTなどの生成AIモデルを使用する。AIモデルは、入力されたデータを解析し、試合の進行状況や選手のパフォーマンスに基づいて解説を生成する。例えば、選手Aがシュートを決めた瞬間を解析し、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 The server then inputs the stored video and audio data into an AI model. This AI model uses a generative AI model such as OpenAI's GPT-4 or Google's BERT. The AI model analyzes the input data and generates commentary based on the progress of the match and the performance of the players. For example, it analyzes the moment when Player A makes a shot and generates commentary such as, "Player A made a great shot!".
さらに、端末は、試合を視聴しているユーザの感情を認識する。具体的には、端末のカメラやマイクを使用してユーザの表情や声のトーンをキャプチャする。これには、例えばAppleのFace ID技術やAmazonのAlexaが使用される。端末は、キャプチャしたデータをサーバに送信する。 In addition, the device will recognize the emotions of the user watching the game. Specifically, it will use the device's camera and microphone to capture the user's facial expressions and tone of voice. For example, Apple's Face ID technology or Amazon's Alexa will be used for this purpose. The device will then send the captured data to a server.
サーバは、端末から送信されたユーザの感情データを受信し、感情エンジンを使用して解析する。感情エンジンは、例えばAffectivaやIBM Watsonの感情分析APIを使用する。ユーザが感動している場合、サーバは解説のトーンを感動的なものに調整し、「選手Aのシュートは本当に素晴らしいですね!観客も大いに盛り上がっています!」という解説を生成する。 The server receives the user's emotion data sent from the terminal and analyzes it using an emotion engine. The emotion engine uses, for example, Affectiva or IBM Watson's emotion analysis API. If the user is emotional, the server adjusts the tone of the commentary to be more emotional and generates a commentary such as, "Player A's shot was really amazing! The crowd is really excited!".
最後に、サーバは生成された解説を試合映像とともに配信する。配信には、YouTubeやTwitchなどのストリーミングプラットフォームが使用される。ユーザは、これらのプラットフォームを通じて試合を視聴し、感情に応じた解説を楽しむことができる。 Finally, the server distributes the generated commentary along with the game footage. Streaming platforms such as YouTube and Twitch are used for distribution. Users can watch the game through these platforms and enjoy the commentary according to their emotions.
具体例として、あるユースのバスケットボールの試合が行われているとする。サーバは、試合会場に設置されたSonyの4KカメラとShureの高感度マイクからリアルタイムで映像と音声データを収集する。次に、収集したデータをOpenAIのGPT-4に入力し、選手Aがシュートを決めた瞬間を解析する。AIモデルは、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 As a concrete example, let's say a youth basketball game is taking place. The server collects video and audio data in real time from Sony's 4K cameras and Shure's high-sensitivity microphones installed at the game venue. The collected data is then input into OpenAI's GPT-4, which analyzes the moment Player A makes a shot. The AI model generates a commentary such as, "Player A made a great shot!".
一方、端末は、試合を視聴しているユーザの表情をAppleのFace ID技術でキャプチャし、感動していることを認識する。サーバは、Affectivaの感情分析APIを使用してユーザの感情を解析し、解説のトーンを感動的なものに調整する。「選手Aのシュートは本当に素晴らしいですね!観客も大いに盛り上がっています!」という解説を生成し、YouTubeを通じて配信する。 Meanwhile, the device uses Apple's Face ID technology to capture the facial expressions of the user watching the game and recognizes that they are emotionally moved. The server then uses Affectiva's emotion analysis API to analyze the user's emotions and adjust the tone of the commentary to be more emotional. It generates a commentary such as, "Player A's shot was really amazing! The crowd is really excited!" and distributes it via YouTube.
プロンプト文の例としては、以下のようなものが考えられる: Examples of prompts might include:
「ユースのバスケットボールの試合映像と音声データを解析し、試合の進行状況や選手のパフォーマンスに関する解説を生成してください。また、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整してください。」 "Analyze video and audio data from youth basketball games to generate commentary on game progress and player performance. Also recognize viewer emotions and adjust the content and tone of the commentary accordingly."
このようにして、サーバはユーザに対して感情に応じた解説を提供し、試合視聴の満足度を向上させることができる。 In this way, the server can provide users with commentary that reflects their emotions, improving their satisfaction with watching the game.
実施例2における特定処理の流れについて図19を用いて説明する。 The flow of the identification process in Example 2 is explained using Figure 19.
ステップ1: Step 1:
サーバは、試合会場に設置されたカメラとマイクを使用して、試合の映像と音声データをリアルタイムで収集する。具体的には、Sonyの4KカメラとShureの高感度マイクを使用する。入力は、試合の映像と音声データであり、出力は収集された映像と音声データである。これらのデータはサーバ上のデータベースに保存される。 The server uses cameras and microphones installed at the venue to collect video and audio data of the match in real time. Specifically, it uses Sony 4K cameras and Shure high-sensitivity microphones. The input is the video and audio data of the match, and the output is the collected video and audio data. This data is stored in a database on the server.
ステップ2: Step 2:
サーバは、保存された映像と音声データをAIモデルに入力する。このAIモデルは、例えばOpenAIのGPT-4を使用する。入力は、収集された映像と音声データであり、出力は解析された試合の進行状況や選手のパフォーマンスに関するデータである。AIモデルは、映像データから選手の動きや試合の進行状況を解析し、音声データから実況や観客の反応を解析する。 The server inputs the stored video and audio data into an AI model. This AI model uses, for example, OpenAI's GPT-4. The input is the collected video and audio data, and the output is analyzed data on the progress of the match and the performance of the players. The AI model analyzes the movements of the players and the progress of the match from the video data, and analyzes the commentary and audience reactions from the audio data.
ステップ3: Step 3:
サーバは、AIモデルが解析したデータを基に試合の解説を生成する。入力は、解析された試合の進行状況や選手のパフォーマンスに関するデータであり、出力は生成された解説文である。例えば、選手Aがシュートを決めた瞬間を解析し、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 The server generates commentary on the match based on the data analyzed by the AI model. The input is the analyzed data on the progress of the match and the performance of the players, and the output is the generated commentary. For example, the server analyzes the moment when Player A makes a shot and generates a commentary such as, "Player A made a great shot!".
ステップ4: Step 4:
端末は、試合を視聴しているユーザの感情を認識する。具体的には、端末のカメラやマイクを使用してユーザの表情や声のトーンをキャプチャする。入力は、ユーザの表情や声のトーンに関するデータであり、出力は認識されたユーザの感情データである。これには、AppleのFace ID技術やAmazonのAlexaが使用される。 The device recognizes the emotions of users watching a game. Specifically, it uses the device's camera and microphone to capture the user's facial expressions and tone of voice. The input is data about the user's facial expressions and tone of voice, and the output is the recognized user's emotion data. This uses Apple's Face ID technology and Amazon's Alexa.
ステップ5: Step 5:
サーバは、端末から送信されたユーザの感情データを受信し、感情エンジンを使用して解析する。入力は、ユーザの感情データであり、出力は解析された感情情報である。感情エンジンは、例えばAffectivaの感情分析APIを使用する。ユーザが感動している場合、サーバは解説のトーンを感動的なものに調整する。 The server receives the user's emotion data sent from the terminal and analyzes it using an emotion engine. The input is the user's emotion data, and the output is the analyzed emotion information. The emotion engine uses, for example, Affectiva's emotion analysis API. If the user is emotional, the server adjusts the tone of the commentary to be emotional.
ステップ6: Step 6:
サーバは、生成された解説を試合映像とともに配信する。入力は、生成された解説文と試合映像であり、出力は配信されるストリーミングデータである。配信には、YouTubeやTwitchなどのストリーミングプラットフォームが使用される。ユーザは、これらのプラットフォームを通じて試合を視聴し、感情に応じた解説を楽しむことができる。 The server distributes the generated commentary together with the game footage. The input is the generated commentary and the game footage, and the output is the streaming data to be distributed. Streaming platforms such as YouTube and Twitch are used for distribution. Users can watch the game through these platforms and enjoy commentary according to their emotions.
(応用例2) (Application example 2)
次に、形態例2の応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, application example 2 of embodiment example 2 will be described. In the following description, the
従来のバスケットボールの試合実況中継システムでは、解説が一律であり、視聴者の感情に応じた柔軟な対応ができないという問題があった。また、試合のハイライトやリプレイ機能、視聴者同士のチャット機能が不足しており、視聴体験の向上が求められていた。さらに、全国のユースやミニバスの試合を広く視聴者に提供する手段が限られていたため、地域間の情報格差が生じていた。 Conventional live basketball game broadcasting systems had the problem that commentary was uniform and did not allow for flexible responses to viewer emotions. In addition, there was a lack of game highlights, replay functions, and chat functions between viewers, so there was a need to improve the viewing experience. Furthermore, there were limited ways to widely provide viewers with information about youth and mini-basketball games across the country, resulting in information disparities between regions.
応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、試合のハイライトやリプレイ機能を提供する手段と、視聴者同士のチャット機能を提供する手段と、を含む。これにより、視聴者の感情に応じた柔軟な解説が可能となり、視聴体験の向上が図られるとともに、全国のユースやミニバスの試合を広く視聴者に提供することが可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary of youth and mini-basketball games from around the country with AI commentary, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for recognizing the emotions of viewers and adjusting the content and tone of the commentary according to those emotions, a means for providing highlights and replay functions for games, and a means for providing a chat function between viewers. This allows for flexible commentary according to the emotions of viewers, improving the viewing experience and making it possible to widely provide youth and mini-basketball games from around the country to viewers.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合において、人工知能を用いてリアルタイムで解説を生成し、視聴者に提供する技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to generate commentary in real time for basketball games and provide it to viewers.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能による解説付きでリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games across the country with live coverage by AI" refers to technology that broadcasts youth and mini-basketball games held across the country in real time with commentary by artificial intelligence.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で記録しているスコアを人工知能が自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually recorded by officials and teams during a match.
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段」とは、視聴者の表情や声などから感情を認識し、その感情に応じて解説の内容やトーンを変える技術である。 "Means of recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions" refers to technology that recognizes emotions from the viewer's facial expressions, voice, etc., and changes the content and tone of the commentary according to those emotions.
「試合のハイライトやリプレイ機能を提供する手段」とは、試合の重要なシーンを抜粋して再生するハイライト機能や、特定のシーンを再度再生するリプレイ機能を提供する技術である。 "Means for providing match highlight and replay features" refers to technology that provides a highlight feature that extracts and plays important scenes from a match, and a replay feature that replays specific scenes.
「視聴者同士のチャット機能を提供する手段」とは、試合を視聴しているユーザー同士がリアルタイムでメッセージを交換できるチャット機能を提供する技術である。 "Means for providing a chat function between viewers" refers to technology that provides a chat function that allows users watching a match to exchange messages in real time.
この発明を実施するためのシステムは、以下の主要なコンポーネントを含む。バスケットボールの試合の実況中継の解説をAIが行う手段、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段、試合のハイライトやリプレイ機能を提供する手段、視聴者同士のチャット機能を提供する手段である。 The system for implementing this invention includes the following main components: a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games across the country with AI commentary, a means for AI to automatically generate running scores that are created manually for each official and team, a means for recognizing the emotions of viewers and adjusting the content and tone of the commentary according to those emotions, a means for providing game highlights and replay functions, and a means for providing a chat function between viewers.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア: スマートフォン(カメラ、マイク、ディスプレイ) Hardware: Smartphone (camera, microphone, display)
ソフトウェア: OpenCV(画像処理ライブラリ)、EmotionRecognizer(感情認識モデル)、AICommentary(AI解説生成モデル)、LiveStreaming(ライブストリーミングライブラリ) Software: OpenCV (image processing library), EmotionRecognizer (emotion recognition model), AICommentary (AI commentary generation model), LiveStreaming (live streaming library)
データ加工およびデータ演算 Data processing and data calculations
1. フレーム取得: サーバは、ライブストリーミングからフレームを取得する。これにより、リアルタイムで試合の映像データが収集される。 1. Frame acquisition: The server acquires frames from the live streaming, which allows video data of the match to be collected in real time.
2. 感情認識: サーバは、フレームから視聴者の顔を検出し、EmotionRecognizerを使用して感情を認識する。これにより、視聴者の感情データが取得される。 2. Emotion Recognition: The server detects the viewer's face from the frame and recognizes the emotion using EmotionRecognizer. This obtains the viewer's emotion data.
3. 解説生成: サーバは、認識された感情に基づいて、AICommentaryを使用して解説を生成する。これにより、視聴者の感情に応じた解説がリアルタイムで生成される。 3. Commentary generation: The server generates commentary using AICommentary based on the recognized emotions. This allows commentary to be generated in real time according to the viewer's emotions.
4. 解説追加: サーバは、生成された解説をライブストリームに追加する。これにより、視聴者は感情に応じた解説をリアルタイムで視聴できる。 4. Add commentary: The server adds the generated commentary to the live stream, allowing viewers to see emotional commentary in real time.
5. ハイライトおよびリプレイ: サーバは、試合の重要なシーンを自動的に抽出し、ハイライトやリプレイ機能を提供する。これにより、視聴者は試合の重要な瞬間を再度視聴できる。 5. Highlights and Replays: The server automatically extracts important scenes from the match and provides highlights and replays, allowing viewers to rewatch key moments of the match.
6. チャット機能: サーバは、視聴者同士がリアルタイムでメッセージを交換できるチャット機能を提供する。これにより、視聴者同士のコミュニケーションが促進される。 6. Chat function: The server provides a chat function that allows viewers to exchange messages with each other in real time. This promotes communication between viewers.
具体例 Specific examples
例えば、ユースバスケットボールの試合中、視聴者が感動している場合、サーバは「素晴らしいプレイですね!この瞬間は忘れられません!」という解説を生成する。また、視聴者が興奮している場合、サーバは「これは見逃せない!次のプレイに注目です!」という解説を生成する。 For example, during a youth basketball game, if the viewer is impressed, the server might generate a commentary like, "Great play! I'll never forget this moment!" Or, if the viewer is excited, the server might generate a commentary like, "You won't want to miss this! Watch the next play!"
プロンプト文の例 Example of a prompt
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整するAIモデルを作成してください。例えば、視聴者が感動している場合、解説が感動を共有する内容になるようにしてください。」 "Create an AI model that recognizes the emotions of your viewers and adjusts the content and tone of your commentary accordingly. For example, if your viewer is emotional, make sure your commentary reflects that emotion."
応用例2における特定処理の流れについて図20を用いて説明する。 The flow of the specific processing in application example 2 is explained using Figure 20.
ステップ1: Step 1:
サーバは、ライブストリーミングからフレームを取得する。入力は、リアルタイムの試合映像データであり、出力は、個々のフレーム画像である。具体的には、サーバはカメラから送信される映像データを受信し、OpenCVを使用してフレームごとに分割する。 The server obtains frames from live streaming. The input is real-time game video data, and the output is individual frame images. Specifically, the server receives the video data sent from the camera and splits it into frames using OpenCV.
ステップ2: Step 2:
サーバは、フレームから視聴者の顔を検出し、EmotionRecognizerを使用して感情を認識する。入力は、ステップ1で取得したフレーム画像であり、出力は、視聴者の感情データである。具体的には、サーバはフレーム内の顔を検出し、感情認識モデルに入力して感情を分類する。 The server detects the viewer's face from the frame and recognizes the emotion using EmotionRecognizer. The input is the frame image obtained in step 1, and the output is the viewer's emotion data. Specifically, the server detects the face in the frame and inputs it into the emotion recognition model to classify the emotion.
ステップ3: Step 3:
サーバは、認識された感情に基づいて、AICommentaryを使用して解説を生成する。入力は、ステップ2で得られた感情データであり、出力は、感情に応じた解説テキストである。具体的には、サーバは感情データをプロンプトとしてAI解説生成モデルに入力し、適切な解説文を生成する。 The server generates a commentary using AICommentary based on the recognized emotion. The input is the emotion data obtained in step 2, and the output is commentary text corresponding to the emotion. Specifically, the server inputs the emotion data as a prompt into the AI commentary generation model to generate an appropriate commentary.
ステップ4: Step 4:
サーバは、生成された解説をライブストリームに追加する。入力は、ステップ3で生成された解説テキストであり、出力は、解説が追加されたライブ映像である。具体的には、サーバは解説テキストを音声合成し、映像にオーバーレイする。 The server adds the generated commentary to the live stream. The input is the commentary text generated in step 3, and the output is the live video with the commentary added. Specifically, the server synthesizes the commentary text into speech and overlays it on the video.
ステップ5: Step 5:
サーバは、試合の重要なシーンを自動的に抽出し、ハイライトやリプレイ機能を提供する。入力は、リアルタイムの試合映像データであり、出力は、ハイライト映像やリプレイ映像である。具体的には、サーバは試合のイベントを検出し、重要なシーンを抽出して保存する。 The server automatically extracts important scenes from a match and provides highlight and replay functions. The input is real-time match video data, and the output is highlight and replay footage. Specifically, the server detects events in the match, extracts important scenes, and saves them.
ステップ6: Step 6:
サーバは、視聴者同士がリアルタイムでメッセージを交換できるチャット機能を提供する。入力は、視聴者からのメッセージデータであり、出力は、他の視聴者に送信されるメッセージである。具体的には、サーバはメッセージを受信し、チャットルーム内の他の視聴者に配信する。 The server provides a chat function that allows viewers to exchange messages with each other in real time. The input is message data from the viewer, and the output is the message to be sent to other viewers. Specifically, the server receives messages and distributes them to other viewers in the chat room.
(実施例3) (Example 3)
次に、形態例3の実施例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, a third embodiment of the third embodiment will be described. In the following description, the
従来のバスケットボールの試合において、ランニングスコアの作成や試合の進行状況の把握は手動で行われており、リアルタイムでの更新が困難であった。また、全国のチームや選手のデータベース化が進んでおらず、選手のパフォーマンス分析や育成のためのフィードバックが十分に提供されていなかった。さらに、試合の得点状況に対するユーザの感情を反映したスコア表示が行われておらず、試合視聴の満足度が低かった。 In conventional basketball games, creating a running score and understanding the progress of the game were done manually, making it difficult to update in real time. In addition, there was little progress in creating a database of teams and players nationwide, and feedback for analyzing player performance and training was not provided sufficiently. Furthermore, the score display did not reflect the user's feelings about the score situation in the game, resulting in low satisfaction when watching the game.
実施例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データを受信する手段と、受信した映像データを解析する手段と、受信した音声データを解析する手段と、解析結果から得点状況とファウル状況を抽出する手段と、抽出した情報を基にランニングスコアを生成する手段と、生成したランニングスコアをリアルタイムで更新し送信する手段と、送信されたランニングスコアを表示する手段と、ユーザの感情を認識し、スコア表示を調整する手段を含む。これにより、試合の進行状況をリアルタイムで把握し、ユーザの感情を反映したスコア表示を提供することが可能となる。 In this invention, the server includes means for receiving video data and audio data of the match, means for analyzing the received video data, means for analyzing the received audio data, means for extracting the score situation and foul situation from the analysis results, means for generating a running score based on the extracted information, means for updating and transmitting the generated running score in real time, means for displaying the transmitted running score, and means for recognizing the user's emotions and adjusting the score display. This makes it possible to grasp the progress of the match in real time and provide a score display that reflects the user's emotions.
「試合の映像データ」とは、バスケットボールの試合の進行状況を記録したビデオデータである。 "Game video data" refers to video data that records the progress of a basketball game.
「音声データ」とは、試合中の実況や解説、観客の反応などを記録したオーディオデータである。 "Audio data" refers to audio data that records commentary and commentary during a match, audience reactions, etc.
「受信する手段」とは、試合の映像データや音声データを外部から取得するための機能である。 "Means of receiving" refers to the function for acquiring video and audio data of the match from an external source.
「解析する手段」とは、受信した映像データや音声データを処理し、特定の情報を抽出するための機能である。 "Means of analysis" refers to the function of processing received video and audio data and extracting specific information.
「得点状況」とは、試合中にどのチームが何点を獲得したかを示す情報である。 "Scoring status" is information that shows how many points each team scored during the game.
「ファウル状況」とは、試合中にどの選手がどのようなファウルを犯したかを示す情報である。 "Foul situation" is information that shows which players committed what type of fouls during the game.
「ランニングスコア」とは、試合の進行に伴ってリアルタイムで更新される得点やファウルの状況を示すスコアボードである。 The "running score" is a scoreboard that shows the score and foul situation in real time as the game progresses.
「リアルタイムで更新し送信する手段」とは、生成したランニングスコアを即時に更新し、ユーザの端末に送信するための機能である。 "Means for updating and transmitting in real time" refers to a function for instantly updating the generated running score and transmitting it to the user's device.
「表示する手段」とは、送信されたランニングスコアをユーザに視覚的に提示するための機能である。 "Display means" is a function for visually presenting the submitted running score to the user.
「ユーザの感情を認識する手段」とは、試合の得点状況などに対するユーザの感情を解析し、理解するための機能である。 "Means of recognizing user emotions" refers to a function for analyzing and understanding the user's emotions regarding the score of a match, etc.
「スコア表示を調整する手段」とは、認識したユーザの感情に応じて、スコアボードの表示方法を変更するための機能である。 "Means for adjusting score display" is a function for changing the way the scoreboard is displayed depending on the recognized user's emotions.
「全国のチームや選手の試合結果やスタッツ情報」とは、全国のバスケットボールチームや選手の試合成績や個々のプレイヤーの統計データである。 "Game results and stats information for teams and players nationwide" refers to game results for basketball teams and players nationwide and statistical data for individual players.
「データベースに保存する手段」とは、収集した試合結果やスタッツ情報を整理し、データベースに格納するための機能である。 "Means of saving to a database" refers to the function for organizing collected match results and stats information and storing it in a database.
「パフォーマンスを分析する手段」とは、データベースに保存された情報を基に、選手の成績や能力を評価するための機能である。 "Means of analyzing performance" refers to a function for evaluating a player's performance and abilities based on the information stored in the database.
「フィードバックを生成する手段」とは、分析結果を基に、選手の育成や改善点を提案するためのレポートを作成する機能である。 "Means of generating feedback" refers to the function that creates reports based on the analysis results to suggest player development and areas for improvement.
「送信し表示する手段」とは、生成したフィードバックをユーザの端末に送信し、視覚的に提示するための機能である。 "Means for sending and displaying" refers to the function for sending the generated feedback to the user's device and presenting it visually.
「見える化」とは、データを視覚的に表示し、理解しやすくすることを指す。 "Visualization" refers to displaying data visually to make it easier to understand.
「育成に活用する手段」とは、データを基に選手のトレーニングや成長を支援するための方法である。 "Means for utilizing in development" refers to methods for supporting the training and development of players based on data.
この発明は、バスケットボールの試合におけるランニングスコアの自動生成および選手のパフォーマンス分析を行うシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that automatically generates running scores for basketball games and analyzes player performance. A specific embodiment of this system is described below.
システムの構成 System configuration
ハードウェアおよびソフトウェア Hardware and software
1. サーバ 1. Server
ハードウェア: 高性能なプロセッサと大容量のメモリを備えたサーバ Hardware: Server with high-performance processor and large memory capacity
ソフトウェア: 映像解析ソフトウェア(例: OpenCV)、音声解析ソフトウェア(例: Google Cloud Speech-to-Text)、データベース管理システム(例: MySQL)、感情解析エンジン(例: IBM Watson Tone Analyzer) Software: Video analysis software (e.g. OpenCV), audio analysis software (e.g. Google Cloud Speech-to-Text), database management system (e.g. MySQL), sentiment analysis engine (e.g. IBM Watson Tone Analyzer)
2. 端末 2. Terminal
ハードウェア: パソコン、タブレット、スマートフォンなど Hardware: PCs, tablets, smartphones, etc.
ソフトウェア: Webブラウザ、専用アプリケーション Software: Web browser, dedicated application
プログラムの処理 Program processing
試合データの受信と解析 Receiving and analyzing match data
サーバは、試合の映像データと音声データを受信する。映像データはカメラやストリーミングサービスから取得し、音声データは実況や解説の音声を含む。受信した映像データはOpenCVを用いて解析し、得点シーンやファウルシーンを検出する。音声データはGoogle Cloud Speech-to-Textを用いてテキストに変換し、実況音声から得点やファウルに関する情報を抽出する。 The server receives video and audio data of the match. The video data is obtained from cameras and streaming services, and the audio data includes commentary and narration. The received video data is analyzed using OpenCV to detect scoring and foul scenes. The audio data is converted to text using Google Cloud Speech-to-Text, and information about scores and fouls is extracted from the commentary.
得点状況とファウル状況の抽出 Extraction of scoring and foul situations
サーバは、映像解析結果と音声解析結果を統合し、得点状況とファウル状況を抽出する。これにより、試合の進行状況をリアルタイムで把握することが可能となる。 The server combines the results of video and audio analysis to extract the score and foul situations. This makes it possible to grasp the progress of the game in real time.
ランニングスコアの生成と表示 Generate and display running scores
サーバは、抽出した情報を基にランニングスコアを生成する。生成されたランニングスコアはリアルタイムで更新され、WebSocketやHTTPを用いて端末に送信される。端末は、受信したランニングスコアをユーザに表示する。これにより、ユーザは試合の進行状況をリアルタイムで確認することができる。 The server generates a running score based on the extracted information. The generated running score is updated in real time and sent to the terminal using WebSocket or HTTP. The terminal displays the received running score to the user, allowing the user to check the progress of the match in real time.
ユーザの感情の認識とスコア表示の調整 Recognizing user emotions and adjusting score display
サーバは、試合の得点状況に対するユーザの感情をIBM Watson Tone Analyzerを用いて認識する。認識した感情に応じて、スコア表示の方法を調整する。例えば、ユーザが得点に喜びを示している場合、スコア表示を明るい色やアニメーションで強調する。調整後のスコア表示は端末に送信され、ユーザに表示される。 The server uses IBM Watson Tone Analyzer to recognize the user's emotions regarding the score of the game. Depending on the recognized emotion, the way the score is displayed is adjusted. For example, if the user is happy about a score, the score display is emphasized with bright colors or animations. The adjusted score display is sent to the terminal and displayed to the user.
全国のチームや選手のデータベース化とパフォーマンス分析 Database of teams and players nationwide and performance analysis
サーバは、全国のチームや選手の試合結果やスタッツ情報を収集し、MySQLデータベースに保存する。保存された情報を基に、PythonのPandasライブラリを用いて選手のパフォーマンスを分析する。分析結果を基に、選手育成のためのフィードバックを生成し、端末に送信する。端末は、受信したフィードバックをユーザに表示する。 The server collects match results and stats for teams and players across the country, and stores them in a MySQL database. Based on the stored information, the performance of players is analyzed using Python's Pandas library. Based on the analysis results, feedback for player development is generated and sent to the terminal. The terminal displays the received feedback to the user.
具体例 Specific examples
試合の映像データをサーバに送信すると、サーバはOpenCVを用いて得点シーンを検出し、Google Cloud Speech-to-Textを用いて実況音声からファウル情報を抽出する。例えば、プロンプト文として「この試合の得点シーンとファウル情報を解析してランニングスコアを生成してください」と入力する。 When the video data of the match is sent to the server, the server uses OpenCV to detect scoring scenes and uses Google Cloud Speech-to-Text to extract foul information from the commentary audio. For example, the prompt text can be "Analyze the scoring scenes and foul information of this match to generate a running score."
サーバが全国の試合結果を収集し、MySQLデータベースに保存する。PythonのPandasライブラリを用いて選手のパフォーマンスを分析し、フィードバックを生成する。例えば、プロンプト文として「全国の試合結果を収集し、選手のパフォーマンスを分析してフィードバックを生成してください」と入力する。 The server collects the results of matches from around the country and stores them in a MySQL database. It uses Python's Pandas library to analyze players' performance and generate feedback. For example, enter the following prompt statement: "Collect the results of matches from around the country, analyze players' performance, and generate feedback."
サーバが得点シーンに対するユーザの喜びをIBM Watson Tone Analyzerで認識し、スコア表示を喜びを強調する形に調整する。例えば、プロンプト文として「得点シーンに対するユーザの感情を解析し、スコア表示を調整してください」と入力する。実施例3における特定処理の流れについて図21を用いて説明する。 The server recognizes the user's joy at the scoring scene using IBM Watson Tone Analyzer, and adjusts the score display to emphasize the joy. For example, the prompt text is input as "Analyze the user's emotions at the scoring scene and adjust the score display." The flow of the specific process in Example 3 is explained with reference to FIG. 21.
ステップ1: Step 1:
試合データの受信 Receive match data
サーバは、試合の映像データと音声データを受信する。入力として、カメラやストリーミングサービスからリアルタイムで提供される映像データと音声データを取得する。出力として、受信した映像データと音声データを内部メモリに保存する。具体的な動作として、サーバはネットワーク接続を通じてデータを取得し、指定されたフォーマットで保存する。 The server receives video and audio data of the match. As input, it obtains video and audio data provided in real time from cameras and streaming services. As output, it stores the received video and audio data in its internal memory. Specifically, the server obtains the data through a network connection and stores it in a specified format.
ステップ2: Step 2:
映像データの解析 Video data analysis
サーバは、受信した映像データを解析する。入力として、ステップ1で保存された映像データを使用する。出力として、得点シーンやファウルシーンの検出結果を得る。具体的な動作として、サーバはOpenCVを用いて映像データをフレームごとに解析し、特定のイベント(得点やファウル)を検出するアルゴリズムを実行する。 The server analyzes the received video data. As input, it uses the video data saved in step 1. As output, it obtains the results of detecting scoring and foul scenes. In concrete terms, the server uses OpenCV to analyze the video data frame by frame and executes an algorithm to detect specific events (scoring and fouls).
ステップ3: Step 3:
音声データの解析 Analysis of audio data
サーバは、受信した音声データを解析する。入力として、ステップ1で保存された音声データを使用する。出力として、音声データから抽出されたテキスト情報を得る。具体的な動作として、サーバはGoogle Cloud Speech-to-Textを用いて音声データをテキストに変換し、実況音声から得点やファウルに関する情報を抽出する。 The server analyzes the received audio data. As input, it uses the audio data stored in step 1. As output, it obtains text information extracted from the audio data. Specifically, the server converts the audio data into text using Google Cloud Speech-to-Text and extracts information about scores and fouls from the commentary.
ステップ4: Step 4:
得点状況とファウル状況の抽出 Extraction of scoring and foul situations
サーバは、映像解析結果と音声解析結果を統合し、得点状況とファウル状況を抽出する。入力として、ステップ2とステップ3の出力を使用する。出力として、得点状況とファウル状況を含むデータを得る。具体的な動作として、サーバは映像解析結果と音声解析結果を時系列に統合し、得点やファウルのタイミングを特定する。 The server integrates the video analysis results and audio analysis results to extract the scoring and foul situations. As input, it uses the outputs of steps 2 and 3. As output, it obtains data including the scoring and foul situations. In concrete terms, the server integrates the video analysis results and audio analysis results in a chronological order to identify the timing of scoring and fouls.
ステップ5: Step 5:
ランニングスコアの生成 Generate running scores
サーバは、抽出した情報を基にランニングスコアを生成する。入力として、ステップ4で得られた得点状況とファウル状況を使用する。出力として、ランニングスコアを含むデータを得る。具体的な動作として、サーバは得点やファウルの情報を時系列に整理し、スコアボード形式にまとめる。 The server generates a running score based on the extracted information. As input, it uses the score and foul status obtained in step 4. As output, it obtains data including the running score. Specifically, the server organizes the score and foul information in chronological order and compiles it in a scoreboard format.
ステップ6: Step 6:
ランニングスコアの更新と送信 Update and send running scores
サーバは、生成したランニングスコアをリアルタイムで更新し、端末に送信する。入力として、ステップ5で生成されたランニングスコアを使用する。出力として、更新されたランニングスコアを端末に送信する。具体的な動作として、サーバはWebSocketやHTTPを用いてデータを送信する。 The server updates the generated running score in real time and sends it to the terminal. As input, it uses the running score generated in step 5. As output, it sends the updated running score to the terminal. Specifically, the server sends data using WebSocket or HTTP.
ステップ7: Step 7:
ランニングスコアの表示 Display running score
端末は、受信したランニングスコアをユーザに表示する。入力として、ステップ6で送信されたランニングスコアを使用する。出力として、ユーザに視覚的に提示されるスコアボードを得る。具体的な動作として、端末はWebブラウザや専用アプリケーションを用いてスコアボードを表示する。 The terminal displays the received running score to the user. As input, it uses the running score sent in step 6. As output, it obtains a scoreboard that is visually presented to the user. In concrete terms, the terminal displays the scoreboard using a web browser or a dedicated application.
ステップ8: Step 8:
ユーザの感情の認識 Recognizing user emotions
サーバは、試合の得点状況に対するユーザの感情を認識する。入力として、ユーザのコメントやリアクションデータを使用する。出力として、認識された感情データを得る。具体的な動作として、サーバはIBM Watson Tone Analyzerを用いてユーザの感情を解析する。 The server recognizes the user's emotions regarding the score of the game. As input, it uses the user's comments and reaction data. As output, it obtains the recognized emotion data. Specifically, the server analyzes the user's emotions using IBM Watson Tone Analyzer.
ステップ9: Step 9:
スコア表示の調整 Score display adjustments
サーバは、認識した感情に応じてスコア表示の方法を調整する。入力として、ステップ8で得られた感情データとステップ5で生成されたランニングスコアを使用する。出力として、調整されたスコア表示データを得る。具体的な動作として、サーバはスコア表示の色やアニメーションを変更する。 The server adjusts the way the score is displayed depending on the recognized emotion. As input, it uses the emotion data obtained in step 8 and the running score generated in step 5. As output, it obtains the adjusted score display data. As a specific operation, the server changes the color and animation of the score display.
ステップ10: Step 10:
調整後のスコア表示の送信 Send adjusted score display
サーバは、調整後のスコア表示を端末に送信する。入力として、ステップ9で調整されたスコア表示データを使用する。出力として、調整後のスコア表示を端末に送信する。具体的な動作として、サーバはWebSocketやHTTPを用いてデータを送信する。 The server sends the adjusted score display to the terminal. As input, it uses the score display data adjusted in step 9. As output, it sends the adjusted score display to the terminal. Specifically, the server sends the data using WebSocket or HTTP.
ステップ11: Step 11:
調整後のスコア表示の表示 Displaying the adjusted score
端末は、調整後のスコア表示をユーザに表示する。入力として、ステップ10で送信された調整後のスコア表示データを使用する。出力として、ユーザに視覚的に提示される調整後のスコアボードを得る。具体的な動作として、端末はWebブラウザや専用アプリケーションを用いて調整後のスコアボードを表示する。
The terminal displays the adjusted score display to the user. As input, it uses the adjusted score display data sent in
ステップ12: Step 12:
全国のチームや選手のデータベース化 Database of teams and players nationwide
サーバは、全国のチームや選手の試合結果やスタッツ情報を収集し、データベースに保存する。入力として、各チームの公式サイトやスポーツデータ提供サービスから取得したデータを使用する。出力として、データベースに保存された試合結果やスタッツ情報を得る。具体的な動作として、サーバはデータを整理し、MySQLデータベースに格納する。 The server collects match results and stats information for teams and players across the country and stores it in a database. As input, it uses data obtained from each team's official website and sports data services. As output, it obtains match results and stats information stored in the database. Specifically, the server organizes the data and stores it in a MySQL database.
ステップ13: Step 13:
パフォーマンス分析 Performance analysis
サーバは、データベースに保存された情報を基に、選手のパフォーマンスを分析する。入力として、ステップ12で保存されたデータベース情報を使用する。出力として、選手の成績や能力を評価する分析結果を得る。具体的な動作として、サーバはPythonのPandasライブラリを用いてデータを処理し、選手の成績を評価する。
The server analyzes the players' performance based on the information stored in the database. As input, it uses the database information stored in
ステップ14: Step 14:
フィードバックの生成 Generating feedback
サーバは、分析結果を基に、選手育成のためのフィードバックを生成する。入力として、ステップ13で得られた分析結果を使用する。出力として、選手の強みや弱点を指摘し、改善点を提案するフィードバックレポートを得る。具体的な動作として、サーバはレポートを作成し、選手やコーチに提供する。 The server generates feedback for player development based on the analysis results. As input, it uses the analysis results obtained in step 13. As output, it obtains a feedback report that points out the player's strengths and weaknesses and suggests areas for improvement. In concrete terms, the server creates the report and provides it to the player and coach.
ステップ15: Step 15:
フィードバックの送信と表示 Submit and view feedback
サーバは、生成したフィードバックを端末に送信し、端末はそれをユーザに表示する。入力として、ステップ14で生成されたフィードバックレポートを使用する。出力として、ユーザに視覚的に提示されるフィードバックレポートを得る。具体的な動作として、サーバはメールや専用アプリケーションを通じてデータを送信し、端末はそれを表示する。
The server sends the generated feedback to the terminal, which displays it to the user. As input, it uses the feedback report generated in
(応用例3) (Application example 3)
次に、形態例3の応用例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ヘッドセット型端末314を「端末」と称する。
Next, application example 3 of embodiment example 3 will be described. In the following description, the
従来のバスケットボール試合の実況中継や解説は、人間の解説者に依存しており、リアルタイムでの得点状況やファウル状況の把握が困難であった。また、選手のパフォーマンス分析や育成に関するフィードバックも手動で行われており、効率が悪かった。さらに、ユーザの感情を反映したスコア表示ができず、視聴体験の向上が課題であった。 Traditionally, live broadcasts and commentary of basketball games relied on human commentators, making it difficult to grasp the score and foul situation in real time. In addition, analysis of player performance and feedback on development were also done manually, which was inefficient. Furthermore, it was not possible to display scores that reflected the user's emotions, making it difficult to improve the viewing experience.
応用例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段と、ユーザの感情を認識し、その感情に応じたスコア表示を行う手段と、全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段と、を含む。これにより、試合の進行状況をリアルタイムで把握し、ユーザの感情を反映したスコア表示が可能となり、選手のパフォーマンス分析や育成の効率が向上することが可能となる。 In this invention, the server includes: a means for AI to provide commentary on live coverage of basketball games; a means for distributing commentary on youth and mini-basketball games nationwide with AI live coverage; a means for AI to automatically generate running scores that are created manually for each official and team; a means for analyzing game video and audio data in real time and automatically generating the score situation and foul situation; a means for recognizing the user's emotions and displaying the score according to the emotions; and a means for providing feedback for player performance analysis and development using a database of teams and players nationwide. This makes it possible to grasp the progress of the game in real time and display scores that reflect the user's emotions, improving the efficiency of player performance analysis and development.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、人工知能を用いてバスケットボールの試合の進行状況やプレイ内容をリアルタイムで解説する技術である。 "A means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to provide real-time commentary on the progress and play of a basketball game.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国の若年層やミニバスケットボールの試合を人工知能が解説し、その解説を含む実況中継を配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a technology that uses artificial intelligence to provide commentary on youth and mini-basketball games from around the country, and broadcasts live coverage including that commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合の進行中に得点やファウルなどのスコアを人工知能が自動的に生成する技術である。 "A means of using AI to automatically generate running scores that are created manually by officials and for each team" refers to technology that uses artificial intelligence to automatically generate scores such as points and fouls as the game progresses.
「試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段」とは、試合中の映像と音声データをリアルタイムで解析し、得点やファウルの状況を自動的に生成する技術である。 "Means for analyzing game video and audio data in real time and automatically generating scoring and foul status" refers to technology that analyzes game video and audio data in real time and automatically generates scoring and foul status.
「ユーザの感情を認識し、その感情に応じたスコア表示を行う手段」とは、ユーザの表情や音声から感情を認識し、その感情に応じてスコア表示を調整する技術である。 "Means for recognizing the user's emotions and displaying a score according to those emotions" refers to technology that recognizes emotions from the user's facial expressions and voice, and adjusts the score display according to those emotions.
「全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段」とは、全国のバスケットボールチームや選手のデータベースを利用して、選手のパフォーマンスを分析し、育成のためのフィードバックを提供する技術である。 "Means of utilizing a database of teams and players nationwide to analyze player performance and provide feedback for development" refers to technology that utilizes a database of basketball teams and players nationwide to analyze player performance and provide feedback for development.
この発明を実施するためのシステムは、以下のハードウェアおよびソフトウェアを用いる。 The system for implementing this invention uses the following hardware and software.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア: スマートフォン、ヘッドマウントディスプレイ Hardware: Smartphone, head-mounted display
ソフトウェア: TensorFlow(AIモデル)、OpenCV(映像解析)、NLTK(自然言語処理)、Emotion API(感情認識) Software: TensorFlow (AI model), OpenCV (video analysis), NLTK (natural language processing), Emotion API (emotion recognition)
システムの構成 System configuration
サーバは、以下の手段を含む。 The server includes the following means:
1. バスケットボールの試合の実況中継の解説をAIが行う手段: 1. How AI can provide commentary for live broadcasts of basketball games:
サーバは、試合の映像および音声データをリアルタイムで受信し、TensorFlowを用いて試合の進行状況やプレイ内容を解析し、解説を生成する。 The server receives video and audio data from the match in real time, and uses TensorFlow to analyze the progress of the match and the content of the play, generating commentary.
2. 全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段: 2. How to broadcast live commentary of youth and mini-basketball games nationwide with AI:
サーバは、全国のユースやミニバスの試合映像を受信し、同様にAIを用いて解説を生成し、リアルタイムで配信する。 The server receives footage of youth and mini-basketball matches from across the country, and similarly uses AI to generate commentary, which it distributes in real time.
3. オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段: 3. A way to use AI to automatically generate running scores that are currently created manually by officials and teams:
サーバは、試合の映像および音声データを解析し、得点状況やファウル状況を自動的に生成する。 The server analyzes the video and audio data of the match and automatically generates the score and foul situations.
4. 試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段: 4. A method for analyzing game video and audio data in real time and automatically generating scoring and foul situations:
サーバは、OpenCVを使用して映像データをフレームごとに分割し、重要なシーンを抽出する。音声データはNLTKを使用してテキストに変換し、重要なキーワードを抽出する。 The server uses OpenCV to split the video data into frames and extract important scenes. It uses NLTK to convert the audio data into text and extract important keywords.
5. ユーザの感情を認識し、その感情に応じたスコア表示を行う手段: 5. How to recognize user emotions and display a score according to those emotions:
サーバは、Emotion APIを使用してユーザの表情や音声から感情を認識し、その感情に応じてスコア表示を調整する。 The server uses the Emotion API to recognize emotions from the user's facial expressions and voice, and adjusts the score display accordingly.
6. 全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段: 6. Using a national team and player database to analyze player performance and provide feedback for development:
サーバは、全国のチームや選手のデータベースを参照し、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。 The server accesses a database of teams and players from across the country, displays analysis of player performance, and provides feedback for the next match.
具体例 Specific examples
試合中にスマートフォンを使用しているユーザが得点シーンを見た際、サーバはAIを用いてそのシーンを解析し、得点状況をリアルタイムで表示する。ユーザが喜びの表情を見せた場合、サーバは感情エンジンを使用してそれを認識し、スコア表示をより華やかにする。また、試合終了後には、サーバは全国のデータベースを参照して、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。 When a user using a smartphone during a match sees a goal being scored, the server uses AI to analyze the scene and display the score in real time. If the user shows an expression of joy, the server will recognize it using an emotion engine and make the score display more colorful. After the match ends, the server also refers to a nationwide database to display an analysis of the players' performance and provide feedback for the next match.
プロンプト文の例 Example of a prompt
「試合の映像と音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成するAIモデルを使用して、ランニングスコアを表示してください。また、ユーザの感情を認識し、その感情に応じたスコア表示を行ってください。さらに、全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供してください。」 "Please analyze the video and audio data of the game in real time, and use an AI model that automatically generates the score and foul situation to display a running score. Also, please recognize the user's emotions and display the score according to those emotions. Furthermore, please use a database of teams and players from all over the country to provide feedback for analyzing player performance and development."
応用例3における特定処理の流れについて図22を用いて説明する。 The flow of the specific processing in application example 3 is explained using Figure 22.
ステップ1: Step 1:
試合の映像および音声データの取得 Acquisition of game video and audio data
サーバは、スマートフォンやヘッドマウントディスプレイから試合の映像および音声データをリアルタイムで受信する。入力は試合の映像および音声データであり、出力は解析のための前処理済みデータである。具体的な動作として、サーバはデータストリームを受信し、フレームごとに映像データを分割し、音声データをテキストに変換する。 The server receives video and audio data of the game in real time from a smartphone or head-mounted display. The input is the video and audio data of the game, and the output is preprocessed data for analysis. In concrete terms, the server receives the data stream, splits the video data into frames, and converts the audio data into text.
ステップ2: Step 2:
データの前処理 Data preprocessing
サーバは、OpenCVを使用して映像データをフレームごとに分割し、重要なシーンを抽出する。また、音声データはNLTKを使用してテキストに変換し、重要なキーワード(得点、ファウルなど)を抽出する。入力は前処理済みの映像および音声データであり、出力は解析のための重要シーンおよびキーワードである。具体的な動作として、サーバは映像フレームを解析し、得点シーンやファウルシーンを特定する。 The server uses OpenCV to split the video data into frames and extract important scenes. It also uses NLTK to convert the audio data into text and extracts important keywords (e.g., goals, fouls). The input is the preprocessed video and audio data, and the output is important scenes and keywords for analysis. Specifically, the server analyzes video frames and identifies scoring and foul scenes.
ステップ3: Step 3:
AIモデルによる解析 Analysis using AI models
サーバは、TensorFlowを使用して、映像および音声データから得点状況やファウル状況を解析する。入力は重要シーンおよびキーワードであり、出力は得点状況やファウル状況のデータである。具体的な動作として、サーバはAIモデルを実行し、各シーンの得点やファウルを自動的に判定する。 The server uses TensorFlow to analyze the scoring and foul situations from video and audio data. The input is important scenes and keywords, and the output is data on the scoring and foul situations. In concrete terms, the server runs an AI model and automatically determines the scores and fouls for each scene.
ステップ4: Step 4:
ランニングスコアの自動生成 Automatic generation of running scores
サーバは、解析結果をもとにランニングスコアを自動生成する。入力は得点状況やファウル状況のデータであり、出力はリアルタイムのランニングスコアである。具体的な動作として、サーバは得点やファウルの情報を集計し、スコアボードを更新する。 The server automatically generates a running score based on the analysis results. The input is data on the scoring and foul situations, and the output is a real-time running score. Specifically, the server tallys up the score and foul information and updates the scoreboard.
ステップ5: Step 5:
感情認識 Emotion recognition
サーバは、Emotion APIを使用して、ユーザの表情や音声から感情を認識する。入力はユーザの表情データおよび音声データであり、出力は認識された感情データである。具体的な動作として、サーバはカメラやマイクからユーザのデータを取得し、感情を解析する。 The server uses the Emotion API to recognize emotions from the user's facial expressions and voice. The input is the user's facial expression data and voice data, and the output is the recognized emotion data. In concrete terms, the server obtains user data from the camera and microphone and analyzes emotions.
ステップ6: Step 6:
感情に応じたスコア表示 Score display based on emotions
サーバは、認識された感情に応じてスコア表示を調整する。入力は感情データおよびランニングスコアであり、出力は感情に応じたスコア表示である。具体的な動作として、サーバはユーザの感情に基づいてスコア表示のデザインやエフェクトを変更する。 The server adjusts the score display according to the recognized emotion. The input is emotion data and the running score, and the output is a score display according to the emotion. In concrete terms, the server changes the design and effects of the score display based on the user's emotion.
ステップ7: Step 7:
データベースの活用 Utilizing the database
サーバは、全国のチームや選手のデータベースを参照し、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。入力は試合結果および選手データであり、出力はパフォーマンス分析結果およびフィードバックである。具体的な動作として、サーバはデータベースから関連情報を取得し、解析結果を表示する。 The server refers to a database of teams and players from around the country, displays the results of player performance analysis, and provides feedback for the next match. The input is the match results and player data, and the output is performance analysis results and feedback. In concrete terms, the server retrieves relevant information from the database and displays the analysis results.
特定処理部290は、特定処理の結果をヘッドセット型端末314に送信する。ヘッドセット型端末314では、制御部46Aが、スピーカ240及びディスプレイ343に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
The
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。
The
生成AIの他の例としては、Gemini(インターネット検索<URL: https://gemini.google.com/?hl=ja>)が挙げられる。 Another example of generative AI is Gemini (Internet search <URL: https://gemini.google.com/?hl=ja>).
上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、ヘッドセット型端末314によって特定処理が行われるようにしてもよい。
In the above embodiment, an example was given in which the specific processing is performed by the
[第4実施形態] [Fourth embodiment]
図7には、第4実施形態に係るデータ処理システム410の構成の一例が示されている。
Figure 7 shows an example of the configuration of a
図7に示すように、データ処理システム410は、データ処理装置12及びロボット414を備えている。データ処理装置12の一例としては、サーバが挙げられる。
As shown in FIG. 7, the
データ処理装置12は、コンピュータ22、データベース24、及び通信I/F26を備えている。コンピュータ22は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ22は、プロセッサ28、RAM30、及びストレージ32を備えている。プロセッサ28、RAM30、及びストレージ32は、バス34に接続されている。また、データベース24及び通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)及び/又はLAN(Local Area Network)等が挙げられる。
The
ロボット414は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、通信I/F44、及び制御対象443を備えている。コンピュータ36は、プロセッサ46、RAM48、及びストレージ50を備えている。プロセッサ46、RAM48、及びストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、カメラ42、及び制御対象443も、バス52に接続されている。
The
マイクロフォン238は、ユーザ20が発する音声を受け付けることで、ユーザ20から指示等を受け付ける。マイクロフォン238は、ユーザ20が発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
The
カメラ42は、レンズ、絞り、及びシャッタ等の光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等の撮像素子とが搭載された小型デジタルカメラであり、ユーザ20の周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
通信I/F44は、ネットワーク54に接続されている。通信I/F44及び26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44及び26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
The communication I/
制御対象443は、表示装置、目部のLED、並びに、腕、手及び足等を駆動するモータ等を含む。ロボット414の姿勢や仕草は、腕、手及び足等のモータを制御することにより制御される。ロボット414の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット414の目部のLEDの発光状態を制御することによっても、ロボット414の表情を表現できる。
The controlled
図8には、データ処理装置12及びロボット414の要部機能の一例が示されている。
Figure 8 shows an example of the main functions of the
図8に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
As shown in FIG. 8, in the
特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
The
ストレージ32には、データ生成モデル58及び感情特定モデル59が格納されている。データ生成モデル58及び感情特定モデル59は、特定処理部290によって用いられる。
ロボット414では、プロセッサ46によって受付出力処理が行われる。ストレージ50には、受付出力プログラム60が格納されている。プロセッサ46は、ストレージ50から受付出力プログラム60を読み出し、読み出した受付出力プログラム60をRAM48上で実行する。受付出力処理は、プロセッサ46がRAM48上で実行する受付出力プログラム60に従って、制御部46Aとして動作することによって実現される。
In the
次に、データ処理装置12の特定処理部290による特定処理について説明する。
Next, we will explain the specific processing performed by the
「形態例1」 "Example 1"
本発明の形態例1として、AIがバスケットボールの試合の実況中継の解説を行うシステムがある。このシステムでは、試合の映像や音声データをAIが解析し、試合の状況や選手の動きを理解する。そして、その解析結果に基づいて、試合の解説を自動的に生成し、実況中継とともに配信する。 Example 1 of the present invention is a system in which AI provides commentary for a live broadcast of a basketball game. In this system, AI analyzes the video and audio data of the game to understand the situation of the game and the movements of the players. Then, based on the results of this analysis, a commentary of the game is automatically generated and distributed along with the live broadcast.
「形態例2」 "Example 2"
本発明の形態例2として、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムがある。このシステムでは、全国各地で行われるユースやミニバスの試合の映像や音声データを収集し、形態例1と同様にAIが解析して解説を生成する。そして、その解説を試合映像とともに配信することで、全国の試合を広く視聴者に提供する。 Example 2 of the present invention is a system that distributes commentary of youth and mini-basketball games from around the country, with live coverage by AI. This system collects video and audio data from youth and mini-basketball games held around the country, which are analyzed by AI in the same way as example 1 to generate commentary. Then, by distributing the commentary together with the game footage, games from around the country are made available to a wide audience.
「形態例3」 "Example 3"
本発明の形態例3として、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成するシステムがある。このシステムでは、試合の映像や音声データから得点状況やファウル状況などをAIが解析し、ランニングスコアを自動的に生成する。これにより、試合の進行状況をリアルタイムで把握することが可能となる。 Example 3 of the present invention is a system that uses AI to automatically generate running scores that are created manually by officials or for each team. In this system, AI analyzes the scoring situation, foul situation, etc. from video and audio data of the game, and automatically generates a running score. This makes it possible to grasp the progress of the game in real time.
「形態例4」 "Example 4"
本発明の形態例4として、全国のチームや選手のデータベース化を行い、そのデータベース化された情報を日本の登録バスケ選手の見える化、育成に活用するシステムがある。このシステムでは、全国のチームや選手の試合結果やスタッツなどの情報を収集し、データベース化する。そして、そのデータベースを活用して、選手のパフォーマンスの分析や育成のためのフィードバックを提供する。 Example 4 of the present invention is a system that creates a database of teams and players from across the country, and uses the information in the database to visualize and develop registered basketball players in Japan. This system collects information such as game results and stats for teams and players from across the country, and creates a database. The database is then used to provide feedback for analyzing players' performance and developing them.
以下に、各形態例の処理の流れについて説明する。 The process flow for each example is explained below.
「形態例1」 "Example 1"
ステップ1:AIがバスケットボールの試合の映像や音声データを収集する。 Step 1: AI collects video and audio data from basketball games.
ステップ2:収集したデータをAIが解析し、試合の状況や選手の動きを理解する。 Step 2: AI analyzes the collected data to understand the situation of the game and the movements of the players.
ステップ3:解析結果に基づいて、AIが試合の解説を自動的に生成する。 Step 3: Based on the analysis results, the AI automatically generates commentary for the match.
ステップ4:生成した解説を実況中継とともに配信する。 Step 4: Distribute the generated commentary along with the live broadcast.
「形態例2」 "Example 2"
ステップ1:全国各地で行われるユースやミニバスの試合の映像や音声データを収集する。 Step 1: Collect video and audio data from youth and mini-basketball matches held across the country.
ステップ2:収集したデータをAIが解析し、試合の状況や選手の動きを理解する。 Step 2: AI analyzes the collected data to understand the situation of the game and the movements of the players.
ステップ3:解析結果に基づいて、AIが試合の解説を自動的に生成する。 Step 3: Based on the analysis results, the AI automatically generates commentary for the match.
ステップ4:生成した解説を試合映像とともに配信する。 Step 4: Distribute the generated commentary along with the game footage.
「形態例3」 "Example 3"
ステップ1:試合の映像や音声データから得点状況やファウル状況などをAIが解析する。 Step 1: AI analyzes the scoring situation, foul situation, etc. from video and audio data of the game.
ステップ2:解析結果に基づいて、AIがランニングスコアを自動的に生成する。 Step 2: Based on the analysis results, the AI automatically generates a running score.
「形態例4」 "Example 4"
ステップ1:全国のチームや選手の試合結果やスタッツなどの情報を収集する。 Step 1: Collect information such as match results and stats for teams and players across the country.
ステップ2:収集した情報をデータベース化する。 Step 2: Create a database of the collected information.
ステップ3:データベース化された情報を活用して、選手のパフォーマンスの分析や育成のためのフィードバックを提供する。 Step 3: Use the databased information to analyze player performance and provide feedback for development.
(実施例1) (Example 1)
次に、形態例1の実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, a first embodiment of the first embodiment will be described. In the following description, the
従来のバスケットボールの試合の実況中継では、解説者の質や量に依存するため、試合の詳細な状況や選手の動きをリアルタイムで正確に伝えることが難しい。また、全国のユースやミニバスの試合解説を行うためには、多くの人手が必要であり、コストや労力がかかる。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアは、手作業によるため時間がかかり、正確性に欠けることがある。これらの課題を解決するためには、AIを活用した自動化システムが必要である。 Traditional live broadcasts of basketball games depend on the quality and quantity of commentators, making it difficult to accurately convey the detailed situation of the game and the movements of the players in real time. In addition, commentary on youth and mini-basketball games across the country is required by many people, which is costly and labor intensive. Furthermore, running scores created by officials and people for each team are done manually, so they take time and can lack accuracy. To solve these issues, an automated system that utilizes AI is needed.
実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データをリアルタイムで収集する手段と、収集した映像データと音声データを解析する手段と、解析結果に基づいて試合の解説を生成する手段と、生成された解説を実況中継とともに配信する手段と、を含む。これにより、試合の詳細な状況や選手の動きをリアルタイムで正確に伝えることが可能となる。また、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信することができ、コストや労力を削減することができる。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成することで、時間を短縮し、正確性を向上させることができる。 In this invention, the server includes means for collecting video data and audio data of the match in real time, means for analyzing the collected video data and audio data, means for generating commentary on the match based on the analysis results, and means for distributing the generated commentary together with a live broadcast. This makes it possible to accurately convey the detailed situation of the match and the movements of the players in real time. In addition, commentary on youth and mini-basketball matches from all over the country can be distributed with live broadcasts by AI, reducing costs and labor. Furthermore, by automatically generating running scores by AI instead of manually created by officials and for each team, it is possible to reduce time and improve accuracy.
「試合の映像データ」とは、バスケットボールの試合の進行状況を視覚的に記録したデジタルデータである。 "Game video data" refers to digital data that visually records the progress of a basketball game.
「音声データ」とは、バスケットボールの試合中に発生する音声をデジタル形式で記録したデータである。 "Audio data" refers to data that is a digital recording of the sounds generated during a basketball game.
「リアルタイムで収集する手段」とは、試合の進行と同時に映像データと音声データを取得するための技術や装置である。 "Means of collecting data in real time" refers to technology and devices that allow for the acquisition of video and audio data as the match progresses.
「解析する手段」とは、収集した映像データと音声データを処理し、試合の状況や選手の動きを理解するための技術やソフトウェアである。 "Means of analysis" refers to technology and software that processes collected video and audio data to understand the situation of the game and the movements of the players.
「解説を生成する手段」とは、解析結果に基づいて試合の状況や選手の動きを説明する文章を自動的に作成するための技術やソフトウェアである。 "Means for generating commentary" refers to technology or software that automatically creates text that explains the situation of the game and the movements of players based on the analysis results.
「実況中継とともに配信する手段」とは、生成された解説を試合の映像と音声と一緒にリアルタイムで視聴者に届けるための技術や装置である。 "Means of distribution along with live broadcast" refers to the technology and devices that deliver the generated commentary to viewers in real time along with the video and audio of the match.
「ユースやミニバスの試合解説」とは、若年層や小学生向けのバスケットボール試合に関する解説である。 "Youth and mini-basketball game commentary" is commentary on basketball games aimed at young people and elementary school students.
「ランニングスコア」とは、試合中にリアルタイムで更新される得点や選手のパフォーマンスを記録したデータである。 "Running score" is data that records the scores and player performances that are updated in real time during the game.
「AI自動生成する手段」とは、人工知能を用いて手作業を自動化し、データを生成するための技術やソフトウェアである。 "AI automatic generation means" refers to technology and software that uses artificial intelligence to automate manual tasks and generate data.
「データベース化を行う手段」とは、収集した情報を整理し、検索や利用が容易な形式で保存するための技術やソフトウェアである。 "Means of database creation" refers to technology and software for organizing collected information and storing it in a format that is easy to search and use.
「見える化」とは、データを視覚的に表示し、理解しやすくするための技術や方法である。 "Visualization" refers to techniques and methods for visually displaying data and making it easier to understand.
「育成に活用する手段」とは、データを基に選手のトレーニングや成長を支援するための技術や方法である。 "Means to be used in development" refers to technologies and methods that use data to support the training and development of athletes.
この発明は、バスケットボールの試合の実況中継において、AIを活用して試合の解説を自動生成し、リアルタイムで配信するシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that uses AI to automatically generate commentary on a basketball game and deliver it in real time during live broadcasts. A specific embodiment of this system is described below.
サーバの動作 Server operation
1. データ収集 1. Data collection
サーバは、試合の映像データと音声データをリアルタイムで収集する。具体的には、カメラとマイクロフォンを使用して試合の映像と音声をキャプチャする。映像データは1080pの解像度で、音声データは44.1kHzのサンプリングレートで収集する。 The server collects video and audio data of the match in real time. Specifically, it uses a camera and microphone to capture video and audio of the match. Video data is collected at a resolution of 1080p, and audio data is collected at a sampling rate of 44.1kHz.
2. データ解析 2. Data analysis
サーバは、収集した映像データと音声データを解析する。この解析には、画像認識ソフトウェア(例:OpenCV)や音声認識ソフトウェア(例:Google Speech-to-Text API)を使用する。これにより、試合の状況や選手の動きを理解する。例えば、選手Aがシュートを打つ動作を検出し、その瞬間の実況音声をテキスト化する。 The server analyzes the collected video and audio data. This analysis uses image recognition software (e.g. OpenCV) and voice recognition software (e.g. Google Speech-to-Text API). This allows the server to understand the situation of the game and the movements of the players. For example, it detects the action of Player A taking a shot and converts the live audio of that moment into text.
3. 解説生成 3. Description generation
サーバは、解析結果に基づいて試合の解説を生成する。この解説生成には、生成AIモデル(例:GPT-4)を使用する。生成AIモデルは、試合の状況や選手の動きに関する情報を入力として受け取り、自然言語で解説文を生成する。例えば、「選手Aが3ポイントシュートを成功させた」という情報を入力し、「選手Aが見事な3ポイントシュートを決めました」といった解説文を生成する。 The server generates commentary on the game based on the analysis results. A generative AI model (e.g. GPT-4) is used to generate this commentary. The generative AI model receives information about the game situation and player movements as input, and generates commentary in natural language. For example, it inputs information such as "Player A made a successful three-point shot" and generates commentary such as "Player A made a brilliant three-point shot."
4. 配信 4. Distribution
サーバは、生成された解説文を実況中継とともに配信する。配信には、ストリーミングサーバ(例:Wowza Streaming Engine)を使用する。これにより、ユーザはインターネットを通じてリアルタイムで試合の映像と解説を視聴することができる。 The server distributes the generated commentary along with the live broadcast. A streaming server (e.g. Wowza Streaming Engine) is used for distribution. This allows users to watch the game footage and commentary in real time over the Internet.
端末の動作 Device operation
1. データ受信 1. Data reception
端末は、サーバから配信される試合の映像と解説をリアルタイムで受信する。受信には、インターネット接続とストリーミングソフトウェア(例:VLCメディアプレーヤー)を使用する。 The device receives real-time game footage and commentary from the server using an internet connection and streaming software (e.g. VLC media player).
2. 表示 2. Display
端末は、受信した映像と解説をユーザに表示する。表示には、ディスプレイやスピーカーなどのハードウェアを使用する。例えば、ユーザがスマートフォンで視聴している場合、映像はスマートフォンの画面に表示され、解説音声は内蔵スピーカーから再生される。 The device displays the received video and commentary to the user. For display purposes, hardware such as a display and speakers are used. For example, if the user is watching on a smartphone, the video will be displayed on the smartphone screen and the commentary audio will be played through the built-in speaker.
ユーザの動作 User actions
1. 視聴 1. Viewing
ユーザは、端末を通じて試合の映像と解説を視聴する。ユーザは、試合の進行状況や選手の動きについての詳細な解説をリアルタイムで得ることができる。例えば、ユーザがリビングルームでテレビを通じて視聴している場合、テレビ画面に試合の映像が表示され、テレビのスピーカーから解説音声が流れる。 The user watches the game footage and commentary through the terminal. The user can get detailed commentary on the progress of the game and the movements of the players in real time. For example, if the user is watching on a television in the living room, the game footage will be displayed on the television screen and commentary will be played from the television speakers.
具体例 Specific examples
具体例1 Example 1
試合の状況: 第3クォーター、残り時間5分、スコアはホームチームが75点、アウェイチームが70点。 Game Situation: 3rd quarter, 5 minutes remaining, home team 75, away team 70.
選手の動き: ホームチームの選手Aが3ポイントシュートを成功させた。 Player Action: Home team player A makes a three-point shot.
生成AIモデルへのプロンプト文の例 Example prompts for generative AI models
試合の状況: 第3クォーター、残り時間5分、スコアはホームチームが75点、アウェイチームが70点。 Game Situation: 3rd quarter, 5 minutes remaining, home team 75, away team 70.
選手の動き: ホームチームの選手Aが3ポイントシュートを成功させた。 Player Action: Home team player A makes a three-point shot.
生成された解説文の例 Example of generated description
「第3クォーター残り5分、ホームチームが75点、アウェイチームが70点と接戦が続いています。ホームチームの選手Aが見事な3ポイントシュートを成功させ、スコアをさらに引き離しました。」 "With five minutes left in the third quarter, the home team is tied at 75 points and the away team at 70 points. Home team player A makes a great three-point shot, widening the gap even further."
このようにして、ユーザは試合の進行状況や選手の動きについての詳細な解説をリアルタイムで視聴することができる。 In this way, users can watch detailed commentary on the progress of the match and the movements of the players in real time.
実施例1における特定処理の流れについて図11を用いて説明する。 The flow of the identification process in Example 1 is explained using Figure 11.
ステップ1: Step 1:
サーバは、試合の映像データと音声データをリアルタイムで収集する。 The server collects video and audio data from the match in real time.
具体的な動作として、カメラとマイクロフォンを使用して試合の映像と音声をキャプチャする。 Specific tasks include using cameras and microphones to capture video and audio of the game.
入力は、カメラとマイクロフォンからの映像と音声であり、出力はデジタル形式の映像データと音声データである。 The input is video and audio from the camera and microphone, and the output is video and audio data in digital format.
映像データは1080pの解像度で、音声データは44.1kHzのサンプリングレートで収集される。 Video data is collected at 1080p resolution, and audio data is collected at a sampling rate of 44.1kHz.
ステップ2: Step 2:
サーバは、収集した映像データと音声データを解析する。 The server analyzes the collected video and audio data.
具体的な動作として、画像認識ソフトウェア(例:OpenCV)を使用して映像データから選手の動きを検出し、音声認識ソフトウェア(例:Google Speech-to-Text API)を使用して音声データから実況の内容をテキストに変換する。 Specific operations include using image recognition software (e.g. OpenCV) to detect player movements from video data, and using voice recognition software (e.g. Google Speech-to-Text API) to convert the audio data into text to provide commentary.
入力は、ステップ1で収集された映像データと音声データであり、出力は解析された選手の動き情報とテキスト化された実況内容である。 The input is the video and audio data collected in step 1, and the output is the analyzed player movement information and the text commentary.
例えば、選手Aがシュートを打つ動作を検出し、その瞬間の実況音声をテキスト化する。 For example, it detects when Player A is about to take a shot and converts the audio commentary at that moment into text.
ステップ3: Step 3:
サーバは、解析結果に基づいて試合の解説を生成する。 The server generates a commentary of the match based on the analysis results.
具体的な動作として、生成AIモデル(例:GPT-4)にプロンプト文を入力し、解説文を生成する。 Specifically, the prompt text is input into a generative AI model (e.g. GPT-4) to generate an explanatory text.
入力は、ステップ2で得られた選手の動き情報とテキスト化された実況内容であり、出力は生成された解説文である。 The input is the player movement information obtained in step 2 and the text commentary, and the output is the generated commentary.
例えば、「選手Aが3ポイントシュートを成功させた」という情報を入力し、「選手Aが見事な3ポイントシュートを決めました」といった解説文を生成する。 For example, input information such as "Player A made a successful three-point shot" and generate an explanatory text such as "Player A made a brilliant three-point shot."
ステップ4: Step 4:
サーバは、生成された解説文を実況中継とともに配信する。 The server distributes the generated commentary along with the live broadcast.
具体的な動作として、ストリーミングサーバ(例:Wowza Streaming Engine)を使用して、映像と解説音声をリアルタイムでストリーミング配信する。 Specifically, the video and commentary audio are streamed in real time using a streaming server (e.g. Wowza Streaming Engine).
入力は、ステップ3で生成された解説文とステップ1で収集された映像データであり、出力はリアルタイムで配信される映像と解説音声である。 The input is the explanatory text generated in step 3 and the video data collected in step 1, and the output is the video and explanatory audio delivered in real time.
ステップ5: Step 5:
端末は、サーバから配信される試合の映像と解説をリアルタイムで受信する。 The device receives game footage and commentary streamed from the server in real time.
具体的な動作として、インターネット接続とストリーミングソフトウェア(例:VLCメディアプレーヤー)を使用する。 Specific actions include using an internet connection and streaming software (e.g. VLC media player).
入力は、サーバからのストリーミングデータであり、出力は端末に表示される映像と再生される解説音声である。 The input is streaming data from the server, and the output is the video displayed on the terminal and the commentary audio played.
ステップ6: Step 6:
端末は、受信した映像と解説をユーザに表示する。 The device displays the received video and commentary to the user.
具体的な動作として、ディスプレイに映像を表示し、スピーカーから解説音声を再生する。 Specific operations include showing images on the display and playing explanatory audio from the speaker.
入力は、ステップ5で受信した映像と解説音声であり、出力はユーザに視覚と聴覚で提供される試合の実況中継である。 The input is the video and commentary audio received in step 5, and the output is a live broadcast of the game provided to the user in both visual and audio.
ステップ7: Step 7:
ユーザは、端末を通じて試合の映像と解説を視聴する。 Users can watch game footage and commentary through their devices.
具体的な動作として、端末のディスプレイで試合の映像を見ながら、スピーカーから流れる解説を聞く。 Specific actions include watching the game footage on the device display and listening to commentary coming from the speaker.
入力は、ステップ6で表示された映像と再生された解説音声であり、出力はユーザの視聴体験である。 The input is the video displayed in step 6 and the commentary audio played, and the output is the user's viewing experience.
例えば、ユーザがリビングルームでテレビを通じて視聴している場合、テレビ画面に試合の映像が表示され、テレビのスピーカーから解説音声が流れる。 For example, if a user is watching on a television in their living room, the game footage will be displayed on the television screen and commentary will be played from the television speakers.
(応用例1) (Application example 1)
次に、形態例1の応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, application example 1 of embodiment example 1 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、リアルタイムでの解説や試合後のハイライト生成、選手の詳細なパフォーマンス解析が十分に行われていない。また、ユーザーが特定の選手やプレイについて質問した際に、即座に適切な解説を提供することが難しいという課題がある。 Existing basketball game commentary systems do not adequately provide real-time commentary, post-game highlight generation, or detailed analysis of players' performance. In addition, there is a problem that it is difficult to provide appropriate commentary immediately when a user asks about a specific player or play.
応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像データを解析し、リアルタイムで解説を生成する手段と、試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段と、選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段と、ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段と、を含む。これにより、リアルタイムでの解説提供、試合後のハイライト生成、選手の詳細なパフォーマンス解析、ユーザーの質問に対する即座の解説提供が可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games nationwide with AI commentary, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for analyzing game video data and generating commentary in real time, a means for automatically extracting important scenes after the game ends and generating a highlight video, a means for analyzing player movements and performance and providing detailed statistical information, and a means for AI to provide commentary when a user asks a question about a specific player or play. This makes it possible to provide commentary in real time, generate post-game highlights, analyze players' performance in detail, and provide immediate commentary in response to user questions.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合の映像や音声データを解析し、試合の状況や選手の動きを理解して、AIが自動的に解説を生成する技術である。 "A means for AI to provide commentary for live broadcasts of basketball games" refers to technology in which AI analyzes video and audio data from basketball games, understands the situation of the game and the movements of the players, and automatically generates commentary.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合をAIが解説し、その解説付きで試合をリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a technology that uses AI to provide commentary on youth and mini-basketball games from around the country and broadcasts the games in real time with that commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で記録しているスコアを、AIが自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses AI to automatically generate scores that are manually recorded by officials and teams during a match.
「試合の映像データを解析し、リアルタイムで解説を生成する手段」とは、試合の映像データをリアルタイムで解析し、その解析結果に基づいて即座に解説を生成する技術である。 "Means for analyzing game video data and generating commentary in real time" refers to technology that analyzes game video data in real time and instantly generates commentary based on the analysis results.
「試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段」とは、試合終了後に試合の映像データを解析し、重要なシーンを自動的に抽出してハイライト動画を生成する技術である。 "Means for automatically extracting important scenes after the end of a match and generating a highlight video" refers to a technology that analyzes video data of a match after the end of the match, automatically extracts important scenes, and generates a highlight video.
「選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段」とは、選手の動きやパフォーマンスを解析し、その結果に基づいて詳細な統計情報を提供する技術である。 "Means of analyzing player movements and performance and providing detailed statistical information" refers to technology that analyzes player movements and performance and provides detailed statistical information based on the results.
「ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段」とは、ユーザーが特定の選手やプレイについて質問した際に、AIがその質問に対して適切な解説を提供する技術である。 "A means for an AI to provide commentary when a user asks a question about a specific player or play" refers to technology that enables an AI to provide an appropriate commentary in response to a question when a user asks about a specific player or play.
この発明を実施するためには、以下のようなシステム構成と処理手順が必要である。 To implement this invention, the following system configuration and processing steps are required.
システム構成 System configuration
ハードウェア Hardware
サーバ:AIモデルの実行とデータ解析を行うための高性能なコンピュータ。 Server: A high-performance computer for running AI models and analyzing data.
スマートフォン:ユーザーが試合の解説を視聴し、インタラクションを行うためのデバイス。 Smartphone: The device on which users watch and interact with the game commentary.
カメラ:試合の映像をキャプチャするためのデバイス。 Camera: A device used to capture footage of the match.
ソフトウェア Software
OpenCV:映像データの読み込みと解析に使用するライブラリ。 OpenCV: A library used to read and analyze video data.
TensorFlow:AIモデルの実行に使用するフレームワーク。 TensorFlow: A framework used to run AI models.
Transformers:GPT-2モデルを使用して解説を生成するライブラリ。 Transformers: A library that generates explanations using the GPT-2 model.
処理の流れ Processing flow
1. 映像データの読み込み 1. Loading video data
サーバは、カメラから取得した試合の映像データをOpenCVを用いてフレームごとに読み込む。 The server uses OpenCV to read the game video data obtained from the camera frame by frame.
2. フレームの解析 2. Frame analysis
サーバは、読み込んだフレームを解析し、選手の動きや重要なアクションを検出する。この解析には、TensorFlowを用いたディープラーニングモデルを使用する。 The server analyzes the loaded frames to detect player movements and important actions. This analysis uses a deep learning model using TensorFlow.
3. 解説の生成 3. Generate explanations
サーバは、解析結果に基づいて解説文を生成する。具体的には、Transformersライブラリを用いてGPT-2モデルを実行し、プロンプト文を入力として解説文を生成する。 The server generates an explanatory text based on the analysis results. Specifically, it runs the GPT-2 model using the Transformers library and generates an explanatory text using the prompt text as input.
4. 解説の配信 4. Delivering commentary
生成された解説文は、リアルタイムでスマートフォンに配信される。ユーザーは、スマートフォンを通じて試合の解説を視聴することができる。 The generated commentary is delivered to smartphones in real time, allowing users to watch and listen to commentary on the match via their smartphones.
5. ハイライト動画の生成 5. Highlight video generation
試合終了後、サーバは重要なシーンを自動で抽出し、ハイライト動画を生成する。このハイライト動画もスマートフォンに配信される。 After the match ends, the server automatically extracts important scenes and generates a highlight video. This highlight video is also distributed to smartphones.
6. 選手のパフォーマンス解析 6. Player performance analysis
サーバは、選手の動きやパフォーマンスを詳細に解析し、統計情報を生成する。この統計情報は、ユーザーがスマートフォンで確認できる。 The server performs detailed analysis of the players' movements and performance and generates statistical information that users can view on their smartphones.
7. ユーザーインタラクション 7. User interaction
ユーザーが特定の選手やプレイについて質問すると、サーバはその質問に対して適切な解説を生成し、スマートフォンに配信する。 When a user asks a question about a particular player or play, the server generates an appropriate commentary for that question and delivers it to the smartphone.
具体例 Specific examples
試合の得点シーン:選手Aがスリーポイントシュートを決めた瞬間を検出し、「Player A scores a three-pointer」という解説を生成する。 Scoring scene in the game: Detect the moment when Player A makes a three-point shot and generate an explanation such as "Player A scores a three-pointer."
ディフェンスのハイライト:選手Bがブロックショットを成功させたシーンを検出し、「Player B makes a great block」という解説を生成する。 Defensive highlights: Detects a scene where Player B successfully blocks a shot and generates a commentary such as "Player B makes a great block."
プロンプト文の例 Example of a prompt
「Player A scores a three-pointer. Generate a commentary for this action.」 "Player A scores a three-pointer. Generate a commentary for this action."
「Player B makes a great block. Generate a commentary for this action.」 "Player B makes a great block. Generate a commentary for this action."
このようにして、サーバは試合の映像データをリアルタイムで解析し、ユーザーに対して自動的に解説を提供することができる。これにより、リアルタイムでの解説提供、試合後のハイライト生成、選手の詳細なパフォーマンス解析、ユーザーの質問に対する即座の解説提供が可能となる。 In this way, the server can analyze the game video data in real time and automatically provide commentary to the user. This allows for real-time commentary, post-game highlights, detailed analysis of player performance, and instant commentary in response to user questions.
応用例1における特定処理の流れについて図12を用いて説明する。 The flow of the specific processing in application example 1 is explained using Figure 12.
ステップ1: Step 1:
サーバは、カメラから取得した試合の映像データをOpenCVを用いてフレームごとに読み込む。入力はカメラからの映像データであり、出力は個々のフレーム画像である。具体的には、サーバは映像データを連続する静止画として分割し、各フレームをメモリに格納する。 The server uses OpenCV to read the game video data captured by the camera frame by frame. The input is the video data from the camera, and the output is the individual frame images. Specifically, the server splits the video data into a series of still images and stores each frame in memory.
ステップ2: Step 2:
サーバは、読み込んだフレームを解析し、選手の動きや重要なアクションを検出する。この解析には、TensorFlowを用いたディープラーニングモデルを使用する。入力はステップ1で得られたフレーム画像であり、出力は選手の動きやアクションの情報である。具体的には、サーバはフレーム内の選手の位置や動きを検出し、得点やブロックなどの重要なアクションを識別する。 The server analyzes the loaded frames to detect player movements and important actions. A deep learning model using TensorFlow is used for this analysis. The input is the frame image obtained in step 1, and the output is information about the player movements and actions. Specifically, the server detects the positions and movements of players within the frames and identifies important actions such as points and blocks.
ステップ3: Step 3:
サーバは、解析結果に基づいて解説文を生成する。具体的には、Transformersライブラリを用いてGPT-2モデルを実行し、プロンプト文を入力として解説文を生成する。入力はステップ2で得られたアクション情報とプロンプト文であり、出力は生成された解説文である。サーバは、選手のアクションに対応するプロンプト文を生成し、それをGPT-2モデルに入力して解説文を得る。 The server generates a commentary based on the analysis results. Specifically, it runs the GPT-2 model using the Transformers library and generates a commentary using the prompt as input. The input is the action information and prompt obtained in step 2, and the output is the generated commentary. The server generates a prompt corresponding to the player's action and inputs it into the GPT-2 model to obtain the commentary.
ステップ4: Step 4:
サーバは、生成された解説文をリアルタイムでスマートフォンに配信する。入力はステップ3で生成された解説文であり、出力はスマートフォンに表示される解説文である。具体的には、サーバは解説文をネットワークを通じてスマートフォンに送信し、ユーザーが視聴できるようにする。 The server delivers the generated commentary to the smartphone in real time. The input is the commentary generated in step 3, and the output is the commentary displayed on the smartphone. Specifically, the server transmits the commentary to the smartphone via the network so that the user can view it.
ステップ5: Step 5:
試合終了後、サーバは重要なシーンを自動で抽出し、ハイライト動画を生成する。入力は試合全体の映像データであり、出力はハイライト動画である。具体的には、サーバは試合中に検出された重要なアクションを基に、ハイライトシーンを選定し、それらを連結してハイライト動画を作成する。 After the match ends, the server automatically extracts important scenes and generates a highlight video. The input is the video data of the entire match, and the output is the highlight video. Specifically, the server selects highlight scenes based on important actions detected during the match and links them together to create a highlight video.
ステップ6: Step 6:
サーバは、選手の動きやパフォーマンスを詳細に解析し、統計情報を生成する。入力は試合中のフレーム画像と選手のアクション情報であり、出力は詳細な統計情報である。具体的には、サーバは選手ごとの得点、リバウンド、アシストなどのデータを集計し、統計情報としてまとめる。 The server performs detailed analysis of players' movements and performance and generates statistical information. The input is frame images from the game and information about players' actions, and the output is detailed statistical information. Specifically, the server compiles data such as points, rebounds, and assists for each player and compiles it as statistical information.
ステップ7: Step 7:
ユーザーが特定の選手やプレイについて質問すると、サーバはその質問に対して適切な解説を生成し、スマートフォンに配信する。入力はユーザーからの質問とプロンプト文であり、出力は生成された解説文である。具体的には、サーバはユーザーの質問を解析し、それに対応するプロンプト文を生成してGPT-2モデルに入力し、解説文を得てスマートフォンに送信する。 When a user asks a question about a specific player or play, the server generates an appropriate commentary for that question and delivers it to the smartphone. The input is the user's question and prompt text, and the output is the generated commentary text. Specifically, the server analyzes the user's question, generates a corresponding prompt text, inputs it into the GPT-2 model, obtains the commentary text, and sends it to the smartphone.
(実施例2) (Example 2)
次に、形態例2の実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, a second embodiment of the second embodiment will be described. In the following description, the
従来のバスケットボールの試合解説は、専門の解説者が必要であり、全国各地で行われるユースやミニバスの試合においては、解説者の確保が難しいという問題があった。また、試合の進行状況や選手の動きをリアルタイムで視聴者に伝えることが困難であり、視聴体験が限定されていた。さらに、試合データの収集や解析が手動で行われるため、効率が悪く、データの一貫性や正確性に欠けることがあった。 Traditionally, commentary on basketball games required a specialized commentator, and there was the problem of difficulty in securing commentators for youth and mini-basketball games held all over the country. It was also difficult to convey the progress of the game and the movements of the players to viewers in real time, limiting the viewing experience. Furthermore, the collection and analysis of game data was done manually, which was inefficient and sometimes lacked consistency and accuracy.
実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、全国各地で行われる試合の映像や音声データを収集する手段と、収集したデータをクラウドストレージに保存する手段と、保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段と、生成された解説を試合映像と同期させる手段と、解説付きの試合映像をストリーミング配信する手段と、ユーザが視聴するためのインターフェースを提供する手段と、サーバからストリーミング配信される解説付き試合映像を受信する手段と、受信した映像をユーザに表示する手段を含む。これにより、全国各地で行われるユースやミニバスの試合においても、AIによる高品質な解説付きの実況中継が可能となり、視聴体験が向上する。また、試合データの収集や解析が自動化されるため、効率的かつ正確なデータ管理が実現できる。 In this invention, the server includes means for collecting video and audio data of matches held throughout the country, means for storing the collected data in cloud storage, means for transmitting the stored data to a generative AI model and generating commentary for the match, means for synchronizing the generated commentary with the match video, means for streaming the match video with commentary, means for providing an interface for users to view, means for receiving the match video with commentary streamed from the server, and means for displaying the received video to the user. This enables live broadcasts with high-quality commentary by AI even for youth and mini-basketball matches held throughout the country, improving the viewing experience. In addition, efficient and accurate data management can be achieved because the collection and analysis of match data is automated.
「全国各地で行われる試合の映像や音声データを収集する手段」とは、各地の試合会場に設置されたカメラやマイクロフォンを用いて、試合の映像および音声をリアルタイムでキャプチャし、サーバに送信するための装置やシステムである。 "Means for collecting video and audio data from matches held around the country" refers to devices and systems that use cameras and microphones installed at match venues around the country to capture video and audio data from matches in real time and transmit it to a server.
「収集したデータをクラウドストレージに保存する手段」とは、収集された映像や音声データを適切なフォーマットに変換し、クラウドサービスを利用してデータを保存するための装置やシステムである。 "Means for storing collected data in cloud storage" refers to devices or systems that convert collected video and audio data into an appropriate format and store the data using cloud services.
「保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段」とは、クラウドストレージに保存されたデータを取得し、生成AIモデルに対してプロンプト文を送信してデータを解析し、試合の解説を生成するための装置やシステムである。 "Means for sending stored data to a generative AI model and generating commentary on a match" refers to a device or system that retrieves data stored in cloud storage, sends prompt text to the generative AI model to analyze the data, and generates commentary on a match.
「生成された解説を試合映像と同期させる手段」とは、生成された解説テキストを試合映像の特定のタイムスタンプに合わせて挿入し、映像と解説が同期された状態で再生できるようにするための装置やシステムである。 "Means for synchronizing the generated commentary with the game video" refers to a device or system that inserts the generated commentary text at a specific timestamp in the game video, allowing the video and commentary to be played in a synchronized state.
「解説付きの試合映像をストリーミング配信する手段」とは、同期された映像データをリアルタイムでエンコードし、ストリーミングプラットフォームに送信して視聴者に配信するための装置やシステムである。 "Means for streaming game footage with commentary" refers to a device or system that encodes synchronized video data in real time and transmits it to a streaming platform for distribution to viewers.
「ユーザが視聴するためのインターフェースを提供する手段」とは、スマートフォンやタブレット、PCなどのデバイスを通じて、ユーザに視聴インターフェースを表示するための装置やシステムである。 "Means for providing an interface for users to view" refers to a device or system for displaying a viewing interface to users through a device such as a smartphone, tablet, or PC.
「サーバからストリーミング配信される解説付き試合映像を受信する手段」とは、インターネット接続を通じてサーバから配信される解説付き試合映像をリアルタイムで受信するための装置やシステムである。 "Means for receiving game footage with commentary streamed from a server" refers to a device or system for receiving game footage with commentary streamed from a server in real time via an Internet connection.
「受信した映像をユーザに表示する手段」とは、受信した映像データをデコードし、ユーザのデバイス画面に表示するための装置やシステムである。 "Means for displaying received video to a user" refers to a device or system for decoding received video data and displaying it on the user's device screen.
この発明は、全国各地で行われるユースやミニバスの試合をAIによる解説付きで配信するシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that broadcasts youth and mini-basketball matches held around the country with commentary by AI. A specific embodiment of this system is described below.
サーバの役割 Server role
サーバは、全国各地で行われる試合の映像や音声データを収集する。各地の試合会場に設置されたカメラやマイクロフォンを用いて、試合の映像および音声をリアルタイムでキャプチャし、これらのデータをサーバに送信する。収集されたデータは、Amazon S3やGoogle Cloud Storageなどのクラウドストレージに保存される。 The server collects video and audio data from matches held around the country. Cameras and microphones installed at match venues around the country capture video and audio from matches in real time and send this data to the server. The collected data is stored in cloud storage such as Amazon S3 and Google Cloud Storage.
次に、サーバは保存されたデータを生成AIモデルに送信する。生成AIモデルには、例えばOpenAIのGPT-4やGoogleのBERTなどが使用される。サーバは、クラウドストレージからデータを取得し、生成AIモデルに対してプロンプト文を送信する。プロンプト文には、試合の進行状況や選手の動き、得点状況などを解析する指示が含まれる。 The server then sends the stored data to a generative AI model. Examples of generative AI models that can be used include OpenAI's GPT-4 and Google's BERT. The server retrieves the data from cloud storage and sends a prompt to the generative AI model. The prompt includes instructions for analyzing the progress of the game, the movements of players, the score, etc.
生成AIモデルは、プロンプト文に基づいてデータを解析し、自然言語で解説を生成する。生成された解説は、テキスト形式でサーバに返送される。サーバは、生成された解説を試合映像と同期させる。この同期処理には、FFmpegなどの動画編集ソフトウェアが使用される。サーバは、解説テキストを映像の特定のタイムスタンプに合わせて挿入し、映像と解説が同期された状態で再生できるようにする。 The generative AI model analyzes the data based on the prompt text and generates commentary in natural language. The generated commentary is sent back to the server in text format. The server then synchronizes the generated commentary with the game footage. This synchronization process is performed using video editing software such as FFmpeg. The server inserts the commentary text at specific timestamps in the footage, allowing the footage and commentary to be played in sync.
最後に、サーバは解説付きの試合映像をストリーミング配信する。この配信には、YouTube LiveやTwitchなどのストリーミングプラットフォームが利用される。サーバは、同期された映像データをリアルタイムでエンコードし、ストリーミングプラットフォームに送信する。 Finally, the server streams the match footage with commentary to a streaming platform such as YouTube Live or Twitch. The server encodes the synchronized video data in real time and sends it to the streaming platform.
端末の役割 Role of the device
端末は、ユーザが視聴するためのインターフェースを提供する。ここでは、スマートフォンやタブレット、PCなどのデバイスが使用される。端末は、専用アプリケーションやウェブブラウザを通じて、ユーザに視聴インターフェースを表示する。インターフェースには、試合一覧や検索機能が含まれる。 The terminal provides the user with an interface for viewing. Devices such as smartphones, tablets, and PCs are used here. The terminal displays the viewing interface to the user through a dedicated application or web browser. The interface includes a list of matches and a search function.
端末は、サーバからストリーミング配信される解説付き試合映像を受信する。この受信には、インターネット接続が必要である。端末は、ストリーミングプラットフォームから映像データをリアルタイムで受信し、バッファリングを行う。受信した映像データをデコードし、ユーザのデバイス画面に表示する。 The device receives game footage with commentary streamed from the server. An Internet connection is required for this reception. The device receives video data from the streaming platform in real time and buffers it. The device decodes the received video data and displays it on the user's device screen.
ユーザの役割 User Roles
ユーザは、端末を使用してシステムにアクセスする。アクセスには、専用のアプリケーションやウェブブラウザが使用される。ユーザは、スマートフォンやPCで専用アプリを起動するか、ウェブブラウザでシステムのURLにアクセスする。 Users access the system using a terminal. To do so, they use a dedicated application or a web browser. Users launch a dedicated application on their smartphone or PC, or access the system's URL using a web browser.
ユーザは、視聴したい試合を選択する。選択には、試合一覧や検索機能が提供される。ユーザは、インターフェース上で試合一覧をスクロールし、視聴したい試合をクリックする。検索機能を使用して特定の試合を検索することもできる。 The user selects the match they wish to watch. For this selection, a list of matches and a search function are provided. The user scrolls through the list of matches on the interface and clicks on the match they wish to watch. They can also use the search function to find a specific match.
ユーザは、選択した試合の解説付き映像を視聴する。視聴中に、ユーザは再生、一時停止、巻き戻しなどの操作を行うことができる。ユーザは、再生ボタンをクリックして映像を視聴開始し、必要に応じて、一時停止ボタンや巻き戻しボタンを使用して映像を操作する。 The user watches the commentary-enhanced video of the selected match. While watching, the user can play, pause, rewind, and perform other operations. The user clicks the play button to start watching the video, and uses the pause and rewind buttons to navigate the video as needed.
具体例 Specific examples
例えば、ユーザがスマートフォンを使用して、全国ユースバスケットボール大会の試合を視聴する場合、以下の手順を踏む: For example, if a user wants to watch a national youth basketball tournament game on their smartphone, they would follow these steps:
1. ユーザは、スマートフォンの専用アプリを起動する。 1. The user launches the dedicated app on their smartphone.
2. アプリ内の検索機能を使用して、「全国ユースバスケットボール大会」と入力する。 2. Use the in-app search function and type in "National Youth Basketball Tournament."
3. 検索結果から視聴したい試合を選択する。 3. Select the match you want to watch from the search results.
4. アプリは、サーバから解説付き試合映像をストリーミング配信する。 4. The app streams game footage with commentary from the server.
5. ユーザは、スマートフォンの画面で試合を視聴し、解説を楽しむ。 5. Users can watch the game on their smartphone screen and enjoy the commentary.
生成AIモデルへ入力するプロンプト文の例としては、「全国ユースバスケットボール大会の試合映像と音声データを解析し、試合の進行状況、選手の動き、得点状況などを含む解説を生成してください。」が挙げられる。このプロンプト文を使用して、AI解析システムに試合の解説を生成させる。 An example of a prompt sentence to be input to the generative AI model is, "Analyze the game video and audio data of the National Youth Basketball Tournament and generate commentary including the progress of the game, player movements, score status, etc." Using this prompt sentence, the AI analysis system generates commentary of the game.
実施例2における特定処理の流れについて図13を用いて説明する。 The flow of the identification process in Example 2 is explained using Figure 13.
ステップ1: Step 1:
サーバは、全国各地で行われる試合の映像や音声データを収集する。入力として、各地の試合会場に設置されたカメラやマイクロフォンからのリアルタイムデータを受け取る。具体的な動作として、これらのデバイスがキャプチャした映像と音声をインターネットを通じてサーバに送信する。出力として、収集された映像と音声データが得られる。 The server collects video and audio data from matches held around the country. As input, it receives real-time data from cameras and microphones installed at match venues around the country. Specifically, it transmits the video and audio captured by these devices to the server via the internet. As output, it obtains the collected video and audio data.
ステップ2: Step 2:
サーバは、収集したデータをクラウドストレージに保存する。入力として、ステップ1で収集された映像と音声データを受け取る。具体的な動作として、データを適切なフォーマットに変換し、Amazon S3やGoogle Cloud Storageなどのクラウドサービスにアップロードする。出力として、クラウドストレージに保存されたデータが得られる。 The server stores the collected data in cloud storage. As input, it receives the video and audio data collected in step 1. Specifically, it converts the data into an appropriate format and uploads it to a cloud service such as Amazon S3 or Google Cloud Storage. As output, it obtains the data stored in cloud storage.
ステップ3: Step 3:
サーバは、保存されたデータを生成AIモデルに送信し、試合の解説を生成する。入力として、クラウドストレージから取得した映像と音声データを受け取る。具体的な動作として、生成AIモデルに対してプロンプト文を送信し、データを解析させる。プロンプト文には、試合の進行状況や選手の動き、得点状況などを解析する指示が含まれる。出力として、生成AIモデルから返送された解説テキストが得られる。 The server sends the saved data to the generative AI model to generate commentary on the match. As input, it receives video and audio data obtained from cloud storage. Specifically, it sends a prompt to the generative AI model to analyze the data. The prompt includes instructions to analyze the progress of the match, player movements, the score, etc. The output is the commentary text returned from the generative AI model.
ステップ4: Step 4:
サーバは、生成された解説を試合映像と同期させる。入力として、ステップ3で得られた解説テキストとクラウドストレージから取得した映像データを受け取る。具体的な動作として、FFmpegなどの動画編集ソフトウェアを使用して、解説テキストを映像の特定のタイムスタンプに合わせて挿入する。出力として、解説と同期された試合映像が得られる。 The server synchronizes the generated commentary with the game footage. As input, it receives the commentary text obtained in step 3 and the video data obtained from the cloud storage. Specifically, it uses video editing software such as FFmpeg to insert the commentary text at a specific timestamp in the video. As output, it obtains the game footage synchronized with the commentary.
ステップ5: Step 5:
サーバは、解説付きの試合映像をストリーミング配信する。入力として、ステップ4で得られた解説と同期された試合映像を受け取る。具体的な動作として、映像データをリアルタイムでエンコードし、YouTube LiveやTwitchなどのストリーミングプラットフォームに送信する。出力として、視聴者に配信されるストリーミング映像が得られる。 The server streams the game footage with commentary. As input, it receives the game footage synchronized with the commentary obtained in step 4. Specifically, it encodes the video data in real time and transmits it to a streaming platform such as YouTube Live or Twitch. As output, it obtains the streaming video that is distributed to the viewers.
ステップ6: Step 6:
端末は、ユーザが視聴するためのインターフェースを提供する。入力として、ユーザの操作を受け取る。具体的な動作として、専用アプリケーションやウェブブラウザを通じて、視聴インターフェースを表示する。インターフェースには、試合一覧や検索機能が含まれる。出力として、ユーザが視聴したい試合を選択するための情報が得られる。 The terminal provides an interface for users to watch. It receives user operations as input. Its specific operation is to display the viewing interface through a dedicated application or web browser. The interface includes a list of matches and a search function. As output, it provides information that allows the user to select the match they wish to watch.
ステップ7: Step 7:
端末は、サーバからストリーミング配信される解説付き試合映像を受信する。入力として、サーバからのストリーミングデータを受け取る。具体的な動作として、インターネット接続を通じて映像データをリアルタイムで受信し、バッファリングを行う。出力として、受信された映像データが得られる。 The terminal receives game footage with commentary that is streamed from the server. As input, it receives streaming data from the server. Specifically, it receives video data in real time via an Internet connection and buffers it. As output, it obtains the received video data.
ステップ8: Step 8:
端末は、受信した映像をユーザに表示する。入力として、ステップ7で受信された映像データを受け取る。具体的な動作として、映像データをデコードし、ユーザのデバイス画面に表示する。出力として、ユーザが視聴する映像が得られる。 The terminal displays the received video to the user. As input, it receives the video data received in step 7. Specifically, it decodes the video data and displays it on the user's device screen. As output, it obtains the video that the user watches.
ステップ9: Step 9:
ユーザは、端末を使用してシステムにアクセスする。入力として、専用のアプリケーションやウェブブラウザを使用する。具体的な動作として、スマートフォンやPCで専用アプリを起動するか、ウェブブラウザでシステムのURLにアクセスする。出力として、システムへのアクセスが得られる。 The user accesses the system using a terminal. A dedicated application or a web browser is used as input. Specifically, the user launches a dedicated application on a smartphone or PC, or accesses the system's URL in a web browser. Access to the system is obtained as output.
ステップ10: Step 10:
ユーザは、視聴したい試合を選択する。入力として、視聴インターフェース上の試合一覧や検索機能を使用する。具体的な動作として、試合一覧をスクロールし、視聴したい試合をクリックする。検索機能を使用して特定の試合を検索することもできる。出力として、選択された試合が得られる。 The user selects the match they want to watch. As input, they use the match list and search functionality on the viewing interface. They scroll through the match list and click on the match they want to watch. They can also use the search functionality to search for a specific match. As output, they get the selected match.
ステップ11: Step 11:
ユーザは、選択した試合の解説付き映像を視聴する。入力として、ステップ10で選択された試合を受け取る。具体的な動作として、再生ボタンをクリックして映像を視聴開始し、必要に応じて、一時停止ボタンや巻き戻しボタンを使用して映像を操作する。出力として、視聴される試合映像が得られる。
The user watches the commentary-enhanced video of the selected match. As input, the match selected in
(応用例2) (Application example 2)
次に、形態例2の応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, application example 2 of embodiment example 2 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、試合の実況中継や解説が人手に依存しており、全国各地で行われるユースやミニバスの試合を広く視聴者に提供することが困難であった。また、試合のハイライトやリプレイ機能、試合後の統計データや分析レポートの提供が不足しており、視聴者の満足度を高めることができなかった。さらに、ユーザーが好きなチームや選手をフォローする機能がなく、個別のニーズに応えることができなかった。 In conventional basketball game commentary systems, live broadcasts and commentary of games were dependent on human labor, making it difficult to provide youth and mini-basketball games held all over the country to a wide audience. In addition, there was a lack of game highlights and replay functions, and post-game statistical data and analysis reports, making it difficult to increase viewer satisfaction. Furthermore, there was no function for users to follow their favorite teams or players, making it difficult to meet individual needs.
応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像や音声データを収集し、AIが解析して解説を生成する手段と、スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段と、試合のハイライトやリプレイ機能を提供する手段と、ユーザーが好きなチームや選手をフォローできる機能を提供する手段と、試合後の統計データや分析レポートを提供する手段を含む。これにより、全国各地で行われるユースやミニバスの試合を広く視聴者に提供し、視聴者の満足度を高めることが可能となる。
The specific processing by the
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合中に人工知能を用いてリアルタイムで解説を生成し、視聴者に提供する技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to generate commentary in real time during a basketball game and provide it to viewers.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能による解説付きでリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to technology that broadcasts youth and mini-basketball games held around the country in real time with commentary by artificial intelligence.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを人工知能が自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合の映像や音声データを収集し、AIが解析して解説を生成する手段」とは、試合中の映像や音声データを収集し、それを人工知能が解析して解説を生成する技術である。 "Method of collecting video and audio data from the match and analyzing it with AI to generate commentary" refers to technology that collects video and audio data from the match and uses artificial intelligence to analyze it and generate commentary.
「スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段」とは、スマートフォン用のアプリケーションを用いて、リアルタイムで試合を配信し、人工知能による解説を提供する技術である。 "Means of broadcasting matches in real time and providing commentary by AI through an application installed on a smartphone" refers to a technology that uses a smartphone application to broadcast matches in real time and provide commentary by artificial intelligence.
「試合のハイライトやリプレイ機能を提供する手段」とは、試合中の重要なシーンやプレイをハイライトとしてまとめたり、リプレイとして再生する機能を提供する技術である。 "Means for providing match highlight and replay features" refers to technology that provides the functionality to compile important scenes and plays during a match as highlights or play them back as replays.
「ユーザーが好きなチームや選手をフォローできる機能を提供する手段」とは、ユーザーが自分の好きなチームや選手を選んでフォローし、その情報を優先的に受け取ることができる機能を提供する技術である。 "Means for providing a function that enables users to follow their favorite teams and players" refers to technology that provides a function that enables users to select and follow their favorite teams and players and receive information about them on a priority basis.
「試合後の統計データや分析レポートを提供する手段」とは、試合終了後に試合の統計データや分析レポートを生成し、ユーザーに提供する技術である。 "Means for providing post-match statistical data and analytical reports" refers to technology that generates match statistical data and analytical reports after the match ends and provides them to users.
この発明を実施するための形態として、以下のシステム構成を説明する。 The following system configuration is described as a form for implementing this invention.
システム構成 System configuration
システムは、サーバ、スマートフォン、及びAIモデルを含む。サーバは、試合の映像や音声データを収集し、AIモデルを用いて解析を行い、解説を生成する。スマートフォンは、ユーザーが試合をリアルタイムで視聴し、AIによる解説を受け取るためのアプリケーションを提供する。 The system includes a server, a smartphone, and an AI model. The server collects video and audio data from the match, analyzes it using the AI model, and generates commentary. The smartphone provides an application that enables users to watch the match in real time and receive commentary by the AI.
使用するハードウェア及びソフトウェア Hardware and software used
サーバ: 高性能なデータ処理能力を持つサーバ(例:AWS EC2インスタンス) Server: A server with high-performance data processing capabilities (e.g. AWS EC2 instance)
スマートフォン: iOSまたはAndroidデバイス Smartphone: iOS or Android device
AIモデル: OpenAIのGPT-4 AI model: OpenAI's GPT-4
データ処理ライブラリ: OpenCV(映像処理用)、Python(プログラム言語) Data processing library: OpenCV (for image processing), Python (programming language)
データ加工及びデータ演算 Data processing and data calculations
1. 試合の映像や音声データの収集: 1. Collecting video and audio data from the match:
サーバは、全国各地で行われるユースやミニバスの試合の映像や音声データをリアルタイムで収集する。これには、カメラやマイクなどの入力デバイスが使用される。 The server collects video and audio data in real time from youth and mini-basketball matches held across the country. This is done using input devices such as cameras and microphones.
2. AIによる解析と解説生成: 2. AI-based analysis and explanation generation:
サーバは、収集した映像や音声データをOpenCVを用いて解析し、試合の重要なシーンやプレイを抽出する。抽出された情報を基に、OpenAIのGPT-4を使用して解説を生成する。具体的には、以下のプロンプト文を用いる。 The server uses OpenCV to analyze the collected video and audio data and extracts important scenes and plays from the match. Based on the extracted information, it uses OpenAI's GPT-4 to generate commentary. Specifically, it uses the following prompt sentence:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
3. リアルタイム配信と解説提供: 3. Real-time broadcasting and commentary:
サーバは、生成された解説とともに試合の映像をスマートフォンにリアルタイムで配信する。スマートフォンにインストールされたアプリケーションは、ユーザーが試合を視聴しながらAIによる解説を受け取ることを可能にする。 The server delivers the game footage along with the generated commentary to smartphones in real time. An application installed on the smartphone allows users to receive the AI commentary while watching the game.
4. ハイライトやリプレイ機能の提供: 4. Providing highlight and replay features:
サーバは、試合中の重要なシーンをハイライトとしてまとめ、リプレイ機能を提供する。これにより、ユーザーは試合の重要な瞬間を再度視聴することができる。 The server compiles highlights of key scenes during the match and provides a replay function, allowing users to rewatch key moments of the match.
5. ユーザーのフォロー機能: 5. User following feature:
スマートフォンのアプリケーションは、ユーザーが好きなチームや選手をフォローする機能を提供する。これにより、ユーザーはフォローしたチームや選手の情報を優先的に受け取ることができる。 The smartphone application provides users with the ability to follow their favorite teams and players. This allows users to receive information about the teams and players they follow preferentially.
6. 試合後の統計データや分析レポートの提供: 6. Providing post-match statistics and analysis reports:
サーバは、試合終了後に統計データや分析レポートを生成し、スマートフォンのアプリケーションを通じてユーザーに提供する。これにより、ユーザーは試合の詳細な分析情報を得ることができる。 After the match ends, the server generates statistical data and analysis reports and provides them to users via a smartphone application, allowing users to obtain detailed analysis information about the match.
具体例 Specific examples
例えば、ユーザーがスマートフォンのアプリケーションを通じてユースバスケットボールの試合を視聴している場合、サーバはリアルタイムで試合の映像とAIによる解説を配信する。試合中に選手Aがゴールを決めた瞬間、サーバはそのシーンを解析し、以下のプロンプト文を生成する。 For example, when a user is watching a youth basketball game through a smartphone application, the server delivers real-time game footage and AI commentary. The moment Player A scores a goal during the game, the server analyzes the scene and generates the following prompt:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
このプロンプト文を基に、AIモデルが解説を生成し、ユーザーに提供する。ユーザーは試合を視聴しながら、AIによる解説をリアルタイムで楽しむことができる。また、試合後には統計データや分析レポートを通じて、試合の詳細な情報を得ることができる。 Based on this prompt, the AI model will generate commentary and provide it to the user. Users can enjoy the AI commentary in real time while watching the match. In addition, after the match, users can obtain detailed information about the match through statistical data and analysis reports.
応用例2における特定処理の流れについて図14を用いて説明する。 The flow of the specific processing in application example 2 is explained using Figure 14.
ステップ1: Step 1:
サーバは、全国各地で行われるユースやミニバスの試合の映像や音声データを収集する。入力として、カメラやマイクなどの入力デバイスからのリアルタイムデータを受け取り、出力として、これらのデータをストレージに保存する。具体的な動作として、サーバは各試合会場から送信される映像と音声データを受信し、適切なフォーマットに変換して保存する。 The server collects video and audio data from youth and mini-basketball matches held around the country. As input, it receives real-time data from input devices such as cameras and microphones, and as output, it stores this data in storage. In concrete terms, the server receives video and audio data sent from each match venue, converts it into an appropriate format, and stores it.
ステップ2: Step 2:
サーバは、収集した映像や音声データを解析する。入力として、ステップ1で保存された映像と音声データを使用し、出力として、試合の重要なシーンやプレイの情報を抽出する。具体的な動作として、サーバはOpenCVを用いて映像データをフレームごとに解析し、選手の動きやボールの位置を特定する。また、音声データからは得点やファウルなどのイベントを抽出する。 The server analyzes the collected video and audio data. It uses the video and audio data saved in step 1 as input, and extracts information about important scenes and plays in the match as output. Specifically, the server uses OpenCV to analyze the video data frame by frame and identify the movements of players and the position of the ball. It also extracts events such as goals and fouls from the audio data.
ステップ3: Step 3:
サーバは、解析結果を基にプロンプト文を生成する。入力として、ステップ2で抽出された試合の重要なシーンやプレイの情報を使用し、出力として、AIモデルに渡すためのプロンプト文を生成する。具体的な動作として、サーバは選手の動きや得点状況などの情報をテキスト形式に変換し、以下のようなプロンプト文を生成する。 The server generates a prompt sentence based on the analysis results. As input, it uses information about important scenes and plays in the match extracted in step 2, and as output, it generates a prompt sentence to pass to the AI model. Specifically, the server converts information such as player movements and scoring status into text format and generates a prompt sentence like the following:
プロンプト文の例: Example prompt:
以下の試合状況に基づいて解説を生成してください: 選手Aがボールを持っている。選手Bがディフェンスしている。選手Aがゴールを決めた。 Generate commentary based on the following match situations: Player A has the ball. Player B is defending. Player A has scored a goal.
ステップ4: Step 4:
サーバは、生成したプロンプト文をAIモデルに送信し、解説を生成する。入力として、ステップ3で生成されたプロンプト文を使用し、出力として、AIモデルから生成された解説テキストを受け取る。具体的な動作として、サーバはOpenAIのGPT-4 APIを呼び出し、プロンプト文を送信して解説を生成する。 The server sends the generated prompt text to the AI model and generates an explanation. It uses the prompt text generated in step 3 as input and receives the explanation text generated from the AI model as output. In concrete terms, the server calls OpenAI's GPT-4 API, sends the prompt text, and generates an explanation.
ステップ5: Step 5:
サーバは、生成された解説と試合の映像をスマートフォンにリアルタイムで配信する。入力として、ステップ4で生成された解説テキストとステップ1で収集された映像データを使用し、出力として、ユーザーのスマートフォンに配信するデータを生成する。具体的な動作として、サーバは映像データに解説テキストをオーバーレイし、ストリーミング形式でスマートフォンに送信する。 The server delivers the generated commentary and game footage to smartphones in real time. It uses the commentary text generated in step 4 and the video data collected in step 1 as input, and generates data to be delivered to the user's smartphone as output. In concrete terms, the server overlays the commentary text on the video data and transmits it to the smartphone in streaming format.
ステップ6: Step 6:
ユーザーは、スマートフォンのアプリケーションを通じて試合を視聴し、AIによる解説を受け取る。入力として、サーバから配信された映像と解説データを使用し、出力として、ユーザーに試合の映像と解説を表示する。具体的な動作として、スマートフォンのアプリケーションは、受信したデータをデコードし、画面上に表示する。 Users watch the game through a smartphone application and receive commentary by AI. As input, it uses video and commentary data distributed from the server, and as output, it displays the game video and commentary to the user. In concrete terms, the smartphone application decodes the received data and displays it on the screen.
ステップ7: Step 7:
サーバは、試合中の重要なシーンをハイライトとしてまとめ、リプレイ機能を提供する。入力として、ステップ2で抽出された重要なシーンの情報を使用し、出力として、ハイライト映像を生成する。具体的な動作として、サーバは重要なシーンを編集し、ユーザーがリプレイできる形式で保存する。 The server summarizes important scenes during the match as highlights and provides a replay function. It uses the information of important scenes extracted in step 2 as input and generates highlight videos as output. In concrete terms, the server edits the important scenes and saves them in a format that users can replay.
ステップ8: Step 8:
ユーザーは、スマートフォンのアプリケーションを通じて好きなチームや選手をフォローする。入力として、ユーザーの選択情報を使用し、出力として、フォローしたチームや選手の情報を優先的に表示する。具体的な動作として、アプリケーションはユーザーの選択を記録し、関連する情報を優先的に取得して表示する。 Users follow their favorite teams and players through a smartphone application. The application uses the user's selection information as input, and prioritizes displaying information about the followed teams and players as output. In concrete terms, the application records the user's selection, and prioritizes retrieving and displaying related information.
ステップ9: Step 9:
サーバは、試合終了後に統計データや分析レポートを生成し、ユーザーに提供する。入力として、試合中に収集されたデータを使用し、出力として、統計データや分析レポートを生成する。具体的な動作として、サーバは試合のデータを集計し、視覚的に分かりやすい形式でレポートを作成し、スマートフォンのアプリケーションを通じてユーザーに提供する。 After the match ends, the server generates statistical data and analysis reports and provides them to the user. It uses data collected during the match as input and generates statistical data and analysis reports as output. In concrete terms, the server aggregates the match data, creates a report in a visually easy-to-understand format, and provides it to the user through a smartphone application.
(実施例3) (Example 3)
次に、形態例3の実施例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, a third embodiment of the third embodiment will be described. In the following description, the
従来のバスケットボールの試合において、得点状況やファウル状況をリアルタイムで把握するためには、人手によるランニングスコアの作成が必要であり、これには時間と労力がかかるという問題があった。また、全国のチームや選手のデータを効果的に収集・解析し、選手の育成に活用するためのシステムが不足していた。これにより、選手のパフォーマンスの見える化や育成のためのフィードバックが十分に行われていなかった。 In traditional basketball games, in order to grasp the score and foul situation in real time, it was necessary to manually create a running score, which was time-consuming and labor-intensive. In addition, there was a lack of a system to effectively collect and analyze data on teams and players across the country and use it for player development. This meant that there was insufficient visualization of player performance and feedback for development.
実施例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データを受信する手段と、受信した映像データを解析する手段と、受信した音声データを解析する手段と、解析結果から得点状況やファウル状況を抽出する手段と、抽出した情報を基にランニングスコアを生成する手段と、生成されたランニングスコアをリアルタイムで更新し、端末に送信する手段と、端末に送信されたランニングスコアを表示する手段と、全国のチームや選手の試合結果やスタッツなどの情報を収集する手段と、収集した情報をデータベース化する手段と、データベース化された情報を解析し、選手のパフォーマンスを評価する手段と、解析結果を基に選手の育成のためのフィードバックを生成する手段と、生成されたフィードバックを端末に送信する手段と、端末に送信されたフィードバックを表示する手段と、を含む。これにより、試合の進行状況をリアルタイムで把握することが可能となり、選手のパフォーマンスの見える化や育成のためのフィードバックを効果的に行うことが可能となる。 In this invention, the server includes a means for receiving video data and audio data of a match, a means for analyzing the received video data, a means for analyzing the received audio data, a means for extracting the score situation and the foul situation from the analysis result, a means for generating a running score based on the extracted information, a means for updating the generated running score in real time and transmitting it to the terminal, a means for displaying the running score transmitted to the terminal, a means for collecting information such as the match results and stats of teams and players nationwide, a means for database-izing the collected information, a means for analyzing the databased information and evaluating the performance of players, a means for generating feedback for player development based on the analysis result, a means for transmitting the generated feedback to the terminal, and a means for displaying the feedback transmitted to the terminal. This makes it possible to grasp the progress of the match in real time, and effectively visualize the performance of players and provide feedback for development.
「試合の映像データ」とは、バスケットボールの試合の様子をカメラで撮影した動画ファイルである。 "Game video data" refers to video files captured by a camera showing a basketball game.
「音声データ」とは、バスケットボールの試合中の音声をマイクで録音した音声ファイルである。 "Audio data" refers to audio files recorded by a microphone during a basketball game.
「受信する手段」とは、サーバが外部からデータを取得するための機能である。 "Means of receiving" refers to the function that allows the server to obtain data from outside.
「解析する手段」とは、受信したデータを処理し、必要な情報を抽出するための機能である。 "Means of analysis" refers to the function for processing received data and extracting necessary information.
「得点状況」とは、試合中にどのチームが何点を得たかを示す情報である。 "Scoring status" is information that shows how many points each team has scored during a match.
「ファウル状況」とは、試合中にどの選手がどのようなファウルを犯したかを示す情報である。 "Foul situation" is information that shows which players committed what type of fouls during the game.
「ランニングスコア」とは、試合の進行に伴ってリアルタイムで更新される得点やファウルの記録である。 The "running score" is a record of points and fouls that is updated in real time as the game progresses.
「リアルタイムで更新する手段」とは、試合の進行に合わせてデータを即時に反映させる機能である。 "Means of updating in real time" refers to a function that instantly reflects data as the match progresses.
「端末」とは、ユーザが情報を確認するために使用するデバイスである。 "Terminal" refers to the device that a user uses to view information.
「表示する手段」とは、端末に情報を視覚的に提示するための機能である。 "Means of display" refers to the functionality for visually presenting information on a terminal.
「試合結果」とは、試合終了後の最終的な得点や勝敗を示す情報である。 "Match results" refers to information showing the final score and outcome after the match has ended.
「スタッツ」とは、選手やチームのパフォーマンスを数値化した統計データである。 "Stats" are statistical data that quantify the performance of a player or team.
「収集する手段」とは、必要なデータを集めるための機能である。 "Means of collection" refers to the function for collecting the necessary data.
「データベース化する手段」とは、収集したデータを整理し、保存するための機能である。 "Means of database creation" refers to the function of organizing and storing collected data.
「解析する手段」とは、データベース化された情報を処理し、意味のある結果を導き出すための機能である。 "Means of analysis" refers to the function of processing databased information and deriving meaningful results.
「フィードバック」とは、解析結果に基づいて提供されるアドバイスや評価である。 "Feedback" refers to advice or evaluation provided based on the analysis results.
「見える化」とは、データを視覚的に表示し、理解しやすくすることを指す。 "Visualization" refers to displaying data visually to make it easier to understand.
「育成」とは、選手の能力を向上させるためのトレーニングや指導を指す。 "Development" refers to training and guidance to improve players' abilities.
この発明は、バスケットボールの試合における得点状況やファウル状況をリアルタイムで把握し、選手のパフォーマンスを評価・育成するためのシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system for grasping the score and foul situation in a basketball game in real time and evaluating and developing the performance of players. A specific embodiment of this system is described below.
システムの構成 System configuration
ハードウェア Hardware
サーバ: 高性能な計算能力を持つコンピュータであり、データの受信、解析、生成、送信を行う。 Server: A computer with high-performance computing power that receives, analyzes, generates, and transmits data.
端末: ユーザが情報を確認するためのデバイスであり、スマートフォン、タブレット、パソコンなどが含まれる。 Device: The device on which the user checks information, including smartphones, tablets, and computers.
カメラ: 試合の映像データを取得するための装置。 Camera: A device used to capture video data of a match.
マイク: 試合の音声データを取得するための装置。 Microphone: A device used to capture audio data from a match.
ソフトウェア Software
映像解析ソフトウェア: OpenCVなどのライブラリを使用して、映像データを解析する。 Video analysis software: Analyzes video data using libraries such as OpenCV.
音声解析ソフトウェア: LibROSAなどのライブラリを使用して、音声データを解析する。 Speech analysis software: Use libraries such as LibROSA to analyze speech data.
データベース管理システム: MySQLなどを使用して、収集したデータをデータベース化する。 Database management system: Collected data is stored in a database using a system such as MySQL.
データ解析ツール: PandasやNumPyなどを使用して、データを解析する。 Data analysis tools: Analyze data using tools such as Pandas and NumPy.
生成AIモデル: GPT-4などを使用して、ランニングスコアやフィードバックを生成する。 Generative AI models: Use models such as GPT-4 to generate running scores and feedback.
システムの動作 System operation
データ受信と解析 Data reception and analysis
サーバは、試合の映像データと音声データをカメラとマイクからリアルタイムで受信する。受信した映像データは映像解析ソフトウェアを使用して解析され、得点やファウルのシーンを検出する。音声データは音声解析ソフトウェアを使用して解析され、実況や観客の反応を解析する。 The server receives video and audio data of the game in real time from the cameras and microphones. The received video data is analyzed using video analysis software to detect goals and fouls. The audio data is analyzed using audio analysis software to analyze the commentary and crowd reactions.
情報抽出とランニングスコア生成 Information extraction and running score generation
サーバは、解析結果から得点状況やファウル状況を抽出する。抽出した情報を基に、生成AIモデルを使用してランニングスコアを生成する。生成されたランニングスコアはリアルタイムで更新され、端末に送信される。 The server extracts the scoring and foul situations from the analysis results. Based on the extracted information, a generative AI model is used to generate a running score. The generated running score is updated in real time and sent to the terminal.
データ表示 Display data
端末は、受信したランニングスコアを表示する。これにより、ユーザは試合の進行状況をリアルタイムで把握することができる。 The device displays the received running score, allowing the user to follow the progress of the match in real time.
データ収集とデータベース化 Data collection and database creation
サーバは、全国のチームや選手の試合結果やスタッツなどの情報を収集する。収集した情報はデータベース管理システムを使用してデータベース化される。 The server collects information such as match results and stats for teams and players across the country. The collected information is stored in a database using a database management system.
データ解析とフィードバック生成 Data analysis and feedback generation
サーバは、データベース化された情報を解析し、選手のパフォーマンスを評価する。解析結果を基に、生成AIモデルを使用して選手の育成のためのフィードバックを生成する。生成されたフィードバックは端末に送信され、端末はこれを表示する。これにより、ユーザは選手のパフォーマンスの分析結果や育成のためのアドバイスを確認することができる。 The server analyzes the databased information and evaluates the player's performance. Based on the analysis results, a generative AI model is used to generate feedback for the player's development. The generated feedback is sent to the terminal, which displays it. This allows the user to check the analysis results of the player's performance and advice for development.
具体例 Specific examples
ユーザがバスケットボールの試合を観戦しているとき、サーバは試合の映像と音声を解析し、得点やファウルの情報を自動的に抽出する。 When a user is watching a basketball game, the server analyzes the video and audio of the game and automatically extracts information about scores and fouls.
サーバは「チームAが得点しました」「チームBがファウルしました」といった情報をリアルタイムで生成し、端末に送信する。 The server generates information in real time, such as "Team A has scored" or "Team B has committed a foul," and sends it to the terminal.
端末はこれらの情報を表示し、ユーザは試合の進行状況をリアルタイムで確認できる。 The device displays this information, allowing users to check the progress of the match in real time.
プロンプト文の例 Example of a prompt
「バスケットボールの試合映像と音声データを解析し、得点状況とファウル状況を抽出してランニングスコアを生成してください。」 "Analyze video and audio data from basketball games, extract the scoring and foul situations, and generate a running score."
「全国のバスケットボールチームや選手の試合結果とスタッツを解析し、選手のパフォーマンスを評価して育成のためのフィードバックを生成してください。」実施例3における特定処理の流れについて図15を用いて説明する。 "Analyze the game results and stats of basketball teams and players nationwide, evaluate the performance of players, and generate feedback for training." The flow of the specific process in Example 3 is explained with reference to FIG. 15.
ステップ1: Step 1:
サーバは試合の映像データと音声データを受信する。 The server receives video and audio data from the match.
入力:カメラとマイクからのリアルタイムデータ Input: Real-time data from camera and microphone
具体的な動作:カメラとマイクから送信される映像と音声をネットワークを通じて受信する。 Specific operation: Receives video and audio transmitted from the camera and microphone via the network.
出力:受信した映像データと音声データ Output: Received video and audio data
ステップ2: Step 2:
サーバは受信した映像データを解析する。 The server analyzes the received video data.
入力:受信した映像データ Input: Received video data
具体的な動作:映像解析ソフトウェア(例: OpenCV)を使用して、映像データから得点やファウルのシーンを検出する。 Specific operation: Use video analysis software (e.g. OpenCV) to detect scoring and foul scenes from video data.
出力:得点シーンとファウルシーンのタイムスタンプ付きデータ Output: Data with timestamps for goals and fouls
ステップ3: Step 3:
サーバは受信した音声データを解析する。 The server analyzes the received audio data.
入力:受信した音声データ Input: Received audio data
具体的な動作:音声解析ソフトウェア(例: LibROSA)を使用して、音声データから実況や観客の反応を解析する。 Specific actions: Use audio analysis software (e.g. LibROSA) to analyze commentary and audience reactions from audio data.
出力:実況や観客の反応のタイムスタンプ付きデータ Output: Timestamped data of commentary and audience reactions
ステップ4: Step 4:
サーバは解析結果から得点状況やファウル状況を抽出する。 The server extracts the scoring and foul situations from the analysis results.
入力:得点シーンとファウルシーンのタイムスタンプ付きデータ、および実況や観客の反応のタイムスタンプ付きデータ Input: Timestamped data on goals and fouls, as well as timestamped data on commentary and crowd reactions
具体的な動作:映像解析と音声解析の結果を統合し、得点やファウルの発生状況を抽出する。 Specific operation: Integrate the results of video and audio analysis to extract the occurrence of goals and fouls.
出力:得点状況とファウル状況のデータ Output: Scoring and foul situation data
ステップ5: Step 5:
サーバは抽出した情報を基にランニングスコアを生成する。 The server generates a running score based on the extracted information.
入力:得点状況とファウル状況のデータ Input: Scoring and foul situation data
具体的な動作:生成AIモデル(例: GPT-4)を使用して、得点やファウルの情報をテキスト形式で生成する。 Specific behavior: Uses a generative AI model (e.g. GPT-4) to generate points and foul information in text format.
出力:ランニングスコアのテキストデータ Output: Text data of running score
ステップ6: Step 6:
サーバは生成されたランニングスコアをリアルタイムで更新し、端末に送信する。 The server updates the generated running score in real time and sends it to the device.
入力:ランニングスコアのテキストデータ Input: Text data of running score
具体的な動作:WebSocketやHTTPプロトコルを使用して、ランニングスコアを端末に送信する。 Specific operation: Sends the running score to the device using WebSocket or HTTP protocol.
出力:端末に送信されたランニングスコア Output: Running score sent to the device
ステップ7: Step 7:
端末は受信したランニングスコアを表示する。 The device will display the received running score.
入力:端末に送信されたランニングスコア Input: Running score sent to the device
具体的な動作:端末のディスプレイにランニングスコアを視覚的に表示する。 Specific operation: Visually display the running score on the device display.
出力:ユーザが視覚的に確認できるランニングスコア Output: A running score that the user can visually check
ステップ8: Step 8:
サーバは全国のチームや選手の試合結果やスタッツなどの情報を収集する。 The server collects information such as match results and stats for teams and players across the country.
入力:各チームの公式サイトやスポーツデータ提供サービスからのデータ Input: Data from each team's official website and sports data services
具体的な動作:WebスクレイピングやAPIを使用して、試合結果やスタッツを収集する。 Specific actions: Collect match results and stats using web scraping and APIs.
出力:収集された試合結果とスタッツのデータ Output: Collected match results and stats data
ステップ9: Step 9:
サーバは収集した情報をデータベース化する。 The server stores the collected information in a database.
入力:収集された試合結果とスタッツのデータ Input: Collected match results and stats data
具体的な動作:データベース管理システム(例: MySQL)を使用して、データをテーブルに格納する。 Specific action: Store data in a table using a database management system (e.g. MySQL).
出力:データベースに格納された試合結果とスタッツのデータ Output: Match results and stats data stored in a database
ステップ10: Step 10:
サーバはデータベース化された情報を解析し、選手のパフォーマンスを評価する。 The server analyzes the databased information and evaluates the players' performance.
入力:データベースに格納された試合結果とスタッツのデータ Input: Match results and stats data stored in the database
具体的な動作:データ解析ツール(例: Pandas, NumPy)を使用して、選手のシュート成功率やディフェンスの強さなどを計算する。 Specific operations: Use data analysis tools (e.g. Pandas, NumPy) to calculate players' shooting success rates, defensive strength, etc.
出力:選手のパフォーマンス評価データ Output: Player performance evaluation data
ステップ11: Step 11:
サーバは解析結果を基に選手の育成のためのフィードバックを生成する。 The server generates feedback for player development based on the analysis results.
入力:選手のパフォーマンス評価データ Input: Player performance evaluation data
具体的な動作:生成AIモデル(例: GPT-4)を使用して、選手の育成のためのフィードバックをテキスト形式で生成する。 Specific actions: Use a generative AI model (e.g. GPT-4) to generate textual feedback for player development.
出力:育成のためのフィードバックのテキストデータ Output: Text data of feedback for training
ステップ12: Step 12:
サーバは生成されたフィードバックを端末に送信する。 The server sends the generated feedback to the device.
入力:育成のためのフィードバックのテキストデータ Input: Text data for feedback for training
具体的な動作:WebSocketやHTTPプロトコルを使用して、フィードバックを端末に送信する。 Specific behavior: Sends feedback to the device using WebSocket or HTTP protocol.
出力:端末に送信されたフィードバック Output: Feedback sent to the device
ステップ13: Step 13:
端末は受信したフィードバックを表示する。 The device will display the feedback it receives.
入力:端末に送信されたフィードバック Input: Feedback sent to device
具体的な動作:端末のディスプレイにフィードバックを視覚的に表示する。 Specific action: Visually display feedback on the device display.
出力:ユーザが視覚的に確認できるフィードバック Output: Visual feedback for the user
(応用例3) (Application example 3)
次に、形態例3の応用例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, application example 3 of embodiment example 3 will be described. In the following description, the
従来のバスケットボールの試合の実況中継や解説は、人間の解説者に依存しており、リアルタイムでの正確な情報提供が難しい場合がある。また、全国のユースやミニバスの試合解説も同様に人手に依存しており、効率的な情報提供が困難である。さらに、工場内の生産ラインの監視においても、異常発生の検出や生産効率の向上が課題となっている。これらの課題を解決するためには、AIを活用した自動化システムが必要である。 Traditional live broadcasts and commentary of basketball games rely on human commentators, which can make it difficult to provide accurate information in real time. Commentary on youth and mini-basketball games across the country also relies on human input, making it difficult to provide information efficiently. Furthermore, when monitoring production lines in factories, detecting abnormalities and improving production efficiency are issues. To solve these issues, an automated system that utilizes AI is needed.
応用例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段と、過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段と、を含む。これにより、試合の進行状況や生産ラインの状況をリアルタイムで正確に把握し、効率的な情報提供と生産効率の向上が可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games from around the country with AI live coverage, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for analyzing camera footage and audio data within the factory to detect production status and abnormal occurrences in real time and provide scores, and a means for storing past production data in a database and providing feedback for efficiency. This allows for accurate understanding of the progress of the game and the status of the production line in real time, making it possible to provide efficient information and improve production efficiency.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合において、人工知能を用いてリアルタイムで試合の進行状況やプレイの解説を自動的に行う技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to automatically provide commentary on the progress of a basketball game and plays in real time.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合において、人工知能を用いて試合の解説を行い、その解説をリアルタイムで配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games nationwide with live coverage by AI" refers to a technology that uses artificial intelligence to provide commentary on youth and mini-basketball games nationwide and broadcasts that commentary in real time.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合の進行中に得点やファウルなどのスコアを人工知能が自動的に解析し、リアルタイムでスコアを生成する技術である。 "A means of using AI to automatically generate running scores that are created manually by officials and for each team" refers to technology in which artificial intelligence automatically analyzes points, fouls, and other scores as the game progresses, and generates scores in real time.
「工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段」とは、工場内に設置されたカメラやマイクから得られる映像や音声データを人工知能が解析し、生産ラインの状況や異常をリアルタイムで検出し、その結果をスコアとして表示する技術である。 "A means of analyzing camera footage and audio data within a factory to detect and score production status and abnormalities in real time" refers to a technology in which artificial intelligence analyzes video and audio data obtained from cameras and microphones installed within the factory, detects the status and abnormalities of the production line in real time, and displays the results as a score.
「過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段」とは、工場内で収集された過去の生産データをデータベースに保存し、そのデータを解析して生産効率を向上させるためのフィードバックを提供する技術である。 "Means of compiling past production data into a database and providing feedback for improving efficiency" refers to a technology that stores past production data collected within a factory in a database, analyzes the data, and provides feedback for improving production efficiency.
この発明を実施するための形態として、以下のシステム構成を説明する。 The following system configuration is described as a form for implementing this invention.
システム構成 System configuration
ハードウェア Hardware
カメラ: 工場内に設置されるカメラで、映像データを取得する。 Camera: Cameras installed in the factory capture video data.
マイク: 工場内に設置されるマイクで、音声データを取得する。 Microphones: Microphones installed in the factory capture audio data.
サーバ: データの解析と保存を行うためのサーバ。 Server: A server for analyzing and storing data.
端末: 管理者が結果を確認するための端末(PCやスマートフォンなど)。 Device: The device (PC, smartphone, etc.) used by the administrator to check the results.
ソフトウェア Software
OpenCV: カメラ映像の取得と前処理を行うためのライブラリ。 OpenCV: A library for acquiring and preprocessing camera images.
TensorFlow/Keras: AIモデルのロードと予測を行うためのライブラリ。 TensorFlow/Keras: Libraries for loading AI models and making predictions.
SQLite: 生産データの保存を行うためのデータベース管理システム。 SQLite: A database management system for storing production data.
データ加工とデータ演算 Data processing and data calculations
サーバは、工場内のカメラ映像と音声データをリアルタイムで取得し、OpenCVを用いて前処理を行う。前処理されたデータは、TensorFlow/Kerasを用いてAIモデルに入力され、生産状況や異常発生の検出が行われる。検出結果はスコアとして表示され、SQLiteデータベースに保存される。 The server acquires camera footage and audio data from within the factory in real time and performs preprocessing using OpenCV. The preprocessed data is input into an AI model using TensorFlow/Keras to detect production status and abnormalities. The detection results are displayed as a score and stored in a SQLite database.
具体例 Specific examples
例えば、工場内で異常が発生した場合、カメラ映像から異常を検出し、リアルタイムで管理者に通知する。また、過去の生産データを分析し、効率化のためのフィードバックを提供することができる。 For example, if an abnormality occurs in a factory, it will be detected from camera footage and notified to managers in real time. It can also analyze past production data and provide feedback to improve efficiency.
プロンプト文の例 Example of a prompt
生成AIモデルへ入力するプロンプト文の例は以下の通りである: An example of a prompt to input to the generative AI model is as follows:
「工場内のカメラ映像を解析し、生産ラインの異常をリアルタイムで検出するAIモデルを作成してください。異常が検出された場合、管理者に通知する機能も追加してください。また、過去の生産データをデータベースに保存し、効率化のためのフィードバックを提供するシステムを構築してください。」 "Please create an AI model that analyzes camera footage in the factory and detects abnormalities on the production line in real time. Please also add a function to notify the administrator if an abnormality is detected. Also, please create a system that stores past production data in a database and provides feedback to improve efficiency."
このようにして、サーバはリアルタイムで生産ラインの状況を監視し、異常を検出することができる。また、過去のデータを基に効率化のためのフィードバックを提供することが可能である。 In this way, the server can monitor the status of the production line in real time and detect any anomalies. It can also provide feedback for efficiency improvements based on past data.
応用例3における特定処理の流れについて図16を用いて説明する。 The flow of the specific processing in application example 3 is explained using Figure 16.
ステップ1: Step 1:
サーバは、工場内に設置されたカメラとマイクからリアルタイムで映像データと音声データを取得する。入力はカメラとマイクからの生データであり、出力は取得された映像データと音声データである。具体的な動作として、サーバはカメラとマイクに接続し、データストリームを開始する。 The server captures video and audio data in real time from cameras and microphones installed in the factory. The input is the raw data from the cameras and microphones, and the output is the captured video and audio data. In concrete terms, the server connects to the cameras and microphones and starts the data stream.
ステップ2: Step 2:
サーバは、取得した映像データをOpenCVを用いて前処理する。入力はステップ1で取得された映像データであり、出力は前処理された映像データである。具体的な動作として、サーバは映像データを224x224ピクセルにリサイズし、正規化を行う。 The server preprocesses the acquired video data using OpenCV. The input is the video data acquired in step 1, and the output is the preprocessed video data. Specifically, the server resizes the video data to 224x224 pixels and normalizes it.
ステップ3: Step 3:
サーバは、前処理された映像データをTensorFlow/Kerasを用いてAIモデルに入力し、予測を行う。入力はステップ2で前処理された映像データであり、出力は生産状況や異常発生の予測結果である。具体的な動作として、サーバはAIモデルをロードし、前処理されたデータをモデルに入力して予測を実行する。 The server inputs the preprocessed video data into the AI model using TensorFlow/Keras to make predictions. The input is the video data preprocessed in step 2, and the output is the predicted results of production status and abnormality occurrence. In concrete terms, the server loads the AI model, inputs the preprocessed data into the model, and makes predictions.
ステップ4: Step 4:
サーバは、予測結果をスコアとして表示し、SQLiteデータベースに保存する。入力はステップ3で得られた予測結果であり、出力は表示されたスコアとデータベースに保存されたデータである。具体的な動作として、サーバは予測結果をスコアに変換し、画面に表示するとともに、データベースに挿入する。 The server displays the prediction result as a score and saves it in a SQLite database. The input is the prediction result obtained in step 3, and the output is the displayed score and the data saved in the database. In concrete terms, the server converts the prediction result into a score, displays it on the screen, and inserts it into the database.
ステップ5: Step 5:
端末は、サーバから送信されたスコアと異常検出の通知を受け取り、管理者に表示する。入力はサーバから送信されたスコアと通知であり、出力は管理者が確認できる表示情報である。具体的な動作として、端末はサーバからのデータを受信し、ユーザインターフェースに表示する。 The terminal receives the score and anomaly detection notifications sent from the server and displays them to the administrator. The input is the score and notifications sent from the server, and the output is the display information that the administrator can check. In concrete terms, the terminal receives data from the server and displays it on the user interface.
ステップ6: Step 6:
サーバは、過去の生産データを解析し、効率化のためのフィードバックを生成する。入力はデータベースに保存された過去の生産データであり、出力は効率化のためのフィードバック情報である。具体的な動作として、サーバはデータベースから過去のデータを取得し、解析アルゴリズムを適用してフィードバックを生成する。 The server analyzes past production data and generates feedback for efficiency improvements. The input is past production data stored in a database, and the output is feedback information for efficiency improvements. In concrete terms, the server retrieves past data from the database and applies an analysis algorithm to generate feedback.
ステップ7: Step 7:
端末は、サーバから送信されたフィードバック情報を受け取り、管理者に表示する。入力はサーバから送信されたフィードバック情報であり、出力は管理者が確認できる表示情報である。具体的な動作として、端末はサーバからのフィードバック情報を受信し、ユーザインターフェースに表示する。 The terminal receives feedback information sent from the server and displays it to the administrator. The input is the feedback information sent from the server, and the output is the display information that the administrator can check. In concrete terms, the terminal receives feedback information from the server and displays it on the user interface.
なお、更に、ユーザの感情を推定する感情エンジンを組み合わせてもよい。すなわち、特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うようにしてもよい。
Furthermore, an emotion engine that estimates the user's emotion may be combined. That is, the
「形態例1」 "Example 1"
本発明の一実施形態として、AIがバスケットボールの試合の実況中継の解説を行うシステムにおいて、ユーザの感情を認識する感情エンジンが組み合わされている。具体的には、ユーザが試合の視聴中に示す感情(喜び、悲しみ、驚きなど)を感情エンジンが認識し、その感情に応じて解説の内容やトーンを調整する。例えば、ユーザが試合の展開に喜びを示している場合、解説もその喜びを共有するような内容となる。これにより、ユーザは自身の感情が反映された解説を聞くことができ、より試合視聴の満足度が向上する。 In one embodiment of the present invention, a system in which AI provides commentary on a live broadcast of a basketball game is combined with an emotion engine that recognizes the user's emotions. Specifically, the emotion engine recognizes the emotions (happiness, sadness, surprise, etc.) that the user expresses while watching the game, and adjusts the content and tone of the commentary according to those emotions. For example, if the user expresses joy at how the game is progressing, the commentary will also share that joy. This allows the user to hear commentary that reflects their own emotions, further improving their satisfaction with watching the game.
「形態例2」 "Example 2"
また、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムにおいても、同様に感情エンジンが組み合わされている。具体的には、ユースやミニバスの試合を視聴するユーザの感情を感情エンジンが認識し、その感情に応じて解説の内容やトーンを調整する。例えば、ユーザが子供の活躍に感動している場合、解説もその感動を共有するような内容となる。これにより、ユーザは自身の感情が反映された解説を聞くことができ、より試合視聴の満足度が向上する。 The emotion engine is also incorporated into a system that broadcasts commentary on youth and mini-basketball games from around the country, complete with live coverage by AI. Specifically, the emotion engine recognizes the emotions of users watching youth and mini-basketball games, and adjusts the content and tone of the commentary according to those emotions. For example, if a user is impressed by their child's performance, the commentary will be one that shares that emotion. This allows users to hear commentary that reflects their own emotions, further increasing their satisfaction with watching the games.
「形態例3」 "Example 3"
さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成するシステムにおいても、感情エンジンが組み合わされている。具体的には、試合の得点状況などに対するユーザの感情を感情エンジンが認識し、その感情に応じてスコア表示の方法を調整する。例えば、ユーザが得点に喜びを示している場合、スコア表示もその喜びを強調するような形で表示される。これにより、ユーザは自身の感情が反映されたスコア表示を見ることができ、より試合視聴の満足度が向上する。 Furthermore, emotion engines are also being incorporated into systems that use AI to automatically generate running scores that are manually created by officials and for each team. Specifically, the emotion engine recognizes the user's emotions regarding the score situation of the match, and adjusts the way the score is displayed according to those emotions. For example, if the user is happy about a score, the score display will also be displayed in a way that emphasizes that joy. This allows users to see a score display that reflects their own emotions, further increasing their satisfaction when watching the match.
以下に、各形態例の処理の流れについて説明する。 The process flow for each example is explained below.
「形態例1」 "Example 1"
ステップ1:AIがバスケットボールの試合の実況中継の解説を開始する。 Step 1: The AI begins commentating on a live broadcast of a basketball game.
ステップ2:感情エンジンがユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the user's emotions in real time.
ステップ3:感情エンジンが認識した感情に応じて、AIが解説の内容やトーンを調整する。 Step 3: The AI adjusts the content and tone of the commentary based on the emotion recognized by the emotion engine.
「形態例2」 "Example 2"
ステップ1:AIが全国のユースやミニバスの試合の実況中継の解説を開始する。 Step 1: AI will begin providing live commentary for youth and mini-basketball matches across the country.
ステップ2:感情エンジンが試合を視聴するユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the emotions of users watching the game in real time.
ステップ3:感情エンジンが認識した感情に応じて、AIが解説の内容やトーンを調整する。 Step 3: The AI adjusts the content and tone of the commentary based on the emotion recognized by the emotion engine.
「形態例3」 "Example 3"
ステップ1:AIが試合の得点状況に基づいてランニングスコアを自動生成する。 Step 1: AI automatically generates a running score based on the game's scoring situation.
ステップ2:感情エンジンが試合の得点状況に対するユーザの感情をリアルタイムで認識する。 Step 2: The emotion engine recognizes the user's emotions in real time regarding the score of the game.
ステップ3:感情エンジンが認識した感情に応じて、AIがスコア表示の方法を調整する。 Step 3: The AI adjusts the way the score is displayed depending on the emotion recognized by the emotion engine.
(実施例1) (Example 1)
次に、形態例1の実施例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, a first embodiment of the first embodiment will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、試合の状況や選手の動きをリアルタイムで解析し、ユーザの感情に応じた解説を提供することが困難であった。また、全国のユースやミニバスの試合解説を効率的に配信する手段や、オフィシャルやチーム毎に人が作成しているランニングスコアを自動生成する手段が不足していた。さらに、ユーザの視聴体験を向上させるための感情認識技術の活用が不十分であった。 In conventional basketball game commentary systems, it was difficult to analyze the game situation and player movements in real time and provide commentary that corresponded to the user's emotions. In addition, there was a lack of means to efficiently distribute commentary of youth and mini-basketball games across the country, or to automatically generate running scores that are created manually by officials and for each team. Furthermore, there was insufficient use of emotion recognition technology to improve the user's viewing experience.
実施例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説を人工知能が行う手段と、全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、試合の映像データを解析する手段と、試合の音声データを解析する手段と、ユーザの感情データを受信し解析する手段と、解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段と、調整後の解説を実況中継とともに配信する手段を含む。これにより、試合の状況や選手の動きをリアルタイムで解析し、ユーザの感情に応じた解説を提供することが可能となる。 In this invention, the server includes means for providing commentary on live coverage of basketball games using artificial intelligence, means for delivering commentary on youth and mini-basketball games across the country with live coverage by artificial intelligence, means for automatically generating running scores using artificial intelligence that are created manually for each official and team, means for analyzing game video data, means for analyzing game audio data, means for receiving and analyzing user emotion data, means for automatically generating commentary based on the analysis results and adjusting the content and tone of the commentary according to the user's emotions, and means for delivering the adjusted commentary together with the live coverage. This makes it possible to analyze the situation of the game and the movements of the players in real time and provide commentary according to the user's emotions.
「バスケットボールの試合の実況中継の解説を人工知能が行う手段」とは、バスケットボールの試合の映像や音声データを解析し、その解析結果に基づいて人工知能が自動的に解説を生成し、実況中継とともに配信する技術である。 "Means for artificial intelligence to provide commentary for live broadcasts of basketball games" refers to technology that analyzes video and audio data of basketball games, and automatically generates commentary based on the results of that analysis using artificial intelligence, which is then distributed along with the live broadcast.
「全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合を対象に、人工知能が自動的に解説を生成し、その解説を実況中継とともに配信する技術である。 "A means of delivering commentary on youth and mini-basketball games nationwide with live coverage by artificial intelligence" refers to a technology in which artificial intelligence automatically generates commentary for youth and mini-basketball games nationwide and delivers that commentary along with live coverage.
「オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを、人工知能が自動的に生成する技術である。 "Method of automatically generating running scores using artificial intelligence that are created manually for each official or team" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合の映像データを解析する手段」とは、試合の映像データをフレームごとに解析し、選手の位置や動き、ボールの位置などを特定する技術である。 "Means for analyzing game video data" refers to technology that analyzes game video data frame by frame to identify the positions and movements of players, the position of the ball, etc.
「試合の音声データを解析する手段」とは、試合の音声データを解析し、実況の内容や観客の反応を特定する技術である。 "Means for analyzing audio data from a match" refers to technology that analyzes audio data from a match and identifies the content of the commentary and the reactions of the audience.
「ユーザの感情データを受信し解析する手段」とは、ユーザの表情や音声をキャプチャし、そのデータを解析してユーザの感情を特定する技術である。 "Means for receiving and analyzing user emotion data" refers to technology that captures the user's facial expressions and voice, and analyzes that data to identify the user's emotions.
「解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段」とは、映像や音声データの解析結果を基に解説を自動生成し、さらにユーザの感情データを考慮して解説の内容やトーンを調整する技術である。 "Means for automatically generating commentary based on analysis results and adjusting the content and tone of the commentary according to the user's emotions" refers to a technology that automatically generates commentary based on the analysis results of video and audio data, and further adjusts the content and tone of the commentary taking into account the user's emotional data.
「調整後の解説を実況中継とともに配信する手段」とは、調整された解説をリアルタイムで実況中継とともにユーザの端末に配信する技術である。 "Means for delivering adjusted commentary together with live broadcast" refers to technology that delivers adjusted commentary in real time to a user's device together with the live broadcast.
発明を実施するための形態 Form for implementing the invention
この発明は、バスケットボールの試合の実況中継の解説を人工知能が行うシステムであり、試合の映像や音声データを解析し、ユーザの感情に応じた解説を提供するものである。以下に、このシステムの具体的な実施形態を示す。 This invention is a system in which artificial intelligence provides commentary for live coverage of basketball games, analyzing video and audio data from the game and providing commentary that reflects the user's emotions. A specific embodiment of this system is shown below.
使用するハードウェアとソフトウェア Hardware and software used
ハードウェア: 高性能なサーバ、ユーザの端末(PC、スマートフォン、タブレットなど) Hardware: High-performance servers, user devices (PCs, smartphones, tablets, etc.)
ソフトウェア: 映像解析ソフトウェア(例:OpenCV)、音声解析ソフトウェア(例:Google Cloud Speech-to-Text API)、感情エンジン(例:Microsoft Azure Emotion API)、生成AIモデル(例:GPT-4) Software: Video analysis software (e.g. OpenCV), audio analysis software (e.g. Google Cloud Speech-to-Text API), emotion engines (e.g. Microsoft Azure Emotion API), generative AI models (e.g. GPT-4)
システムの構成 System configuration
1. サーバが試合の映像データと音声データをリアルタイムで受信する。試合会場から送信されるストリーミングデータを受け取るために、高速なネットワーク接続を使用する。 1. The server receives the game video and audio data in real time. It uses a high-speed network connection to receive the streaming data sent from the game venue.
2. サーバが映像解析ソフトウェアを用いて、受信した映像データをフレームごとに解析する。具体的には、選手の位置、動き、ボールの位置を特定するために、コンピュータビジョン技術を使用する。例えば、OpenCVを用いる。 2. The server uses video analysis software to analyze the received video data frame by frame. Specifically, computer vision techniques are used to identify the positions of players, their movements, and the position of the ball. For example, OpenCV is used.
3. サーバが音声解析ソフトウェアを用いて、受信した音声データを解析する。具体的には、実況の内容や観客の反応を特定するために、音声認識技術を使用する。例えば、Google Cloud Speech-to-Text APIを用いる。 3. The server uses voice analysis software to analyze the received voice data. Specifically, it uses voice recognition technology to identify the content of the commentary and the reactions of the audience. For example, it uses the Google Cloud Speech-to-Text API.
4. サーバが映像解析と音声解析の結果を基に、生成AIモデルを用いて試合の解説を自動生成する。具体的には、GPT-4などの自然言語生成モデルを使用し、試合の状況や選手の動きを解説する文章を生成する。 4. The server uses a generative AI model to automatically generate commentary on the match based on the results of video and audio analysis. Specifically, it uses a natural language generation model such as GPT-4 to generate sentences that explain the situation of the match and the movements of the players.
5. 端末がユーザの表情や音声をリアルタイムでキャプチャし、感情データとしてサーバに送信する。具体的には、カメラやマイクを使用する。 5. The device captures the user's facial expressions and voice in real time and transmits them as emotion data to the server. Specifically, the device uses a camera and microphone.
6. サーバが感情エンジンを用いて、受信した感情データを解析する。具体的には、ユーザの表情や音声から喜び、悲しみ、驚きなどの感情を特定するために、感情認識技術を使用する。例えば、Microsoft Azure Emotion APIを用いる。 6. The server uses an emotion engine to analyze the received emotion data. Specifically, it uses emotion recognition technology to identify emotions such as happiness, sadness, surprise, etc. from the user's facial expressions and voice. For example, it uses the Microsoft Azure Emotion API.
7. サーバが解析したユーザの感情に応じて、生成した解説の内容やトーンを調整する。具体的には、ユーザが喜びを示している場合、解説のトーンを明るくし、ポジティブな表現を増やす。 7. The server adjusts the content and tone of the generated commentary according to the user's emotions analyzed by the server. Specifically, if the user is happy, the tone of the commentary is brightened and more positive expressions are included.
8. サーバが調整後の解説を実況中継とともにユーザの端末に配信する。具体的には、ストリーミング技術を用いて、リアルタイムで配信する。例えば、WebRTCを用いる。 8. The server delivers the adjusted commentary along with the live broadcast to the user's device. Specifically, it delivers in real time using streaming technology. For example, WebRTC is used.
具体例 Specific examples
例えば、ユーザが試合の視聴中に喜びを示している場合、感情エンジンがその喜びを認識する。サーバはその情報を基に、生成AIモデルが生成した解説のトーンを明るくし、喜びを共有するような内容に調整する。これにより、ユーザは自身の感情が反映された解説を聞くことができ、試合視聴の満足度が向上する。 For example, if a user expresses joy while watching a game, the emotion engine will recognize that joy. Based on that information, the server will lighten the tone of the commentary generated by the generative AI model and adjust it to share the joy. This allows users to hear commentary that reflects their own emotions, improving their satisfaction watching the game.
プロンプト文の例 Example of a prompt
「バスケットボールの試合の実況中継の解説を行うAIシステムを設計してください。試合の映像や音声データを解析し、試合の状況や選手の動きを理解する機能を持ち、ユーザの感情に応じて解説の内容やトーンを調整する感情エンジンを組み合わせてください。」 "Design an AI system to provide commentary for live broadcasts of basketball games. It must analyze video and audio data from the game, understand the game situation and the movements of the players, and incorporate an emotion engine that adjusts the content and tone of the commentary according to the user's emotions."
実施例1における特定処理の流れについて図17を用いて説明する。 The flow of the identification process in Example 1 is explained using Figure 17.
ステップ1: Step 1:
サーバが試合の映像データと音声データをリアルタイムで受信する。入力は試合会場から送信されるストリーミングデータであり、出力はサーバ内に保存された映像データと音声データである。具体的な動作としては、高速なネットワーク接続を使用してデータを受信し、適切なフォーマットで保存する。 The server receives the video and audio data of the match in real time. The input is streaming data sent from the match venue, and the output is the video and audio data stored in the server. Specifically, the server receives the data using a high-speed network connection and stores it in an appropriate format.
ステップ2: Step 2:
サーバが映像解析ソフトウェアを用いて、受信した映像データをフレームごとに解析する。入力は保存された映像データであり、出力は選手の位置、動き、ボールの位置などの解析結果である。具体的な動作としては、OpenCVを使用して各フレームを解析し、選手やボールの位置を特定する。 The server uses video analysis software to analyze the received video data frame by frame. The input is the saved video data, and the output is the analysis results, such as the positions and movements of the players and the position of the ball. In concrete terms, it uses OpenCV to analyze each frame and identify the positions of the players and the ball.
ステップ3: Step 3:
サーバが音声解析ソフトウェアを用いて、受信した音声データを解析する。入力は保存された音声データであり、出力は実況の内容や観客の反応をテキスト化した解析結果である。具体的な動作としては、Google Cloud Speech-to-Text APIを使用して音声データをテキストに変換し、重要な情報を抽出する。 The server uses voice analysis software to analyze the received voice data. The input is the stored voice data, and the output is the analysis results in the form of text that contains the commentary and the reactions of the audience. Specifically, the Google Cloud Speech-to-Text API is used to convert the voice data into text and extract key information.
ステップ4: Step 4:
サーバが映像解析と音声解析の結果を基に、生成AIモデルを用いて試合の解説を自動生成する。入力は映像解析と音声解析の結果であり、出力は生成された解説文である。具体的な動作としては、GPT-4などの自然言語生成モデルを使用して、試合の状況や選手の動きを解説する文章を生成する。 The server uses a generative AI model to automatically generate commentary on the match based on the results of video and audio analysis. The input is the results of video and audio analysis, and the output is the generated commentary. Specifically, it uses a natural language generation model such as GPT-4 to generate sentences that explain the situation of the match and the movements of the players.
ステップ5: Step 5:
端末がユーザの表情や音声をリアルタイムでキャプチャし、感情データとしてサーバに送信する。入力はユーザの表情や音声であり、出力はサーバに送信された感情データである。具体的な動作としては、カメラやマイクを使用してユーザの表情や音声をキャプチャし、リアルタイムでサーバに送信する。 The device captures the user's facial expressions and voice in real time and sends them to the server as emotion data. The input is the user's facial expressions and voice, and the output is the emotion data sent to the server. In concrete terms, the device uses a camera and microphone to capture the user's facial expressions and voice, and sends them to the server in real time.
ステップ6: Step 6:
サーバが感情エンジンを用いて、受信した感情データを解析する。入力は送信された感情データであり、出力はユーザの感情を特定した解析結果である。具体的な動作としては、Microsoft Azure Emotion APIを使用して、ユーザの表情や音声から喜び、悲しみ、驚きなどの感情を特定する。 The server uses an emotion engine to analyze the received emotion data. The input is the emotion data sent, and the output is the analysis results that identify the user's emotion. Specifically, it uses the Microsoft Azure Emotion API to identify emotions such as joy, sadness, and surprise from the user's facial expressions and voice.
ステップ7: Step 7:
サーバが解析したユーザの感情に応じて、生成した解説の内容やトーンを調整する。入力は感情解析の結果と生成された解説文であり、出力は調整後の解説文である。具体的な動作としては、ユーザが喜びを示している場合、解説のトーンを明るくし、ポジティブな表現を増やす。 The content and tone of the generated commentary is adjusted according to the user's emotions analyzed by the server. The input is the result of emotion analysis and the generated commentary, and the output is the adjusted commentary. Specifically, if the user shows joy, the tone of the commentary is brightened and more positive expressions are used.
ステップ8: Step 8:
サーバが調整後の解説を実況中継とともにユーザの端末に配信する。入力は調整後の解説文と実況中継のデータであり、出力はユーザの端末に配信されるリアルタイムの解説付き実況中継である。具体的な動作としては、WebRTCを使用して、調整後の解説をリアルタイムで配信する。 The server delivers the adjusted commentary to the user's device along with the live broadcast. The input is the adjusted commentary and the live broadcast data, and the output is the live broadcast with real-time commentary delivered to the user's device. In concrete terms, it uses WebRTC to deliver the adjusted commentary in real time.
(応用例1) (Application example 1)
次に、形態例1の応用例1について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, application example 1 of embodiment example 1 will be described. In the following description, the
従来のバスケットボールの試合解説システムでは、解説が一律であり、視聴者の感情に応じた柔軟な対応ができないという課題があった。また、試合の実況中継や解説の質を向上させるためには、多くの人手が必要であり、コストや労力がかかるという問題も存在していた。さらに、全国のユースやミニバスの試合解説を効率的に行う手段が不足していた。 Conventional basketball game commentary systems had the problem that the commentary was uniform and could not flexibly respond to the emotions of the viewers. In addition, improving the quality of the live broadcast and commentary of the game required a large number of people, which was costly and laborious. Furthermore, there was a lack of efficient means to provide commentary on youth and mini-basketball games across the country.
応用例1におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段と、生成AIモデルを用いて解説を生成する手段と、プロンプト文を入力して解説を生成する手段と、を含む。これにより、視聴者の感情に応じた柔軟な解説が可能となり、試合の実況中継や解説の質を向上させることができる。また、全国のユースやミニバスの試合解説を効率的に行うことができる。
The specific processing by the
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合の映像や音声データを解析し、試合の状況や選手の動きを理解して解説を自動的に生成する人工知能技術を用いた手段である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to a means that uses artificial intelligence technology to analyze video and audio data of basketball games, understand the situation of the game and the movements of the players, and automatically generate commentary.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国のユースやミニバスケットボールの試合をAIが解説し、その解説を含む実況中継を配信する手段である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a means of broadcasting live coverage including commentary on youth and mini-basketball games from around the country with AI providing commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを、AIが自動的に生成する手段である。 "Means of using AI to automatically generate running scores that are created manually by officials and teams" refers to a means of using AI to automatically generate scores that are manually created by officials and teams during a match.
「ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段」とは、ユーザの感情(喜び、悲しみ、驚きなど)を認識し、その感情に応じて解説の内容やトーンを調整するための感情認識技術を用いた手段である。 "Means for adjusting the content and tone of commentary using an emotion engine that recognizes the user's emotions" refers to means that use emotion recognition technology to recognize the user's emotions (happiness, sadness, surprise, etc.) and adjust the content and tone of the commentary in accordance with those emotions.
「生成AIモデルを用いて解説を生成する手段」とは、生成AIモデル(例えばGPT-3など)を用いて、試合の状況に応じた解説を生成する手段である。 "Means for generating commentary using a generative AI model" refers to means for generating commentary based on the situation of a match using a generative AI model (e.g., GPT-3).
「プロンプト文を入力して解説を生成する手段」とは、特定のプロンプト文を生成AIモデルに入力し、そのプロンプトに基づいて解説を生成する手段である。 "Means for inputting a prompt sentence and generating an explanation" refers to means for inputting a specific prompt sentence into a generative AI model and generating an explanation based on that prompt.
この発明を実施するためのシステムは、バスケットボールの試合の実況中継の解説をAIが行う手段、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段、ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段、生成AIモデルを用いて解説を生成する手段、プロンプト文を入力して解説を生成する手段を含む。 A system for implementing this invention includes a means for AI to provide commentary for live coverage of basketball games, a means for distributing commentary for youth and mini-basketball games across the country with AI commentary, a means for AI to automatically generate running scores that are created manually for each official or team, a means for adjusting the content and tone of the commentary using an emotion engine that recognizes the user's emotions, a means for generating commentary using a generative AI model, and a means for generating commentary by inputting a prompt text.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア:スマートフォンのカメラとマイク Hardware: Smartphone camera and microphone
ソフトウェア:OpenCV、Keras、Transformers Software: OpenCV, Keras, Transformers
データ加工およびデータ演算 Data processing and data calculations
サーバ Server
サーバは、バスケットボールの試合の映像や音声データをリアルタイムで受信し、解析を行う。OpenCVを用いて映像データを取得し、Kerasを用いて感情認識モデルを実行する。感情認識モデルは、ユーザの顔の表情を解析し、喜び、悲しみ、驚きなどの感情を認識する。 The server receives and analyzes video and audio data from the basketball game in real time. It uses OpenCV to acquire the video data and Keras to run an emotion recognition model. The emotion recognition model analyzes the user's facial expressions and recognizes emotions such as happiness, sadness, and surprise.
端末 Terminal
端末は、生成AIモデル(例えばGPT-3)を用いて解説を生成する。生成AIモデルにプロンプト文を入力し、そのプロンプトに基づいて解説を生成する。プロンプト文の例として、「The user is happy. Generate a joyful commentary for the basketball game.」や「The user is sad. Generate a comforting commentary for the basketball game.」がある。 The device generates commentary using a generative AI model (e.g., GPT-3). A prompt sentence is input into the generative AI model, which generates commentary based on the prompt. Examples of prompt sentences include "The user is happy. Generate a joyful commentary for the basketball game." and "The user is sad. Generate a comforting commentary for the basketball game."
ユーザ User
ユーザは、スマートフォンのカメラとマイクを通じて試合を視聴し、その際の感情が認識される。感情エンジンは、ユーザの感情に応じて解説の内容やトーンを調整する。例えば、ユーザが試合のハイライトシーンで喜びを示している場合、解説は「素晴らしいプレイですね!この瞬間を待っていました!」といった内容になる。逆に、ユーザが試合の逆転シーンで悲しみを示している場合、解説は「残念な結果ですが、まだチャンスはあります。次のプレイに期待しましょう。」といった内容になる。 Users watch the game through their smartphone's camera and microphone, and their emotions are recognized. The emotion engine adjusts the content and tone of the commentary based on the user's emotions. For example, if the user expresses joy at a highlight scene in the game, the commentary might say something like, "Great play! We've been waiting for this moment!" Conversely, if the user expresses sadness at a comeback scene in the game, the commentary might say something like, "It's a disappointing result, but there's still a chance. Let's look forward to the next play."
このようにして、視聴者の感情に応じた柔軟な解説が可能となり、試合の実況中継や解説の質を向上させることができる。また、全国のユースやミニバスの試合解説を効率的に行うことができる。 In this way, flexible commentary based on the viewer's emotions becomes possible, improving the quality of live game coverage and commentary. It also enables efficient commentary of youth and mini-basketball games across the country.
応用例1における特定処理の流れについて図18を用いて説明する。 The flow of the specific processing in application example 1 is explained using Figure 18.
ステップ1: Step 1:
サーバは、スマートフォンのカメラとマイクから映像および音声データをリアルタイムで受信する。入力は、カメラとマイクからの映像および音声データであり、出力は、これらのデータを解析するための準備が整った状態である。 The server receives video and audio data from the smartphone's camera and microphone in real time. The input is the video and audio data from the camera and microphone, and the output is the data ready for analysis.
ステップ2: Step 2:
サーバは、OpenCVを用いて映像データを処理し、ユーザの顔を検出する。入力は、ステップ1で受信した映像データであり、出力は、検出された顔の領域である。具体的な動作としては、映像データをグレースケールに変換し、顔検出アルゴリズムを適用する。 The server processes the video data using OpenCV to detect the user's face. The input is the video data received in step 1, and the output is the detected face area. Specifically, the server converts the video data to grayscale and applies a face detection algorithm.
ステップ3: Step 3:
サーバは、Kerasを用いて感情認識モデルを実行し、ユーザの感情を認識する。入力は、ステップ2で検出された顔の領域であり、出力は、認識された感情(喜び、悲しみ、驚きなど)である。具体的な動作としては、顔の領域を適切なサイズにリサイズし、感情認識モデルに入力する。 The server runs an emotion recognition model using Keras to recognize the user's emotions. The input is the face region detected in step 2, and the output is the recognized emotion (happiness, sadness, surprise, etc.). Specifically, the server resizes the face region to an appropriate size and inputs it into the emotion recognition model.
ステップ4: Step 4:
サーバは、認識された感情に基づいて、生成AIモデルに入力するプロンプト文を生成する。入力は、ステップ3で認識された感情であり、出力は、生成されたプロンプト文である。具体的な動作としては、感情に応じたテンプレート文を選択し、プロンプト文を生成する。 The server generates a prompt sentence to be input to the generative AI model based on the recognized emotion. The input is the emotion recognized in step 3, and the output is the generated prompt sentence. Specifically, it selects a template sentence according to the emotion and generates the prompt sentence.
ステップ5: Step 5:
サーバは、生成AIモデル(例えばGPT-3)を用いて解説を生成する。入力は、ステップ4で生成されたプロンプト文であり、出力は、生成された解説文である。具体的な動作としては、生成AIモデルにプロンプト文を入力し、解説文を生成する。 The server generates an explanation using a generative AI model (e.g., GPT-3). The input is the prompt text generated in step 4, and the output is the generated explanation text. In concrete terms, the prompt text is input into the generative AI model, and an explanation text is generated.
ステップ6: Step 6:
サーバは、生成された解説文をリアルタイムでユーザに配信する。入力は、ステップ5で生成された解説文であり、出力は、ユーザのスマートフォンに配信される解説音声である。具体的な動作としては、解説文を音声合成エンジンに入力し、音声データを生成して配信する。 The server delivers the generated explanatory text to the user in real time. The input is the explanatory text generated in step 5, and the output is the explanatory audio delivered to the user's smartphone. In concrete terms, the explanatory text is input into a voice synthesis engine, and audio data is generated and delivered.
ステップ7: Step 7:
ユーザは、スマートフォンを通じて試合を視聴し、解説を聞く。入力は、サーバから配信された解説音声であり、出力は、ユーザの視聴体験の向上である。具体的な動作としては、スマートフォンのスピーカーから解説音声が再生される。 Users watch the game and listen to the commentary through their smartphones. The input is the commentary audio delivered from the server, and the output is an improvement to the user's viewing experience. In concrete terms, the commentary audio is played through the smartphone's speakers.
(実施例2) (Example 2)
次に、形態例2の実施例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, a second embodiment of the second embodiment will be described. In the following description, the
従来のバスケットボールの試合解説は、解説者の主観に依存しており、視聴者の感情に応じた解説を提供することが困難であった。また、全国のユースやミニバスの試合を広く視聴者に提供するためのシステムが不足しており、試合の進行状況や選手のパフォーマンスをリアルタイムで把握することが難しかった。さらに、試合のランニングスコアを手動で作成することは時間と労力を要し、効率的な運営が求められていた。 Traditional basketball game commentary relied on the commentator's subjective judgment, making it difficult to provide commentary that reflected the emotions of viewers. In addition, there was a lack of systems to provide youth and mini-basketball games from across the country to a wide audience, making it difficult to grasp the progress of the game and the performance of the players in real time. Furthermore, manually creating a running score for the game was time-consuming and labor-intensive, so efficient management was required.
実施例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説を人工知能が行う手段と、全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、試合映像と音声データを収集する手段と、収集したデータを解析し解説を生成する手段と、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、生成された解説を試合映像とともに配信する手段を含む。これにより、視聴者の感情に応じた解説を提供し、試合視聴の満足度を向上させることが可能となる。 In this invention, the server includes means for providing commentary on live coverage of basketball games using artificial intelligence, means for distributing commentary on youth and mini-basketball games from around the country with live coverage by artificial intelligence, means for automatically generating running scores using artificial intelligence that are created manually for each official and team, means for collecting game video and audio data, means for analyzing the collected data and generating commentary, means for recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions, and means for distributing the generated commentary together with the game video. This makes it possible to provide commentary that corresponds to the viewer's emotions and improve satisfaction with viewing the game.
「バスケットボールの試合の実況中継の解説を人工知能が行う手段」とは、バスケットボールの試合において、人工知能が試合の進行状況や選手のパフォーマンスを解析し、リアルタイムで解説を生成する技術である。 "Means for artificial intelligence to provide commentary for live broadcasts of basketball games" refers to technology in which artificial intelligence analyzes the progress of a basketball game and the performance of players, and generates commentary in real time.
「全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能が解析し、解説を生成してリアルタイムで配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games across the country with live coverage by artificial intelligence" refers to a technology in which artificial intelligence analyzes youth and mini-basketball games held across the country, generates commentary, and broadcasts it in real time.
「オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段」とは、試合中にオフィシャルやチームが手動で作成しているスコアを人工知能が自動的に生成する技術である。 "Means for automatically generating running scores using artificial intelligence that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually created by officials and teams during a match.
「試合映像と音声データを収集する手段」とは、試合会場に設置されたカメラやマイクを使用して、試合の映像と音声データをリアルタイムで収集する技術である。 "Means for collecting game video and audio data" refers to technology that uses cameras and microphones installed at the game venue to collect game video and audio data in real time.
「収集したデータを解析し解説を生成する手段」とは、収集された映像と音声データを人工知能が解析し、試合の進行状況や選手のパフォーマンスに基づいて解説を生成する技術である。 "Means of analyzing collected data and generating commentary" refers to technology in which artificial intelligence analyzes collected video and audio data and generates commentary based on the progress of the match and the performance of the players.
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段」とは、視聴者の表情や声のトーンを解析し、その感情に応じて解説の内容やトーンを調整する技術である。 "Means of recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions" refers to technology that analyzes the viewer's facial expressions and tone of voice, and adjusts the content and tone of the commentary according to those emotions.
「生成された解説を試合映像とともに配信する手段」とは、人工知能が生成した解説を試合映像とともにストリーミングプラットフォームを通じて配信する技術である。 "Means for distributing generated commentary together with game footage" refers to technology for distributing commentary generated by artificial intelligence together with game footage via a streaming platform.
この発明は、バスケットボールの試合の実況中継を人工知能(AI)が行い、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信するシステムである。さらに、オフィシャルやチーム毎に人が作成しているランニングスコアをAIが自動生成する機能を含む。 This invention is a system in which artificial intelligence (AI) broadcasts live basketball games, and also distributes live commentary by AI for youth and mini-basketball games across the country. It also includes a function that allows the AI to automatically generate running scores that are currently created manually by officials and for each team.
サーバは、試合会場に設置されたカメラやマイクを使用して、試合の映像と音声データをリアルタイムで収集する。具体的には、Sonyの4KカメラやShureの高感度マイクなどのハードウェアを使用する。収集されたデータは、サーバ上のデータベースに保存される。 The server collects video and audio data from the match in real time using cameras and microphones installed at the match venue. Specifically, it uses hardware such as Sony's 4K cameras and Shure's high-sensitivity microphones. The collected data is stored in a database on the server.
次に、サーバは保存された映像と音声データをAIモデルに入力する。このAIモデルは、例えばOpenAIのGPT-4やGoogleのBERTなどの生成AIモデルを使用する。AIモデルは、入力されたデータを解析し、試合の進行状況や選手のパフォーマンスに基づいて解説を生成する。例えば、選手Aがシュートを決めた瞬間を解析し、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 The server then inputs the stored video and audio data into an AI model. This AI model uses a generative AI model such as OpenAI's GPT-4 or Google's BERT. The AI model analyzes the input data and generates commentary based on the progress of the match and the performance of the players. For example, it analyzes the moment when Player A makes a shot and generates commentary such as, "Player A made a great shot!".
さらに、端末は、試合を視聴しているユーザの感情を認識する。具体的には、端末のカメラやマイクを使用してユーザの表情や声のトーンをキャプチャする。これには、例えばAppleのFace ID技術やAmazonのAlexaが使用される。端末は、キャプチャしたデータをサーバに送信する。 In addition, the device will recognize the emotions of the user watching the game. Specifically, it will use the device's camera and microphone to capture the user's facial expressions and tone of voice. For example, Apple's Face ID technology or Amazon's Alexa will be used for this purpose. The device will then send the captured data to a server.
サーバは、端末から送信されたユーザの感情データを受信し、感情エンジンを使用して解析する。感情エンジンは、例えばAffectivaやIBM Watsonの感情分析APIを使用する。ユーザが感動している場合、サーバは解説のトーンを感動的なものに調整し、「選手Aのシュートは本当に素晴らしいですね!観客も大いに盛り上がっています!」という解説を生成する。 The server receives the user's emotion data sent from the terminal and analyzes it using an emotion engine. The emotion engine uses, for example, Affectiva or IBM Watson's emotion analysis API. If the user is emotional, the server adjusts the tone of the commentary to be more emotional and generates a commentary such as, "Player A's shot was really amazing! The crowd is really excited!".
最後に、サーバは生成された解説を試合映像とともに配信する。配信には、YouTubeやTwitchなどのストリーミングプラットフォームが使用される。ユーザは、これらのプラットフォームを通じて試合を視聴し、感情に応じた解説を楽しむことができる。 Finally, the server distributes the generated commentary along with the game footage. Streaming platforms such as YouTube and Twitch are used for distribution. Users can watch the game through these platforms and enjoy the commentary according to their emotions.
具体例として、あるユースのバスケットボールの試合が行われているとする。サーバは、試合会場に設置されたSonyの4KカメラとShureの高感度マイクからリアルタイムで映像と音声データを収集する。次に、収集したデータをOpenAIのGPT-4に入力し、選手Aがシュートを決めた瞬間を解析する。AIモデルは、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 As a concrete example, let's say a youth basketball game is taking place. The server collects video and audio data in real time from Sony's 4K cameras and Shure's high-sensitivity microphones installed at the game venue. The collected data is then input into OpenAI's GPT-4, which analyzes the moment Player A makes a shot. The AI model generates a commentary such as, "Player A made a great shot!".
一方、端末は、試合を視聴しているユーザの表情をAppleのFace ID技術でキャプチャし、感動していることを認識する。サーバは、Affectivaの感情分析APIを使用してユーザの感情を解析し、解説のトーンを感動的なものに調整する。「選手Aのシュートは本当に素晴らしいですね!観客も大いに盛り上がっています!」という解説を生成し、YouTubeを通じて配信する。 Meanwhile, the device uses Apple's Face ID technology to capture the facial expressions of the user watching the game and recognizes that they are emotionally moved. The server then uses Affectiva's emotion analysis API to analyze the user's emotions and adjust the tone of the commentary to be more emotional. It generates a commentary such as, "Player A's shot was really amazing! The crowd is really excited!" and distributes it via YouTube.
プロンプト文の例としては、以下のようなものが考えられる: Examples of prompts might include:
「ユースのバスケットボールの試合映像と音声データを解析し、試合の進行状況や選手のパフォーマンスに関する解説を生成してください。また、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整してください。」 "Analyze video and audio data from youth basketball games to generate commentary on game progress and player performance. Also recognize viewer emotions and adjust the content and tone of the commentary accordingly."
このようにして、サーバはユーザに対して感情に応じた解説を提供し、試合視聴の満足度を向上させることができる。 In this way, the server can provide users with commentary that reflects their emotions, improving their satisfaction with watching the game.
実施例2における特定処理の流れについて図19を用いて説明する。 The flow of the identification process in Example 2 is explained using Figure 19.
ステップ1: Step 1:
サーバは、試合会場に設置されたカメラとマイクを使用して、試合の映像と音声データをリアルタイムで収集する。具体的には、Sonyの4KカメラとShureの高感度マイクを使用する。入力は、試合の映像と音声データであり、出力は収集された映像と音声データである。これらのデータはサーバ上のデータベースに保存される。 The server uses cameras and microphones installed at the venue to collect video and audio data of the match in real time. Specifically, it uses Sony 4K cameras and Shure high-sensitivity microphones. The input is the video and audio data of the match, and the output is the collected video and audio data. This data is stored in a database on the server.
ステップ2: Step 2:
サーバは、保存された映像と音声データをAIモデルに入力する。このAIモデルは、例えばOpenAIのGPT-4を使用する。入力は、収集された映像と音声データであり、出力は解析された試合の進行状況や選手のパフォーマンスに関するデータである。AIモデルは、映像データから選手の動きや試合の進行状況を解析し、音声データから実況や観客の反応を解析する。 The server inputs the stored video and audio data into an AI model. This AI model uses, for example, OpenAI's GPT-4. The input is the collected video and audio data, and the output is analyzed data on the progress of the match and the performance of the players. The AI model analyzes the movements of the players and the progress of the match from the video data, and analyzes the commentary and audience reactions from the audio data.
ステップ3: Step 3:
サーバは、AIモデルが解析したデータを基に試合の解説を生成する。入力は、解析された試合の進行状況や選手のパフォーマンスに関するデータであり、出力は生成された解説文である。例えば、選手Aがシュートを決めた瞬間を解析し、「選手Aが素晴らしいシュートを決めました!」という解説を生成する。 The server generates commentary on the match based on the data analyzed by the AI model. The input is the analyzed data on the progress of the match and the performance of the players, and the output is the generated commentary. For example, the server analyzes the moment when Player A makes a shot and generates a commentary such as, "Player A made a great shot!".
ステップ4: Step 4:
端末は、試合を視聴しているユーザの感情を認識する。具体的には、端末のカメラやマイクを使用してユーザの表情や声のトーンをキャプチャする。入力は、ユーザの表情や声のトーンに関するデータであり、出力は認識されたユーザの感情データである。これには、AppleのFace ID技術やAmazonのAlexaが使用される。 The device recognizes the emotions of users watching a game. Specifically, it uses the device's camera and microphone to capture the user's facial expressions and tone of voice. The input is data about the user's facial expressions and tone of voice, and the output is the recognized user's emotion data. This uses Apple's Face ID technology and Amazon's Alexa.
ステップ5: Step 5:
サーバは、端末から送信されたユーザの感情データを受信し、感情エンジンを使用して解析する。入力は、ユーザの感情データであり、出力は解析された感情情報である。感情エンジンは、例えばAffectivaの感情分析APIを使用する。ユーザが感動している場合、サーバは解説のトーンを感動的なものに調整する。 The server receives the user's emotion data sent from the terminal and analyzes it using an emotion engine. The input is the user's emotion data, and the output is the analyzed emotion information. The emotion engine uses, for example, Affectiva's emotion analysis API. If the user is emotional, the server adjusts the tone of the commentary to be emotional.
ステップ6: Step 6:
サーバは、生成された解説を試合映像とともに配信する。入力は、生成された解説文と試合映像であり、出力は配信されるストリーミングデータである。配信には、YouTubeやTwitchなどのストリーミングプラットフォームが使用される。ユーザは、これらのプラットフォームを通じて試合を視聴し、感情に応じた解説を楽しむことができる。 The server distributes the generated commentary together with the game footage. The input is the generated commentary and the game footage, and the output is the streaming data to be distributed. Streaming platforms such as YouTube and Twitch are used for distribution. Users can watch the game through these platforms and enjoy commentary according to their emotions.
(応用例2) (Application example 2)
次に、形態例2の応用例2について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, application example 2 of embodiment example 2 will be described. In the following description, the
従来のバスケットボールの試合実況中継システムでは、解説が一律であり、視聴者の感情に応じた柔軟な対応ができないという問題があった。また、試合のハイライトやリプレイ機能、視聴者同士のチャット機能が不足しており、視聴体験の向上が求められていた。さらに、全国のユースやミニバスの試合を広く視聴者に提供する手段が限られていたため、地域間の情報格差が生じていた。 Conventional live basketball game broadcasting systems had the problem that commentary was uniform and did not allow for flexible responses to viewer emotions. In addition, there was a lack of game highlights, replay functions, and chat functions between viewers, so there was a need to improve the viewing experience. Furthermore, there were limited ways to widely provide viewers with information about youth and mini-basketball games across the country, resulting in information disparities between regions.
応用例2におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、試合のハイライトやリプレイ機能を提供する手段と、視聴者同士のチャット機能を提供する手段と、を含む。これにより、視聴者の感情に応じた柔軟な解説が可能となり、視聴体験の向上が図られるとともに、全国のユースやミニバスの試合を広く視聴者に提供することが可能となる。 In this invention, the server includes a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary of youth and mini-basketball games from around the country with AI commentary, a means for AI to automatically generate running scores that are created manually by officials and for each team, a means for recognizing the emotions of viewers and adjusting the content and tone of the commentary according to those emotions, a means for providing highlights and replay functions for games, and a means for providing a chat function between viewers. This allows for flexible commentary according to the emotions of viewers, improving the viewing experience and making it possible to widely provide youth and mini-basketball games from around the country to viewers.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、バスケットボールの試合において、人工知能を用いてリアルタイムで解説を生成し、視聴者に提供する技術である。 "Means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to generate commentary in real time for basketball games and provide it to viewers.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国各地で行われるユースやミニバスの試合を人工知能による解説付きでリアルタイムに配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games across the country with live coverage by AI" refers to technology that broadcasts youth and mini-basketball games held across the country in real time with commentary by artificial intelligence.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合中にオフィシャルやチームが手動で記録しているスコアを人工知能が自動的に生成する技術である。 "Method of using AI to automatically generate running scores that are created manually by officials and teams" refers to technology that uses artificial intelligence to automatically generate scores that are manually recorded by officials and teams during a match.
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段」とは、視聴者の表情や声などから感情を認識し、その感情に応じて解説の内容やトーンを変える技術である。 "Means of recognizing the viewer's emotions and adjusting the content and tone of the commentary according to those emotions" refers to technology that recognizes emotions from the viewer's facial expressions, voice, etc., and changes the content and tone of the commentary according to those emotions.
「試合のハイライトやリプレイ機能を提供する手段」とは、試合の重要なシーンを抜粋して再生するハイライト機能や、特定のシーンを再度再生するリプレイ機能を提供する技術である。 "Means for providing match highlight and replay features" refers to technology that provides a highlight feature that extracts and plays important scenes from a match, and a replay feature that replays specific scenes.
「視聴者同士のチャット機能を提供する手段」とは、試合を視聴しているユーザー同士がリアルタイムでメッセージを交換できるチャット機能を提供する技術である。 "Means for providing a chat function between viewers" refers to technology that provides a chat function that allows users watching a match to exchange messages in real time.
この発明を実施するためのシステムは、以下の主要なコンポーネントを含む。バスケットボールの試合の実況中継の解説をAIが行う手段、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段、視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段、試合のハイライトやリプレイ機能を提供する手段、視聴者同士のチャット機能を提供する手段である。 The system for implementing this invention includes the following main components: a means for AI to provide commentary on live coverage of basketball games, a means for distributing commentary on youth and mini-basketball games across the country with AI commentary, a means for AI to automatically generate running scores that are created manually for each official and team, a means for recognizing the emotions of viewers and adjusting the content and tone of the commentary according to those emotions, a means for providing game highlights and replay functions, and a means for providing a chat function between viewers.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア: スマートフォン(カメラ、マイク、ディスプレイ) Hardware: Smartphone (camera, microphone, display)
ソフトウェア: OpenCV(画像処理ライブラリ)、EmotionRecognizer(感情認識モデル)、AICommentary(AI解説生成モデル)、LiveStreaming(ライブストリーミングライブラリ) Software: OpenCV (image processing library), EmotionRecognizer (emotion recognition model), AICommentary (AI commentary generation model), LiveStreaming (live streaming library)
データ加工およびデータ演算 Data processing and data calculations
1. フレーム取得: サーバは、ライブストリーミングからフレームを取得する。これにより、リアルタイムで試合の映像データが収集される。 1. Frame acquisition: The server acquires frames from the live streaming, which allows video data of the match to be collected in real time.
2. 感情認識: サーバは、フレームから視聴者の顔を検出し、EmotionRecognizerを使用して感情を認識する。これにより、視聴者の感情データが取得される。 2. Emotion Recognition: The server detects the viewer's face from the frame and recognizes the emotion using EmotionRecognizer. This obtains the viewer's emotion data.
3. 解説生成: サーバは、認識された感情に基づいて、AICommentaryを使用して解説を生成する。これにより、視聴者の感情に応じた解説がリアルタイムで生成される。 3. Commentary generation: The server generates commentary using AICommentary based on the recognized emotions. This allows commentary to be generated in real time according to the viewer's emotions.
4. 解説追加: サーバは、生成された解説をライブストリームに追加する。これにより、視聴者は感情に応じた解説をリアルタイムで視聴できる。 4. Add commentary: The server adds the generated commentary to the live stream, allowing viewers to see emotional commentary in real time.
5. ハイライトおよびリプレイ: サーバは、試合の重要なシーンを自動的に抽出し、ハイライトやリプレイ機能を提供する。これにより、視聴者は試合の重要な瞬間を再度視聴できる。 5. Highlights and Replays: The server automatically extracts important scenes from the match and provides highlights and replays, allowing viewers to rewatch key moments of the match.
6. チャット機能: サーバは、視聴者同士がリアルタイムでメッセージを交換できるチャット機能を提供する。これにより、視聴者同士のコミュニケーションが促進される。 6. Chat function: The server provides a chat function that allows viewers to exchange messages with each other in real time. This promotes communication between viewers.
具体例 Specific examples
例えば、ユースバスケットボールの試合中、視聴者が感動している場合、サーバは「素晴らしいプレイですね!この瞬間は忘れられません!」という解説を生成する。また、視聴者が興奮している場合、サーバは「これは見逃せない!次のプレイに注目です!」という解説を生成する。 For example, during a youth basketball game, if the viewer is impressed, the server might generate a commentary like, "Great play! I'll never forget this moment!" Or, if the viewer is excited, the server might generate a commentary like, "You won't want to miss this! Watch the next play!"
プロンプト文の例 Example of a prompt
「視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整するAIモデルを作成してください。例えば、視聴者が感動している場合、解説が感動を共有する内容になるようにしてください。」 "Create an AI model that recognizes the emotions of your viewers and adjusts the content and tone of your commentary accordingly. For example, if your viewer is emotional, make sure your commentary reflects that emotion."
応用例2における特定処理の流れについて図20を用いて説明する。 The flow of the specific processing in application example 2 is explained using Figure 20.
ステップ1: Step 1:
サーバは、ライブストリーミングからフレームを取得する。入力は、リアルタイムの試合映像データであり、出力は、個々のフレーム画像である。具体的には、サーバはカメラから送信される映像データを受信し、OpenCVを使用してフレームごとに分割する。 The server obtains frames from live streaming. The input is real-time game video data, and the output is individual frame images. Specifically, the server receives the video data sent from the camera and splits it into frames using OpenCV.
ステップ2: Step 2:
サーバは、フレームから視聴者の顔を検出し、EmotionRecognizerを使用して感情を認識する。入力は、ステップ1で取得したフレーム画像であり、出力は、視聴者の感情データである。具体的には、サーバはフレーム内の顔を検出し、感情認識モデルに入力して感情を分類する。 The server detects the viewer's face from the frame and recognizes the emotion using EmotionRecognizer. The input is the frame image obtained in step 1, and the output is the viewer's emotion data. Specifically, the server detects the face in the frame and inputs it into the emotion recognition model to classify the emotion.
ステップ3: Step 3:
サーバは、認識された感情に基づいて、AICommentaryを使用して解説を生成する。入力は、ステップ2で得られた感情データであり、出力は、感情に応じた解説テキストである。具体的には、サーバは感情データをプロンプトとしてAI解説生成モデルに入力し、適切な解説文を生成する。 The server generates a commentary using AICommentary based on the recognized emotion. The input is the emotion data obtained in step 2, and the output is commentary text corresponding to the emotion. Specifically, the server inputs the emotion data as a prompt into the AI commentary generation model to generate an appropriate commentary.
ステップ4: Step 4:
サーバは、生成された解説をライブストリームに追加する。入力は、ステップ3で生成された解説テキストであり、出力は、解説が追加されたライブ映像である。具体的には、サーバは解説テキストを音声合成し、映像にオーバーレイする。 The server adds the generated commentary to the live stream. The input is the commentary text generated in step 3, and the output is the live video with the commentary added. Specifically, the server synthesizes the commentary text into speech and overlays it on the video.
ステップ5: Step 5:
サーバは、試合の重要なシーンを自動的に抽出し、ハイライトやリプレイ機能を提供する。入力は、リアルタイムの試合映像データであり、出力は、ハイライト映像やリプレイ映像である。具体的には、サーバは試合のイベントを検出し、重要なシーンを抽出して保存する。 The server automatically extracts important scenes from a match and provides highlight and replay functions. The input is real-time match video data, and the output is highlight and replay footage. Specifically, the server detects events in the match, extracts important scenes, and saves them.
ステップ6: Step 6:
サーバは、視聴者同士がリアルタイムでメッセージを交換できるチャット機能を提供する。入力は、視聴者からのメッセージデータであり、出力は、他の視聴者に送信されるメッセージである。具体的には、サーバはメッセージを受信し、チャットルーム内の他の視聴者に配信する。 The server provides a chat function that allows viewers to exchange messages with each other in real time. The input is message data from the viewer, and the output is the message to be sent to other viewers. Specifically, the server receives messages and distributes them to other viewers in the chat room.
(実施例3) (Example 3)
次に、形態例3の実施例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, a third embodiment of the third embodiment will be described. In the following description, the
従来のバスケットボールの試合において、ランニングスコアの作成や試合の進行状況の把握は手動で行われており、リアルタイムでの更新が困難であった。また、全国のチームや選手のデータベース化が進んでおらず、選手のパフォーマンス分析や育成のためのフィードバックが十分に提供されていなかった。さらに、試合の得点状況に対するユーザの感情を反映したスコア表示が行われておらず、試合視聴の満足度が低かった。 In conventional basketball games, creating a running score and understanding the progress of the game were done manually, making it difficult to update in real time. In addition, there was little progress in creating a database of teams and players nationwide, and feedback for analyzing player performance and training was not provided sufficiently. Furthermore, the score display did not reflect the user's feelings about the score situation in the game, resulting in low satisfaction when watching the game.
実施例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、試合の映像データと音声データを受信する手段と、受信した映像データを解析する手段と、受信した音声データを解析する手段と、解析結果から得点状況とファウル状況を抽出する手段と、抽出した情報を基にランニングスコアを生成する手段と、生成したランニングスコアをリアルタイムで更新し送信する手段と、送信されたランニングスコアを表示する手段と、ユーザの感情を認識し、スコア表示を調整する手段を含む。これにより、試合の進行状況をリアルタイムで把握し、ユーザの感情を反映したスコア表示を提供することが可能となる。 In this invention, the server includes means for receiving video data and audio data of the match, means for analyzing the received video data, means for analyzing the received audio data, means for extracting the score situation and foul situation from the analysis results, means for generating a running score based on the extracted information, means for updating and transmitting the generated running score in real time, means for displaying the transmitted running score, and means for recognizing the user's emotions and adjusting the score display. This makes it possible to grasp the progress of the match in real time and provide a score display that reflects the user's emotions.
「試合の映像データ」とは、バスケットボールの試合の進行状況を記録したビデオデータである。 "Game video data" refers to video data that records the progress of a basketball game.
「音声データ」とは、試合中の実況や解説、観客の反応などを記録したオーディオデータである。 "Audio data" refers to audio data that records commentary and commentary during a match, audience reactions, etc.
「受信する手段」とは、試合の映像データや音声データを外部から取得するための機能である。 "Means of receiving" refers to the function for acquiring video and audio data of the match from an external source.
「解析する手段」とは、受信した映像データや音声データを処理し、特定の情報を抽出するための機能である。 "Means of analysis" refers to the function of processing received video and audio data and extracting specific information.
「得点状況」とは、試合中にどのチームが何点を獲得したかを示す情報である。 "Scoring status" is information that shows how many points each team scored during the game.
「ファウル状況」とは、試合中にどの選手がどのようなファウルを犯したかを示す情報である。 "Foul situation" is information that shows which players committed what type of fouls during the game.
「ランニングスコア」とは、試合の進行に伴ってリアルタイムで更新される得点やファウルの状況を示すスコアボードである。 The "running score" is a scoreboard that shows the score and foul situation in real time as the game progresses.
「リアルタイムで更新し送信する手段」とは、生成したランニングスコアを即時に更新し、ユーザの端末に送信するための機能である。 "Means for updating and transmitting in real time" refers to a function for instantly updating the generated running score and transmitting it to the user's device.
「表示する手段」とは、送信されたランニングスコアをユーザに視覚的に提示するための機能である。 "Display means" is a function for visually presenting the submitted running score to the user.
「ユーザの感情を認識する手段」とは、試合の得点状況などに対するユーザの感情を解析し、理解するための機能である。 "Means of recognizing user emotions" refers to a function for analyzing and understanding the user's emotions regarding the score of a match, etc.
「スコア表示を調整する手段」とは、認識したユーザの感情に応じて、スコアボードの表示方法を変更するための機能である。 "Means for adjusting score display" is a function for changing the way the scoreboard is displayed depending on the recognized user's emotions.
「全国のチームや選手の試合結果やスタッツ情報」とは、全国のバスケットボールチームや選手の試合成績や個々のプレイヤーの統計データである。 "Game results and stats information for teams and players nationwide" refers to game results for basketball teams and players nationwide and statistical data for individual players.
「データベースに保存する手段」とは、収集した試合結果やスタッツ情報を整理し、データベースに格納するための機能である。 "Means of saving to a database" refers to the function for organizing collected match results and stats information and storing it in a database.
「パフォーマンスを分析する手段」とは、データベースに保存された情報を基に、選手の成績や能力を評価するための機能である。 "Means of analyzing performance" refers to a function for evaluating a player's performance and abilities based on the information stored in the database.
「フィードバックを生成する手段」とは、分析結果を基に、選手の育成や改善点を提案するためのレポートを作成する機能である。 "Means of generating feedback" refers to the function that creates reports based on the analysis results to suggest player development and areas for improvement.
「送信し表示する手段」とは、生成したフィードバックをユーザの端末に送信し、視覚的に提示するための機能である。 "Means for sending and displaying" refers to the function for sending the generated feedback to the user's device and presenting it visually.
「見える化」とは、データを視覚的に表示し、理解しやすくすることを指す。 "Visualization" refers to displaying data visually to make it easier to understand.
「育成に活用する手段」とは、データを基に選手のトレーニングや成長を支援するための方法である。 "Means for utilizing in development" refers to methods for supporting the training and development of players based on data.
この発明は、バスケットボールの試合におけるランニングスコアの自動生成および選手のパフォーマンス分析を行うシステムである。以下に、このシステムの具体的な実施形態を説明する。 This invention is a system that automatically generates running scores for basketball games and analyzes player performance. A specific embodiment of this system is described below.
システムの構成 System configuration
ハードウェアおよびソフトウェア Hardware and software
1. サーバ 1. Server
ハードウェア: 高性能なプロセッサと大容量のメモリを備えたサーバ Hardware: Server with high-performance processor and large memory capacity
ソフトウェア: 映像解析ソフトウェア(例: OpenCV)、音声解析ソフトウェア(例: Google Cloud Speech-to-Text)、データベース管理システム(例: MySQL)、感情解析エンジン(例: IBM Watson Tone Analyzer) Software: Video analysis software (e.g. OpenCV), audio analysis software (e.g. Google Cloud Speech-to-Text), database management system (e.g. MySQL), sentiment analysis engine (e.g. IBM Watson Tone Analyzer)
2. 端末 2. Terminal
ハードウェア: パソコン、タブレット、スマートフォンなど Hardware: PCs, tablets, smartphones, etc.
ソフトウェア: Webブラウザ、専用アプリケーション Software: Web browser, dedicated application
プログラムの処理 Program processing
試合データの受信と解析 Receiving and analyzing match data
サーバは、試合の映像データと音声データを受信する。映像データはカメラやストリーミングサービスから取得し、音声データは実況や解説の音声を含む。受信した映像データはOpenCVを用いて解析し、得点シーンやファウルシーンを検出する。音声データはGoogle Cloud Speech-to-Textを用いてテキストに変換し、実況音声から得点やファウルに関する情報を抽出する。 The server receives video and audio data of the match. The video data is obtained from cameras and streaming services, and the audio data includes commentary and narration. The received video data is analyzed using OpenCV to detect scoring and foul scenes. The audio data is converted to text using Google Cloud Speech-to-Text, and information about scores and fouls is extracted from the commentary.
得点状況とファウル状況の抽出 Extraction of scoring and foul situations
サーバは、映像解析結果と音声解析結果を統合し、得点状況とファウル状況を抽出する。これにより、試合の進行状況をリアルタイムで把握することが可能となる。 The server combines the results of video and audio analysis to extract the score and foul situations. This makes it possible to grasp the progress of the game in real time.
ランニングスコアの生成と表示 Generate and display running scores
サーバは、抽出した情報を基にランニングスコアを生成する。生成されたランニングスコアはリアルタイムで更新され、WebSocketやHTTPを用いて端末に送信される。端末は、受信したランニングスコアをユーザに表示する。これにより、ユーザは試合の進行状況をリアルタイムで確認することができる。 The server generates a running score based on the extracted information. The generated running score is updated in real time and sent to the terminal using WebSocket or HTTP. The terminal displays the received running score to the user, allowing the user to check the progress of the match in real time.
ユーザの感情の認識とスコア表示の調整 Recognizing user emotions and adjusting score display
サーバは、試合の得点状況に対するユーザの感情をIBM Watson Tone Analyzerを用いて認識する。認識した感情に応じて、スコア表示の方法を調整する。例えば、ユーザが得点に喜びを示している場合、スコア表示を明るい色やアニメーションで強調する。調整後のスコア表示は端末に送信され、ユーザに表示される。 The server uses IBM Watson Tone Analyzer to recognize the user's emotions regarding the score of the game. Depending on the recognized emotion, the way the score is displayed is adjusted. For example, if the user is happy about a score, the score display is emphasized with bright colors or animations. The adjusted score display is sent to the terminal and displayed to the user.
全国のチームや選手のデータベース化とパフォーマンス分析 Database of teams and players nationwide and performance analysis
サーバは、全国のチームや選手の試合結果やスタッツ情報を収集し、MySQLデータベースに保存する。保存された情報を基に、PythonのPandasライブラリを用いて選手のパフォーマンスを分析する。分析結果を基に、選手育成のためのフィードバックを生成し、端末に送信する。端末は、受信したフィードバックをユーザに表示する。 The server collects match results and stats for teams and players across the country, and stores them in a MySQL database. Based on the stored information, the performance of players is analyzed using Python's Pandas library. Based on the analysis results, feedback for player development is generated and sent to the terminal. The terminal displays the received feedback to the user.
具体例 Specific examples
試合の映像データをサーバに送信すると、サーバはOpenCVを用いて得点シーンを検出し、Google Cloud Speech-to-Textを用いて実況音声からファウル情報を抽出する。例えば、プロンプト文として「この試合の得点シーンとファウル情報を解析してランニングスコアを生成してください」と入力する。 When the video data of the match is sent to the server, the server uses OpenCV to detect scoring scenes and uses Google Cloud Speech-to-Text to extract foul information from the commentary audio. For example, the prompt text can be "Analyze the scoring scenes and foul information of this match to generate a running score."
サーバが全国の試合結果を収集し、MySQLデータベースに保存する。PythonのPandasライブラリを用いて選手のパフォーマンスを分析し、フィードバックを生成する。例えば、プロンプト文として「全国の試合結果を収集し、選手のパフォーマンスを分析してフィードバックを生成してください」と入力する。 The server collects the results of matches from around the country and stores them in a MySQL database. It uses Python's Pandas library to analyze players' performance and generate feedback. For example, enter the following prompt statement: "Collect the results of matches from around the country, analyze players' performance, and generate feedback."
サーバが得点シーンに対するユーザの喜びをIBM Watson Tone Analyzerで認識し、スコア表示を喜びを強調する形に調整する。例えば、プロンプト文として「得点シーンに対するユーザの感情を解析し、スコア表示を調整してください」と入力する。実施例3における特定処理の流れについて図21を用いて説明する。 The server recognizes the user's joy at the scoring scene using IBM Watson Tone Analyzer, and adjusts the score display to emphasize the joy. For example, the prompt text is input as "Analyze the user's emotions at the scoring scene and adjust the score display." The flow of the specific process in Example 3 is explained with reference to FIG. 21.
ステップ1: Step 1:
試合データの受信 Receive match data
サーバは、試合の映像データと音声データを受信する。入力として、カメラやストリーミングサービスからリアルタイムで提供される映像データと音声データを取得する。出力として、受信した映像データと音声データを内部メモリに保存する。具体的な動作として、サーバはネットワーク接続を通じてデータを取得し、指定されたフォーマットで保存する。 The server receives video and audio data of the match. As input, it obtains video and audio data provided in real time from cameras and streaming services. As output, it stores the received video and audio data in its internal memory. Specifically, the server obtains the data through a network connection and stores it in a specified format.
ステップ2: Step 2:
映像データの解析 Video data analysis
サーバは、受信した映像データを解析する。入力として、ステップ1で保存された映像データを使用する。出力として、得点シーンやファウルシーンの検出結果を得る。具体的な動作として、サーバはOpenCVを用いて映像データをフレームごとに解析し、特定のイベント(得点やファウル)を検出するアルゴリズムを実行する。 The server analyzes the received video data. As input, it uses the video data saved in step 1. As output, it obtains the results of detecting scoring and foul scenes. In concrete terms, the server uses OpenCV to analyze the video data frame by frame and executes an algorithm to detect specific events (scoring and fouls).
ステップ3: Step 3:
音声データの解析 Analysis of audio data
サーバは、受信した音声データを解析する。入力として、ステップ1で保存された音声データを使用する。出力として、音声データから抽出されたテキスト情報を得る。具体的な動作として、サーバはGoogle Cloud Speech-to-Textを用いて音声データをテキストに変換し、実況音声から得点やファウルに関する情報を抽出する。 The server analyzes the received audio data. As input, it uses the audio data stored in step 1. As output, it obtains text information extracted from the audio data. Specifically, the server converts the audio data into text using Google Cloud Speech-to-Text and extracts information about scores and fouls from the commentary.
ステップ4: Step 4:
得点状況とファウル状況の抽出 Extraction of scoring and foul situations
サーバは、映像解析結果と音声解析結果を統合し、得点状況とファウル状況を抽出する。入力として、ステップ2とステップ3の出力を使用する。出力として、得点状況とファウル状況を含むデータを得る。具体的な動作として、サーバは映像解析結果と音声解析結果を時系列に統合し、得点やファウルのタイミングを特定する。 The server integrates the video analysis results and audio analysis results to extract the scoring and foul situations. As input, it uses the outputs of steps 2 and 3. As output, it obtains data including the scoring and foul situations. In concrete terms, the server integrates the video analysis results and audio analysis results in a chronological order to identify the timing of scoring and fouls.
ステップ5: Step 5:
ランニングスコアの生成 Generate running scores
サーバは、抽出した情報を基にランニングスコアを生成する。入力として、ステップ4で得られた得点状況とファウル状況を使用する。出力として、ランニングスコアを含むデータを得る。具体的な動作として、サーバは得点やファウルの情報を時系列に整理し、スコアボード形式にまとめる。 The server generates a running score based on the extracted information. As input, it uses the score and foul status obtained in step 4. As output, it obtains data including the running score. Specifically, the server organizes the score and foul information in chronological order and compiles it in a scoreboard format.
ステップ6: Step 6:
ランニングスコアの更新と送信 Update and send running scores
サーバは、生成したランニングスコアをリアルタイムで更新し、端末に送信する。入力として、ステップ5で生成されたランニングスコアを使用する。出力として、更新されたランニングスコアを端末に送信する。具体的な動作として、サーバはWebSocketやHTTPを用いてデータを送信する。 The server updates the generated running score in real time and sends it to the terminal. As input, it uses the running score generated in step 5. As output, it sends the updated running score to the terminal. Specifically, the server sends data using WebSocket or HTTP.
ステップ7: Step 7:
ランニングスコアの表示 Display running score
端末は、受信したランニングスコアをユーザに表示する。入力として、ステップ6で送信されたランニングスコアを使用する。出力として、ユーザに視覚的に提示されるスコアボードを得る。具体的な動作として、端末はWebブラウザや専用アプリケーションを用いてスコアボードを表示する。 The terminal displays the received running score to the user. As input, it uses the running score sent in step 6. As output, it obtains a scoreboard that is visually presented to the user. In concrete terms, the terminal displays the scoreboard using a web browser or a dedicated application.
ステップ8: Step 8:
ユーザの感情の認識 Recognizing user emotions
サーバは、試合の得点状況に対するユーザの感情を認識する。入力として、ユーザのコメントやリアクションデータを使用する。出力として、認識された感情データを得る。具体的な動作として、サーバはIBM Watson Tone Analyzerを用いてユーザの感情を解析する。 The server recognizes the user's emotions regarding the score of the game. As input, it uses the user's comments and reaction data. As output, it obtains the recognized emotion data. Specifically, the server analyzes the user's emotions using IBM Watson Tone Analyzer.
ステップ9: Step 9:
スコア表示の調整 Score display adjustments
サーバは、認識した感情に応じてスコア表示の方法を調整する。入力として、ステップ8で得られた感情データとステップ5で生成されたランニングスコアを使用する。出力として、調整されたスコア表示データを得る。具体的な動作として、サーバはスコア表示の色やアニメーションを変更する。 The server adjusts the way the score is displayed depending on the recognized emotion. As input, it uses the emotion data obtained in step 8 and the running score generated in step 5. As output, it obtains the adjusted score display data. As a specific operation, the server changes the color and animation of the score display.
ステップ10: Step 10:
調整後のスコア表示の送信 Send adjusted score display
サーバは、調整後のスコア表示を端末に送信する。入力として、ステップ9で調整されたスコア表示データを使用する。出力として、調整後のスコア表示を端末に送信する。具体的な動作として、サーバはWebSocketやHTTPを用いてデータを送信する。 The server sends the adjusted score display to the terminal. As input, it uses the score display data adjusted in step 9. As output, it sends the adjusted score display to the terminal. Specifically, the server sends the data using WebSocket or HTTP.
ステップ11: Step 11:
調整後のスコア表示の表示 Displaying the adjusted score
端末は、調整後のスコア表示をユーザに表示する。入力として、ステップ10で送信された調整後のスコア表示データを使用する。出力として、ユーザに視覚的に提示される調整後のスコアボードを得る。具体的な動作として、端末はWebブラウザや専用アプリケーションを用いて調整後のスコアボードを表示する。
The terminal displays the adjusted score display to the user. As input, it uses the adjusted score display data sent in
ステップ12: Step 12:
全国のチームや選手のデータベース化 Database of teams and players nationwide
サーバは、全国のチームや選手の試合結果やスタッツ情報を収集し、データベースに保存する。入力として、各チームの公式サイトやスポーツデータ提供サービスから取得したデータを使用する。出力として、データベースに保存された試合結果やスタッツ情報を得る。具体的な動作として、サーバはデータを整理し、MySQLデータベースに格納する。 The server collects match results and stats information for teams and players across the country and stores it in a database. As input, it uses data obtained from each team's official website and sports data services. As output, it obtains match results and stats information stored in the database. Specifically, the server organizes the data and stores it in a MySQL database.
ステップ13: Step 13:
パフォーマンス分析 Performance analysis
サーバは、データベースに保存された情報を基に、選手のパフォーマンスを分析する。入力として、ステップ12で保存されたデータベース情報を使用する。出力として、選手の成績や能力を評価する分析結果を得る。具体的な動作として、サーバはPythonのPandasライブラリを用いてデータを処理し、選手の成績を評価する。
The server analyzes the players' performance based on the information stored in the database. As input, it uses the database information stored in
ステップ14: Step 14:
フィードバックの生成 Generating feedback
サーバは、分析結果を基に、選手育成のためのフィードバックを生成する。入力として、ステップ13で得られた分析結果を使用する。出力として、選手の強みや弱点を指摘し、改善点を提案するフィードバックレポートを得る。具体的な動作として、サーバはレポートを作成し、選手やコーチに提供する。 The server generates feedback for player development based on the analysis results. As input, it uses the analysis results obtained in step 13. As output, it obtains a feedback report that points out the player's strengths and weaknesses and suggests areas for improvement. In concrete terms, the server creates the report and provides it to the player and coach.
ステップ15: Step 15:
フィードバックの送信と表示 Submit and view feedback
サーバは、生成したフィードバックを端末に送信し、端末はそれをユーザに表示する。入力として、ステップ14で生成されたフィードバックレポートを使用する。出力として、ユーザに視覚的に提示されるフィードバックレポートを得る。具体的な動作として、サーバはメールや専用アプリケーションを通じてデータを送信し、端末はそれを表示する。
The server sends the generated feedback to the terminal, which displays it to the user. As input, it uses the feedback report generated in
(応用例3) (Application example 3)
次に、形態例3の応用例3について説明する。以下の説明では、データ処理装置12を「サーバ」と称し、ロボット414を「端末」と称する。
Next, application example 3 of embodiment example 3 will be described. In the following description, the
従来のバスケットボール試合の実況中継や解説は、人間の解説者に依存しており、リアルタイムでの得点状況やファウル状況の把握が困難であった。また、選手のパフォーマンス分析や育成に関するフィードバックも手動で行われており、効率が悪かった。さらに、ユーザの感情を反映したスコア表示ができず、視聴体験の向上が課題であった。 Traditionally, live broadcasts and commentary of basketball games relied on human commentators, making it difficult to grasp the score and foul situation in real time. In addition, analysis of player performance and feedback on development were also done manually, which was inefficient. Furthermore, it was not possible to display scores that reflected the user's emotions, making it difficult to improve the viewing experience.
応用例3におけるデータ処理装置12の特定処理部290による特定処理を、以下の各手段により実現する。
The specific processing by the
この発明では、サーバは、バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段と、ユーザの感情を認識し、その感情に応じたスコア表示を行う手段と、全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段と、を含む。これにより、試合の進行状況をリアルタイムで把握し、ユーザの感情を反映したスコア表示が可能となり、選手のパフォーマンス分析や育成の効率が向上することが可能となる。 In this invention, the server includes: a means for AI to provide commentary on live coverage of basketball games; a means for distributing commentary on youth and mini-basketball games nationwide with AI live coverage; a means for AI to automatically generate running scores that are created manually for each official and team; a means for analyzing game video and audio data in real time and automatically generating the score situation and foul situation; a means for recognizing the user's emotions and displaying the score according to the emotions; and a means for providing feedback for player performance analysis and development using a database of teams and players nationwide. This makes it possible to grasp the progress of the game in real time and display scores that reflect the user's emotions, improving the efficiency of player performance analysis and development.
「バスケットボールの試合の実況中継の解説をAIが行う手段」とは、人工知能を用いてバスケットボールの試合の進行状況やプレイ内容をリアルタイムで解説する技術である。 "A means for AI to provide commentary for live broadcasts of basketball games" refers to technology that uses artificial intelligence to provide real-time commentary on the progress and play of a basketball game.
「全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段」とは、全国の若年層やミニバスケットボールの試合を人工知能が解説し、その解説を含む実況中継を配信する技術である。 "A means of broadcasting commentary on youth and mini-basketball games from around the country with live coverage by AI" refers to a technology that uses artificial intelligence to provide commentary on youth and mini-basketball games from around the country, and broadcasts live coverage including that commentary.
「オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段」とは、試合の進行中に得点やファウルなどのスコアを人工知能が自動的に生成する技術である。 "A means of using AI to automatically generate running scores that are created manually by officials and for each team" refers to technology that uses artificial intelligence to automatically generate scores such as points and fouls as the game progresses.
「試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段」とは、試合中の映像と音声データをリアルタイムで解析し、得点やファウルの状況を自動的に生成する技術である。 "Means for analyzing game video and audio data in real time and automatically generating scoring and foul status" refers to technology that analyzes game video and audio data in real time and automatically generates scoring and foul status.
「ユーザの感情を認識し、その感情に応じたスコア表示を行う手段」とは、ユーザの表情や音声から感情を認識し、その感情に応じてスコア表示を調整する技術である。 "Means for recognizing the user's emotions and displaying a score according to those emotions" refers to technology that recognizes emotions from the user's facial expressions and voice, and adjusts the score display according to those emotions.
「全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段」とは、全国のバスケットボールチームや選手のデータベースを利用して、選手のパフォーマンスを分析し、育成のためのフィードバックを提供する技術である。 "Means of utilizing a database of teams and players nationwide to analyze player performance and provide feedback for development" refers to technology that utilizes a database of basketball teams and players nationwide to analyze player performance and provide feedback for development.
この発明を実施するためのシステムは、以下のハードウェアおよびソフトウェアを用いる。 The system for implementing this invention uses the following hardware and software.
使用するハードウェアおよびソフトウェア Hardware and software used
ハードウェア: スマートフォン、ヘッドマウントディスプレイ Hardware: Smartphone, head-mounted display
ソフトウェア: TensorFlow(AIモデル)、OpenCV(映像解析)、NLTK(自然言語処理)、Emotion API(感情認識) Software: TensorFlow (AI model), OpenCV (video analysis), NLTK (natural language processing), Emotion API (emotion recognition)
システムの構成 System configuration
サーバは、以下の手段を含む。 The server includes the following means:
1. バスケットボールの試合の実況中継の解説をAIが行う手段: 1. How AI can provide commentary for live broadcasts of basketball games:
サーバは、試合の映像および音声データをリアルタイムで受信し、TensorFlowを用いて試合の進行状況やプレイ内容を解析し、解説を生成する。 The server receives video and audio data from the match in real time, and uses TensorFlow to analyze the progress of the match and the content of the play, generating commentary.
2. 全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段: 2. How to broadcast live commentary of youth and mini-basketball games nationwide with AI:
サーバは、全国のユースやミニバスの試合映像を受信し、同様にAIを用いて解説を生成し、リアルタイムで配信する。 The server receives footage of youth and mini-basketball matches from across the country, and similarly uses AI to generate commentary, which it distributes in real time.
3. オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段: 3. A way to use AI to automatically generate running scores that are currently created manually by officials and teams:
サーバは、試合の映像および音声データを解析し、得点状況やファウル状況を自動的に生成する。 The server analyzes the video and audio data of the match and automatically generates the score and foul situations.
4. 試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段: 4. A method for analyzing game video and audio data in real time and automatically generating scoring and foul situations:
サーバは、OpenCVを使用して映像データをフレームごとに分割し、重要なシーンを抽出する。音声データはNLTKを使用してテキストに変換し、重要なキーワードを抽出する。 The server uses OpenCV to split the video data into frames and extract important scenes. The audio data is converted to text using NLTK and important keywords are extracted.
5. ユーザの感情を認識し、その感情に応じたスコア表示を行う手段: 5. How to recognize user emotions and display a score according to those emotions:
サーバは、Emotion APIを使用してユーザの表情や音声から感情を認識し、その感情に応じてスコア表示を調整する。 The server uses the Emotion API to recognize emotions from the user's facial expressions and voice, and adjusts the score display accordingly.
6. 全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段: 6. Using a national team and player database to analyze player performance and provide feedback for development:
サーバは、全国のチームや選手のデータベースを参照し、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。 The server accesses a database of teams and players from across the country, displays analysis of player performance, and provides feedback for the next match.
具体例 Specific examples
試合中にスマートフォンを使用しているユーザが得点シーンを見た際、サーバはAIを用いてそのシーンを解析し、得点状況をリアルタイムで表示する。ユーザが喜びの表情を見せた場合、サーバは感情エンジンを使用してそれを認識し、スコア表示をより華やかにする。また、試合終了後には、サーバは全国のデータベースを参照して、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。 When a user using a smartphone during a match sees a goal being scored, the server uses AI to analyze the scene and display the score in real time. If the user shows an expression of joy, the server will recognize it using an emotion engine and make the score display more colorful. After the match ends, the server also refers to a nationwide database to display an analysis of the players' performance and provide feedback for the next match.
プロンプト文の例 Example of a prompt
「試合の映像と音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成するAIモデルを使用して、ランニングスコアを表示してください。また、ユーザの感情を認識し、その感情に応じたスコア表示を行ってください。さらに、全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供してください。」 "Please analyze the video and audio data of the game in real time, and use an AI model that automatically generates the score and foul situation to display a running score. Also, please recognize the user's emotions and display the score according to those emotions. Furthermore, please use a database of teams and players from all over the country to provide feedback for analyzing player performance and development."
応用例3における特定処理の流れについて図22を用いて説明する。 The flow of the specific processing in application example 3 is explained using Figure 22.
ステップ1: Step 1:
試合の映像および音声データの取得 Acquisition of game video and audio data
サーバは、スマートフォンやヘッドマウントディスプレイから試合の映像および音声データをリアルタイムで受信する。入力は試合の映像および音声データであり、出力は解析のための前処理済みデータである。具体的な動作として、サーバはデータストリームを受信し、フレームごとに映像データを分割し、音声データをテキストに変換する。 The server receives video and audio data of the game in real time from a smartphone or head-mounted display. The input is the video and audio data of the game, and the output is preprocessed data for analysis. In concrete terms, the server receives the data stream, splits the video data into frames, and converts the audio data into text.
ステップ2: Step 2:
データの前処理 Data preprocessing
サーバは、OpenCVを使用して映像データをフレームごとに分割し、重要なシーンを抽出する。また、音声データはNLTKを使用してテキストに変換し、重要なキーワード(得点、ファウルなど)を抽出する。入力は前処理済みの映像および音声データであり、出力は解析のための重要シーンおよびキーワードである。具体的な動作として、サーバは映像フレームを解析し、得点シーンやファウルシーンを特定する。 The server uses OpenCV to split the video data into frames and extract important scenes. It also uses NLTK to convert the audio data into text and extracts important keywords (e.g., goals, fouls). The input is the preprocessed video and audio data, and the output is important scenes and keywords for analysis. Specifically, the server analyzes video frames and identifies scoring and foul scenes.
ステップ3: Step 3:
AIモデルによる解析 Analysis using AI models
サーバは、TensorFlowを使用して、映像および音声データから得点状況やファウル状況を解析する。入力は重要シーンおよびキーワードであり、出力は得点状況やファウル状況のデータである。具体的な動作として、サーバはAIモデルを実行し、各シーンの得点やファウルを自動的に判定する。 The server uses TensorFlow to analyze the scoring and foul situations from video and audio data. The input is important scenes and keywords, and the output is data on the scoring and foul situations. In concrete terms, the server runs an AI model and automatically determines the scores and fouls for each scene.
ステップ4: Step 4:
ランニングスコアの自動生成 Automatic generation of running scores
サーバは、解析結果をもとにランニングスコアを自動生成する。入力は得点状況やファウル状況のデータであり、出力はリアルタイムのランニングスコアである。具体的な動作として、サーバは得点やファウルの情報を集計し、スコアボードを更新する。 The server automatically generates a running score based on the analysis results. The input is data on the scoring and foul situations, and the output is a real-time running score. Specifically, the server tallys up the score and foul information and updates the scoreboard.
ステップ5: Step 5:
感情認識 Emotion recognition
サーバは、Emotion APIを使用して、ユーザの表情や音声から感情を認識する。入力はユーザの表情データおよび音声データであり、出力は認識された感情データである。具体的な動作として、サーバはカメラやマイクからユーザのデータを取得し、感情を解析する。 The server uses the Emotion API to recognize emotions from the user's facial expressions and voice. The input is the user's facial expression data and voice data, and the output is the recognized emotion data. In concrete terms, the server obtains user data from the camera and microphone and analyzes emotions.
ステップ6: Step 6:
感情に応じたスコア表示 Score display based on emotions
サーバは、認識された感情に応じてスコア表示を調整する。入力は感情データおよびランニングスコアであり、出力は感情に応じたスコア表示である。具体的な動作として、サーバはユーザの感情に基づいてスコア表示のデザインやエフェクトを変更する。 The server adjusts the score display according to the recognized emotion. The input is emotion data and the running score, and the output is a score display according to the emotion. In concrete terms, the server changes the design and effects of the score display based on the user's emotion.
ステップ7: Step 7:
データベースの活用 Utilizing the database
サーバは、全国のチームや選手のデータベースを参照し、選手のパフォーマンス分析結果を表示し、次回の試合に向けたフィードバックを提供する。入力は試合結果および選手データであり、出力はパフォーマンス分析結果およびフィードバックである。具体的な動作として、サーバはデータベースから関連情報を取得し、解析結果を表示する。 The server refers to a database of teams and players from around the country, displays the results of player performance analysis, and provides feedback for the next match. The input is the match results and player data, and the output is performance analysis results and feedback. In concrete terms, the server retrieves relevant information from the database and displays the analysis results.
特定処理部290は、特定処理の結果をロボット414に送信する。ロボット414では、制御部46Aが、スピーカ240及び制御対象443に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
The
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)等の生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、及び画像を示す画像データ等の推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データ及びテキストデータ等のデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、及び/又は要約等を指す。
The
生成AIの他の例としては、Gemini(インターネット検索<URL: https://gemini.google.com/?hl=ja>)が挙げられる。 Another example of generative AI is Gemini (Internet search <URL: https://gemini.google.com/?hl=ja>).
上記実施形態では、データ処理装置12によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、ロボット414によって特定処理が行われるようにしてもよい。
In the above embodiment, an example was given in which the specific processing is performed by the
なお、感情エンジンとしての感情特定モデル59は、特定のマッピングに従い、ユーザの感情を決定してよい。具体的には、感情特定モデル59は、特定のマッピングである感情マップ(図9参照)に従い、ユーザの感情を決定してよい。また、感情特定モデル59は、同様に、ロボットの感情を決定し、特定処理部290は、ロボットの感情を用いた特定処理を行うようにしてもよい。
The emotion identification model 59, which serves as an emotion engine, may determine the emotion of the user according to a specific mapping. Specifically, the emotion identification model 59 may determine the emotion of the user according to an emotion map (see FIG. 9), which is a specific mapping. Similarly, the emotion identification model 59 may determine the emotion of the robot, and the
図9は、複数の感情がマッピングされる感情マップ400を示す図である。感情マップ400において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。同心円の上方向及び下方向には、概して脳内で起きる反応から生成され、かつ、状況判断で誘導される感情が配置されている。また、同心円の上側には、「快」の感情が配置され、下側には、「不快」の感情が配置されている。このように、感情マップ400では、感情が生まれる構造に基づいて複数の感情がマッピングされており、同時に生じやすい感情が、近くにマッピングされている。
9 is a diagram showing an
これらの感情は、感情マップ400の3時の方向に分布しており、普段は安心と不安のあたりを行き来する。感情マップ400の右半分では、内部的な感覚よりも状況認識の方が優位に立つため、落ち着いた印象になる。
These emotions are distributed in the three o'clock direction of
感情マップ400の内側は心の中、感情マップ400の外側は行動を表すため、感情マップ400の外側に行くほど、感情が目に見える(行動に表れる)ようになる。
The inside of
ここで、人の感情は、姿勢や血糖値のような様々なバランスを基礎としており、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示す。ロボットや自動車やバイク等においても、姿勢やバッテリー残量のような様々なバランスを基礎として、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示すように感情を作ることができる。感情マップは、例えば、光吉博士の感情地図(音声感情認識及び情動の脳生理信号分析システムに関する研究、徳島大学、博士論文:https://ci.nii.ac.jp/naid/500000375379)に基づいて生成されてよい。感情地図の左半分には、感覚が優位にたつ「反応」と呼ばれる領域に属する感情が並ぶ。また、感情地図の右半分には、状況認識が優位にたつ「状況」と呼ばれる領域に属する感情が並ぶ。 Here, human emotions are based on various balances such as posture and blood sugar level, and when these balances are far from the ideal, it indicates an unpleasant state, and when they are close to the ideal, it indicates a pleasant state. Emotions can also be created for robots, cars, motorcycles, etc., based on various balances such as posture and remaining battery power, so that when these balances are far from the ideal, it indicates an unpleasant state, and when they are close to the ideal, it indicates a pleasant state. The emotion map may be generated, for example, based on the emotion map of Dr. Mitsuyoshi (Research on speech emotion recognition and emotion brain physiological signal analysis system, Tokushima University, doctoral dissertation: https://ci.nii.ac.jp/naid/500000375379). The left half of the emotion map is lined with emotions that belong to an area called "reaction" where sensation is dominant. The right half of the emotion map is lined with emotions that belong to an area called "situation" where situation recognition is dominant.
感情マップでは学習を促す感情が2つ定義される。1つは、状況側にあるネガティブな「懺悔」や「反省」の真ん中周辺の感情である。つまり、「もう2度とこんな想いはしたくない」「もう叱られたくない」というネガティブな感情がロボットに生じたときである。もう1つは、反応側にあるポジティブな「欲」のあたりの感情である。つまり、「もっと欲しい」「もっと知りたい」というポジティブな気持ちのときである。 The emotion map defines two emotions that encourage learning. The first is the negative emotion around the middle of "repentance" or "remorse" on the situation side. In other words, this is when the robot experiences negative emotions such as "I never want to feel this way again" or "I don't want to be scolded again." The other is the positive emotion around "desire" on the response side. In other words, this is when the robot has positive feelings such as "I want more" or "I want to know more."
感情特定モデル59は、ユーザ入力を、予め学習されたニューラルネットワークに入力し、感情マップ400に示す各感情を示す感情値を取得し、ユーザの感情を決定する。このニューラルネットワークは、ユーザ入力と、感情マップ400に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。また、このニューラルネットワークは、図10に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。図10では、「安心」、「安穏」、「心強い」という複数の感情が、近い感情値となる例を示している。
The emotion identification model 59 inputs user input to a pre-trained neural network, obtains emotion values indicating each emotion shown in the
上記実施形態では、1台のコンピュータ22によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、コンピュータ22を含めた複数のコンピュータによる特定処理に対する分散処理が行われるようにしてもよい。
In the above embodiment, an example was given in which a specific process is performed by one
上記実施形態では、ストレージ32に特定処理プログラム56が格納されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、特定処理プログラム56がUSB(Universal Serial Bus)メモリなどの可搬型のコンピュータ読み取り可能な非一時的格納媒体に格納されていてもよい。非一時的格納媒体に格納されている特定処理プログラム56は、データ処理装置12のコンピュータ22にインストールされる。プロセッサ28は、特定処理プログラム56に従って特定処理を実行する。
In the above embodiment, an example has been described in which the
また、ネットワーク54を介してデータ処理装置12に接続されるサーバ等の格納装置に特定処理プログラム56を格納させておき、データ処理装置12の要求に応じて特定処理プログラム56がダウンロードされ、コンピュータ22にインストールされるようにしてもよい。
The
なお、ネットワーク54を介してデータ処理装置12に接続されるサーバ等の格納装置に特定処理プログラム56の全てを格納させておいたり、ストレージ32に特定処理プログラム56の全てを記憶させたりしておく必要はなく、特定処理プログラム56の一部を格納させておいてもよい。
It is not necessary to store all of the
特定処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、特定処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA(Field-Programmable Gate Array)、PLD(Programmable Logic Device)、又はASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで特定処理を実行する。 The various processors listed below can be used as hardware resources for executing specific processes. Examples of processors include a CPU, which is a general-purpose processor that functions as a hardware resource for executing specific processes by executing software, i.e., a program. Examples of processors include dedicated electrical circuits, such as FPGAs (Field-Programmable Gate Arrays), PLDs (Programmable Logic Devices), or ASICs (Application Specific Integrated Circuits), which are processors with a circuit configuration designed specifically to execute specific processes. All of these processors have built-in or connected memory, and all of these processors execute specific processes by using the memory.
特定処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、特定処理を実行するハードウェア資源は1つのプロセッサであってもよい。 The hardware resource that executes the specific process may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same or different types (e.g., a combination of multiple FPGAs, or a combination of a CPU and an FPGA). The hardware resource that executes the specific process may also be a single processor.
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、特定処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System-on-a-chip)などに代表されるように、特定処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、特定処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。 As an example of a configuration using a single processor, first, there is a configuration in which one processor is configured by combining one or more CPUs with software, and this processor functions as a hardware resource that executes a specific process. Secondly, there is a configuration in which a processor is used that realizes the functions of the entire system, including multiple hardware resources that execute a specific process, on a single IC chip, as typified by SoC (System-on-a-chip). In this way, a specific process is realized using one or more of the various processors mentioned above as hardware resources.
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の特定処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。 More specifically, the hardware structure of these various processors can be an electric circuit that combines circuit elements such as semiconductor elements. The specific processing described above is merely an example. It goes without saying that unnecessary steps can be deleted, new steps can be added, and the processing order can be changed without departing from the spirit of the invention.
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。 The above description and illustrations are a detailed explanation of the parts related to the technology of the present disclosure, and are merely an example of the technology of the present disclosure. For example, the above explanation of the configuration, functions, actions, and effects is an explanation of an example of the configuration, functions, actions, and effects of the parts related to the technology of the present disclosure. Therefore, it goes without saying that unnecessary parts may be deleted, new elements may be added, or replacements may be made to the above description and illustrations, within the scope of the gist of the technology of the present disclosure. Also, in order to avoid confusion and to facilitate understanding of the parts related to the technology of the present disclosure, the above description and illustrations omit explanations of technical common knowledge that do not require particular explanation to enable the implementation of the technology of the present disclosure.
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All publications, patent applications, and technical standards described in this specification are incorporated by reference into this specification to the same extent as if each individual publication, patent application, and technical standard was specifically and individually indicated to be incorporated by reference.
以上の実施形態に関し、更に以下を開示する。 The following is further disclosed regarding the above embodiment.
(請求項1) (Claim 1)
バスケットボールの試合の実況中継の解説をAIが行う手段と、全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段を含むシステム。 A system that includes a means for AI to provide commentary for live broadcasts of basketball games, a means for AI to provide commentary for youth and mini-basketball games across the country with live broadcasts, and a means for AI to automatically generate running scores that are currently created manually by officials and for each team.
(請求項2) (Claim 2)
請求項1記載のシステムにおいて、全国のチームや選手のデータベース化を行う手段を更に含むシステム。 The system according to claim 1, further comprising a means for creating a database of teams and players nationwide.
(請求項3) (Claim 3)
請求項2記載のシステムにおいて、データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を更に含むシステム。 The system according to claim 2 further includes a means for utilizing the databased information to visualize and develop registered basketball players in Japan.
(請求項4) (Claim 4)
請求項1記載のシステムにおいて、ユーザの感情を認識する感情エンジンを更に含むシステム。 The system of claim 1, further comprising an emotion engine that recognizes the user's emotions.
(請求項5) (Claim 5)
請求項2記載のシステムにおいて、ユーザの感情を認識する感情エンジンを更に含むシステム。 The system of claim 2 further includes an emotion engine that recognizes the user's emotions.
(請求項6) (Claim 6)
請求項3記載のシステムにおいて、ユーザの感情を認識する感情エンジンを更に含むシステム。 The system of claim 3 further includes an emotion engine that recognizes the user's emotions.
「実施例1」
(請求項1)
試合の映像データと音声データをリアルタイムで収集する手段と、
収集した映像データと音声データを解析する手段と、
解析結果に基づいて試合の解説を生成する手段と、
生成された解説を実況中継とともに配信する手段と、
バスケットボールの試合の実況中継の解説をAIが行う手段と、
全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段を含むシステム。
"Example 1"
(Claim 1)
A means for collecting video and audio data of the match in real time;
A means for analyzing the collected video and audio data;
A means for generating a match commentary based on the analysis results;
A means for distributing the generated commentary together with a live broadcast;
A way for AI to provide commentary on live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide with AI,
A system that includes a means of using AI to automatically generate running scores that are currently created manually by officials and each team.
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the database information for visualizing and developing registered basketball players in Japan.
「応用例1」
(請求項1)
バスケットボールの試合の実況中継の解説をAIが行う手段と、
全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、
試合の映像データを解析し、リアルタイムで解説を生成する手段と、
試合終了後に重要なシーンを自動で抽出し、ハイライト動画を生成する手段と、
選手の動きやパフォーマンスを解析し、詳細な統計情報を提供する手段と、
ユーザーが特定の選手やプレイについて質問すると、AIが解説を提供する手段と、
を含むシステム。
"Application example 1"
(Claim 1)
A way for AI to provide commentary on live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide with AI,
A means to automatically generate running scores using AI, which are currently created by officials and each team manually,
A means to analyze game video data and generate commentary in real time;
A means to automatically extract important scenes after the game ends and generate highlight videos,
A means to analyze player movements and performance and provide detailed statistics,
Users can ask questions about specific players or plays and the AI will provide commentary.
A system including:
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the database information for visualizing and developing registered basketball players in Japan.
「実施例2」
(請求項1)
全国各地で行われる試合の映像や音声データを収集する手段と、
収集したデータをクラウドストレージに保存する手段と、
保存されたデータを生成AIモデルに送信し、試合の解説を生成する手段と、
生成された解説を試合映像と同期させる手段と、
解説付きの試合映像をストリーミング配信する手段と、
ユーザが視聴するためのインターフェースを提供する手段と、
サーバからストリーミング配信される解説付き試合映像を受信する手段と、
受信した映像をユーザに表示する手段を含むシステム。
"Example 2"
(Claim 1)
A means to collect video and audio data from matches held across the country,
A means for storing collected data in cloud storage;
A means for transmitting the stored data to a generative AI model to generate match commentary; and
a means for synchronizing the generated commentary with game footage; and
A means to stream game footage with commentary;
means for providing an interface for a user to view;
A means for receiving game video with commentary streamed from a server;
The system includes a means for displaying the received video to a user.
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を登録選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the databased information for visualizing and developing registered players.
「応用例2」
(請求項1)
バスケットボールの試合の実況中継の解説をAIが行う手段と、
全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、
試合の映像や音声データを収集し、AIが解析して解説を生成する手段と、
スマートフォンにインストールされるアプリケーションを通じて、リアルタイムで試合を配信し、AIによる解説を提供する手段と、
試合のハイライトやリプレイ機能を提供する手段と、
ユーザーが好きなチームや選手をフォローできる機能を提供する手段と、
試合後の統計データや分析レポートを提供する手段を含むシステム。
"Application Example 2"
(Claim 1)
A way for AI to provide commentary on live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide with AI,
A means to automatically generate running scores using AI, which are currently created by officials and each team manually,
A means to collect video and audio data from the match and have AI analyze it to generate commentary,
A means to broadcast matches in real time and provide AI commentary through an application installed on smartphones,
A means to provide match highlights and replay functionality;
A means to provide users with the ability to follow their favorite teams and players;
The system includes a means for providing post-match statistical and analytical reports.
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the database information for visualizing and developing registered basketball players in Japan.
「実施例3」
(請求項1)
試合の映像データと音声データを受信する手段と、
受信した映像データを解析する手段と、
受信した音声データを解析する手段と、
解析結果から得点状況やファウル状況を抽出する手段と、
抽出した情報を基にランニングスコアを生成する手段と、
生成されたランニングスコアをリアルタイムで更新し、端末に送信する手段と、
端末に送信されたランニングスコアを表示する手段と、
を含むシステム。
"Example 3"
(Claim 1)
A means for receiving video data and audio data of a match;
A means for analyzing the received video data;
means for analyzing the received voice data;
A means for extracting the scoring situation and foul situation from the analysis results,
A means for generating a running score based on the extracted information;
A means for updating the generated running score in real time and transmitting it to the terminal;
A means for displaying the running score transmitted to the terminal;
A system including:
(請求項2)
全国のチームや選手の試合結果やスタッツなどの情報を収集する手段と、
収集した情報をデータベース化する手段と、
データベース化された情報を解析し、選手のパフォーマンスを評価する手段と、
解析結果を基に選手の育成のためのフィードバックを生成する手段と、
生成されたフィードバックを端末に送信する手段と、
端末に送信されたフィードバックを表示する手段と、
を含む請求項1記載のシステム。
(Claim 2)
A means to collect information such as game results and stats of teams and players nationwide,
A means for compiling the collected information into a database;
A means of analyzing the databased information and evaluating the performance of athletes;
A means for generating feedback for player development based on the analysis results;
means for transmitting the generated feedback to the terminal;
means for displaying the feedback sent to the terminal;
The system of claim 1 , comprising:
(請求項3)
データベース化された情報を日本の登録バスケットボール選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the databased information for visualizing and developing registered basketball players in Japan.
「応用例3」
(請求項1)
バスケットボールの試合の実況中継の解説をAIが行う手段と、
全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、
工場内のカメラ映像や音声データを解析し、生産状況や異常発生をリアルタイムで検出し、スコアリングする手段と、
過去の生産データをデータベース化し、効率化のためのフィードバックを提供する手段を含むシステム。
"Application example 3"
(Claim 1)
A way for AI to provide commentary on live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide with AI,
A means to automatically generate running scores using AI, which are currently created by officials and each team manually,
A method to analyze camera footage and audio data in the factory to detect and score production status and abnormalities in real time,
A system that includes a means of compiling past production data into a database and providing feedback to improve efficiency.
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the database information for visualizing and developing registered basketball players in Japan.
「感情エンジンを組み合わせた場合の実施例1」
(請求項1)
バスケットボールの試合の実況中継の解説を人工知能が行う手段と、
全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、
試合の映像データを解析する手段と、
試合の音声データを解析する手段と、
ユーザの感情データを受信し解析する手段と、
解析結果に基づいて解説を自動生成し、ユーザの感情に応じて解説の内容やトーンを調整する手段と、
調整後の解説を実況中継とともに配信する手段を含むシステム。
"Example 1 of combining emotion engines"
(Claim 1)
A way for artificial intelligence to provide commentary for live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide using artificial intelligence,
A method to automatically generate running scores using artificial intelligence, which are currently created by officials and teams.
A means of analyzing game video data;
A means for analyzing audio data of the match;
A means for receiving and analyzing emotion data of a user;
A means for automatically generating commentary based on the analysis results and adjusting the content and tone of the commentary according to the user's emotions;
The system includes a means for delivering the adjusted commentary along with the play-by-play coverage.
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を登録バスケットボール選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the databased information for visualizing and developing registered basketball players.
「感情エンジンを組み合わせた場合の応用例1」
(請求項1)
バスケットボールの試合の実況中継の解説をAIが行う手段と、
全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、
ユーザの感情を認識する感情エンジンを用いて解説の内容やトーンを調整する手段と、
生成AIモデルを用いて解説を生成する手段と、
プロンプト文を入力して解説を生成する手段と、
を含むシステム。
"Application example 1 when combining emotion engines"
(Claim 1)
A way for AI to provide commentary on live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide with AI,
A means to automatically generate running scores using AI, which are currently created by officials and each team manually,
A means for adjusting the content and tone of the commentary using an emotion engine that recognizes the user's emotions;
A means for generating commentary using a generative AI model;
A means for inputting a prompt sentence and generating a commentary;
A system including:
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the database information for visualizing and developing registered basketball players in Japan.
「感情エンジンを組み合わせた場合の実施例2」
(請求項1)
バスケットボールの試合の実況中継の解説を人工知能が行う手段と、
全国のユースやミニバスの試合解説も人工知能による実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアを人工知能自動生成する手段と、
試合映像と音声データを収集する手段と、
収集したデータを解析し解説を生成する手段と、
視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、
生成された解説を試合映像とともに配信する手段を含むシステム。
"Example 2 when combining emotion engines"
(Claim 1)
A way for artificial intelligence to provide commentary for live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide using artificial intelligence,
A method to automatically generate running scores using artificial intelligence, which are currently created by officials and teams.
A means for collecting game video and audio data;
A means for analyzing the collected data and generating commentary;
A means of recognizing audience emotions and adjusting the content and tone of commentary accordingly;
The system includes a means for distributing the generated commentary together with the game footage.
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を国内の登録バスケットボール選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the databased information for visualizing and developing registered basketball players in the country.
「感情エンジンを組み合わせた場合の応用例2」
(請求項1)
バスケットボールの試合の実況中継の解説をAIが行う手段と、
全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、
視聴者の感情を認識し、その感情に応じて解説の内容やトーンを調整する手段と、
試合のハイライトやリプレイ機能を提供する手段と、
視聴者同士のチャット機能を提供する手段と、
を含むシステム。
"Application example 2 when combining emotion engines"
(Claim 1)
A way for AI to provide commentary on live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide with AI,
A means to automatically generate running scores using AI, which are currently created by officials and each team manually,
A means of recognizing audience emotions and adjusting the content and tone of commentary accordingly;
A means to provide match highlights and replay functionality;
A means for providing a chat function between viewers;
A system including:
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the database information for visualizing and developing registered basketball players in Japan.
「感情エンジンを組み合わせた場合の実施例3」
(請求項1)
試合の映像データと音声データを受信する手段と、
受信した映像データを解析する手段と、
受信した音声データを解析する手段と、
解析結果から得点状況とファウル状況を抽出する手段と、
抽出した情報を基にランニングスコアを生成する手段と、
生成したランニングスコアをリアルタイムで更新し送信する手段と、
送信されたランニングスコアを表示する手段と、
ユーザの感情を認識し、スコア表示を調整する手段を含むシステム。
"Example 3 when combining emotion engines"
(Claim 1)
A means for receiving video data and audio data of a match;
A means for analyzing the received video data;
means for analyzing the received voice data;
A means for extracting a score situation and a foul situation from the analysis result;
A means for generating a running score based on the extracted information;
A means for updating and transmitting the generated running score in real time;
A means for displaying the submitted running score;
The system includes a means for recognizing a user's emotions and adjusting the score display.
(請求項2)
全国のチームや選手の試合結果やスタッツ情報を収集する手段と、
収集した情報をデータベースに保存する手段と、
データベースに保存された情報を基に選手のパフォーマンスを分析する手段と、
分析結果を基に選手育成のためのフィードバックを生成する手段と、
生成したフィードバックを送信し表示する手段を更に含む請求項1記載のシステム。
(Claim 2)
A means to collect game results and stats information for teams and players nationwide,
A means for storing the collected information in a database; and
A means of analyzing the performance of players based on the information stored in the database;
A means for generating feedback for player development based on the analysis results;
The system of claim 1 further comprising means for transmitting and displaying the generated feedback.
(請求項3)
データベース化された情報を選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the databased information for visualizing and developing players.
「感情エンジンを組み合わせた場合の応用例3」
(請求項1)
バスケットボールの試合の実況中継の解説をAIが行う手段と、
全国のユースやミニバスの試合解説もAIによる実況中継付きで配信する手段と、
オフィシャルやチーム毎に人が作成しているランニングスコアをAI自動生成する手段と、
試合の映像および音声データをリアルタイムで解析し、得点状況やファウル状況を自動生成する手段と、
ユーザの感情を認識し、その感情に応じたスコア表示を行う手段と、
全国のチームや選手のデータベースを活用して、選手のパフォーマンス分析や育成のためのフィードバックを提供する手段と、
を含むシステム。
"Application example 3 when combining emotion engines"
(Claim 1)
A way for AI to provide commentary on live broadcasts of basketball games,
A method to broadcast live commentary of youth and mini-basketball games nationwide with AI,
A means to automatically generate running scores using AI, which are currently created by officials and each team manually,
A method for analyzing video and audio data of a match in real time and automatically generating the score and foul situation.
A means for recognizing a user's emotion and displaying a score according to the emotion;
A means to utilize a database of teams and players across the country to provide feedback for player performance analysis and development;
A system including:
(請求項2)
全国のチームや選手のデータベース化を行う手段を更に含む請求項1記載のシステム。
(Claim 2)
2. The system according to claim 1, further comprising means for creating a database of teams and players nationwide.
(請求項3)
データベース化された情報を日本の登録バスケ選手の見える化、育成に活用する手段を更に含む請求項1記載のシステム。
(Claim 3)
2. The system according to claim 1, further comprising a means for utilizing the database information for visualizing and developing registered basketball players in Japan.
10、210、310、410 データ処理システム
12 データ処理装置
14 スマートデバイス
214 スマート眼鏡
314 ヘッドセット型端末
414 ロボット
10, 210, 310, 410
Claims (3)
受信した前記映像データを解析する手段と、
受信した前記音声データを解析する手段と、
前記映像データと前記音声データとの解析結果から得点状況とファウル状況を抽出する手段と、
抽出した前記得点状況と前記ファウル状況とを基にランニングスコアを生成する手段と、
生成した前記ランニングスコアをリアルタイムで更新し送信する手段と、
送信された前記ランニングスコアを表示する手段と、
ユーザの感情を認識し、前記ユーザの感情を基に前記ランニングスコアの表示を調整する手段と、
を含むシステム。 A means for receiving video data and audio data of a match;
means for analyzing the received video data;
means for analyzing the received voice data;
means for extracting a score situation and a foul situation from an analysis result of the video data and the audio data;
a means for generating a running score based on the extracted score situation and foul situation;
A means for updating and transmitting the generated running score in real time;
A means for displaying the transmitted running score;
a means for recognizing a user's emotion and adjusting the display of the running score based on the user's emotion;
A system including:
収集した前記試合結果及び前記スタッツ情報をデータベースに保存する手段と、
前記データベースに保存された情報を基に選手のパフォーマンスを分析する手段と、
分析結果を基に選手育成のためのフィードバックを生成する手段と、
生成したフィードバックを送信し表示する手段と、
を更に含む請求項1記載のシステム。 A means for collecting game results and stats information for teams and players nationwide;
A means for storing the collected match results and stats information in a database;
A means for analyzing player performance based on the information stored in said database;
A means for generating feedback for player development based on the analysis results;
a means for transmitting and displaying the generated feedback;
The system of claim 1 further comprising:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023151218 | 2023-09-19 | ||
JP2023151218 | 2023-09-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2025044237A true JP2025044237A (en) | 2025-04-01 |
Family
ID=95205133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024161820A Pending JP2025044237A (en) | 2023-09-19 | 2024-09-19 | system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2025044237A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013124856A1 (en) * | 2012-02-23 | 2013-08-29 | Playsight Interactive Ltd. | A smart-court system and method for providing real-time debriefing and training services of sport games |
WO2016098415A1 (en) * | 2014-12-18 | 2016-06-23 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020107196A (en) * | 2018-12-28 | 2020-07-09 | キヤノン株式会社 | Image processing device or image processing server |
JP2021018551A (en) * | 2019-07-19 | 2021-02-15 | 株式会社Jvcケンウッド | Information apparatus, automatic setting method, and automatic setting program |
WO2022086202A1 (en) * | 2020-10-22 | 2022-04-28 | 주식회사 픽셀스코프 | Device and method for determining image for sports broadcasting, and recording medium in which command is recorded |
WO2022249522A1 (en) * | 2021-05-24 | 2022-12-01 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing system |
-
2024
- 2024-09-19 JP JP2024161820A patent/JP2025044237A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013124856A1 (en) * | 2012-02-23 | 2013-08-29 | Playsight Interactive Ltd. | A smart-court system and method for providing real-time debriefing and training services of sport games |
WO2016098415A1 (en) * | 2014-12-18 | 2016-06-23 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020107196A (en) * | 2018-12-28 | 2020-07-09 | キヤノン株式会社 | Image processing device or image processing server |
JP2021018551A (en) * | 2019-07-19 | 2021-02-15 | 株式会社Jvcケンウッド | Information apparatus, automatic setting method, and automatic setting program |
WO2022086202A1 (en) * | 2020-10-22 | 2022-04-28 | 주식회사 픽셀스코프 | Device and method for determining image for sports broadcasting, and recording medium in which command is recorded |
WO2022249522A1 (en) * | 2021-05-24 | 2022-12-01 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10741215B1 (en) | Automatic generation of video playback effects | |
US10987596B2 (en) | Spectator audio analysis in online gaming environments | |
CN111936036B (en) | Using biometric sensor data to detect neurological status to guide in-situ entertainment | |
US11178456B2 (en) | Video distribution system, video distribution method, and storage medium storing video distribution program | |
US9898850B2 (en) | Support and complement device, support and complement method, and recording medium for specifying character motion or animation | |
US10293260B1 (en) | Player audio analysis in online gaming environments | |
JP2022534708A (en) | A Multimodal Model for Dynamically Reacting Virtual Characters | |
CN110418095B (en) | Virtual scene processing method and device, electronic equipment and storage medium | |
US12347194B2 (en) | Automated generation of haptic effects based on haptics data | |
TWI643155B (en) | Cognitive training system | |
JP7602070B2 (en) | Simulating crowd noise at live events with sentiment analysis of distributed inputs | |
CN105955490A (en) | An information processing method, device and mobile terminal based on augmented reality | |
JP7416903B2 (en) | Video distribution system, video distribution method, and video distribution program | |
CN110427099A (en) | Information recording method, device, system, electronic equipment and information acquisition method | |
CN110677685A (en) | Network live broadcast display method and device | |
CN112752159A (en) | Interaction method and related device | |
JP2025044237A (en) | system | |
JP2025049065A (en) | system | |
JP2025059092A (en) | system | |
US12307018B2 (en) | Hand gesture magnitude analysis and gearing for communicating context-correct communication | |
JP2025049189A (en) | system | |
US20240395158A1 (en) | Method and system for managing a virtual classroom | |
CN116843805B (en) | Method, device, equipment and medium for generating virtual image containing behaviors | |
US20240386636A1 (en) | Imaging apparatus system and server apparatus | |
JP2025048429A (en) | system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250527 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250724 |