[go: up one dir, main page]

JP7490188B2 - Information processing system, information processing method, and computer program - Google Patents

Information processing system, information processing method, and computer program Download PDF

Info

Publication number
JP7490188B2
JP7490188B2 JP2020047623A JP2020047623A JP7490188B2 JP 7490188 B2 JP7490188 B2 JP 7490188B2 JP 2020047623 A JP2020047623 A JP 2020047623A JP 2020047623 A JP2020047623 A JP 2020047623A JP 7490188 B2 JP7490188 B2 JP 7490188B2
Authority
JP
Japan
Prior art keywords
avatar
video
information processing
user terminal
viewing user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020047623A
Other languages
Japanese (ja)
Other versions
JP2021149407A (en
Inventor
彩 倉淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Holdings Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2020047623A priority Critical patent/JP7490188B2/en
Publication of JP2021149407A publication Critical patent/JP2021149407A/en
Priority to JP2024075021A priority patent/JP7655498B2/en
Application granted granted Critical
Publication of JP7490188B2 publication Critical patent/JP7490188B2/en
Priority to JP2025038838A priority patent/JP2025078866A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Description

特許法第30条第2項適用 ・2019年11月18日 Twitter(https://twitter.com/WFLE_REALITY/status/1196337244400807937) ・2019年11月20日 Twitter(https://twitter.com/WFLE_REALITY/status/1197031819532591104) ・2019年11月18日 HP(https://reality-notice.wrightflyer.net/9546c7b58797c65dc584344222feb8e0cb191523.html?t=1574050689) ・2019年11月20日 HP(https://reality-notice.wrightflyer.net/a50c0ef3803bad4c5bc391cc1bb82efde5fb3f5e.html?t=1574050690) ・2019年11月20日-2020年4月30日 (公式サイト)https://le.wrightflyer.net/reality/ (iOS用ダウンロードサイト)https://itunes.apple.com/us/app/reality/id1404176564?l=ja&ls=1&mt=8 (Android用ダウンロードサイト)https://play.google.com/store/apps/details?id=net.wrightflyer.le.realityApplication of Article 30, Paragraph 2 of the Patent Act November 18, 2019 Twitter (https://twitter.com/WFLE_REALITY/status/1196337244400807937) November 20, 2019 Twitter (https://twitter.com/WFLE_REALITY/status/1197031819532591104) November 18, 2019 HP (https://reality-notice.wrightflyer.net/9546c7b58797c65dc584344222feb8e0cb191523.html?t=1574050689) November 20, 2019 HP (https://reality-notice.wrightflyer.net/a50c0ef3803bad4c5bc391cc1bb82efde5fb3f5e.html?t=1574050690) November 20, 2019 - April 30, 2020 (Official website) https://le. wrightflyer.net/reality/ (iOS download site) https://itunes.apple.com/us/app/reality/id1404176564?l=ja&ls=1&mt=8 (Android download site) https://play.google.com/store/apps/details?id=net.wrightflyer.le.reality

本開示は、情報処理システム、情報処理方法およびコンピュータプログラムに関する。 The present disclosure relates to an information processing system, an information processing method, and a computer program.

従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムが知られている(例えば、特許文献1参照)。 Conventionally, there has been known an information processing system that generates animation of a character object based on the movement of an actor and distributes a video including the animation of the character object (see, for example, Patent Document 1).

また、特許文献2に示されるように、配信ユーザが配信する動画に、視聴ユーザのキャラクタオブジェクトを参加させて共演動画を生成する技術も公開されている。 Also, as shown in Patent Document 2, a technology has been disclosed in which a character object of a viewing user is added to a video distributed by a distribution user to generate a joint video.

特開2015-184689号公報JP 2015-184689 A 特許第6543403号公報Patent No. 6543403

ところが、自ら動画を配信することがあまりない視聴ユーザが、自らのキャラクタオブジェクトを視聴中の動画に参加させる(すなわち、自らが出演者となる)のには少なからず勇気がいるものである。 However, it takes a fair bit of courage for viewers who do not often broadcast videos themselves to have their own character object participate in the video they are watching (i.e., to become a performer themselves).

そのため、本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することにある。 Therefore, it is an object of the present disclosure to provide technical improvements that solve or alleviate at least some of the problems of the prior art described above. One of the more specific objects of the present disclosure is to provide an information processing system, information processing method, and computer program that can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

本開示における情報処理システムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備え、一又は複数のコンピュータプロセッサは、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する配信部と、視聴ユーザ端末から送信される動画への参加要求を受け付ける受付部と、受付部が受け付けた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させるアバタ表示部と、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示部により表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定部と、判定部により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる表現部とを備えることを特徴とする。 The information processing system of the present disclosure is an information processing system that distributes a video including an animation of a character object generated based on the movement of a broadcasting user, and includes one or more computer processors. The one or more computer processors include a distribution unit that distributes information about the video including an animation of a first avatar, which is a character object of the broadcasting user, to a viewing user terminal of a viewing user, a reception unit that receives a participation request for the video transmitted from the viewing user terminal, an avatar display unit that displays in the video a second avatar, which is a character object generated based on the movement of the viewing user, in response to the participation request received by the reception unit, a determination unit that, when the first avatar is equipped with a first attachment object, determines whether the second avatar displayed by the avatar display unit is equipped with a second attachment object associated with the first attachment object, and, when the determination unit determines that the second avatar is equipped with the second attachment object, displays a specific effect in the video.

一又は複数のコンピュータプロセッサは、さらに、配信ユーザの配信ユーザ端末から送信される第1のアバタに第1の装着オブジェクトを装着させる指示を受け付ける装着受付部と、装着受付部が指示を受け付けた場合に、第1のアバタのプロフィール画像の変更を促す画面を表示する変更誘導部とを備えることができる。 The one or more computer processors may further include an attachment receiving unit that receives an instruction to attach the first attachment object to the first avatar transmitted from the broadcast user terminal of the broadcast user, and a change guidance unit that displays a screen encouraging the user to change the profile picture of the first avatar when the attachment receiving unit receives the instruction.

第1の装着オブジェクトは、第1の画像部分および第2の画像部分で構成される特定の画像のうち第1の画像に対応する部分を有する装着オブジェクトであり、第2の装着オブジェクトは、特定の画像のうち第2の画像に対応する部分を有する装着オブジェクトとすることができる。 The first attachment object can be an attachment object having a portion of a specific image that is composed of a first image portion and a second image portion that corresponds to a first image, and the second attachment object can be an attachment object having a portion of the specific image that corresponds to a second image.

表現部は、特定の効果として、動画内に特定の画像に対応するオブジェクトを出現させることができる。 The expression unit can make an object corresponding to a specific image appear in the video as a specific effect.

表現部は、特定の効果として、動画内に演出効果を追加することができる。 The expression section can add special effects to the video.

第1の装着オブジェクトおよび第2の装着オブジェクトには、互いの位置関係に関する情報が設定され、判定部は、さらに、位置関係が所定の条件を満たしているかを判定し、表現部は、さらに、判定部により位置関係が所定の条件を満たしていると判定された場合に、動画内に特定の効果を表示させることができる。 The first attachment object and the second attachment object are set with information regarding their relative positions, and the determination unit further determines whether the relative positions satisfy a predetermined condition, and the expression unit further causes a specific effect to be displayed within the video when the determination unit determines that the relative positions satisfy the predetermined condition.

第1の装着オブジェクトおよび第2の装着オブジェクトには、互いの位置関係に関する情報が設定され、判定部は、さらに、位置関係が所定の条件を満たしているかを判定し、表現部は、さらに、判定部により位置関係が所定の条件を満たしていないと判定された場合に、位置関係に関する情報が所定の条件を満たすよう、第1のアバタおよび第2のアバタの表示位置を変更することができる。 The first attachment object and the second attachment object are set with information regarding their relative positions, and the determination unit further determines whether the relative positions satisfy a predetermined condition. When the determination unit determines that the relative positions do not satisfy the predetermined condition, the expression unit further changes the display positions of the first avatar and the second avatar so that the information regarding the relative positions satisfies the predetermined condition.

受付部は、さらに、配信ユーザの配信ユーザ端末から送信される、第1のアバタおよび/または第2のアバタの動画内における表示位置に関する指示を受け付け、アバタ表示部は、受付部が受け付けた指示に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させることができる。 The reception unit further receives instructions regarding the display position of the first avatar and/or the second avatar within the video transmitted from the broadcasting user terminal of the broadcasting user, and the avatar display unit can display the second avatar, which is a character object generated based on the movement of the viewing user, in the video in accordance with the instructions received by the reception unit.

受付部は、さらに1以上の他の視聴ユーザ端末から送信される動画への参加要求を受け付け、アバタ表示部は、さらに、受付部が受け付けた参加要求に応じて、動画に1以上の他の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである1以上の第3のアバタを表示させ、判定部は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示部により表示された第2のアバタおよび/または第3のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定し、表現部は、判定部により第2のアバタおよび/または第3のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させることができる。 The reception unit further receives a request to join the video transmitted from one or more other viewing user terminals, and the avatar display unit further displays, in the video in response to the participation request received by the reception unit, one or more third avatars which are character objects generated based on the movements of one or more other viewing users, and the determination unit determines whether a second attachment object associated with the first attachment object is attached to the second avatar and/or the third avatar displayed by the avatar display unit when the first attachment object is attached to the first avatar, and the expression unit displays a specific effect in the video when the determination unit determines that the second attachment object is attached to the second avatar and/or the third avatar.

本開示における情報処理方法は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムにおける情報処理方法であって、情報処理システムが備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する配信ステップと、視聴ユーザ端末から送信される動画への参加要求を受け付ける受付ステップと、受付ステップにおいて受け付けた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させるアバタ表示ステップと、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップにおいて表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定ステップと、判定ステップにおいて第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させるステップとを実行させることを特徴とする。 The information processing method of the present disclosure is an information processing method in an information processing system that distributes a video including an animation of a character object generated based on the movement of a broadcasting user, and is characterized in that one or more computer processors included in the information processing system execute a distribution step of distributing information about the video including an animation of a first avatar, which is a character object of the broadcasting user, to a viewing user terminal of a viewing user, a reception step of receiving a participation request for the video transmitted from the viewing user terminal, an avatar display step of displaying in the video a second avatar, which is a character object generated based on the movement of the viewing user, in response to the participation request received in the reception step, a determination step of determining whether a second attachment object associated with the first attachment object is attached to the second avatar displayed in the avatar display step when the first attachment object is attached to the first avatar, and a step of displaying a specific effect in the video when it is determined in the determination step that the second attachment object is attached to the second avatar.

本開示におけるコンピュータプログラムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末用のコンピュータプログラムであって、情報処理システムは、配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する送信機能と、視聴ユーザ端末から送信される動画への参加要求を受信する受信機能と、受信機能により受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させるアバタ表示機能と、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示機能により表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定機能と、判定機能により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる表現機能とを実現させることを特徴とする。 The computer program in the present disclosure is a computer program for a broadcasting user terminal constituting an information processing system for broadcasting a video including an animation of a character object generated based on the movement of a broadcasting user, the information processing system including a broadcasting user terminal, a viewing user terminal, and a server device, and is characterized in that one or more computer processors included in the broadcasting user terminal are provided with a transmission function for transmitting information about the video including an animation of a first avatar, which is a character object of the broadcasting user, to the server device, a reception function for receiving a participation request for the video transmitted from the viewing user terminal, an avatar display function for displaying in the video a second avatar, which is a character object generated based on the movement of the viewing user, in response to the participation request accepted by the reception function, a determination function for determining whether a second attachment object associated with the first attachment object is attached to the second avatar displayed by the avatar display function when the first attachment object is attached to the first avatar, and an expression function for displaying a specific effect in the video when the determination function determines that the second attachment object is attached to the second avatar.

本開示における情報処理方法は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末における情報処理方法であって、情報処理システムは、配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する送信ステップと、視聴ユーザ端末から送信される動画への参加要求を受信する受信ステップと、受信ステップにおいて受信された参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させるアバタ表示ステップと、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップにおいて表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定ステップと、判定ステップにおいて第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる表現ステップとを実行させることを特徴とする。 The information processing method in the present disclosure is an information processing method in a broadcasting user terminal constituting an information processing system for broadcasting a video including an animation of a character object generated based on the movement of a broadcasting user, the information processing system including a broadcasting user terminal, a viewing user terminal, and a server device, and is characterized in that the information processing system causes one or more computer processors included in the broadcasting user terminal to execute a transmission step of transmitting information about the video including an animation of a first avatar, which is a character object of the broadcasting user, to the server device, a reception step of receiving a participation request for the video transmitted from the viewing user terminal, an avatar display step of displaying in the video a second avatar, which is a character object generated based on the movement of the viewing user, in response to the participation request received in the reception step, a determination step of determining whether a second attachment object associated with the first attachment object is attached to the second avatar displayed in the avatar display step when the first attachment object is attached to the first avatar, and an expression step of displaying a specific effect in the video when it is determined in the determination step that the second attachment object is attached to the second avatar.

本開示におけるコンピュータプログラムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザ端末用のコンピュータプログラムであって、情報処理システムは、配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する受信機能と、受信機能により受信された情報に基づいて、動画を表示する表示機能と、サーバ装置に動画への参加要求を送信する送信機能と、を実現させ、表示機能は、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させることを特徴とする。 The computer program in the present disclosure is a computer program for a viewing user terminal constituting an information processing system for distributing a video including an animation of a character object generated based on the movement of a broadcasting user, the information processing system including a broadcasting user terminal, a viewing user terminal, and a server device, and realizing in one or more computer processors included in the viewing user terminal a receiving function for receiving information about the video including an animation of a first avatar, which is a character object of the broadcasting user, from the server device, a display function for displaying the video based on the information received by the receiving function, and a transmission function for transmitting a request to participate in the video to the server device, the display function being characterized in that, when a first wearable object is worn by the first avatar, a second wearable object associated with the first wearable object is worn by a second avatar, which is a character object generated based on the movement of the viewing user displayed in the video in response to the participation request, a specific effect is displayed in the video.

本開示における情報処理方法は、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザ端末における情報処理方法であって、情報処理システムは、配信ユーザ端末、視聴ユーザ端末およびサーバ装置を備え、視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する受信ステップと、受信ステップにおいて受信した情報に基づいて、動画を表示する表示ステップと、サーバ装置に動画への参加要求を送信する送信ステップと、を実行させ、表示ステップは、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させることを特徴とする。 The information processing method in the present disclosure is an information processing method in a viewing user terminal constituting an information processing system for distributing a video including an animation of a character object generated based on the movement of a broadcasting user, the information processing system including a broadcasting user terminal, a viewing user terminal, and a server device, and causes one or more computer processors included in the viewing user terminal to execute a receiving step of receiving information about the video including an animation of a first avatar, which is a character object of the broadcasting user, from the server device, a displaying step of displaying the video based on the information received in the receiving step, and a transmitting step of transmitting a request to participate in the video to the server device, the displaying step being characterized in that, when a first wearable object is worn by the first avatar, a second avatar, which is a character object generated based on the movement of the viewing user displayed in the video in response to the participation request, is determined to be wearing a second wearable object associated with the first wearable object, within the video.

本開示によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示の一実施形態によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる情報処理システム、情報処理方法およびコンピュータプログラムを提供することができる。 The present disclosure provides technical improvements that solve or alleviate at least some of the problems of the conventional technology described above. According to one embodiment of the present disclosure, it is possible to provide an information processing system, an information processing method, and a computer program that can increase the willingness of viewing users to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of an information processing system according to the present disclosure. 本開示における情報処理システムの一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of an information processing system according to the present disclosure. 本開示における情報処理装置のハードウェア構成の一例を示す構成図である。FIG. 2 is a configuration diagram illustrating an example of a hardware configuration of an information processing device according to the present disclosure. 本開示における情報処理装置の機能構成の一例を示す構成図である。FIG. 2 is a configuration diagram showing an example of a functional configuration of an information processing device according to the present disclosure. 視聴/配信ユーザ端末に表示されるトップ画面のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of a top screen displayed on a viewing/distribution user terminal. 視聴ユーザ端末に表示される配信画面のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of a distribution screen displayed on a viewing user terminal. 視聴/配信ユーザ端末に表示される画面内のアバタ配置のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of an avatar arrangement on a screen displayed on a viewing/distribution user terminal. 視聴/配信ユーザ端末に表示される画面内のアバタ配置のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of an avatar arrangement on a screen displayed on a viewing/distribution user terminal. アバタ作成/変更画面のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of an avatar creation/change screen. アバタ作成/変更画面のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of an avatar creation/change screen. アバタ作成/変更画面のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of an avatar creation/change screen. アバタ作成/変更画面のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of an avatar creation/change screen. 動画配信前に表示される画面のイメージを示した概念図である。FIG. 13 is a conceptual diagram showing an image of a screen displayed before video distribution. 本開示における装着オブジェクトのイメージを示した概念図である。FIG. 2 is a conceptual diagram showing an image of an attachment object in the present disclosure. 本開示における装着オブジェクトのイメージを示した概念図である。FIG. 2 is a conceptual diagram showing an image of an attachment object in the present disclosure. 本開示における装着オブジェクトのイメージを示した概念図である。FIG. 2 is a conceptual diagram showing an image of an attachment object in the present disclosure. 本開示における装着オブジェクトのイメージを示した概念図である。FIG. 2 is a conceptual diagram showing an image of an attachment object in the present disclosure. 装着オブジェクト対応テーブルの一例を示したものである。13 illustrates an example of an attachment object correspondence table. 本開示における情報処理装置の機能構成の他の例を示す構成図である。FIG. 11 is a configuration diagram showing another example of the functional configuration of the information processing device according to the present disclosure. クローゼット画面において装着アイテムを変更した際に表示される確認画面のイメージを示した概念図であるFIG. 13 is a conceptual diagram showing an image of a confirmation screen that is displayed when changing an attached item on the closet screen. 本開示における情報処理方法のフローの一例を示すフロー図である。FIG. 1 is a flow diagram showing an example of the flow of an information processing method according to the present disclosure. 本開示におけるコンピュータプログラムを実現するための回路構成の一例を示す回路構成図である。FIG. 2 is a circuit configuration diagram showing an example of a circuit configuration for realizing a computer program according to the present disclosure. (a)本開示における配信ユーザ端末の機能構成の一例を示す構成図である。(b)本開示における配信ユーザ端末用プログラムの機能を実現するための回路構成の一例を示す回路構成図である。1A is a block diagram showing an example of the functional configuration of a broadcast user terminal in the present disclosure, and FIG. 1B is a circuit diagram showing an example of a circuit configuration for realizing the functions of a broadcast user terminal program in the present disclosure. 本開示における配信ユーザ端末における情報処理方法のフローの一例を示すフロー図である。11 is a flow diagram showing an example of the flow of an information processing method in a broadcast user terminal in the present disclosure. (a)本開示における視聴ユーザ端末の機能構成の一例を示す構成図である。(b)本開示における視聴ユーザ端末用プログラムの機能を実現するための回路構成の一例を示す回路構成図である。1A is a block diagram showing an example of a functional configuration of an audiovisual user terminal in the present disclosure, and FIG. 1B is a circuit block diagram showing an example of a circuit configuration for realizing the functions of a program for an audiovisual user terminal in the present disclosure. 本開示における視聴ユーザ端末における情報処理方法のフローの一例を示すフロー図である。11 is a flow diagram showing an example of the flow of an information processing method in a viewing user terminal in the present disclosure.

初めに、本開示の実施形態に係る情報処理システムの概要について図面を参照しながら説明する。 First, an overview of an information processing system according to an embodiment of the present disclosure will be described with reference to the drawings.

本開示における情報処理システムは、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、一又は複数のコンピュータプロセッサを備える。 The information processing system in the present disclosure is an information processing system that distributes videos including animations of character objects generated based on the movements of a broadcasting user, and is equipped with one or more computer processors.

<システム構成>
図1に一例として示されるように、本開示に係る情報処理システム1000は、1以上の視聴ユーザ端末1100、および、これら視聴ユーザ端末1100とネットワーク1200を介して接続される、動画の配信スタジオ等に配置された情報処理装置(サポートコンピュータ)1300を含むことができる。
<System Configuration>
As shown as an example in FIG. 1, the information processing system 1000 of the present disclosure may include one or more viewing user terminals 1100, and an information processing device (support computer) 1300 located in a video distribution studio, etc., connected to these viewing user terminals 1100 via a network 1200.

また、当該情報処理装置1300は、インターネットを介してサーバ装置1400(図示せず)と接続され、情報処理装置1300で行われるべき処理の一部または全部を当該サーバ装置1400で行うものとしてもよい。なお、かかるサーバ装置1400は、図2に示す情報処理装置400としてもよい。 The information processing device 1300 may be connected to a server device 1400 (not shown) via the Internet, and some or all of the processing that should be performed by the information processing device 1300 may be performed by the server device 1400. The server device 1400 may be the information processing device 400 shown in FIG. 2.

本明細書において、かかる情報処理システム1000による配信を、スタジオ配信と呼ぶものとする。 In this specification, such distribution by the information processing system 1000 is referred to as studio distribution.

スタジオ配信において、配信ユーザ(アクター)の全身の動きは、配信ユーザに取り付けられたマーカをスタジオに備え付けられたカメラで撮影し、既知のモーションキャプチャ技術を用いてリアルタイムでキャラクタに反映させるものとする。 In studio streaming, the entire body movements of the streaming user (actor) are captured by a camera installed in the studio using markers attached to the streaming user, and are reflected in the character in real time using known motion capture technology.

また、本発明の情報処理システム1000は、図2に一例として示される別の情報処理システム2000と連携することができる。図2に示される情報処理システム2000は、配信ユーザ端末100、1以上の視聴ユーザ端末200、および、これら配信ユーザ端末100および視聴ユーザ端末200とネットワーク300を介して接続される情報処理装置(サーバ装置)400を含むことができる。 The information processing system 1000 of the present invention can also be linked to another information processing system 2000 shown as an example in FIG. 2. The information processing system 2000 shown in FIG. 2 can include a broadcast user terminal 100, one or more viewing user terminals 200, and an information processing device (server device) 400 connected to the broadcast user terminals 100 and the viewing user terminals 200 via a network 300.

上記の例において、配信ユーザ端末100はスマートフォン等の情報処理端末とすることができる。本明細書において、かかる情報処理システム2000による配信を、モバイル配信と呼ぶものとする。 In the above example, the broadcast user terminal 100 can be an information processing terminal such as a smartphone. In this specification, broadcasting by such an information processing system 2000 is referred to as mobile broadcasting.

モバイル配信において、配信ユーザの顔の動きは、配信ユーザの顔を配信ユーザ端末100が備えるカメラで撮影し、既知のフェイストラッキング技術を用いてリアルタイムでキャラクタの顔に反映させるものとする。 In mobile distribution, the facial movements of the broadcast user are captured by a camera installed in the broadcast user terminal 100, and are reflected on the character's face in real time using known face tracking technology.

上記情報処理システム1000および情報処理システム2000により生成される動画は、一例として、一の動画配信プラットフォームから、視聴ユーザへ配信することができる。 The videos generated by the information processing system 1000 and the information processing system 2000 can be distributed to viewing users from a single video distribution platform, as an example.

なお、モバイル配信における配信ユーザと視聴ユーザの区別は特になく、視聴ユーザはいつでもモバイル配信が可能であり、配信ユーザは他の配信ユーザの動画を視聴する場合には視聴ユーザとなりうる。 In addition, there is no particular distinction between broadcast users and viewing users in mobile distribution; viewing users can broadcast via mobile at any time, and broadcast users can become viewing users when viewing videos of other broadcast users.

また、いずれの配信においても、モーションをキャラクタに反映させてアニメーションを生成する処理および後述するギフトを表示する処理は、配信ユーザ端末、視聴ユーザ端末、情報処理装置および他の装置により分担して行われてもよい。 In addition, in any broadcast, the process of generating animation by reflecting motion on a character and the process of displaying gifts (described below) may be shared among the broadcasting user terminal, the viewing user terminal, an information processing device, and other devices.

具体的には、キャラクタオブジェクトのアニメーションを生成する端末または装置には、配信ユーザ端末から配信ユーザのフェイスモーションデータおよび音声データが送信される。また、フェイスモーションに加えてボディモーションが送信されてもよい。 Specifically, facial motion data and voice data of the broadcasting user are transmitted from the broadcasting user terminal to a terminal or device that generates animation of the character object. Body motion may also be transmitted in addition to facial motion.

以下の説明では、アニメーションを生成する処理は配信ユーザ端末および視聴ユーザ端末のそれぞれで行うものとして説明を行うが、これに限られるものではない。 In the following explanation, the process of generating animation is assumed to be performed on both the broadcasting user terminal and the viewing user terminal, but this is not limited to the above.

また、以下の説明では、本開示に
おける情報処理システムが図2に示されるシステム構成(モバイル配信)を備えるものとして説明を行うが、図1に示すシステム構成を備えてもよい。
In the following description, the information processing system according to the present disclosure will be described as having the system configuration (mobile distribution) shown in FIG. 2, but may have the system configuration shown in FIG.

また、本開示における情報処理システムが配信する動画は、配信ユーザがプレイするゲーム画面および/または現実空間の撮影画像であってもよい。このとき、ゲーム画面とともに、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトまたは配信ユーザの実画像を表示してもよい。また、現実空間の撮影画像に配信ユーザが含まれる場合には、当該配信ユーザの実画像に当該配信ユーザの動きに基づいて生成されるキャラクタオブジェクトを重ねて表示させてもよい。 Furthermore, the video distributed by the information processing system of the present disclosure may be a game screen played by the broadcasting user and/or a captured image in real space. In this case, a character object generated based on the broadcasting user's movements or an actual image of the broadcasting user may be displayed together with the game screen. Furthermore, if the broadcasting user is included in the captured image in real space, a character object generated based on the broadcasting user's movements may be displayed superimposed on the actual image of the broadcasting user.

<ハードウェア構成>
ここで、図3を用いて、情報処理システム2000に含まれる情報処理装置400のハードウェア構成について説明する。情報処理装置400は、プロセッサ401と、メモリ402と、ストレージ403と、入出力インターフェース(入出力I/F)404と、通信インターフェース(通信I/F)405とを含む。各構成要素は、バスBを介して相互に接続される。
<Hardware Configuration>
3, a hardware configuration of the information processing device 400 included in the information processing system 2000 will be described. The information processing device 400 includes a processor 401, a memory 402, a storage 403, an input/output interface (input/output I/F) 404, and a communication interface (communication I/F) 405. The components are connected to each other via a bus B.

情報処理装置400は、プロセッサ401と、メモリ402と、ストレージ403と、入出力I/F404と、通信I/F405との協働により、本実施形態に記載される機能、方法を実現することができる。 The information processing device 400 can realize the functions and methods described in this embodiment through cooperation between the processor 401, memory 402, storage 403, input/output I/F 404, and communication I/F 405.

プロセッサ401は、ストレージ403に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ401は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。 The processor 401 executes functions and/or methods realized by codes or instructions included in a program stored in the storage 403. The processor 401 includes, for example, a central processing unit (CPU), a micro processing unit (MPU), a graphics processing unit (GPU), a microprocessor, a processor core, a multiprocessor, an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), etc., and may realize each process disclosed in each embodiment by a logic circuit (hardware) or a dedicated circuit formed in an integrated circuit (an integrated circuit (IC) chip, a large scale integration (LSI)), etc.). In addition, these circuits may be realized by one or more integrated circuits, and multiple processes shown in each embodiment may be realized by one integrated circuit. In addition, an LSI may be called a VLSI, a super LSI, an ultra LSI, etc. depending on the degree of integration.

メモリ402は、ストレージ403からロードしたプログラムを一時的に記憶し、プロセッサ401に対して作業領域を提供する。メモリ402には、プロセッサ401がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ402は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。 The memory 402 temporarily stores the programs loaded from the storage 403 and provides a working area for the processor 401. The memory 402 also temporarily stores various data generated while the processor 401 is executing the programs. The memory 402 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), etc.

ストレージ403は、プログラムを記憶する。ストレージ403は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。 Storage 403 stores programs. Storage 403 includes, for example, a hard disk drive (HDD), a solid state drive (SSD), flash memory, etc.

通信I/F405は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F405は、ネットワーク300を介して、他の情報処理装置との通信を実行する。通信I/F405は、各種データをプロセッサ401からの指示に従って、他の情報処理装置に送信する。また、通信I/F405は、他の情報処理装置から送信された各種データを受信し、プロセッサ401に伝達する。 The communication I/F 405 is implemented as hardware such as a network adapter, communication software, or a combination of these, and transmits and receives various data via the network 300. The communication may be performed either wired or wirelessly, and any communication protocol may be used as long as mutual communication can be performed. The communication I/F 405 communicates with other information processing devices via the network 300. The communication I/F 405 transmits various data to other information processing devices according to instructions from the processor 401. The communication I/F 405 also receives various data transmitted from other information processing devices and transmits it to the processor 401.

入出力I/F404は、情報処理装置400に対する各種操作を入力する入力装置、及び、情報処理装置400で処理された処理結果を出力する出力装置を含む。入出力I/F404は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。 The input/output I/F 404 includes an input device that inputs various operations to the information processing device 400, and an output device that outputs the results of processing by the information processing device 400. The input/output I/F 404 may be an integrated input device and output device, or may be separate input device and output device.

入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ401に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。 The input device is realized by any of a variety of devices, or a combination of devices, that can receive input from a user and transmit information related to the input to the processor 401. Examples of input devices include hardware keys such as a touch panel, a touch display, and a keyboard, pointing devices such as a mouse, a camera (operation input via images), and a microphone (operation input via voice).

出力装置は、プロセッサ401で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。なお、情報処理装置1300、情報処理装置1400、視聴ユーザ端末1100、配信ユーザ端末100、視聴ユーザ端末200も特筆すべき場合を除き、図3と同様のハードウェア構成で構成されることができる。 The output device outputs the processing results processed by the processor 401. The output device includes, for example, a touch panel, a speaker, etc. Note that the information processing device 1300, the information processing device 1400, the viewing user terminal 1100, the broadcasting user terminal 100, and the viewing user terminal 200 can also be configured with the same hardware configuration as that shown in FIG. 3, except where noted otherwise.

<機能構成>
そして、上記一又は複数のコンピュータプロセッサ(本例では情報処理装置400)は、図4に示すように、配信部410と、受付部420と、アバタ表示部430と、判定部440と、表現部450とを備える。
<Functional configuration>
The one or more computer processors (information processing device 400 in this example) include, as shown in FIG. 4, a delivery unit 410, a reception unit 420, an avatar display unit 430, a determination unit 440, and an expression unit 450.

配信部410は、配信ユーザのキャラクタオブジェクトである第1のアバタA1のアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する。配信ユーザのキャラクタオブジェクトのアニメーションを含む動画に関する情報には、例えばキャラクタオブジェクトの動作を示すモーション情報や、配信ユーザの音声情報や、他の視聴ユーザから送られたギフトを示すギフトオブジェクト情報などが含まれる。そして、ギフトオブジェクト情報は、少なくとも、ギフトオブジェクトの種類を特定するギフトオブジェクト識別情報と、ギフトオブジェクトが表示される位置を示す位置情報とを含む。 The distribution unit 410 distributes information about a video including animation of the first avatar A1, which is the character object of the broadcasting user, to the viewing user terminal of the viewing user. The information about the video including animation of the broadcasting user's character object includes, for example, motion information indicating the movement of the character object, voice information of the broadcasting user, and gift object information indicating gifts sent by other viewing users. The gift object information includes at least gift object identification information that specifies the type of gift object, and position information that indicates the position where the gift object is displayed.

一例として、配信部410は、上述した動画配信プラットフォームを介して動画をライブ配信することができる。 As an example, the distribution unit 410 can live stream videos via the video distribution platform described above.

図5は、上記動画配信プラットフォームにアクセスした視聴ユーザの視聴ユーザ端末200に表示されるトップ画面201を示したものである。 Figure 5 shows the top screen 201 displayed on the viewing user terminal 200 of a viewing user who has accessed the video distribution platform.

図5に示されるように、視聴ユーザは、トップ画面201において一覧表示される一以上の配信チャンネル202のサムネイル表示の中から一の配信チャンネルを選ぶことにより、当該一の配信チャンネルで再生される動画を視聴することができる。 As shown in FIG. 5, a viewing user can select one distribution channel from thumbnail displays of one or more distribution channels 202 displayed in a list on a top screen 201, and watch a video being played on that one distribution channel.

あるいは、視聴ユーザは、特定の一の配信チャンネルの固定リンクへアクセスすることにより、当該特定の一の配信チャンネルで再生される動画を視聴することができる。かかる固定リンクは、フォロー中の配信ユーザからのお知らせ、または、他のユーザから送られたシェアの通知などにより得ることができる。 Alternatively, a viewing user can view a video being played on a specific distribution channel by accessing a fixed link for that specific distribution channel. Such a fixed link can be obtained through notifications from a distribution user who is being followed, or through notifications of shares sent by other users.

なお、図5に示すように、トップ画面201にはキャンペーンやイベントなどのお知らせの表示欄203が表示されてもよい。このお知らせの表示欄203は、スライド操作により他のお知らせへの表示の切り替えが可能である。 As shown in FIG. 5, the top screen 201 may display a display area 203 for announcements such as campaigns and events. This announcement display area 203 can be switched to display other announcements by sliding the display area.

また、上記動画配信プラットフォームでは、配信中の配信チャンネル一覧と、配信予定の配信チャンネル一覧とをタブ(配信中/動画一覧)により分けて表示することができる。一例として、図5は配信中の配信チャンネル一覧を示したものである。 The video distribution platform can also display a list of currently streaming channels and a list of upcoming streaming channels separated by tabs (Currently Streaming/Video List). As an example, Figure 5 shows a list of currently streaming channels.

なお、視聴ユーザは、トップ画面201で一の配信チャンネルを選択することで動画の視聴が可能であるが、配信ボタン204を選択することで、自身で動画を配信する配信ユーザとなることもできる。 Note that a viewing user can watch videos by selecting one of the distribution channels on the top screen 201, but can also become a distribution user who distributes videos by selecting the distribution button 204.

図6は、視聴ユーザの端末に表示される配信動画の画面205を示した例である。視聴ユーザは、コメント投稿欄206にテキストの入力を行い、送信ボタン207を押すことでコメントを投稿することができる。また、ギフトボタン208を押すことで視聴ユーザにはギフト一覧が表示され、選択により指定したギフトを投じることができる。また、視聴ユーザは、いいねボタン209を押すことで好意を示す評価を投稿することができる。なお、ボタンを押すとは、画面に表示されたボタンをタップ等により選択することを含むものとする。 Figure 6 is an example showing a screen 205 of a distributed video displayed on a viewing user's device. The viewing user can post a comment by entering text in a comment posting field 206 and pressing a send button 207. In addition, by pressing the gift button 208, a list of gifts is displayed to the viewing user, and the viewing user can select and submit a specified gift. In addition, the viewing user can post a rating showing a favorable opinion by pressing the like button 209. Note that pressing a button includes selecting a button displayed on the screen by tapping, etc.

また、視聴ユーザが未だフォローしていない配信ユーザが配信する動画の画面には、視聴ユーザが配信ユーザをフォローするためのフォローボタン216が表示される。このフォローボタンは、視聴ユーザが既にフォローしている配信ユーザが配信する動画の画面では、フォロー解除ボタンとして機能する。 Furthermore, on the screen of a video distributed by a distributor user who is not yet being followed by the viewing user, a follow button 216 is displayed that allows the viewing user to follow the distributor user. This follow button functions as an unfollow button on the screen of a video distributed by a distributor user who is already being followed by the viewing user.

なお、この「フォロー」は視聴ユーザから視聴ユーザへ、配信ユーザから視聴ユーザへ、配信ユーザから配信ユーザへ行われるものであってもよい。ただし、フォローは一方向のみの関連付けとして管理され、逆方向の関連付けはフォロワーとして別に管理されるものとする。 Note that this "following" may occur from viewing user to viewing user, from broadcasting user to viewing user, or from broadcasting user to broadcasting user. However, following is managed as a one-way association only, and associations in the reverse direction are managed separately as followers.

また、動画のシェアに関し、視聴ユーザはシェアボタン211を押すことでシェア可能なSNS(ソーシャル・ネットワーキング・サービス)一覧を確認し、選択により指定したSNSの指定した場所に固定リンクを送信することができる。 In addition, when sharing a video, the viewing user can press the share button 211 to check a list of SNS (social networking services) on which the video can be shared, and can send a fixed link to a specified location on a specified SNS by selecting it.

また、静止画に関し、視聴ユーザはスクリーンショットボタン212を押すことで画面の静止画を保存することができる。また、スクリーンショットボタン212を押すことで静止画をシェア可能なSNS一覧が表示され、視聴ユーザは選択により指定したSNSの指定した場所に静止画を送信することができる。 In addition, regarding still images, the viewing user can save a still image of the screen by pressing the screenshot button 212. In addition, pressing the screenshot button 212 displays a list of SNSs on which the still image can be shared, and the viewing user can send the still image to a specified location on a specified SNS by selecting it.

また、コラボボタン213を押すことで配信ユーザに対してコラボ配信をリクエストすることができる。コラボ配信とは、配信ユーザの配信動画に視聴ユーザのキャラクタオブジェクトを登場させることをいう。 In addition, by pressing collaboration button 213, a collaboration broadcast can be requested from the broadcasting user. A collaboration broadcast refers to having the viewing user's character object appear in the broadcasting user's broadcast video.

また、視聴終了要求は、視聴終了ボタン214を押すことにより送信されるものとすることができる。 The request to end viewing can also be sent by pressing the end viewing button 214.

受付部420は、視聴ユーザ端末から送信される動画への参加要求を受け付ける。 The reception unit 420 receives a request to join a video sent from a viewing user terminal.

一例として、視聴ユーザは、上記コラボボタン213を押すことで表示されるコラボ配信参加リクエストの確認画面を経て、上記動画への参加要求を送信することができる。 As an example, a viewing user can press the collaboration button 213 to display a collaboration broadcast participation request confirmation screen, and then send a request to participate in the video.

アバタ表示部430は、受付部420が受け付けた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタA2を動画に表示させる。 In response to the participation request received by the reception unit 420, the avatar display unit 430 displays in the video a second avatar A2, which is a character object generated based on the movement of the viewing user.

図7は、一例として、第1のアバタA1が表示された動画に、第2のアバタA2が参加している場合の画面を示したものである。なお、図7ではコメント、ギフト、操作ボタン等のアバタ以外の表示については省略されている。 Figure 7 shows, as an example, a screen in which a second avatar A2 is participating in a video in which a first avatar A1 is displayed. Note that Figure 7 omits the display of comments, gifts, operation buttons, and other items other than the avatars.

また、図8に示すように、さらに、別の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第3のアバタA3が動画に参加してもよい。なお、図8では第3のアバタA3が、第1のアバタA1および第2のアバタA2の後方に配置されているが、3人が横一列に並ぶように配置されてもよい。また、アバタの配置位置は配信ユーザが指定できるようにしてもよい。かかる指定の手法については後述する。 As shown in FIG. 8, a third avatar A3, which is a character object generated based on the movements of another viewing user, may also participate in the video. Note that in FIG. 8, the third avatar A3 is placed behind the first avatar A1 and the second avatar A2, but the three may be placed in a horizontal line. The position of the avatar may also be specified by the distribution user. The method of such specification will be described later.

このように、配信されている動画に参加可能なアバタは複数であってもよい。かかる参加可能なアバタの数は、動画の配信開始前に、配信ユーザにより設定されることができる。 In this way, there may be multiple avatars that can participate in the video being distributed. The number of such participating avatars can be set by the distributor user before the start of distribution of the video.

判定部440は、第1のアバタA1に第1の装着オブジェクトが装着されている場合に、アバタ表示部430により表示された第2のアバタA2に第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。 When a first attachment object is attached to a first avatar A1, the determination unit 440 determines whether a second attachment object associated with the first attachment object is attached to a second avatar A2 displayed by the avatar display unit 430.

第1の装着オブジェクトは、第1のアバタが着用可能な装着オブジェクトである。かかる装着オブジェクトは、動画の配信を行う前にユーザ操作により第1のアバタに装着されることができる。 The first wearable object is a wearable object that can be worn by the first avatar. Such a wearable object can be worn by the first avatar by a user operation before streaming the video.

ここで、キャラクタオブジェクトへの装着オブジェクトの装着方法について図面を参照しながら説明する。 Here, we will explain how to attach an attachment object to a character object with reference to the drawings.

キャラクタオブジェクトは、配信ユーザ用端末で実行される専用アプリケーション(以下、「アプリ」という。)において、フェイシャルキャプチャ機能により配信ユーザの表情が表現される顔、および、少なくとも胴体の一部を有するオブジェクトである。すなわち、このキャラクタオブジェクトには、全身を表したもののみならず、上半身のみを表したものも含まれる。なお、顔以外の部位についても、配信ユーザの動きを認識するモーションキャプチャ機能により配信ユーザの動きが表示されるものとしてもよい。 A character object is an object that has a face that expresses the broadcast user's facial expression using a facial capture function in a dedicated application (hereinafter referred to as the "app") executed on the broadcast user's terminal, and at least a part of the torso. In other words, this character object includes not only those that represent the entire body, but also those that represent only the upper body. Note that the movements of the broadcast user may also be displayed for parts of the body other than the face using a motion capture function that recognizes the movements of the broadcast user.

そして、このキャラクタオブジェクトは、1以上のボディパーツおよび1以上の装着アイテムで構成される。これらボディパーツおよび装着アイテムは、サーバ装置が備えるストレージにおいてそれぞれ識別番号と対応付けて記憶される。 The character object is composed of one or more body parts and one or more wearable items. These body parts and wearable items are stored in the storage of the server device in association with their respective identification numbers.

ボディパーツは、例えば、目、眉、鼻、口、ホクロおよび化粧などのパーツである。化粧には、チーク、アイシャドウおよび口紅など、さらに細分化されたパーツが含まれる。また、これらのパーツには、色のみが異なる色違いパーツが存在する。 Body parts include, for example, eyes, eyebrows, nose, mouth, moles, and makeup. Makeup includes even more specific parts such as blush, eyeshadow, and lipstick. Furthermore, among these body parts, there are parts that differ only in color.

装着アイテムは、例えば、アクセサリ、洋服および靴などのアイテムをいう。洋服には、トップス、ボトムスおよび靴下などさらに細分化されたアイテムが含まれる。また、これらのアイテムには、色のみが異なる色違いアイテムが存在する。 Wearable items include, for example, accessories, clothing, and shoes. Clothing includes further sub-items such as tops, bottoms, and socks. Furthermore, among these items, there are color variants that differ only in color.

そして、配信ユーザは、配信アプリの初回起動時の画面、または、後述するクローゼット画面において、自身のアバタとなるキャラクタオブジェクトを作成する。図9~図13は、配信ユーザ用端末における配信アプリの初回起動時の画面30の遷移の一例を示したイメージ図である。 Then, the broadcast user creates a character object that will be his/her avatar on the screen that appears when the broadcast app is launched for the first time, or on the closet screen described below. Figures 9 to 13 are image diagrams showing an example of the transition of screen 30 when the broadcast app is launched for the first time on the broadcast user's terminal.

初めに、配信ユーザ用端末の画面30には、図9に示されるように、キャラクタオブジェクトの作成を開始する画面が表示される。なお、図9に示されるように、初回起動時に生成されたキャラクタオブジェクトはクローゼット画面において後から変更することが可能である。 First, a screen for starting the creation of a character object is displayed on the screen 30 of the broadcast user terminal, as shown in FIG. 9. Note that, as shown in FIG. 9, the character object created at the first launch can be changed later on the closet screen.

そして、図10に示されるように、カテゴリ(図10ではA~D)ごとに表示される1以上のボディパーツおよび1以上の装着アイテムの中から所定のパーツまたはアイテム(図10ではアイテムa1)を指定し、かつ、指定したアイテムに対するカラー(図10ではカラーCL2)を選択することで、選択されたカラーCL2の指定されたアイテムa1で構成されるキャラクタオブジェクトCOを作成する。なお、各パーツまたはアイテムを指定する毎にキャラクタオブジェクトCOの表示は対応して変化する。なお、基本的に各カテゴリでは少なくとも1つのパーツまたはアイテムが指定されるが、必須ではないカテゴリのパーツまたはアイテムがあってもよい。 As shown in FIG. 10, a specific part or item (item a1 in FIG. 10) is designated from one or more body parts and one or more wearable items displayed for each category (A to D in FIG. 10), and a color (color CL2 in FIG. 10) for the designated item is selected to create a character object CO consisting of the designated item a1 in the selected color CL2. Note that each time a part or item is designated, the display of the character object CO changes accordingly. Note that, although at least one part or item is generally designated for each category, there may be parts or items in non-required categories.

そして、図11では一例として右上に示される決定ボタン33が選択されると、この段階で画面30に表示されたキャラクタオブジェクトCOが初期キャラクタオブジェクトとして作成される。また、図12に示されるように、パーツの一覧の表示は画面30から一時的に消すこともでき、配信ユーザは、キャラクタオブジェクトCOの全体を確認しながら各パーツを指定することができる。 When the confirm button 33 shown in the upper right corner of FIG. 11 is selected as an example, the character object CO displayed on screen 30 at this stage is created as the initial character object. Also, as shown in FIG. 12, the list of parts can be temporarily hidden from screen 30, allowing the broadcast user to specify each part while checking the entire character object CO.

これらボディパーツおよび装着パーツの組み合わせは、各パーツの種類および色の掛け合わせにより無限に近い。そのため、配信ユーザは、膨大なパーツの組み合わせを試しながら、自身の希望するキャラクタオブジェクトを作成することができる。 The combinations of these body parts and attachment parts are nearly infinite when you combine the types and colors of each part. This allows broadcasters to try out a huge number of part combinations to create the character object of their choice.

初期キャラクタオブジェクト作成後、図5に示した配信ボタン204を選択すると、画面35には、図13に一例として示されるように、少なくとも動画配信開始ボタン36およびクローゼットボタン37が表示される。図13では、さらに、配信アプリの詳細設定を行う設定ボタン38が表示されている。 After creating the initial character object, when the distribution button 204 shown in FIG. 5 is selected, at least a video distribution start button 36 and a closet button 37 are displayed on the screen 35, as shown as an example in FIG. 13. FIG. 13 also displays a settings button 38 for configuring detailed settings of the distribution app.

動画配信開始ボタン36が選択されると、表示されているキャラクタオブジェクトCOを使用した動画の配信が開始される。動画配信の詳細については後述する。 When the video distribution start button 36 is selected, distribution of a video using the displayed character object CO begins. Details of video distribution will be described later.

クローゼットボタン37が選択されると、上述したボディパーツおよび装着アイテムの一覧画面の表示が開始され、キャラクタオブジェクトCOの変更が可能となる。 When the closet button 37 is selected, the list screen of the body parts and wearable items described above begins to be displayed, and the character object CO can be changed.

なお、ここでいうキャラクタオブジェクトCOの変更は、ボディパーツの変更を行わずに単に装着アイテムを変更する場合である「着替え」も含むものとする。また、かかる「着替え」は動画の配信前に行われるものとして説明を行ったが、動画の配信中に行われるものとしてもよい。 Note that the change of character object CO referred to here also includes "changing clothes," which is simply changing the items worn, without changing any body parts. Also, although the above explanation assumes that such "changing clothes" takes place before the video is distributed, it may take place during the video distribution.

以上、上述した装着アイテムは、動画内において装着オブジェクトとして表示されるものである。 The above-mentioned wearable items are displayed as wearable objects in the video.

なお、かかる装着アイテムは、無償で用意されたものの他、有償で購入するもの、ガチャ等の有償または無償で行うことが可能な抽選により入手できるものとすることができる。 In addition, such wearable items may be provided free of charge, purchased for a fee, or obtained through a lottery such as gacha, which may be conducted for a fee or free of charge.

あるいは、かかる装着アイテムは、動画を視聴する視聴ユーザにより投じられるギフトであってもよい。 Alternatively, such wearable items may be gifts given by viewers watching the video.

そして、本開示において、第1の装着オブジェクトと第2の装着オブジェクトとは、互いに関連付けられていることを特徴とする。 And, in this disclosure, the first attachment object and the second attachment object are characterized by being associated with each other.

一例として、分割された特定の図柄の一方が描かれたものを第1の装着オブジェクト、分割された特定の図柄の他方が描かれたものを第2の装着オブジェクトとして互いに関連付けられることができる。 As an example, one of the divided specific patterns can be associated with a first attachment object, and the other of the divided specific pattern can be associated with a second attachment object.

図14(a)-(b)、図15(a)-(b)、図16(a)は、一例として、特定の図柄が動物、文字および記号、食べ物、ブロックの塊等である例を示したものである。 Figures 14(a)-(b), 15(a)-(b), and 16(a) show examples in which the specific designs are animals, letters and symbols, food, blocks, etc.

なお、かかる分割数は2分割に限定されず、3分割等とし、3つの装着オブジェクトが互いに関連付けられるものとしてもよい。 The number of divisions is not limited to two, but may be three, etc., and the three attachment objects may be associated with each other.

また、他の例として、対となるアイテムの一方の図柄が描かれたものを第1の装着オブジェクト、対となるアイテムの他方の図柄が描かれたものを第2の装着オブジェクトとして互いに関連付けられることができる。 As another example, an object depicting one of the paired items can be associated with another, with the first attachment object depicting the other of the paired items as the second attachment object.

図16(b)は、一例として、対となるアイテムがペアネックレスである例を示したものである。ペアネックレスは、一例として、一方が錠前、他方が錠を表している。 Figure 16(b) shows an example of a pair of necklaces, where one necklace represents a lock and the other represents a lock.

あるいは、一例として図17(a)に示されるように、アルファベットやひらがなの文字が一文字ずつ描かれた装着オブジェクトが用意されている場合に、図17(b)に示すように、並べることで単語を構成することができる装着オブジェクトを互いに関連付けることもできる。 Alternatively, as an example, as shown in FIG. 17(a), when attachable objects depicting individual letters of the alphabet or hiragana are prepared, the attachable objects can be associated with each other so that they can be arranged to form words, as shown in FIG. 17(b).

あるいは、同じ図柄が描かれたものを第1の装着オブジェクトおよび第2の装着オブジェクトとし、互いに関連付けてもよい。 Alternatively, the first and second attachment objects may have the same design and be associated with each other.

これら第1の装着オブジェクトおよび第2の装着オブジェクトの関連付けは、図18に示すような装着オブジェクト対応テーブルとして所定の記憶装置に記憶されるものとする。 The association between the first and second attachment objects is stored in a specified storage device as an attachment object correspondence table such as that shown in FIG. 18.

図18に示す例において、関連付けNo.0001では、識別番号OB0101の第1の装着オブジェクトと識別番号OB0102の第2の装着オブジェクトとが関連付けられている。 In the example shown in FIG. 18, in association No. 0001, a first attachment object with identification number OB0101 is associated with a second attachment object with identification number OB0102.

同様に、関連付けNo.0002では、識別番号OB0103の第1の装着オブジェクトと識別番号OB0104の第2の装着オブジェクトと識別番号OB0105の第3の装着オブジェクトが関連付けられている。 Similarly, in association No. 0002, a first attachment object with identification number OB0103, a second attachment object with identification number OB0104, and a third attachment object with identification number OB0105 are associated with each other.

同様に、関連付けNo.0003では、識別番号OB0001の第1の装着オブジェクトと識別番号OB0002の第2の装着オブジェクトと識別番号OB0003の第3の装着オブジェクトと識別番号OB0004の第4の装着オブジェクトが関連付けられている。 Similarly, in association No. 0003, a first attachment object with identification number OB0001, a second attachment object with identification number OB0002, a third attachment object with identification number OB0003, and a fourth attachment object with identification number OB0004 are associated.

同様に、関連付けNo.0004では、識別番号OB0106の第1の装着オブジェクトと識別番号OB0107の第2の装着オブジェクトとが関連付けられている。 Similarly, in association No. 0004, a first attachment object with identification number OB0106 is associated with a second attachment object with identification number OB0107.

同様に、関連付けNo.0005では、識別番号OB0107の第1の装着オブジェクトと識別番号OB0106の第2の装着オブジェクトとが関連付けられている。 Similarly, in association No. 0005, a first attachment object with identification number OB0107 is associated with a second attachment object with identification number OB0106.

かかる所定の記憶装置は、本開示における情報処理装置が備えるもの、または情報処理装置に接続されたものとすることができる。 Such a specified storage device may be provided in the information processing device of this disclosure or may be connected to the information processing device.

上記図14-図17に示した例では、装着アイテムとしてトップスのフロント面に図柄が描かれたもののみを示したが、図柄が描かれるベースのアイテムはトップスに限られずにボトムスやアクサセリであってもよく、関連付けに関しても同種のアイテムに限られるものではない。また、図柄が描かれるのはフロント面に限られず、バック面であってもよい。 In the examples shown in Figures 14-17 above, only tops with patterns drawn on the front surface are shown as wearable items, but the base item on which the pattern is drawn is not limited to a top, but can also be bottoms or accessories, and the association is not limited to items of the same type. Also, the pattern is not limited to being drawn on the front surface, but can also be on the back surface.

また、関連付けられる装着アイテムは、1対1の関係に限られるものではない。例えば、特定の図柄がアイス部分とコーン部分で構成されるソフトクリームの場合には、アイス部分の色を変えることで様々な味を連想させるように、コーン部分の図柄が描かれた装着アイテムに対し、色の異なるアイス部分の図柄が描かれた複数の装着アイテムが関連付けられてもよい。具体的には、特定の図柄としてバニラソフトクリーム、メロンソフトクリーム、イチゴソフトクリームなどが挙げられる。 Furthermore, the associated wearable items are not limited to a one-to-one relationship. For example, in the case of a soft serve ice cream with a specific design consisting of an ice cream portion and a cone portion, multiple wearable items with different colored ice cream portions may be associated with a wearable item with a cone portion design, so that different flavors can be associated with different colors of ice cream portion. Specifically, examples of specific designs include vanilla soft serve ice cream, melon soft serve ice cream, and strawberry soft serve ice cream.

同様に、特定の図柄がライス部分とソース部分で構成される食べ物の場合には、ソース部分の色や形状を変えることで様々な料理を連想させるように、ライス部分の図柄が描かれる装着アイテムに対し、色や形状の異なるソース部分の図柄が描かれた複数の装着アイテムが関連付けられてもよい。具体的には、特定の図柄としてカレーライス、ハヤシライス、麻婆豆腐などが挙げられる。 Similarly, in the case of a food item with a specific design consisting of rice and sauce, multiple wearable items with different colors and shapes of sauce may be associated with a wearable item with a design of the rice portion, so that different colors and shapes of the sauce portion can be associated with the food item with a specific design, so that different dishes can be associated with the food item with different colors and shapes of sauce. Specific examples of specific designs include curry rice, hayashi rice, and mapo tofu.

表現部450は、判定部440により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合(ここでは「ペアルック成立」と呼ぶ。)に、動画内に特定の効果を表示させる。 When the determination unit 440 determines that the second avatar is wearing the second wearable object (herein referred to as a "matching look"), the expression unit 450 displays a specific effect within the video.

特定の効果とは、動画内に生じるものであれば特に限定されるものではなく、一例として、動画内に演出効果を追加したり、第1の装着オブジェクトに描かれた図柄および第2の装着オブジェクトに描かれた図柄を組み合わせることで生まれた特定の図柄に対応するオブジェクトを動画内に生じさせたりするものを含む。詳細については後述する。 The specific effect is not particularly limited as long as it occurs within the video, and examples include adding a dramatic effect to the video, and creating an object within the video that corresponds to a specific pattern created by combining a pattern drawn on a first attachment object and a pattern drawn on a second attachment object. Details will be described later.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

例えば、第1のアバタが第1の装着オブジェクトを着用して動画に出演している場合に、第2の装着オブジェクトを有する視聴ユーザは、自身の第2のアバタに第2の装着オブジェクトを着用させて第1のアバタと共演させてみたくなることが期待される。また、特定の効果の発生は、動画の内容の興趣性を高め、出演者間、および/または、出演者と視聴者との間の会話が弾み、コミュニケーションの活性化にもつなげることができる。 For example, if a first avatar appears in a video wearing a first wearable object, a viewing user who has a second wearable object is expected to want to have his or her second avatar wear the second wearable object and perform together with the first avatar. Furthermore, the occurrence of a specific effect can increase the interest of the content of the video and stimulate conversation between the performers and/or between the performers and the viewers, leading to more active communication.

また、一又は複数のコンピュータプロセッサは、報酬付与部(図示せず)を備えることができる。報酬付与部は、動画を視聴した視聴ユーザに対して視聴ボーナスと呼ばれる報酬を付与するものである。 The one or more computer processors may also include a reward granting unit (not shown). The reward granting unit grants a reward called a viewing bonus to a viewing user who has viewed a video.

また、報酬付与部は、視聴ユーザに対し、動画の視聴の有無または視聴時間に応じて視聴ボーナスを付与する。そして、報酬付与部は、判定部440により第2のアバタに第2の装着オブジェクトが装着されていると判定された動画(ペアルックが成立している動画)を視聴した場合に、第2のアバタに第2の装着オブジェクトが装着されていないと判定された動画(ペアルックが成立していない動画)を視聴した場合よりも多く視聴ボーナスを付与するものとすることができる。 The reward granting unit grants a viewing bonus to the viewing user depending on whether or not the user has watched the video and the viewing time. The reward granting unit can grant a larger viewing bonus when the user watches a video in which the determination unit 440 determines that the second avatar is wearing the second wearable object (a video in which a matching look is established) than when the user watches a video in which the determination unit 440 determines that the second avatar is not wearing the second wearable object (a video in which a matching look is not established).

かかる構成によれば、ペアルックを成立させようと、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 This configuration can stimulate communication between performers and/or between performers and viewers in an effort to create matching outfits.

続いて、第1の装着オブジェクトおよび第2の装着オブジェクトの実施形態について説明する。 Next, we will explain embodiments of the first and second attachment objects.

図14(a)-(b)、図15(a)-(b)、図16(a)にて示したように、第1の装着オブジェクトは、第1の画像部分および第2の画像部分で構成される特定の画像のうち第1の画像に対応する部分を有する装着オブジェクトとすることができる。 As shown in Figures 14(a)-(b), 15(a)-(b), and 16(a), the first attachment object can be an attachment object having a portion that corresponds to the first image of a specific image that is composed of a first image portion and a second image portion.

このとき、第2の装着オブジェクトは、特定の画像のうち第2の画像に対応する部分を有する装着オブジェクトとすることができる。 In this case, the second attachment object can be an attachment object that has a portion of the specific image that corresponds to the second image.

ここで、特定の画像は、第1の画像部分および第2の画像部分の切断面を接合させて完成する画像の他、第1の画像部分および第2の画像部分を重畳させることで完成する画像も含むものとすることができる。 Here, the specific image can include an image that is completed by joining the cut surfaces of the first image portion and the second image portion, as well as an image that is completed by superimposing the first image portion and the second image portion.

あるいは、図16(b)にて示したように、対となるアイテムの一方の図柄が描かれたものを第1の装着オブジェクト、対となるアイテムの他方の図柄が描かれたものを第2の装着オブジェクトとすることができる。 Alternatively, as shown in FIG. 16(b), a first attachment object can be an object depicting one of the paired items, and a second attachment object can be an object depicting the other of the paired items.

あるいは、図17(a)にて示したように、アルファベットやひらがなの文字が一文字ずつ描かれた装着オブジェクトが用意されている場合に、図17(b)に示すように、並べることで単語を構成することができる複数の装着オブジェクトを関連付けることもできる。 Alternatively, as shown in FIG. 17(a), when an attachable object is prepared that depicts each individual letter of the alphabet or hiragana, it is also possible to associate multiple attachable objects that can be arranged to form words, as shown in FIG. 17(b).

ここで、図14-図17に示した装着オブジェクトのうち、アイス、カレー、ブロック、ペアネックレスなどは第1の装着オブジェクトと第2の装着オブジェクトの表示位置は限定せずに、それ以外の動物、文字などは表示位置を限定してもよい。 Here, among the wearable objects shown in Figures 14 to 17, the display positions of the first and second wearable objects such as ice cream, curry, blocks, and matching necklaces may not be limited, while the display positions of the other wearable objects such as animals and letters may be limited.

ここでいう装着オブジェクトの表示位置とは、図7-図8に示したような、当該装着オブジェクトを着用したアバタの画面上の表示位置により定められるものとすることができる。 The display position of the wearable object here can be determined by the display position on the screen of the avatar wearing the wearable object, as shown in Figures 7 and 8.

すなわち、装着オブジェクトには、表示位置が限定される関係のものと、表示位置が限定されない関係のものとがあってもよい。 In other words, there may be attachment objects whose display positions are limited and those whose display positions are not limited.

このとき、第1の装着オブジェクトおよび第2の装着オブジェクトには、互いの位置関係に関する情報が設定されることができる。 At this time, information regarding the relative positions of the first and second attachment objects can be set.

そして、判定部440は、さらに、位置関係が所定の条件を満たしているかを判定し、表現部450は、さらに、判定部440により位置関係が所定の条件を満たしていると判定された場合に、動画内に特定の効果を表示させる。 The determination unit 440 then determines whether the positional relationship satisfies a predetermined condition, and the expression unit 450 further displays a specific effect within the video if the determination unit 440 determines that the positional relationship satisfies the predetermined condition.

判定部440は、上記位置関係を、図18に示した装着オブジェクト対応テーブルに記載の順序に基づいて判定してもよいし、別途用意された位置関係テーブルに基づいて判定してもよい。前者の場合、装着オブジェクト対応テーブルは関連付けNo.0004と関連付けNo.0005のように順序に関しても定める必要があり、後者の場合、関連付けNo.0004があれば関連付けNo.0005は不要である。 The determination unit 440 may determine the above positional relationship based on the order described in the attachment object correspondence table shown in FIG. 18, or may determine the above positional relationship based on a separately prepared positional relationship table. In the former case, the attachment object correspondence table must also determine the order, such as association No. 0004 and association No. 0005, and in the latter case, if association No. 0004 exists, association No. 0005 is not necessary.

また、表現部450は、判定部440により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合であって、位置関係が所定の条件を満たしていると判定された場合の特定の効果(第1の特定の効果)と、判定部440により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合であって、位置関係が所定の条件を満たしていないと判定された場合の特定の効果(第2の特定の効果)の内容を異ならせてもよい。 The expression unit 450 may also differentiate between a specific effect (first specific effect) when the determination unit 440 determines that the second attachment object is attached to the second avatar and that the positional relationship satisfies a predetermined condition, and a specific effect (second specific effect) when the determination unit 440 determines that the second attachment object is attached to the second avatar and that the positional relationship does not satisfy a predetermined condition.

具体的には、第1の特定の効果よりも第2の特定の効果の方が豪華な演出になるようにする。 Specifically, the second specific effect will be more spectacular than the first specific effect.

また、第1の特定の効果は、第2の特定の効果の発生が起こりそうであることを示唆するような効果とすることもできる。 The first specific effect can also be an effect that suggests that the occurrence of the second specific effect is likely.

表現部450は、さらに、判定部440により位置関係が所定の条件を満たしていないと判定された場合に、位置関係に関する情報が所定の条件を満たすよう、第1のアバタおよび第2のアバタの表示位置を変更する。 When the determination unit 440 determines that the positional relationship does not satisfy a predetermined condition, the expression unit 450 further changes the display positions of the first avatar and the second avatar so that the information regarding the positional relationship satisfies the predetermined condition.

すなわち、表現部450は、第1のアバタが第2の装着アイテムを装着し、第2のアバタが第1の装着アイテムを装着している場合には、第1のアバタと第2のアバタの表示位置を入れ替える。 In other words, when the first avatar is wearing the second wearable item and the second avatar is wearing the first wearable item, the expression unit 450 switches the display positions of the first avatar and the second avatar.

あるいは、表現部450は、第1のアバタが第2の装着アイテムを装着し、第2のアバタが第1の装着アイテムを装着している場合には、第1のアバタが第1の装着アイテムを装着し、第2のアバタが第2の装着アイテムを装着しているように装着アイテムを入れ替えてもよい。ただし、この入れ替えは第1のアバタと第2のアバタの共演動画内においてのみであって、所有権を入れ替えるものではない。 Alternatively, when the first avatar is wearing the second wearable item and the second avatar is wearing the first wearable item, the expression unit 450 may exchange the wearable items so that the first avatar is wearing the first wearable item and the second avatar is wearing the second wearable item. However, this exchange is only within the video in which the first avatar and the second avatar appear together, and does not involve an exchange of ownership.

受付部420は、さらに、配信ユーザ端末から送信される、第1のアバタおよび/または第2のアバタの動画内における表示位置に関する指示を受け付けることができる。 The reception unit 420 can further receive instructions regarding the display position of the first avatar and/or the second avatar within the video, transmitted from the broadcast user terminal.

このとき、アバタ表示部430は、受付部420が受け付けた指示に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させることができる。 At this time, the avatar display unit 430 can display in the video a second avatar, which is a character object generated based on the movement of the viewing user, in response to the instruction received by the reception unit 420.

すなわち、配信ユーザは、自身のアバタである第1のアバタおよびゲストのアバタである第2のアバタの表示位置を指定することができる。かかる表示位置は、予め複数個所定められており、この中から指定するものとしてもよい。 In other words, the broadcasting user can specify the display positions of the first avatar, which is the broadcasting user's own avatar, and the second avatar, which is the guest's avatar. A number of such display positions are determined in advance, and the broadcasting user can specify one from among them.

続いて、特定の効果の実施例について説明する。 Next, we'll explain some examples of specific effects.

表現部450は、特定の効果として、動画内に特定の画像に対応するオブジェクトを出現させることができる。 As a specific effect, the expression unit 450 can make an object corresponding to a specific image appear within the video.

特定の画像とは、第1の画像部分および第2の画像部分で構成される画像である。具体的には、第1の画像部分がカレーの画像、第2の画像部分がライスの画像である場合には、特定の画像はカレーライスの画像である。 A specific image is an image that is composed of a first image portion and a second image portion. Specifically, if the first image portion is an image of curry and the second image portion is an image of rice, the specific image is an image of curry rice.

あるいは、表現部450は、特定の効果として、動画内に演出効果を追加することができる。 Alternatively, the expression unit 450 can add dramatic effects to the video as a specific effect.

演出効果とは、後光や紙吹雪などの視覚的な演出効果の他、効果音などの聴覚的な演出効果も含まれる。 These effects include visual effects such as halos and confetti, as well as auditory effects such as sound effects.

本開示における一又は複数のコンピュータプロセッサは、さらに、図19に示すように、装着受付部460と、変更誘導部470とを備えることができる。 The one or more computer processors in the present disclosure may further include an attachment reception unit 460 and a change guidance unit 470, as shown in FIG. 19.

装着受付部460は、配信ユーザ端末から送信される第1のアバタに第1の装着オブジェクトを装着させる指示を受け付ける。 The wearing reception unit 460 receives an instruction sent from the broadcast user terminal to wear the first wearing object on the first avatar.

かかる指示は、図13に示したクローゼットボタン37を押すことにより遷移するクローゼット画面から行うことができる。 Such instructions can be given from the closet screen, which is accessed by pressing the closet button 37 shown in FIG. 13.

変更誘導部470は、装着受付部460が指示を受け付けた場合に、第1のアバタのプロフィール画像の変更を促す画面を表示する。 When the wearing reception unit 460 receives an instruction, the change guidance unit 470 displays a screen that prompts the user to change the profile image of the first avatar.

具体的には、図11に示したような決定ボタン33を押した際に、図20に示すように、プロフィール画像を変更するか否かの確認画面を表示させることができる。 Specifically, when the decision button 33 as shown in FIG. 11 is pressed, a confirmation screen as shown in FIG. 20 can be displayed to ask whether or not to change the profile image.

かかるプロフィール画像は、図5に示したような配信チャンネル202のサムネイル表示に利用される画像である。 Such a profile image is the image used to display a thumbnail of the distribution channel 202 as shown in FIG. 5.

プロフィール画像は、初期設定または変更時に着用していた装着アイテムが適用されたアバタの静止画となることから、第1の装着オブジェクトの装着時に最新のものとさせることが目的である。 The profile picture is a still image of the avatar with the wearable items worn at the time of initial setup or modification applied, so the purpose is to make it the latest when the first wearable object is put on.

かかる構成によれば、第1の装着アイテムを着用した第1のアバタがプロフィール画像として配信チャンネル202のサムネイル表示に利用されることから、第2の装着オブジェクトを有する視聴ユーザの、自身の第2のアバタに第2の装着オブジェクトを着用させて第1のアバタと共演させようというモチベーションを向上させることができる。 According to this configuration, the first avatar wearing the first wearable item is used as a profile image in the thumbnail display of the distribution channel 202, which can increase the motivation of a viewing user who has a second wearable object to have his or her second avatar wear the second wearable object and perform together with the first avatar.

また、視聴ユーザによる第1の装着アイテムを着用した第1のアバタの動画へ共演申請を受け付けた際にも、視聴ユーザに対し、第2の装着アイテムへの着替えを行うか否かの確認を行い、クローゼット画面へ遷移させてもよい。 Also, when a request is received from a viewing user to co-star in a video of a first avatar wearing a first wearable item, the viewing user may be asked whether or not to change into a second wearable item, and the screen may transition to a closet screen.

あるいは、配信チャンネル202のサムネイル表示に、第1の装着アイテムを装着していることを示すマークを加えてもよい。かかる構成によれば、第2の装着アイテムを装着または有しているアバタを持つ視聴者に対し、動画への参加を求めていることが分かり易くなる。 Alternatively, a mark indicating that the first wearable item is being worn may be added to the thumbnail display of the distribution channel 202. With this configuration, it becomes easier for viewers with avatars that are wearing or holding the second wearable item to understand that they are being asked to participate in the video.

また、第1の装着アイテムと関連付けられた第2の装着アイテムを有している視聴ユーザに対し、第1の装着アイテムを装着して配信中の配信ユーザを一覧表示させ、かかる一覧の中から配信ユーザを選択することにより、共演申請を送信できるように構成してもよい。 Also, a viewing user who has a second wearable item associated with a first wearable item may be configured to be able to send a request to perform together by displaying a list of broadcast users who are wearing the first wearable item and broadcasting, and selecting a broadcast user from the list.

上述したように、受付部420は、さらに1以上の他の視聴ユーザ端末から送信される動画への参加要求を受け付けることができる。 As described above, the reception unit 420 can further receive a request to join the video transmitted from one or more other viewing user terminals.

アバタ表示部430は、図8に示したように、さらに、受付部420が受け付けた表示要求に応じて、動画に1以上の他の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである1以上の第3のアバタを表示させる。 As shown in FIG. 8, the avatar display unit 430 further displays, in response to the display request received by the reception unit 420, one or more third avatars, which are character objects generated based on the movements of one or more other viewing users, in the video.

このとき、判定部440は、アバタ表示部430により表示された第1のアバタに第1の装着オブジェクトが装着されている場合に、第2のアバタおよび/または第3のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。 At this time, when the first attachment object is attached to the first avatar displayed by the avatar display unit 430, the determination unit 440 determines whether the second avatar and/or the third avatar is attached to a second attachment object associated with the first attachment object.

そして、表現部450は、判定部440により第2のアバタおよび/または第3のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。 Then, when the determination unit 440 determines that the second attachment object is attached to the second avatar and/or the third avatar, the expression unit 450 displays a specific effect in the video.

また、表現部450は、判定部440により第2のアバタまたは第3のアバタに第2の装着オブジェクトが装着されていると判定された場合の特定の効果(第3の特定の効果)と、判定部440により第2のアバタおよび第3のアバタに第2の装着オブジェクトが装着されていると判定された場合の特定の効果(第4の特定の効果)の内容を異ならせてもよい。 The expression unit 450 may also differentiate between the specific effect (third specific effect) when the determination unit 440 determines that the second attachment object is attached to the second avatar or the third avatar and the specific effect (fourth specific effect) when the determination unit 440 determines that the second attachment object is attached to the second avatar and the third avatar.

具体的には、第3の特定の効果よりも第4の特定の効果の方が豪華な演出になるようにする。 Specifically, the fourth special effect will be more spectacular than the third special effect.

また、第3の特定の効果は、第4の特定の効果の発生が起こりそうであることを示唆するような効果とすることもできる。 The third specific effect can also be an effect that suggests that the occurrence of the fourth specific effect is likely.

また、本開示における情報処理システムの他の実施形態として、第1の装着アイテムを着用している第1のアバタの配信中動画に参加要求を送信できるのは、第2の装着アイテムを着用している第2のアバタを有する視聴ユーザに限るものとしてもよい。 In another embodiment of the information processing system of the present disclosure, only viewing users who have a second avatar wearing a second wearable item can send a participation request to a video currently being streamed of a first avatar wearing a first wearable item.

また、配信ユーザは、受信する参加要求を第2の装着アイテムを着用している第2のアバタを有する視聴ユーザに限るものとしてもよい。 The broadcasting user may also limit the participation requests it receives to viewing users who have a second avatar wearing the second wearable item.

あるいは、参加要求の承認/拒否画面において、参加要求を送信した視聴ユーザが、第2の装着アイテムを着用している第2のアバタを有しているか否かを示す情報を表示してもよい。 Alternatively, the participation request approval/rejection screen may display information indicating whether the viewing user who sent the participation request has a second avatar wearing a second wearable item.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

例えば、第1のアバタが第1の装着オブジェクトを着用して動画に出演している場合に、第2の装着オブジェクトを有する視聴ユーザは、自身の第2のアバタに第2の装着オブジェクトを着用させて第1のアバタと共演させてみたくなることが期待される。また、特定の効果の発生は、動画の内容の興趣性を高め、出演者間、および/または、出演者と視聴者との間の会話が弾み、コミュニケーションの活性化にもつなげることができる。 For example, if a first avatar appears in a video wearing a first wearable object, a viewing user who has a second wearable object is expected to want to have his or her second avatar wear the second wearable object and perform together with the first avatar. Furthermore, the occurrence of a specific effect can increase the interest of the content of the video and stimulate conversation between the performers and/or between the performers and the viewers, leading to more active communication.

続いて、本開示の実施形態における情報処理方法について説明を行う。 Next, we will explain the information processing method in an embodiment of the present disclosure.

本開示の実施形態における情報処理方法は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000における情報処理方法である。情報処理システム2000は、配信ユーザ端末100と、視聴ユーザ端末200と、情報処理装置400(サーバ装置400)とを備える。 The information processing method in the embodiment of the present disclosure is an information processing method in an information processing system 2000 that distributes video including animation of a character object generated based on the movement of a broadcasting user, as shown in FIG. 2. The information processing system 2000 includes a broadcasting user terminal 100, a viewing user terminal 200, and an information processing device 400 (server device 400).

本開示における情報処理方法は、図21に一例として示されるように、情報処理システム2000が備える一又は複数のプロセッサに、配信ステップS11、受付ステップS12、アバタ表示ステップS13、判定ステップS14および表現ステップS15を実行させる。 As shown as an example in FIG. 21, the information processing method of the present disclosure causes one or more processors included in the information processing system 2000 to execute a delivery step S11, a reception step S12, an avatar display step S13, a determination step S14, and a representation step S15.

配信ステップS11では、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザ端末に配信する。かかる情報は、配信ユーザ端末100から受信することができる。かかる配信ステップS11は、上述した配信部410により実行されることができる。 In the distribution step S11, information about a video including an animation of a first avatar, which is a character object of the broadcasting user, is distributed to the viewing user terminal. Such information can be received from the broadcasting user terminal 100. Such distribution step S11 can be executed by the above-mentioned distribution unit 410.

受付ステップS12では、視聴ユーザ端末から送信される動画への参加要求を受け付ける。かかる受付ステップS12は、上述した受付部420により実行されることができる。 In the reception step S12, a request to join the video transmitted from the viewing user terminal is received. Such reception step S12 can be executed by the reception unit 420 described above.

アバタ表示ステップS13では、受付ステップS12において受け付けた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。かかるアバタ表示ステップS13は、上述したアバタ表示部430により実行されることができる。 In the avatar display step S13, in response to the participation request accepted in the acceptance step S12, a second avatar, which is a character object generated based on the movement of the viewing user, is displayed in the video. Such an avatar display step S13 can be executed by the avatar display unit 430 described above.

判定ステップS14では、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップS13において表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。かかる判定ステップS14は、上述した判定部440により実行されることができる。 In the determination step S14, if the first attachment object is attached to the first avatar, it is determined whether the second avatar displayed in the avatar display step S13 is attached to a second attachment object associated with the first attachment object. Such a determination step S14 can be executed by the determination unit 440 described above.

表現ステップS15では、判定ステップS14において第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。かかる表現ステップS15は、上述した表現部450により実行されることができる。 In the expression step S15, if it is determined in the determination step S14 that the second attachment object is attached to the second avatar, a specific effect is displayed in the video. Such an expression step S15 can be executed by the expression unit 450 described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

続いて、本開示の実施形態におけるコンピュータプログラムについて説明を行う。 Next, we will explain the computer program in an embodiment of the present disclosure.

本開示の実施形態におけるコンピュータプログラムは、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000において実行されるコンピュータプログラムである。情報処理システム2000は、配信ユーザ端末100と、視聴ユーザ端末200と、情報処理装置400(サーバ装置400)とを備える。 The computer program in the embodiment of the present disclosure is a computer program executed in an information processing system 2000 that distributes videos including animations of character objects generated based on the movements of a broadcasting user, as shown in FIG. 2. The information processing system 2000 includes a broadcasting user terminal 100, a viewing user terminal 200, and an information processing device 400 (server device 400).

本開示におけるコンピュータプログラムは、情報処理システムが備える一又は複数のプロセッサに、配信機能と、受付機能と、アバタ表示機能と、判定機能と、表現機能とを実現させることを特徴とする。 The computer program disclosed herein is characterized in that it causes one or more processors included in an information processing system to realize a distribution function, a reception function, an avatar display function, a determination function, and an expression function.

配信機能は、配信ユーザのキャラクタオブジェクトである第2のアバタのアニメーションを含む動画に関する情報を、視聴ユーザ端末に配信する。 The distribution function distributes information about a video, including an animation of a second avatar, which is a character object of the distributing user, to the viewing user terminal.

受付機能は、視聴ユーザ端末から送信される動画への参加要求を受け付ける。 The reception function accepts requests to join a video sent from the viewing user's terminal.

アバタ表示機能は、受付機能により受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。 The avatar display function displays a second avatar, which is a character object generated based on the movements of the viewing user, in the video in response to the participation request accepted by the acceptance function.

判定機能は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップにおいて表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。 When a first attachment object is attached to a first avatar, the determination function determines whether a second attachment object associated with the first attachment object is attached to a second avatar displayed in the avatar display step.

表現機能は、判定機能により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。 The expression function displays a specific effect in the video when the determination function determines that the second avatar is equipped with a second wearable object.

上記機能は、図22に示す配信回路1410、受付回路1420、アバタ表示回路1430、判定回路1440および表現回路1450により実現されることができる。配信回路1410、受付回路1420、アバタ表示回路1430、判定回路1440および表現回路1450は、それぞれ上述した配信部410、受付部420、アバタ表示部430、判定部440および表現部450により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the distribution circuit 1410, reception circuit 1420, avatar display circuit 1430, determination circuit 1440, and expression circuit 1450 shown in FIG. 22. The distribution circuit 1410, reception circuit 1420, avatar display circuit 1430, determination circuit 1440, and expression circuit 1450 are realized by the distribution unit 410, reception unit 420, avatar display unit 430, determination unit 440, and expression unit 450 described above, respectively. Details of each unit are as described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

続いて、本開示の実施形態における配信ユーザ端末について説明を行う。 Next, we will explain the broadcast user terminal in an embodiment of the present disclosure.

本開示における配信ユーザ端末100は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000を構成する。情報処理システム2000は、さらに、視聴ユーザ端末200および情報処理装置400(サーバ装置400)を備える。 The broadcast user terminal 100 in the present disclosure constitutes an information processing system 2000 that broadcasts video including animation of a character object generated based on the movements of the broadcast user, as shown in FIG. 2. The information processing system 2000 further includes a viewing user terminal 200 and an information processing device 400 (server device 400).

そして、配信ユーザ端末100は、図23(a)に示すように、送信部110と、受信部120と、アバタ表示部130と、判定部140と、表現部150とを備える。 The broadcast user terminal 100 includes a transmitting unit 110, a receiving unit 120, an avatar display unit 130, a determining unit 140, and an expression unit 150, as shown in FIG. 23(a).

送信部110は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する。 The transmitting unit 110 transmits information about a video including an animation of a first avatar, which is a character object of the broadcasting user, to the server device.

受信部120は、視聴ユーザ端末から送信される動画への参加要求を受信する。 The receiving unit 120 receives a request to join a video sent from a viewing user terminal.

アバタ表示部130は、受信部120において受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。かかるアバタ表示部130は、上述した情報処理装置400が備えるアバタ表示部430と同様の機能構成とすることができる。 The avatar display unit 130 displays a second avatar, which is a character object generated based on the movement of the viewing user, in the video in response to the participation request received by the receiving unit 120. The avatar display unit 130 may have the same functional configuration as the avatar display unit 430 included in the information processing device 400 described above.

判定部140は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示部130により表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。かかる判定部140は、上述した情報処理装置400が備える判定部440と同様の機能構成とすることができる。 When a first attachment object is attached to a first avatar, the determination unit 140 determines whether a second attachment object associated with the first attachment object is attached to a second avatar displayed by the avatar display unit 130. The determination unit 140 may have the same functional configuration as the determination unit 440 included in the information processing device 400 described above.

表現部150は、判定部140により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。かかる表現部150は、上述した情報処理装置400が備える表現部450と同様の機能構成とすることができる。 The expression unit 150 displays a specific effect in the video when the determination unit 140 determines that the second avatar is wearing the second attachment object. The expression unit 150 may have the same functional configuration as the expression unit 450 included in the information processing device 400 described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

続いて、本開示の実施形態における配信ユーザ端末用のコンピュータプログラムについて説明を行う。 Next, we will explain the computer program for the broadcast user terminal in an embodiment of the present disclosure.

本開示におけるコンピュータプログラムは、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末100で実行されるコンピュータプログラムである。情報処理システム2000は、さらに、視聴ユーザ端末200および情報処理装置400(サーバ装置400)を備える。 The computer program in this disclosure is a computer program executed on a broadcast user terminal 100 constituting an information processing system that broadcasts videos including animations of character objects generated based on the movements of a broadcast user, as shown in FIG. 2. The information processing system 2000 further includes a viewing user terminal 200 and an information processing device 400 (server device 400).

そして、上記コンピュータプログラムは、配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、送信機能と、受信機能と、アバタ表示機能と、判定機能と、表現機能とを実現させる。 The computer program then causes one or more computer processors in the broadcast user terminal to realize a transmission function, a reception function, an avatar display function, a determination function, and an expression function.

送信機能は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する。 The transmission function transmits information about a video, including an animation of the first avatar, which is the broadcast user's character object, to the server device.

受信機能は、視聴ユーザ端末から送信される動画への参加要求を受信する。 The receiving function receives a request to join a video sent from a viewing user terminal.

アバタ表示機能は、受信機能により受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。 The avatar display function displays a second avatar, which is a character object generated based on the movements of the viewing user, in the video in response to the participation request accepted by the receiving function.

判定機能は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示機能により表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。 When a first attachment object is attached to a first avatar, the determination function determines whether a second attachment object associated with the first attachment object is attached to a second avatar displayed by the avatar display function.

表現機能は、判定機能により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。 The expression function displays a specific effect in the video when the determination function determines that the second avatar is equipped with a second wearable object.

上記機能は、図23(b)に示す送信回路1110、受信回路1120、アバタ表示回路1130、判定回路1140および表現回路1150により実現されることができる。送信回路1110、受信回路1120、アバタ表示回路1130、判定回路1140および表現回路1150は、それぞれ上述した送信部110、受信部120、アバタ表示部130、判定部140および表現部150より実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the transmission circuit 1110, reception circuit 1120, avatar display circuit 1130, determination circuit 1140, and expression circuit 1150 shown in FIG. 23(b). The transmission circuit 1110, reception circuit 1120, avatar display circuit 1130, determination circuit 1140, and expression circuit 1150 are realized by the transmission unit 110, reception unit 120, avatar display unit 130, determination unit 140, and expression unit 150 described above, respectively. Details of each unit are as described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

続いて、本開示の実施形態における配信ユーザ端末における情報処理方法について説明を行う。 Next, we will explain the information processing method in the broadcast user terminal in an embodiment of the present disclosure.

本開示における情報処理方法は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末100における情報処理方法である。情報処理システム2000は、さらに、視聴ユーザ端末200および情報処理装置400(サーバ装置400)を備える。 The information processing method of the present disclosure is an information processing method in a broadcasting user terminal 100 constituting an information processing system that broadcasts videos including animations of character objects generated based on the movements of a broadcasting user, as shown in FIG. 2. The information processing system 2000 further includes a viewing user terminal 200 and an information processing device 400 (server device 400).

本開示における情報処理方法は、図24に一例として示されるように、配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、送信ステップS21、受信ステップS22、アバタ表示ステップS23、判定ステップS24、表現ステップS25を実行させる。 As shown as an example in FIG. 24, the information processing method of the present disclosure causes one or more computer processors provided in the broadcast user terminal to execute a sending step S21, a receiving step S22, an avatar display step S23, a determining step S24, and a representation step S25.

送信ステップS21では、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置に送信する。かかる送信ステップS21は、上述した送信部110により実行されることができる。 In the transmission step S21, information about a video including an animation of the first avatar, which is the character object of the broadcasting user, is transmitted to the server device. Such transmission step S21 can be executed by the transmission unit 110 described above.

受信ステップS22では、視聴ユーザ端末から送信される動画への参加要求を受信する。かかる受信ステップS22は、上述した受信部120により実行されることができる。 In the receiving step S22, a request to join the video transmitted from the viewing user terminal is received. Such receiving step S22 can be executed by the receiving unit 120 described above.

アバタ表示ステップS23では、受信ステップS22において受け付けられた参加要求に応じて、視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを動画に表示させる。かかるアバタ表示ステップS23は、上述したアバタ表示部130により実行されることができる。 In the avatar display step S23, in response to the participation request accepted in the receiving step S22, a second avatar, which is a character object generated based on the movement of the viewing user, is displayed in the video. Such an avatar display step S23 can be executed by the avatar display unit 130 described above.

判定ステップS24は、第1のアバタに第1の装着オブジェクトが装着されている場合に、アバタ表示ステップS23において表示された第2のアバタに第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する。かかる判定ステップS24は、上述した判定部140により実行されることができる。 In the determination step S24, if the first attachment object is attached to the first avatar, it is determined whether the second avatar displayed in the avatar display step S23 is attached to a second attachment object associated with the first attachment object. Such a determination step S24 can be executed by the determination unit 140 described above.

表現ステップS25は、判定ステップS24により第2のアバタに第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。かかる表現ステップS25は、上述した表現部150により実行されることができる。 In the expression step S25, when it is determined in the determination step S24 that the second attachment object is attached to the second avatar, a specific effect is displayed in the video. Such an expression step S25 can be executed by the expression unit 150 described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

続いて、本開示の実施形態における視聴ユーザ端末について説明を行う。 Next, we will explain the viewing user terminal in an embodiment of the present disclosure.

本開示における視聴ユーザ端末200は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000を構成する。情報処理システム2000は、さらに、配信ユーザ端末100および情報処理装置400(サーバ装置400)を備える。 The viewing user terminal 200 in the present disclosure constitutes an information processing system 2000 that distributes video including animation of a character object generated based on the movement of a broadcasting user, as shown in FIG. 2. The information processing system 2000 further includes a broadcasting user terminal 100 and an information processing device 400 (server device 400).

そして、視聴ユーザ端末200は、図25(a)に示すように、受信部210と、表示部220と、送信部230とを備える。 The viewing user terminal 200 includes a receiving unit 210, a display unit 220, and a transmitting unit 230, as shown in FIG. 25(a).

受信部210は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する。 The receiving unit 210 receives information about a video including an animation of a first avatar, which is a character object of the broadcasting user, from the server device.

表示部220は、受信部210により受信された情報に基づいて、動画を表示する。 The display unit 220 displays the video based on the information received by the receiving unit 210.

送信部230は、サーバ装置に動画への参加要求を送信する。 The transmission unit 230 transmits a request to join the video to the server device.

そして、表示部220は、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。 Then, when the first attachment object is attached to the first avatar, the display unit 220 displays a specific effect in the video when it is determined that a second attachment object associated with the first attachment object is attached to a second avatar, which is a character object generated based on the movement of the viewing user displayed in the video in response to a participation request.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

続いて、本開示の実施形態における視聴ユーザ端末用のコンピュータプログラムについて説明を行う。 Next, we will explain the computer program for the viewing user terminal in an embodiment of the present disclosure.

本開示におけるコンピュータプログラムは、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システム2000を構成する視聴ユーザ端末200で実行されるコンピュータプログラムである。情報処理システム2000は、さらに、配信ユーザ端末100および情報処理装置400(サーバ装置400)を備える。 The computer program in this disclosure is a computer program executed on a viewing user terminal 200 constituting an information processing system 2000 that distributes videos including animations of character objects generated based on the movements of a broadcasting user, as shown in FIG. 2. The information processing system 2000 further includes a broadcasting user terminal 100 and an information processing device 400 (server device 400).

そして、上記コンピュータプログラムは、視聴ユーザ端末200が備える一又は複数のコンピュータプロセッサに、受信機能と、表示機能と、送信機能とを実現させる。 The computer program then causes one or more computer processors provided in the viewing user terminal 200 to realize a receiving function, a display function, and a transmitting function.

受信機能は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する。 The receiving function receives information about a video including an animation of the first avatar, which is the character object of the broadcasting user, from the server device.

表示機能は、受信機能により受信された情報に基づいて、動画を表示する。 The display function displays video based on the information received by the receiving function.

送信機能は、サーバ装置に動画への参加要求を送信する。 The sending function sends a request to join the video to the server device.

そして、表示機能は、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。 Then, when the first attachment object is attached to the first avatar, the display function displays a specific effect in the video when it is determined that a second attachment object associated with the first attachment object is attached to a second avatar, which is a character object generated based on the movement of the viewing user displayed in the video in response to a participation request.

上記機能は、図25(b)に示す受信回路1210、表示回路1220および送信回路1230により実現されることができる。受信回路1210、表示回路1220および送信回路1230は、それぞれ上述した受信部210、表示部220および送信部230により実現されるものとする。各部の詳細については上述したとおりである。 The above functions can be realized by the receiving circuit 1210, the display circuit 1220, and the transmitting circuit 1230 shown in FIG. 25(b). The receiving circuit 1210, the display circuit 1220, and the transmitting circuit 1230 are realized by the receiving unit 210, the display unit 220, and the transmitting unit 230 described above, respectively. Details of each unit are as described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

続いて、本開示の実施形態における視聴ユーザ端末における情報処理方法について説明を行う。 Next, we will explain the information processing method in the viewing user terminal in an embodiment of the present disclosure.

本開示における情報処理方法は、図2に示したように、配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザ端末200における情報処理方法である。情報処理システム2000は、さらに、配信ユーザ端末100および情報処理装置400(サーバ装置400)を備える。 The information processing method of the present disclosure is an information processing method in a viewing user terminal 200 constituting an information processing system that distributes video including animation of a character object generated based on the movement of a broadcasting user, as shown in FIG. 2. The information processing system 2000 further includes a broadcasting user terminal 100 and an information processing device 400 (server device 400).

本開示における情報処理方法は、図26に示されるように、視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、ステップS31~S34を実行させる。 As shown in FIG. 26, the information processing method of the present disclosure causes one or more computer processors provided in the viewing user terminal to execute steps S31 to S34.

ステップS31は、配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、サーバ装置から受信する。かかるステップS31は、上述した受信部210により実行されることができる。 Step S31 receives information about a video including an animation of a first avatar, which is a character object of the broadcasting user, from the server device. This step S31 can be executed by the receiving unit 210 described above.

ステップS32は、ステップS31において受信された情報に基づいて、動画を表示する。かかるステップS32、上述した表示部220により実行されることができる。 Step S32 displays the video based on the information received in step S31. This step S32 can be executed by the display unit 220 described above.

ステップS33は、サーバ装置に動画への参加要求を送信する。かかるステップS33は、上述した送信部230により実行されることができる。 Step S33 transmits a request to join the video to the server device. This step S33 can be executed by the transmission unit 230 described above.

ステップS34は、第1のアバタに第1の装着オブジェクトが装着されている場合に、参加要求に応じて動画に表示された視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタに、第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されていると判定された場合に、動画内に特定の効果を表示させる。かかるステップS34は、上述した表示部220により実行されることができる。 In step S34, when the first attachment object is attached to the first avatar, if it is determined that the second avatar, which is a character object generated based on the movement of the viewing user displayed in the video in response to the participation request, is attached with a second attachment object associated with the first attachment object, is attached. Such step S34 can be executed by the display unit 220 described above.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、以上の構成によれば、視聴ユーザの共演動画への出演意欲を向上させ、出演者間、および/または、出演者と視聴者との間のコミュニケーションを活性化させることができる。 The above configuration can provide a technical improvement that solves or alleviates at least some of the problems of the conventional technology described above. Specifically, the above configuration can increase viewers' motivation to appear in co-starring videos and stimulate communication between performers and/or between performers and viewers.

また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。 In addition, an information processing device such as a computer or a mobile phone can be suitably used to function as the server device or terminal device according to the above-mentioned embodiments. Such an information processing device can be realized by storing a program describing the processing contents for realizing each function of the server device or terminal device according to the embodiments in a memory unit of the information processing device, and reading and executing the program by the CPU of the information processing device.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be embodied in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents described in the claims.

また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。 The method described in the embodiment can be stored as a program that can be executed by a calculator (computer) on a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, MO, etc.), semiconductor memory (ROM, RAM, flash memory, etc.), and can also be distributed by transmitting it via a communication medium. The program stored on the medium also includes a setting program that configures the software means (including not only execution programs but also tables and data structures) that the calculator executes. The computer that realizes this device reads the program recorded on the recording medium, and in some cases, configures the software means using the setting program, and executes the above-mentioned processing by controlling the operation of the software means. Note that the recording medium referred to in this specification is not limited to a storage medium for distribution, but also includes a storage medium such as a magnetic disk or semiconductor memory provided inside the computer or in a device connected via a network. The storage unit may function as a main storage device, an auxiliary storage device, or a cache memory, for example.

1000 情報処理システム
2000 情報処理システム
100 配信ユーザ端末
200 視聴ユーザ端末
300 ネットワーク
400 情報処理装置
1000 Information processing system 2000 Information processing system 100 Broadcast user terminal 200 Viewing user terminal 300 Network 400 Information processing device

Claims (14)

配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムであって、
一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、
前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する配信部と、
前記視聴ユーザ端末から送信される前記動画への参加要求を受け付ける受付部と、
前記受付部が受け付けた前記参加要求に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させるアバタ表示部と、
前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示部により表示された前記第2のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定部と、
前記判定部により前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる表現部と
を備える情報処理システム。
An information processing system for distributing a video including an animation of a character object generated based on a movement of a distributor user, comprising:
one or more computer processors;
the one or more computer processors:
a distribution unit that distributes information about a video including an animation of a first avatar, which is a character object of the distribution user, to a viewing user terminal of a viewing user;
A reception unit that receives a request to join the video transmitted from the viewing user terminal;
an avatar display unit that displays, in the video, a second avatar, which is a character object generated based on a movement of the viewing user, in response to the participation request received by the reception unit;
a determination unit that, when a first attachment object is attached to the first avatar, determines whether a second attachment object associated with the first attachment object is attached to the second avatar displayed by the avatar display unit;
and an expression unit that, when the determination unit determines that the second wearable object is worn by the second avatar, displays a specific effect in the video.
前記一又は複数のコンピュータプロセッサは、さらに、
前記配信ユーザの配信ユーザ端末から送信される前記第1のアバタに前記第1の装着オブジェクトを装着させる指示を受け付ける装着受付部と、
前記装着受付部が前記指示を受け付けた場合に、前記第1のアバタのプロフィール画像の変更を促す画面を表示する変更誘導部と
を備えることを特徴とする請求項1に記載の情報処理システム。
The one or more computer processors further include:
a wearing receiving unit that receives an instruction to wear the first wearing object on the first avatar, the instruction being transmitted from a broadcast user terminal of the broadcast user;
2. The information processing system according to claim 1, further comprising: a change prompting unit that displays a screen prompting a user to change a profile picture of the first avatar when the wearing receiving unit receives the instruction.
前記第1の装着オブジェクトは、第1の画像部分および第2の画像部分で構成される特定の画像のうち前記第1の画像部分に対応する装着オブジェクトであり、
前記第2の装着オブジェクトは、前記特定の画像のうち前記第2の画像部分に対応する装着オブジェクトであることを特徴とする請求項1または2に記載の情報処理システム。
the first attachment object is an attachment object corresponding to the first image portion of a specific image that is configured with a first image portion and a second image portion;
3. The information processing system according to claim 1, wherein the second attachment object is an attachment object corresponding to the second image portion of the specific image.
前記表現部は、前記特定の効果として、前記動画内に前記特定の画像に対応するオブジェクトを出現させることを特徴とする請求項3に記載の情報処理システム。 The information processing system according to claim 3, characterized in that the expression unit causes an object corresponding to the specific image to appear in the video as the specific effect. 前記表現部は、前記特定の効果として、前記動画内に演出効果を追加することを特徴とする請求項3または4に記載の情報処理システム。 The information processing system according to claim 3 or 4, characterized in that the expression unit adds a dramatic effect to the video as the specific effect. 前記第1の装着オブジェクトおよび前記第2の装着オブジェクトには、互いの位置関係に関する情報が設定され、
前記判定部は、さらに、前記位置関係が所定の条件を満たしているかを判定し、
前記表現部は、さらに、前記判定部により前記位置関係が所定の条件を満たしていると判定された場合に、前記動画内に特定の効果を表示させることを特徴とする請求項1から5のいずれか一項に記載の情報処理システム。
information regarding a positional relationship between the first attachment object and the second attachment object is set;
The determination unit further determines whether the positional relationship satisfies a predetermined condition;
The information processing system according to any one of claims 1 to 5, characterized in that the expression unit further displays a specific effect within the video when the judgment unit judges that the positional relationship satisfies a predetermined condition.
前記第1の装着オブジェクトおよび前記第2の装着オブジェクトには、互いの位置関係に関する情報が設定され、
前記判定部は、さらに、前記位置関係が所定の条件を満たしているかを判定し、
前記表現部は、さらに、前記判定部により前記位置関係が所定の条件を満たしていないと判定された場合に、前記位置関係に関する情報が所定の条件を満たすよう、前記第1のアバタおよび前記第2のアバタの表示位置を変更することを特徴とする請求項1から5のいずれか一項に記載の情報処理システム。
information regarding a positional relationship between the first attachment object and the second attachment object is set;
The determination unit further determines whether the positional relationship satisfies a predetermined condition;
6. The information processing system according to claim 1, wherein, when the determination unit determines that the positional relationship does not satisfy a predetermined condition, the expression unit further changes display positions of the first avatar and the second avatar so that information regarding the positional relationship satisfies a predetermined condition.
前記受付部は、さらに、前記配信ユーザの配信ユーザ端末から送信される、前記第1のアバタおよび/または前記第2のアバタの前記動画内における表示位置に関する指示を受け付け、
前記アバタ表示部は、前記受付部が受け付けた前記指示に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させることを特徴とする請求項1から7のいずれか一項に記載の情報処理システム。
the reception unit further receives an instruction regarding a display position of the first avatar and/or the second avatar within the video, the instruction being transmitted from a broadcast user terminal of the broadcast user;
The information processing system according to any one of claims 1 to 7, characterized in that the avatar display unit displays, in the video, a second avatar, which is a character object generated based on a movement of the viewing user, in response to the instruction received by the reception unit.
前記受付部は、さらに1以上の他の視聴ユーザ端末から送信される前記動画への参加要求を受け付け、
前記アバタ表示部は、さらに、前記受付部が受け付けた前記参加要求に応じて、前記動画に前記1以上の他の視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである1以上の第3のアバタを表示させ、
前記判定部は、前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示部により表示された前記第2のアバタおよび/または前記第3のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定し、
前記表現部は、前記判定部により前記第2のアバタおよび/または前記第3のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させることを特徴とする請求項1から8のいずれか一項に記載の情報処理システム。
The reception unit further receives a request to join the video transmitted from one or more other viewing user terminals,
the avatar display unit further displays, in the video, one or more third avatars which are character objects generated based on movements of the one or more other viewing users in response to the participation request accepted by the acceptance unit;
the determination unit, when a first attachment object is attached to the first avatar, determines whether a second attachment object associated with the first attachment object is attached to the second avatar and/or the third avatar displayed by the avatar display unit;
The information processing system according to any one of claims 1 to 8, characterized in that the expression unit displays a specific effect in the video when the determination unit determines that the second avatar and/or the third avatar is equipped with the second wearable object.
配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムにおける情報処理方法であって、
前記情報処理システムが備える一又は複数のコンピュータプロセッサに、
前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、視聴ユーザの視聴ユーザ端末に配信する配信ステップと、
前記視聴ユーザ端末から送信される前記動画への参加要求を受け付ける受付ステップと、
前記受付ステップにおいて受け付けた前記参加要求に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させるアバタ表示ステップと、
前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示ステップにおいて表示された前記第2のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定ステップと、
前記判定ステップにおいて前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる表現ステップと
を実行させる情報処理方法。
1. An information processing method in an information processing system that distributes a video including an animation of a character object generated based on a movement of a distributor user, comprising:
The one or more computer processors of the information processing system include
a distribution step of distributing information about a video including an animation of a first avatar, which is a character object of the distribution user, to a viewing user terminal of a viewing user;
a receiving step of receiving a request to join the video transmitted from the viewing user terminal;
an avatar display step of displaying, in the video, a second avatar which is a character object generated based on a movement of the viewing user in response to the participation request received in the receiving step;
a determining step of determining, when a first attachment object is attached to the first avatar, whether a second attachment object associated with the first attachment object is attached to the second avatar displayed in the avatar displaying step;
and if it is determined in the determining step that the second wearable object is worn by the second avatar, executing an expressing step of displaying a specific effect in the video.
配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末用のコンピュータプログラムであって、
前記情報処理システムは、前記配信ユーザ端末、視聴ユーザの視聴ユーザ端末およびサーバ装置を備え、
前記配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、
前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、前記サーバ装置に送信する送信機能と、
前記視聴ユーザ端末から送信される前記動画への参加要求を受信する受信機能と、
前記受信機能により受け付けられた前記参加要求に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させるアバタ表示機能と、
前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示機能により表示された前記第2のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定機能と、
前記判定機能により前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる表現機能とを実現させるコンピュータプログラム。
A computer program for a broadcast user terminal constituting an information processing system for broadcasting a video including an animation of a character object generated based on a broadcast user's movement, comprising:
the information processing system comprises the broadcast user terminal, a viewing user terminal of a viewing user, and a server device;
One or more computer processors provided in the broadcast user terminal,
a transmission function of transmitting information about a video including an animation of a first avatar, which is a character object of the broadcast user, to the server device;
A receiving function for receiving a request to join the video transmitted from the viewing user terminal;
an avatar display function for displaying, in the video, a second avatar, which is a character object generated based on a movement of the viewing user, in response to the participation request received by the receiving function;
a determining function for determining whether a second attachment object associated with the first attachment object is attached to the second avatar displayed by the avatar display function when the first attachment object is attached to the first avatar;
and an expression function of displaying a specific effect in the video when it is determined by the determination function that the second wearable object is worn by the second avatar.
配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する配信ユーザ端末における情報処理方法であって、
前記情報処理システムは、前記配信ユーザ端末、視聴ユーザの視聴ユーザ端末およびサーバ装置を備え、
前記配信ユーザ端末が備える一又は複数のコンピュータプロセッサに、
前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、前記サーバ装置に送信する送信ステップと、
前記視聴ユーザ端末から送信される前記動画への参加要求を受信する受信ステップと、
前記受信ステップにおいて受信された前記参加要求に応じて、前記視聴ユーザの動きに基づいて生成されるキャラクタオブジェクトである第2のアバタを前記動画に表示させるアバタ表示ステップと、
前記第1のアバタに第1の装着オブジェクトが装着されている場合に、前記アバタ表示ステップにおいて表示された前記第2のアバタに前記第1の装着オブジェクトに関連付けられた第2の装着オブジェクトが装着されているかを判定する判定ステップと、
前記判定ステップにおいて前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画内に特定の効果を表示させる表現ステップと
を実行させる情報処理方法。
1. An information processing method in a broadcast user terminal constituting an information processing system for broadcasting a video including an animation of a character object generated based on a broadcast user's movement, comprising:
the information processing system comprises the broadcast user terminal, a viewing user terminal of a viewing user, and a server device;
One or more computer processors provided in the broadcast user terminal,
a transmitting step of transmitting information about a video including an animation of a first avatar, which is a character object of the broadcasting user, to the server device;
A receiving step of receiving a request to join the video transmitted from the viewing user terminal;
an avatar display step of displaying, in the video, a second avatar which is a character object generated based on a movement of the viewing user in response to the participation request received in the receiving step;
a determining step of determining, when a first attachment object is attached to the first avatar, whether a second attachment object associated with the first attachment object is attached to the second avatar displayed in the avatar displaying step;
and if it is determined in the determining step that the second wearable object is worn by the second avatar, executing an expressing step of displaying a specific effect in the video.
配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザの視聴ユーザ端末用のコンピュータプログラムであって、
前記情報処理システムは、配信ユーザ端末、前記視聴ユーザ端末およびサーバ装置を備え、
前記視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、
前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、前記サーバ装置から受信する受信機能と、
前記受信機能により受信された情報に基づいて、前記動画を表示する表示機能と、
前記視聴ユーザの動きに基づい生成されるキャラクタオブジェクトである第2のアバタに、前記配信ユーザの動きに基づいて生成されるキャラクタオブジェクトである第1のアバタに装着されている第1の装着オブジェクトに関連付けられた第2の装着オブジェクトであって、前記第2のアバタが前記第2の装着オブジェクトを装着して前記動画に出演することにより、前記動画内に特定の効果を表示可能な第2の装着オブジェクトが装着されているかを判定する判定機能と、
前記判定機能により前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画への参加要求の送信を許可する許可機能と、
前記サーバ装置に前記動画への参加要求を送信する送信機能と
を実現させるコンピュータプログラム。
A computer program for a viewing user terminal of a viewing user constituting an information processing system that distributes a video including an animation of a character object generated based on a distributor user's movement, comprising:
The information processing system comprises a broadcast user terminal, the viewing user terminal, and a server device,
One or more computer processors included in the viewing user terminal,
a receiving function for receiving information about a video including an animation of a first avatar, which is a character object of the broadcast user, from the server device;
a display function that displays the video based on the information received by the receiving function;
a determination function for determining whether a second avatar, which is a character object generated based on a movement of the viewing user, is wearing a second wearing object associated with a first wearing object worn by a first avatar, which is a character object generated based on a movement of the distributing user, and which is capable of displaying a specific effect in the video when the second avatar appears in the video wearing the second wearing object;
an authorization function that, when it is determined by the determination function that the second avatar is wearing the second wearable object, authorizes transmission of a request to join the video;
a sending function of sending a request to join the video to the server device.
配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する情報処理システムを構成する視聴ユーザの視聴ユーザ端末における情報処理方法であって、
前記情報処理システムは、配信ユーザ端末、前記視聴ユーザ端末およびサーバ装置を備え、
前記視聴ユーザ端末が備える一又は複数のコンピュータプロセッサに、
前記配信ユーザのキャラクタオブジェクトである第1のアバタのアニメーションを含む動画に関する情報を、前記サーバ装置から受信する受信ステップと、
前記受信ステップにおいて受信した情報に基づいて、前記動画を表示する表示ステップと、
前記視聴ユーザの動きに基づい生成されるキャラクタオブジェクトである第2のアバタに、前記配信ユーザの動きに基づいて生成されるキャラクタオブジェクトである第1のアバタに装着されている第1の装着オブジェクトに関連付けられた第2の装着オブジェクトであって、前記第2のアバタが前記第2の装着オブジェクトを装着して前記動画に出演することにより、前記動画内に特定の効果を表示可能な第2の装着オブジェクトが装着されているかを判定する判定ステップと、
前記判定ステップにおいて前記第2のアバタに前記第2の装着オブジェクトが装着されていると判定された場合に、前記動画への参加要求の送信を許可する許可ステップと、
前記サーバ装置に前記動画への参加要求を送信する送信ステップと
を実行させる情報処理方法。
An information processing method in a viewing user terminal of a viewing user constituting an information processing system that distributes a video including an animation of a character object generated based on a movement of a distributor user, comprising:
The information processing system comprises a broadcast user terminal, the viewing user terminal, and a server device,
One or more computer processors included in the viewing user terminal,
a receiving step of receiving information about a video including an animation of a first avatar, which is a character object of the broadcast user, from the server device;
a display step of displaying the moving image based on the information received in the receiving step;
a determining step of determining whether a second avatar, which is a character object generated based on a movement of the viewing user, is equipped with a second attachment object associated with a first attachment object attached to a first avatar, which is a character object generated based on a movement of the broadcasting user, and which is capable of displaying a specific effect in the video when the second avatar appears in the video wearing the second attachment object;
an enabling step of enabling transmission of a request to join the video when it is determined in the determining step that the second wearable object is worn by the second avatar;
and a sending step of sending a request to join the video to the server device.
JP2020047623A 2020-03-18 2020-03-18 Information processing system, information processing method, and computer program Active JP7490188B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020047623A JP7490188B2 (en) 2020-03-18 2020-03-18 Information processing system, information processing method, and computer program
JP2024075021A JP7655498B2 (en) 2020-03-18 2024-05-06 Information processing system, information processing method, and computer program
JP2025038838A JP2025078866A (en) 2020-03-18 2025-03-11 Information processing system, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047623A JP7490188B2 (en) 2020-03-18 2020-03-18 Information processing system, information processing method, and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024075021A Division JP7655498B2 (en) 2020-03-18 2024-05-06 Information processing system, information processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2021149407A JP2021149407A (en) 2021-09-27
JP7490188B2 true JP7490188B2 (en) 2024-05-27

Family

ID=77848850

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020047623A Active JP7490188B2 (en) 2020-03-18 2020-03-18 Information processing system, information processing method, and computer program
JP2024075021A Active JP7655498B2 (en) 2020-03-18 2024-05-06 Information processing system, information processing method, and computer program
JP2025038838A Pending JP2025078866A (en) 2020-03-18 2025-03-11 Information processing system, information processing method, and computer program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2024075021A Active JP7655498B2 (en) 2020-03-18 2024-05-06 Information processing system, information processing method, and computer program
JP2025038838A Pending JP2025078866A (en) 2020-03-18 2025-03-11 Information processing system, information processing method, and computer program

Country Status (1)

Country Link
JP (3) JP7490188B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7092930B1 (en) * 2021-09-30 2022-06-28 グリー株式会社 Program, information processing method, server and server information processing method
US12333668B2 (en) 2022-03-17 2025-06-17 Gree, Inc. Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device
JP7357862B2 (en) * 2022-03-17 2023-10-10 グリー株式会社 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP7398069B2 (en) * 2022-03-31 2023-12-14 グリー株式会社 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP7333529B1 (en) 2022-03-17 2023-08-25 グリー株式会社 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP7391340B2 (en) * 2022-03-29 2023-12-05 グリー株式会社 Computer programs, methods and server devices
JP7312975B1 (en) 2022-03-31 2023-07-24 グリー株式会社 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP7317325B1 (en) 2022-04-27 2023-07-31 グリー株式会社 Information processing system, information processing method and computer program
EP4465160A4 (en) 2022-08-12 2025-07-16 Samsung Electronics Co Ltd Method and device for communication using an avatar in a virtual space
JP7441448B1 (en) 2022-12-20 2024-03-01 グリー株式会社 Information processing system, information processing method and computer program
US12385568B2 (en) * 2023-09-05 2025-08-12 Deere & Company Flow plate assembly and method of controlling flow of a fluid

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003203A (en) 2008-06-23 2010-01-07 Yahoo Japan Corp Advertisement distribution device, method and system
JP2012079291A (en) 2010-09-08 2012-04-19 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2018007828A (en) 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント Program and electronic apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002248273A (en) 2001-02-26 2002-09-03 Square Co Ltd Video game device and its control method, program of video game and computer readable storage medium for recording this program
JP2017012779A (en) 2016-09-01 2017-01-19 グリー株式会社 Control method, computer and control program
JP7058034B2 (en) 2017-09-29 2022-04-21 グリー株式会社 Game processing program, game processing method, and game processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003203A (en) 2008-06-23 2010-01-07 Yahoo Japan Corp Advertisement distribution device, method and system
JP2012079291A (en) 2010-09-08 2012-04-19 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2018007828A (en) 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント Program and electronic apparatus

Also Published As

Publication number Publication date
JP7655498B2 (en) 2025-04-02
JP2024109635A (en) 2024-08-14
JP2025078866A (en) 2025-05-20
JP2021149407A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
JP7655498B2 (en) Information processing system, information processing method, and computer program
JP6668549B1 (en) Information processing system, information processing method, and computer program
JP7485308B2 (en) Information processing system, information processing method, and computer program
JP7531814B2 (en) Information processing system, information processing method, and computer program
US20220150288A1 (en) Information processing device and computer readable medium
JP6883140B1 (en) Information processing system, information processing method and computer program
JP2025063298A (en) Information processing system, information processing method, and computer program
JP7644431B2 (en) Information processing system, information processing method, and computer program
JP7709706B2 (en) PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING SYSTEM
JP2024088629A (en) Information processing system, information processing method, and computer program
JP6891311B2 (en) Information processing system, information processing method and computer program
JP7455297B2 (en) Information processing system, information processing method and computer program
JP7773742B2 (en) Information processing system, information processing method, and computer program
JP7193597B2 (en) Information processing system, information processing method and computer program
JP7301262B2 (en) Information processing system, information processing method and computer program
JP7148700B2 (en) Information processing system, information processing method and computer program
JP7555060B2 (en) Information processing system, information processing method, and computer program
JP7301298B2 (en) Information processing system, information processing method and computer program
Kaur et al. Zee TV and the creation of Hindi media communities in Singapore
JP2024139691A (en) Information processing system, information processing method, and computer program
Noam Into the Next Generation of Online Video: OTT Video 3.0
JP2023036662A (en) Information processing system, information processing method and computer program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231206

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240506

R150 Certificate of patent or registration of utility model

Ref document number: 7490188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350