JP2014167517A - Conversation providing system, game providing system, conversation providing method, game providing method, and program - Google Patents
Conversation providing system, game providing system, conversation providing method, game providing method, and program Download PDFInfo
- Publication number
- JP2014167517A JP2014167517A JP2013038837A JP2013038837A JP2014167517A JP 2014167517 A JP2014167517 A JP 2014167517A JP 2013038837 A JP2013038837 A JP 2013038837A JP 2013038837 A JP2013038837 A JP 2013038837A JP 2014167517 A JP2014167517 A JP 2014167517A
- Authority
- JP
- Japan
- Prior art keywords
- user
- conversation
- unit
- voice
- game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ユーザに対しオンラインで他者とコミュニケーションを円滑に図ることを可能とすること。
【解決手段】ユーザ端末に対して入力されたユーザの音声を音声認識し、認識結果を、ユーザの会話相手に対して送信する。ユーザの属性に応じた言語モデルを記憶する辞書記憶部を備え、辞書記憶部に記憶される複数の言語モデルの中から、ユーザの属性に応じて言語モデルを選択し、選択された言語モデルを用いてユーザの発話音声のデータを音声認識しても良い。
【選択図】図3To enable a user to smoothly communicate with others online.
Voice recognition of a user input to a user terminal is performed, and a recognition result is transmitted to a conversation partner of the user. A dictionary storage unit that stores a language model according to a user attribute is selected, a language model is selected according to a user attribute from a plurality of language models stored in the dictionary storage unit, and the selected language model is The user's speech data may be used for voice recognition.
[Selection] Figure 3
Description
本発明は、音声認識を用いた会話の技術に関する。 The present invention relates to a conversation technique using voice recognition.
近年、オンラインゲームが普及し、ゲームを通してチャットなどでコミュニケーションを図る技術が提案されている。例えば特許文献1には、各プレイヤが入力したメッセージが、ゲームサーバ装置に集められて各ビデオゲーム装置に配信され、チャットウィンドウにメッセージが表示される技術が開示されている。 In recent years, online games have become widespread, and techniques for communicating via chat etc. through games have been proposed. For example, Patent Document 1 discloses a technique in which messages input by each player are collected in a game server device and distributed to each video game device, and the message is displayed in a chat window.
しかしながら、ゲームを行いながらチャットのメッセージを入力することは非常に難しく、スムーズなコミュニケーションを図りにくいという問題があった。このような問題は、ゲームにおけるコミュニケーションに限った問題ではなく、オンラインでチャットを行う事によってコミュニケーションを図る技術全般に共通した問題である。
上記事情に鑑み、本発明は、ユーザに対しオンラインで他者とコミュニケーションを円滑に図ることを可能とする技術の提供を目的とする。
However, it is very difficult to input a chat message while playing a game, and there is a problem that smooth communication is difficult. Such a problem is not a problem limited to communication in a game, but is a problem common to all technologies for performing communication by chatting online.
In view of the above circumstances, an object of the present invention is to provide a technology that enables a user to smoothly communicate with others online.
本発明の一態様は、ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識部と、前記音声認識部の認識結果を、前記ユーザの会話相手に対して送信する通信部と、を備える会話提供システムである。 One aspect of the present invention is a voice recognition unit that recognizes a user's voice input to a user terminal, a communication unit that transmits a recognition result of the voice recognition unit to the conversation partner of the user, Is a conversation providing system.
本発明の一態様は、上記の会話提供システムであって、ユーザの属性に応じた言語モデルを記憶する辞書記憶部をさらに備え、前記音声認識部は、前記辞書記憶部に記憶される複数の言語モデルの中から、ユーザの属性に応じて言語モデルを選択し、選択された前記言語モデルを用いてユーザの発話音声のデータを音声認識する。 One aspect of the present invention is the conversation providing system described above, further including a dictionary storage unit that stores a language model corresponding to a user attribute, wherein the speech recognition unit includes a plurality of storage units stored in the dictionary storage unit. A language model is selected from the language model according to the user's attribute, and the speech data of the user is recognized using the selected language model.
本発明の一態様は、ユーザに対してオンラインゲームを提供するゲーム制御部と、ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識部と、前記音声認識部の認識結果を、前記ユーザの会話相手に対して送信する通信部と、を備えるゲーム提供システムである。 One aspect of the present invention provides a game control unit that provides an online game to a user, a voice recognition unit that recognizes a user's voice input to a user terminal, and a recognition result of the voice recognition unit. And a communication unit that transmits to the conversation partner of the user.
本発明の一態様は、ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識ステップと、前記音声認識ステップにおける認識結果を、前記ユーザの会話相手に対して送信する通信ステップと、を備える会話提供方法である。 One aspect of the present invention is a voice recognition step for recognizing a user's voice input to a user terminal, a communication step for transmitting a recognition result in the voice recognition step to the conversation partner of the user, Is a conversation providing method.
本発明の一態様は、ユーザに対してオンラインゲームを提供するゲーム制御ステップと、ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識ステップと、前記音声認識ステップにおける認識結果を、前記ユーザの会話相手に対して送信する通信ステップと、を備えるゲーム提供方法である。 One aspect of the present invention is a game control step for providing an online game to a user, a voice recognition step for voice recognition of a user's voice input to a user terminal, and a recognition result in the voice recognition step. And a communication step of transmitting to the user's conversation partner.
本発明の一態様は、コンピュータに対し、ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識ステップと、前記音声認識ステップにおける認識結果を、前記ユーザの会話相手に対して送信する通信ステップと、を実行させるためのコンピュータプログラムである。 According to one aspect of the present invention, a speech recognition step for recognizing a user's speech input to a user terminal and a recognition result in the speech recognition step are transmitted to a computer to a computer. And a communication step.
本発明の一態様は、コンピュータに対し、ユーザに対してオンラインゲームを提供するゲーム制御ステップと、ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識ステップと、前記音声認識ステップにおける認識結果を、前記ユーザの会話相手に対して送信する通信ステップと、を実行させるためのコンピュータプログラムである。 One aspect of the present invention is a game control step for providing an online game to a user to a computer, a voice recognition step for voice recognition of a user voice input to a user terminal, and the voice recognition step. A communication program for transmitting a recognition result to the conversation partner of the user.
本発明によれば、ユーザはオンラインで他者とコミュニケーションを円滑に図る事が可能となる。 According to the present invention, a user can smoothly communicate with others online.
以下、本発明による一実施形態に係る会話提供システムについて、図面を参照して説明する。
図1は、本発明の一実施形態に係るシステムの構成例を示した図である。会話提供システム300は、ネットワーク200を介して複数のユーザ端末100に接続されている。ユーザ端末100は、他者と会話を行うユーザによって使用される。
Hereinafter, a conversation providing system according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration example of a system according to an embodiment of the present invention. The
ユーザ端末100は、例えばパーソナルコンピュータ、タブレット装置、スマートフォン、ノートパソコン、ワークステーション、テレビ受像機、テレビ電話装置等の情報処理装置を用いて構成される。
図2は、ユーザ端末100の機能構成を示す概略ブロック図である。
音声入力部101は、ユーザの発話内容をユーザ端末100に入力する。具体的には、音声入力部101は、ユーザが発話することによって生じた音波を受け、音波に応じたアナログ信号を生成する。音声入力部101は、生成されたアナログ信号を信号処理部102に出力する。
The
FIG. 2 is a schematic block diagram illustrating a functional configuration of the
The
信号処理部102は、音声入力部101によって生成されたアナログ信号を、デジタル信号の音声データに変換する。
送受信部103は、信号処理部102によって生成された音声データに対し、ユーザに対して付与されているユーザIDを付与する。そして、送受信部103は、ユーザIDが付与された音声データを会話提供システム300に送信する。また、送受信部103は、会話提供システム300から会話データを受信する。会話データには、ユーザ端末100のユーザの発話内容を表す文字列や、他のユーザ端末100のユーザの発話内容を表す文字列が含まれる。
表示部104は、会話提供システム300から受信された会話データの内容を表示する。ユーザ端末100のユーザは、表示された文字列を視認し、発言することによって他者と会話(文字チャット)を行う事ができる。
The
The transmission /
The
図3は、会話提供システム300の機能構成を示す概略ブロック図である。会話提供システム300は、1台又は複数台の情報処理装置によって構成される。例えば、会話提供システム300が一台の情報処理装置で構成される場合、情報処理装置は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、会話提供プログラムを実行する。会話提供プログラムの実行によって、情報処理装置は、通信部301、ユーザ情報記憶部302、会話情報記憶部303、会話制御部304、辞書記憶部305、音声認識部306を備える装置として機能する。なお、会話提供システム300の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。また、会話提供システム300は、専用のハードウェアによって実現されても良い。会話提供プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。会話提供プログラムは、電気通信回線を介して送受信されても良い。
FIG. 3 is a schematic block diagram illustrating a functional configuration of the
通信部301は、ネットワーク200を介してユーザ端末100と通信を行う。
ユーザ情報記憶部302は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。ユーザ情報記憶部302は、ユーザ情報テーブルを記憶する。
会話情報記憶部303は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。会話情報記憶部303は、会話情報テーブルを記憶する。
The
The user
The conversation
会話制御部304は、あるユーザによって発話されたメッセージを、そのユーザが属している会話グループの各メンバーのユーザ端末100に対して配信する。具体的には以下のとおりである。会話制御部304は、あるユーザによって発話されたメッセージの音声データが受信されると、音声データに付与されているユーザIDを読み出す。会話制御部304は、読み出されたユーザIDに応じた属性情報をユーザ情報テーブルに基づいて判定する。会話制御部304は、ユーザIDと属性情報と音声データとを音声認識部306に出力する。会話制御部304は、音声認識部306から認識結果(テキストデータ及びユーザID)を受けると、ユーザIDに応じた配信先を決定する。そして、会話制御部304は、決定された配信先に対して認識結果(会話データ)を送信する。
The
辞書記憶部305は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。辞書記憶部305は、辞書テーブルと音響モデルと複数の言語モデルとを記憶する。言語モデルは属性情報毎に予め用意されている。
音声認識部306は、会話制御部304からユーザIDと属性情報と音声データとを受けると、属性情報に応じた言語モデルを用いて音声認識処理を行う。そして、音声認識部306は、音声認識処理によって得られたテキストデータと、処理対象となった音声データに対応付けられていたユーザIDと、を認識結果として会話制御部304に出力する。
The
When the
図4は、ユーザ情報テーブルの具体例を示す図である。ユーザ情報テーブルには、ユーザID毎に属性情報及びアドレスが対応付けて登録されている。ユーザIDは、各ユーザ端末100のユーザに対して付与される識別情報である。属性情報は、各ユーザの属性を表す情報である。属性情報の具体例として、ユーザの性別、ユーザの世代、ユーザの趣味、ユーザが選んだキャラクター(例えばゲームに登場するキャラクター、コミックに登場するキャラクター、アニメに登場するキャラクター)がある。アドレスは、各ユーザが使用しているユーザ端末100のアドレスを表す。
FIG. 4 is a diagram illustrating a specific example of the user information table. In the user information table, attribute information and an address are registered in association with each user ID. The user ID is identification information given to the user of each
図5は、会話情報テーブルの具体例を表す図である。会話情報テーブルには、会話グループ毎に、その会話グループに参加しているユーザのユーザIDが対応付けて登録されている。図5の例では、グループIDG001の会話グループには、4人のユーザ(U001,U003,U004,U005)が参加している。また、グループIDG002の会話グループには、2人のユーザ(U002,U006)が参加している。 FIG. 5 is a diagram illustrating a specific example of the conversation information table. In the conversation information table, for each conversation group, user IDs of users participating in the conversation group are registered in association with each other. In the example of FIG. 5, four users (U001, U003, U004, U005) participate in the conversation group with the group ID G001. In addition, two users (U002, U006) participate in the conversation group with the group ID G002.
図6は、辞書テーブルの具体例を示す図である。辞書テーブルには、属性情報毎に言語モデルIDが対応付けて登録されている。言語モデルIDは、言語モデルを表す識別情報である。辞書テーブルには、各属性情報に応じて予め準備された言語モデルの識別情報が対応付けられている。例えば、属性情報が女性を表す場合には、その言語モデルは、女性に多いしゃべり方や女性に用いられることの多い単語などの統計情報に基づいて予め準備される。例えば、属性情報が世代を表す場合には、その世代に多いしゃべり方やその世代で流行った流行語などの統計情報に基づいて予め準備される。例えば、属性情報がキャラクターを表す場合には、キャラクターに設定されているしゃべり方やキャラクターが用いることの多い単語などの統計情報に基づいて予め準備される。 FIG. 6 is a diagram showing a specific example of the dictionary table. In the dictionary table, a language model ID is registered in association with each attribute information. The language model ID is identification information representing a language model. The dictionary table is associated with language model identification information prepared in advance according to each attribute information. For example, when the attribute information represents a woman, the language model is prepared in advance based on statistical information such as a way of talking that is often used by women and words that are often used by women. For example, when the attribute information represents a generation, it is prepared in advance based on statistical information such as how to talk a lot in that generation and buzzwords popular in that generation. For example, when the attribute information represents a character, it is prepared in advance based on statistical information such as a method of speaking set for the character and words frequently used by the character.
図7は、会話提供システム300の動作の流れの具体例を表すフローチャートである。まず、通信部301がネットワーク200を介してユーザ端末100から音声データを受信する(ステップS101)。会話制御部304は、受信された音声データに付与されているユーザIDを読み出す。会話制御部304は、読み出されたユーザIDに応じた属性情報をユーザ情報テーブルに基づいて判定する。会話制御部304は、ユーザIDと属性情報と音声データとを音声認識部に出力する。
FIG. 7 is a flowchart illustrating a specific example of the operation flow of the
音声認識部306は、会話制御部304によって判定された属性情報に応じた言語モデルを、辞書テーブルに基づいて判定する(ステップS102)。音声認識部306は、音響モデルと、ステップS102において判定された言語モデルと、を用いて音声認識処理を実行する(ステップS103)。音声認識部306は、音声認識処理によって得られたテキストデータと、処理対象となった音声データに対応付けられていたユーザIDと、を認識結果として会話制御部304に出力する。
The
会話制御部304は、音声認識部306から認識結果(テキストデータ及びユーザID)を受けると、ユーザIDに応じた配信先を決定する(ステップS104)。そして、会話制御部304は、決定された配信先に対して認識結果(会話データ)を送信する(ステップS105)。
Upon receiving the recognition result (text data and user ID) from the
このように構成された会話提供システム300では、ユーザはキーボードやマウス等の入力装置を操作することなく、発話することによってメッセージを入力することが可能となる。そのため、ユーザはオンラインで他者とコミュニケーションを円滑に図ることが可能となる。
In the
また、会話提供システム300では、ユーザの発話内容は、ユーザが選択した属性に応じた言語モデルを用いて音声認識される。そのため、ユーザの発話内容をより正確に認識することが可能となる。
Also, in the
<変形例>
言語モデルは、必ずしもユーザが発話した内容(音声データ)に対して一語一句忠実に再現するように準備される必要は無く、一部の文言がキャラクターが用いることの多い文言に置換されるように準備されてもよい。例えば、音声データが「私の名はAである」という文言を表す際に、音声認識の処理結果として「拙者の名はAでござる」というテキストデータが得られるように、言語モデルが準備されても良い。このように言語モデルが準備されることにより、ユーザによって選択されたキャラクターの雰囲気をより忠実に再現することが可能となる。
<Modification>
The language model does not necessarily have to be prepared to faithfully reproduce words (speech data) spoken by the user word by word, so that some words are replaced with words often used by characters. May be prepared. For example, a language model is prepared so that when voice data expresses the phrase “My name is A”, the text data that “the name of the deaf person is A” is obtained as the processing result of voice recognition. May be. By preparing the language model in this way, the character atmosphere selected by the user can be reproduced more faithfully.
会話提供システム300は、その機能の一部がユーザ端末100に実装されることによって、ユーザ端末100と共に構成されても良い。例えば、音声認識部306及び辞書記憶部305がユーザ端末100に実装されても良い。この場合、ユーザ端末100において音声認識処理が実行され、テキストデータが取得される。ユーザ端末100は、取得されたテキストデータ及び自装置に設定されているユーザIDを会話データとして会話制御部304に対して送信する。会話制御部304は、ユーザ端末100から会話データを受信すると、ユーザIDに応じて会話データの配信先を決定し、会話データを配信する。
The
会話提供システムは、翻訳辞書記憶部及び翻訳部をさらに備えるように構成されても良い。以下、このように構成された会話提供システムの変形例(会話提供システム300a)の構成について説明する。
図8は、会話提供システム300aの機能構成を示す概略ブロック図である。会話提供システム300aは、翻訳辞書記憶部311及び翻訳部312をさらに備える点、会話制御部304に代えて会話制御部304aを備える点、で会話提供システム300と異なり、他の構成は会話提供システム300と同様である。
The conversation providing system may be configured to further include a translation dictionary storage unit and a translation unit. Hereinafter, a configuration of a modified example (
FIG. 8 is a schematic block diagram showing a functional configuration of the
翻訳辞書記憶部311は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。翻訳辞書記憶部311は、複数の言語間の翻訳を行うために必要となる翻訳辞書データを記憶する。翻訳辞書データには、既存のどのような構成が適用されても良い。
翻訳部312は、音声認識部306から認識結果(テキストデータ及びユーザID)を受けると、テキストデータを、予め指定されている他の言語に翻訳する。翻訳部312は、翻訳処理を行う際には、翻訳辞書記憶部311に記憶されている翻訳辞書データを用いる。翻訳部312は、翻訳処理が完了すると、翻訳結果(翻訳後のテキストデータ及びユーザID)を会話制御部304に出力する。翻訳部312が翻訳する言語(予め指定されている他の言語)は、ユーザ端末100のユーザによって指定されても良いし、会話提供システム300において予め指定されても良いし、他の態様で指定されても良い。なお、翻訳部312は、指定されている他の言語と、音声認識部306から出力された認識結果の言語とが同一である場合、翻訳処理を行わずに認識結果をそのまま翻訳結果として出力しても良い。
会話制御部304aは、音声認識部306から出力された認識結果ではなく、翻訳部312から出力された翻訳結果を配信先に対して送信する。
The translation
Upon receiving the recognition result (text data and user ID) from the
The
<適用例>
会話提供システム300は、他のサービスと連携して動作するように構成されても良い。例えば、会話提供システム300は、オンラインのゲーム提供システムと連携して動作するように構成されても良い。図9は、会話提供システム300が組み込まれたオンラインのゲーム提供システム400のシステム構成例を表す図である。
<Application example>
The
ゲーム提供システム400は、1台又は複数台の情報処理装置によって構成される。例えば、ゲーム提供システム400が一台の情報処理装置で構成される場合、情報処理装置は、バスで接続されたCPUやメモリや補助記憶装置などを備え、ゲームプログラムを実行する。ゲームプログラムの実行によって、情報処理装置は、通信部301、ユーザ情報記憶部302、会話情報記憶部303、会話制御部304、辞書記憶部305a、音声認識部306、制御部401、ゲーム制御部402を備える装置として機能する。なお、ゲーム提供システム400の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。また、ゲーム提供システム400は、専用のハードウェアによって実現されても良い。ゲームプログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。ゲームプログラムは、電気通信回線を介して送受信されても良い。
The
図9において、図3に示される機能部と同じものについては同じ符号を付している。
制御部401は、ゲーム提供システム400の各機能部を制御する。例えば、制御部401は、ユーザ端末100から音声データが受信された場合、受信された音声データを会話制御部304に出力する。例えば、制御部401は、ゲームに関するデータが受信された場合、受信されたデータをゲーム制御部402に出力する。例えば、制御部401は、会話制御部304から会話データを受けた場合や、ゲーム制御部402からゲームに関するデータを受けた場合には、各データの宛先に対してデータを送信する。ユーザ端末100の表示部104は、ゲーム制御部402から提供されたデータに応じてゲームの画面を表示すると共に、会話データの文字列を表示する。例えば、表示部104は、ゲーム画面に重畳させて会話データの文字列を表示しても良い。
In FIG. 9, the same components as those shown in FIG. 3 are given the same reference numerals.
The
ゲーム制御部402は、1又は複数のゲームプログラムを予め記憶し、ユーザ端末100のユーザに対しゲームを提供する。
辞書記憶部305aは、音響モデルと、ゲーム制御部402が提供するゲームに応じて予め準備された言語モデルと、を記憶する。辞書記憶部305aは、ゲーム制御部402が複数のゲームプログラムを記憶する場合、ゲームプログラム毎に言語モデルを記憶する。
The
The
このように構成されたゲーム提供システム400では、ユーザは、オンラインゲームにおいて発話することによってメッセージを入力することが可能となる。そのため、ユーザは、オンラインゲームにおいてキーボードやマウス等の入力装置の操作を、ゲームのためだけに集中することが可能となる。そのため、ユーザはオンラインゲームにおいて他者とコミュニケーションを円滑に図ることが可能となる。
In the
また、ゲーム提供システム400では、ゲームの種類に応じて言語モデルが準備される。そのため、ゲーム特有の用語などを正確に音声認識することが可能となる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
In the
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
100…ユーザ端末, 200…ネットワーク, 300…会話提供システム, 301…通信部, 302…ユーザ情報記憶部, 303…会話情報記憶部, 304…会話制御部, 305…辞書記憶部, 306…音声認識部
DESCRIPTION OF
Claims (7)
前記音声認識部の認識結果を、前記ユーザの会話相手に対して送信する通信部と、
を備える会話提供システム。 A voice recognition unit that recognizes the voice of the user input to the user terminal;
A communication unit that transmits a recognition result of the voice recognition unit to the conversation partner of the user;
A conversation providing system.
前記音声認識部は、前記辞書記憶部に記憶される複数の言語モデルの中から、ユーザの属性に応じて言語モデルを選択し、選択された前記言語モデルを用いてユーザの発話音声のデータを音声認識する、請求項1に記載の会話提供システム。 A dictionary storage unit for storing a language model according to the user's attributes;
The speech recognition unit selects a language model according to a user attribute from a plurality of language models stored in the dictionary storage unit, and uses the selected language model to generate data of a user's utterance speech The conversation providing system according to claim 1, which recognizes speech.
ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識部と、
前記音声認識部の認識結果を、前記ユーザの会話相手に対して送信する通信部と、
を備えるゲーム提供システム。 A game control unit that provides an online game to the user;
A voice recognition unit that recognizes the voice of the user input to the user terminal;
A communication unit that transmits a recognition result of the voice recognition unit to the conversation partner of the user;
A game providing system comprising:
前記音声認識ステップにおける認識結果を、前記ユーザの会話相手に対して送信する通信ステップと、
を備える会話提供方法。 A voice recognition step for recognizing the voice of the user input to the user terminal;
A communication step of transmitting the recognition result in the voice recognition step to the conversation partner of the user;
Conversation providing method comprising:
ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識ステップと、
前記音声認識ステップにおける認識結果を、前記ユーザの会話相手に対して送信する通信ステップと、
を備えるゲーム提供方法。 A game control step for providing an online game to a user;
A voice recognition step for recognizing the voice of the user input to the user terminal;
A communication step of transmitting the recognition result in the voice recognition step to the conversation partner of the user;
A game providing method comprising:
ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識ステップと、
前記音声認識ステップにおける認識結果を、前記ユーザの会話相手に対して送信する通信ステップと、を実行させるためのコンピュータプログラム。 Against the computer
A voice recognition step for recognizing the voice of the user input to the user terminal;
A computer program for executing a communication step of transmitting a recognition result in the voice recognition step to the conversation partner of the user.
ユーザに対してオンラインゲームを提供するゲーム制御ステップと、
ユーザ端末に対して入力されたユーザの音声を音声認識する音声認識ステップと、
前記音声認識ステップにおける認識結果を、前記ユーザの会話相手に対して送信する通信ステップと、を実行させるためのコンピュータプログラム。 Against the computer
A game control step for providing an online game to a user;
A voice recognition step for recognizing the voice of the user input to the user terminal;
A computer program for executing a communication step of transmitting a recognition result in the voice recognition step to the conversation partner of the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013038837A JP2014167517A (en) | 2013-02-28 | 2013-02-28 | Conversation providing system, game providing system, conversation providing method, game providing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013038837A JP2014167517A (en) | 2013-02-28 | 2013-02-28 | Conversation providing system, game providing system, conversation providing method, game providing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014167517A true JP2014167517A (en) | 2014-09-11 |
Family
ID=51617243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013038837A Pending JP2014167517A (en) | 2013-02-28 | 2013-02-28 | Conversation providing system, game providing system, conversation providing method, game providing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014167517A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015083741A1 (en) * | 2013-12-03 | 2015-06-11 | 株式会社リコー | Relay device, display device, and communication system |
JP2018059961A (en) * | 2016-09-30 | 2018-04-12 | 株式会社リコー | Language processing system, language processing device, language processing program and language processing method |
JP2020085948A (en) * | 2018-11-16 | 2020-06-04 | 富士ゼロックス株式会社 | Information processing device and information processing program |
CN111986651A (en) * | 2020-09-02 | 2020-11-24 | 上海优扬新媒信息技术有限公司 | Man-machine interaction method and device and intelligent interaction terminal |
JP2021033473A (en) * | 2019-08-20 | 2021-03-01 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and chat method |
JP2023510057A (en) * | 2020-12-18 | 2023-03-13 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Speech-to-text conversion method, system, device, device and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002229584A (en) * | 2001-01-31 | 2002-08-16 | Toyota Central Res & Dev Lab Inc | Speech recognition method, speech information search method, program, recording medium, speech recognition system, speech recognition server computer, and speech information search server computer |
JP2002351806A (en) * | 2001-05-28 | 2002-12-06 | Namco Ltd | Chat information, information storage medium, computer system, and server system |
JP2004102496A (en) * | 2002-09-06 | 2004-04-02 | Sony Communication Network Corp | Text and character display system, computer program, and server |
JP2005202552A (en) * | 2004-01-14 | 2005-07-28 | Pioneer Electronic Corp | Sentence generation device and method |
JP2007072511A (en) * | 2005-09-02 | 2007-03-22 | Oki Electric Ind Co Ltd | Chat system, chat server, program and message exchange method |
JP2010002941A (en) * | 2006-10-13 | 2010-01-07 | Frepar Networks Inc | Information providing system |
-
2013
- 2013-02-28 JP JP2013038837A patent/JP2014167517A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002229584A (en) * | 2001-01-31 | 2002-08-16 | Toyota Central Res & Dev Lab Inc | Speech recognition method, speech information search method, program, recording medium, speech recognition system, speech recognition server computer, and speech information search server computer |
JP2002351806A (en) * | 2001-05-28 | 2002-12-06 | Namco Ltd | Chat information, information storage medium, computer system, and server system |
JP2004102496A (en) * | 2002-09-06 | 2004-04-02 | Sony Communication Network Corp | Text and character display system, computer program, and server |
JP2005202552A (en) * | 2004-01-14 | 2005-07-28 | Pioneer Electronic Corp | Sentence generation device and method |
JP2007072511A (en) * | 2005-09-02 | 2007-03-22 | Oki Electric Ind Co Ltd | Chat system, chat server, program and message exchange method |
JP2010002941A (en) * | 2006-10-13 | 2010-01-07 | Frepar Networks Inc | Information providing system |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015083741A1 (en) * | 2013-12-03 | 2015-06-11 | 株式会社リコー | Relay device, display device, and communication system |
JPWO2015083741A1 (en) * | 2013-12-03 | 2017-03-16 | 株式会社リコー | Relay device, display device, and communication system |
US10255266B2 (en) | 2013-12-03 | 2019-04-09 | Ricoh Company, Limited | Relay apparatus, display apparatus, and communication system |
JP2018059961A (en) * | 2016-09-30 | 2018-04-12 | 株式会社リコー | Language processing system, language processing device, language processing program and language processing method |
JP2020085948A (en) * | 2018-11-16 | 2020-06-04 | 富士ゼロックス株式会社 | Information processing device and information processing program |
JP7218547B2 (en) | 2018-11-16 | 2023-02-07 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and information processing program |
JP2021033473A (en) * | 2019-08-20 | 2021-03-01 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and chat method |
JP7355554B2 (en) | 2019-08-20 | 2023-10-03 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and chat method |
US12011669B2 (en) | 2019-08-20 | 2024-06-18 | Sony Interactive Entertainment Inc. | Information processing device and chatting method |
CN111986651A (en) * | 2020-09-02 | 2020-11-24 | 上海优扬新媒信息技术有限公司 | Man-machine interaction method and device and intelligent interaction terminal |
CN111986651B (en) * | 2020-09-02 | 2023-09-29 | 度小满科技(北京)有限公司 | Man-machine interaction method and device and intelligent interaction terminal |
JP2023510057A (en) * | 2020-12-18 | 2023-03-13 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Speech-to-text conversion method, system, device, device and program |
JP7560202B2 (en) | 2020-12-18 | 2024-10-02 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Speech-to-text conversion method, system, device, equipment, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107340991B (en) | Voice role switching method, device, equipment and storage medium | |
KR102377350B1 (en) | In-call translation | |
US11056116B2 (en) | Low latency nearby group translation | |
US20150347399A1 (en) | In-Call Translation | |
US20160170970A1 (en) | Translation Control | |
JP2014167517A (en) | Conversation providing system, game providing system, conversation providing method, game providing method, and program | |
CN110493123B (en) | Instant messaging method, device, equipment and storage medium | |
CN113643684B (en) | Speech synthesis method, device, electronic equipment and storage medium | |
CN103955454B (en) | A kind of method and apparatus that style conversion is carried out between writings in the vernacular and the writing in classical Chinese | |
JP2008500573A (en) | Method and system for changing messages | |
JPWO2017200072A1 (en) | Dialogue method, dialogue system, dialogue apparatus, and program | |
CN107993646A (en) | A kind of method for realizing real-time voice intertranslation | |
CN109671429B (en) | Voice interaction method and device | |
JP2015514273A (en) | Mobile chat system to support comic story style dialogue on web pages | |
WO2022038928A1 (en) | Communication system | |
JPWO2017200076A1 (en) | Dialogue method, dialogue system, dialogue apparatus, and program | |
JP2000207170A (en) | Device and method for processing information | |
JP2018181018A (en) | Conversation providing device, conversation providing method, and program | |
KR102181583B1 (en) | System for voice recognition of interactive robot and the method therof | |
JP7530688B1 (en) | Program, computer, system and information processing method | |
CN112672207B (en) | Audio data processing method, device, computer equipment and storage medium | |
US20240154833A1 (en) | Meeting inputs | |
CN118433437A (en) | Live broadcasting room voice live broadcasting method and device, live broadcasting system, electronic equipment and medium | |
CN107645437A (en) | A kind of method and system interacted by intelligent interaction robot | |
CN109243424A (en) | One key voiced translation terminal of one kind and interpretation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150723 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170321 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171017 |