[go: up one dir, main page]

WO2015083741A1 - 中継装置、表示装置および通信システム - Google Patents

中継装置、表示装置および通信システム Download PDF

Info

Publication number
WO2015083741A1
WO2015083741A1 PCT/JP2014/081985 JP2014081985W WO2015083741A1 WO 2015083741 A1 WO2015083741 A1 WO 2015083741A1 JP 2014081985 W JP2014081985 W JP 2014081985W WO 2015083741 A1 WO2015083741 A1 WO 2015083741A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
communication terminal
unit
communication
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2014/081985
Other languages
English (en)
French (fr)
Inventor
友英 鷹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP14867071.4A priority Critical patent/EP3079342A4/en
Priority to US15/101,294 priority patent/US10255266B2/en
Priority to KR1020167014833A priority patent/KR101813827B1/ko
Priority to JP2015551542A priority patent/JPWO2015083741A1/ja
Priority to CN201480065797.1A priority patent/CN105794188B/zh
Publication of WO2015083741A1 publication Critical patent/WO2015083741A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B3/00Line transmission systems
    • H04B3/02Details
    • H04B3/36Repeater circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Definitions

  • the present invention relates to a relay device, a display device, and a communication system.
  • a communication system using data conversion from speech data to text data or data conversion from text data to speech data is conventionally known.
  • first dictionary information used to convert text data into speech data is prepared in advance, and input text data is converted to phonetic tones using the first dictionary information. Converted to a character string, based on predetermined information included in the input text data, for example, a synthetic voice that takes into consideration emotion, thinking, gender, face shape, height, weight, age, occupation, birthplace, hobbies, preferences, etc.
  • the converted phonetic character string is processed so as to be obtained.
  • second dictionary information ("word model” and "language model”) used to convert voice data into text data is prepared in advance, and using the second dictionary information, Converts input voice data into text data and estimates the speaker's emotions, thoughts, physical condition, gender, face shape, height, weight, age, occupation, birthplace, hobbies, preferences etc from the input voice data, and the estimation results In accordance with, the converted text data is processed.
  • the present invention has been made in view of the above, and it is an object of the present invention to perform optimal communication control in accordance with the features and conditions of the user.
  • the present invention is a relay apparatus for relaying communication between a plurality of communication terminals including at least a first communication terminal and a second communication terminal, each of which is Voice data is recorded in text data for each of a plurality of pieces of feature information, and a feature information storage unit that associates and stores feature information indicating features of a user who uses the communication terminal for each of a plurality of pieces of terminal information identifying the communication terminal
  • voice data is received from a first dictionary information storage unit that stores the first dictionary information used to convert data into data in association with each other, and the second communication terminal that is the communication counterpart of the first communication terminal
  • a first selection unit that selects the feature information associated with the terminal information that identifies the second communication terminal, and selects the first dictionary information associated with the selected feature information; Said With 1 the first dictionary information selected by the selection unit, a relay apparatus comprising: a first converter for converting the audio data into text data, the received from the second communication terminal.
  • the present invention is a relay apparatus for relaying communication between a plurality of communication terminals including at least a first communication terminal and a second communication terminal, and for each of a plurality of terminal information each identifying the communication terminal.
  • a feature information storage unit that stores feature information indicating features of a user who uses the communication terminal, and second dictionary information used to convert text data into voice data for each of a plurality of the feature information
  • a second dictionary information storage unit that stores the second communication terminal, and the terminal that identifies the second communication terminal when text data is received from the second communication terminal that is a communication partner of the first communication terminal
  • a second selection unit that selects the feature information associated with the information and selects the second dictionary information associated with the selected feature information; and the second choice unit selected by the second selection unit Using writing information, a relay apparatus and a second converter for converting the audio data text data received from the second communication terminal.
  • a relay device capable of improving the accuracy of conversion of input text data into speech data or conversion of input speech data into text data.
  • FIG. 1 is a diagram showing an example of the configuration of a communication system.
  • FIG. 2 is a diagram illustrating an example of the configuration of the relay device.
  • FIG. 3 is a diagram showing an example of the configuration of data stored in the feature information storage unit.
  • FIG. 4 is a diagram showing an example of a configuration of data stored in the first dictionary information storage unit.
  • FIG. 5 is a flowchart showing an example of a method of selecting the first dictionary information.
  • FIG. 6 is a diagram showing an example of a configuration of data stored in the second dictionary information storage unit.
  • FIG. 7 is a flowchart showing an example of a method of selecting second dictionary information.
  • FIG. 8 is a diagram showing an example of the configuration of data stored in the voice data conversion information storage unit.
  • FIG. 1 is a diagram showing an example of the configuration of a communication system.
  • FIG. 2 is a diagram illustrating an example of the configuration of the relay device.
  • FIG. 3 is a diagram showing an example of the configuration of data
  • FIG. 9 is a sequence diagram showing an example of the flow of communication between users using communication terminals.
  • FIG. 10 is a diagram showing an example of a screen displayed on the display unit of the data communication terminal.
  • FIG. 11 is a diagram showing another example of the screen displayed on the display unit of the data communication terminal.
  • FIG. 12 is a diagram showing an example of a functional configuration of the exchange function unit of the modification.
  • FIG. 13 is a diagram showing an example of the first screen.
  • FIG. 14 is a diagram showing an example of a configuration of data stored in the first conversion information storage unit.
  • FIG. 15 is a diagram showing an example of the second screen.
  • FIG. 16 is a diagram showing an example of a configuration of data stored in the second conversion information storage unit.
  • FIG. 17 is a diagram showing an example of the third screen.
  • FIG. 18 is a sequence diagram showing an example of the flow of communication between users using communication terminals.
  • FIG. 19 is a diagram for explaining a modification of feature information associated with terminal information.
  • FIG. 1 is a diagram showing an example of the configuration of the communication system 1 of the present embodiment.
  • the communication system 1 includes a voice communication terminal 10, a data communication terminal 20, and a relay device 30.
  • the voice communication terminal 10 is a telephone terminal capable of making voice calls, and may be configured by, for example, a fixed telephone (IP telephone, analog telephone), a mobile telephone terminal, or the like.
  • the voice communication terminal 10 is a fixed telephone of a method of performing a dial operation with a push button, and a function (Dual-Tone Multi-Frequency, hereinafter referred to as "DTMF") for transmitting numbers and symbols according to button input. Will be described as an example.
  • the voice communication terminal 10 is an example of the “communication terminal” in the claims.
  • the data communication terminal 20 is a telephone terminal provided with a voice call function and a rich UI, and may be configured of, for example, a mobile telephone terminal (including a smartphone etc.), a business phone, and the like. In this example, the data communication terminal 20 will be described by way of an example in which the data communication terminal 20 is configured of a mobile phone terminal.
  • the data communication terminal 20 receives a call signal sent from the relay device 30 (when there is an incoming call)
  • the data communication terminal 20 has a function of displaying on the display unit a screen including a plurality of status information (described later) prepared in advance. And a function of receiving a user operation on the screen, and a function of transmitting information corresponding to the received user operation to the relay device 30.
  • the data communication terminal 20 is an example of the “communication terminal” in the claims.
  • the voice communication terminal 10 when it is not necessary to distinguish between the voice communication terminal 10 and the data communication terminal 20, it may be referred to simply as a "communication terminal".
  • the voice communication terminal 10 may correspond to the “first communication terminal” in the claims
  • the data communication terminal 20 may correspond to the “second communication terminal” in the claims.
  • the voice communication terminal 10 may correspond to the "second communication terminal” in the claims
  • the data communication terminal 20 may correspond to the "first communication terminal” in the claims.
  • the relay device 30 is a device that relays communication between the voice communication terminal 10 and the data communication terminal 20, and has a function of performing call processing for establishing a session between communication terminals and relay processing of communication data. .
  • FIG. 1 for convenience of explanation, only two units of the voice communication terminal 10 and the data communication terminal 20 are illustrated as communication terminals included in the communication system 1.
  • the present invention is not limited to this.
  • the number and type of communication terminals included in are arbitrary.
  • the relay device 30 has a function of converting voice data received from the communication terminal into text data, and a function of converting text data received from the communication terminal into voice data.
  • the above-described devices can be connected via, for example, an IP network, a public telephone network, a mobile telephone network (3G, LTE), or the like.
  • FIG. 2 is a diagram showing an example of the configuration of the relay device 30.
  • the relay device 30 includes a management unit 101, a switch function unit 102, a voice-text conversion unit 105, a mail control unit 103, and a communication interface unit 104.
  • the management unit 101 has a function of setting numbering plan information and terminal information for identifying a communication terminal. This setting function may be provided on the Web UI, for example, via the communication interface unit 104.
  • the management unit 101 also has a function of holding call record information.
  • the exchange function unit 102 refers to the number plan information and the terminal information held in the management unit 101, and performs a function of matching the calling source and the call destination of the calling, a function of performing a calling process, and a voice described later. It has a function of relaying communication data by incorporating the processing of the text conversion unit 105 into a voice call. Although specific contents will be described later, when the switch function unit 102 receives, via the communication interface unit 104, first instruction information instructing conversion of voice data into text data, the voice-text The conversion unit 105 is requested to convert voice data received from one of two matching communication terminals into text data.
  • the switch function unit 102 When the switch function unit 102 receives, via the communication interface unit 104, second instruction information instructing to convert text data into voice data, the switch function unit 102 performs matching on the voice-text conversion unit 105. A request is made to convert text data received from one of the two communication terminals performed, into speech data.
  • the mail control unit 103 has a function of transmitting a mail in response to a request from the exchange function unit 102 and the management unit 101.
  • the communication interface unit 104 provides an IP network function to the exchange function unit 102, the management unit 101, and the mail control unit 103. Specifically, it comprises a communication interface such as Ethernet (registered trademark) and Wi-Fi, and a software stack of TCP / UDP and IP network.
  • the switch function unit 102 may be provided with an analog line or an ISDN line for voice communication.
  • the voice-to-text conversion unit 105 has a function of converting voice data received from the communication terminal into text data and a function of converting text data received from the communication terminal into voice data in response to a request from the exchange function unit 102.
  • the voice-text conversion unit 105 includes a feature information storage unit 111, a first dictionary information storage unit 112, a first selection unit 113, a first conversion unit 114, and a second dictionary information storage unit 115.
  • the feature information storage unit 111 stores feature information indicating the feature of the user who uses the communication terminal in association with each of a plurality of pieces of terminal information each identifying a communication terminal.
  • a telephone number is used as terminal information
  • FIG. 3 is a diagram showing an example of the configuration of data stored in the feature information storage unit 111. As shown in FIG. In the example of FIG. 3, the feature information storage unit 111 associates and stores gender information, age information, and occupation information for each combination of an ID assigned to each terminal information and the terminal information.
  • the first dictionary information storage unit 112 associates and stores, for each of a plurality of pieces of feature information, first dictionary information used to convert voice data into text data.
  • first dictionary information in which the feature information is reflected is associated with each of the plurality of pieces of feature information.
  • FIG. 4 is a diagram showing an example of a configuration of data stored in the first dictionary information storage unit 112.
  • the first dictionary information storage unit 112 stores, for each occupation information indicating the occupation of the user, a first dictionary information ID indicating information identifying the first dictionary information in association with one another.
  • occupation information is used as feature information, but the invention is not limited to this.
  • age information or gender information can be used as feature information, and age information, gender information, and A combination of at least two of the occupation information can also be used as feature information.
  • the first dictionary is different from the viewpoint It can also be considered that the information storage unit 112 stores the first dictionary information in association with each of the plurality of pieces of occupation information.
  • the first dictionary information storage unit 112 may further include an area for storing a plurality of first dictionary information corresponding to a plurality of first dictionary information IDs and a plurality of first dictionary information, for example, the first dictionary information storage unit 112
  • the dictionary information storage unit 112 may store the first dictionary information in association with each of a plurality of pieces of feature information (for example, occupation information) without storing the first dictionary information ID.
  • the first dictionary information includes, for each of a plurality of prepared phoneme strings, one or more texts indicating candidates for converting speech to text (character string), and the priorities of the respective candidates.
  • the priority information indicating “H” is associated with, but not limited to, various well-known dictionary information used to convert voice data into text data is used as the first dictionary information. be able to.
  • the term "phoneme” refers to the minimum unit of speech that distinguishes words.
  • the second dictionary information also includes modeling information indicating how to divide the speech data (modeling) when converting the speech data to text data. The modeling information included in each first dictionary information is set according to the feature information associated with the first dictionary information.
  • the first selection unit 113 receives voice data from one of the two communication terminals matched by the switch function unit 102 (sometimes referred to as the “second communication terminal” in the following description).
  • the feature information storage unit 111 is referred to select feature information associated with terminal information for identifying the second communication terminal.
  • the first dictionary information storage unit 112 the first dictionary information associated with the selected feature information is selected.
  • the first selection unit 113 receives the above-mentioned first instruction information (information instructing conversion of audio data into text data)
  • the first selection unit 113 selects the first dictionary information, while the first selection unit 113 selects the first dictionary information. If the first instruction information is not received, the selection of the first dictionary information is not performed.
  • FIG. 5 A method of selecting the first dictionary information when the relay device 30 receives the above-mentioned first instruction information and receives voice data from the second communication terminal will be described using FIG. 5.
  • the exchange function unit 102 receives the above-mentioned first instruction information via the communication interface unit 104 and receives voice data from the second communication terminal (step S1: Yes) And request the speech-to-text conversion unit 105 to convert speech data received from the second communication terminal into text data.
  • the voice-text conversion unit 105 that has received this request instructs the first selection unit 113 to select the first dictionary information.
  • the first selection unit 113 refers to the feature information storage unit 111 to select feature information (job information in this example) associated with the terminal information for identifying the second communication terminal (in this example) Step S2). Next, the first selection unit 113 refers to the first dictionary information storage unit 112 to select the first dictionary information associated with the feature information selected in step S2 (step S3).
  • the voice-to-text conversion unit 105 causes the first conversion unit 114 to use the first dictionary information selected by the first selection unit 113. It instructs to convert voice data received from the second communication terminal into text data. In response to the instruction, the first conversion unit 114 converts the voice data received from the second communication terminal into text data using the first dictionary information selected by the first selection unit 113.
  • the voice-to-text conversion unit 105 passes the text data converted by the first conversion unit 114 to the switch function unit 102 as a response to the request from the switch function unit 102 (request to convert voice data to text data).
  • the exchange function unit 102 is a communication terminal (hereinafter referred to as the communication partner of the other communication terminal of the two communication terminals matched with the text data converted by the first conversion unit 114, that is, the second communication terminal) In the description of (1), control is performed to transmit to the "first communication terminal".
  • the switch function unit 102 can be considered to have a function corresponding to the “first transmission control unit” in the claims.
  • the first dictionary information in which the feature information is reflected is associated with each of the plurality of pieces of feature information
  • the first dictionary information is associated with, for example, occupation information indicating “biologist”.
  • occupation information indicating “biologist” In the first dictionary information, with respect to the phoneme string indicating the pronunciation of "Kumo”, the text indicating the conversion candidate " ⁇ ” and the text indicating the conversion candidate "cloud” are associated with each other and " ⁇ ⁇ ⁇ "
  • the priority order of the conversion candidates may be first, and priority information indicating that the priority order of the conversion candidate “cloud” is second may be associated.
  • the phoneme string indicating the pronunciation of "Kumo” is converted to a text indicating conversion candidates " ⁇ ⁇ ⁇ ” and "cloud”
  • the text indicating the candidate is associated, and the priority order of the conversion candidate “ ⁇ ” is second, and the priority information indicating that the conversion candidate “cloud” is first is associated It may be
  • the text “ ⁇ ” is displayed. If the first dictionary information associated with the occupation information indicating “child” is selected while being preferentially converted, the text is preferentially converted to the text “cloud”. That is, according to the present embodiment, it is possible to achieve an advantageous effect that conversion from speech data to text data can be performed by accurately reflecting the feature of the user who has input the speech data.
  • the second dictionary information storage unit 115 associates and stores, for each of the plurality of pieces of feature information, second dictionary information used to convert text data into voice data.
  • second dictionary information in which the feature information is reflected is associated with each of the plurality of pieces of feature information.
  • FIG. 6 is a diagram showing an example of a configuration of data stored in the second dictionary information storage unit 115. As shown in FIG. In the example of FIG. 6, the second dictionary information storage unit 115 indicates second identification information for identifying second dictionary information for each combination of age information and gender information (information indicating “male” or “female”). The dictionary information ID is associated and stored.
  • the present invention is not limited thereto.
  • any one of age information, gender information, and occupation information is used.
  • Can be used as feature information a combination of age information and work information can also be used as feature information, and a combination of gender information and work information can be used as feature information.
  • the second dictionary is different from the viewpoint
  • the information storage unit 115 stores the second dictionary information in association with each combination of the age information and the gender information.
  • the second dictionary information storage unit 115 may further include an area for storing a plurality of second dictionary information corresponding to a plurality of second dictionary information IDs and a plurality of second dictionary information, for example, the second dictionary information storage unit 115
  • the dictionary information storage unit 115 stores the second dictionary information in association with each of a plurality of pieces of feature information (for example, a combination of age information and gender information) without storing the second dictionary information ID. It is also good.
  • the second dictionary information includes, for each of a plurality of character strings (texts) prepared in advance, first correspondence information in which a phoneme string indicating the reading (sound) is associated, and each of a plurality of phoneme strings And second correspondence information in which parameters for controlling voice characteristics (voice color, intonation, etc.) are associated with each other, but the present invention is not limited to this, and as second dictionary information, text data
  • first correspondence information in which a phoneme string indicating the reading (sound) is associated
  • second correspondence information in which parameters for controlling voice characteristics (voice color, intonation, etc.) are associated with each other
  • the second selection unit 116 When the second selection unit 116 receives text data from one communication terminal (second communication terminal) of the two communication terminals matched by the exchange function unit 102, the second selection unit 116 refers to the feature information storage unit 111. And selecting feature information associated with terminal information for identifying the second communication terminal. Then, referring to the second dictionary information storage unit 115, the second dictionary information associated with the selected feature information is selected.
  • the second selection unit 116 receives the above-mentioned second instruction information (information instructing conversion of text data to voice data)
  • the second selection unit 116 selects the second dictionary information, while the second selection unit 116 selects the second dictionary information. If the second instruction information is not received, the selection of the second dictionary information is not performed.
  • FIG. 7 A method of selecting the second dictionary information when the relay device 30 receives the above-mentioned second instruction information and receives text data from the second communication terminal will be described using FIG. 7.
  • the switch function unit 102 receives the above-mentioned second instruction information via the communication interface unit 104 and receives text data from the second communication terminal (step S11: Yes) And request the speech-to-text conversion unit 105 to convert the text data received from the second communication terminal into speech data.
  • the voice-text conversion unit 105 that has received this request instructs the second selection unit 116 to select the second dictionary information.
  • the second selecting unit 116 that has received this instruction refers to the feature information storage unit 111, and the feature information associated with the terminal information that identifies the second communication terminal (in this example, the sex information and the age information Combination) is selected (step S12).
  • the second selection unit 116 refers to the second dictionary information storage unit 115, and selects second dictionary information associated with the feature information selected in step S12 (step S13).
  • the voice-to-text conversion unit 105 causes the second conversion unit 117 to use the second dictionary information selected by the second selection unit 116. It instructs to convert text data received from the second communication terminal into voice data.
  • the second conversion unit 117 receiving this instruction converts the text data received from the second communication terminal into voice data using the second dictionary information selected by the second selection unit 116.
  • the voice-to-text conversion unit 105 passes the voice data converted by the second conversion unit 117 to the switch function unit 102 as a response to the request from the switch function unit 102 (a request to convert text data to voice data).
  • the exchange function unit 102 performs control to transmit the voice data converted by the second conversion unit 117 to the first communication terminal.
  • the exchange function unit 102 can be considered to have a function corresponding to the “second transmission control unit” in the claims.
  • the voice data conversion information storage unit 118 illustrated in FIG. 2 stores predetermined (fixed) voice data in association with each of a plurality of pieces of status information each representing a user's status.
  • FIG. 8 is a diagram showing an example of a configuration of data stored in the voice data conversion information storage unit 118.
  • fixed voice data “I can not answer the phone because I am in a meeting” is associated with the status information indicating “in a meeting”, and status information indicating “moving”
  • fixed voice data that “I can not answer the phone because I am on the move” is associated, and for status information that indicates “I am busy,” I can not answer the phone because “I am busy.
  • Fixed voice data are associated.
  • a plurality of status information prepared in advance (in this example, “in the meeting” Function to display on the display unit a screen including status information indicating “in motion,” status information indicating “moving”, status information indicating “busy”, or any one according to a user operation (for example, touch operation) on the screen It has a function of selecting status information, and a function of transmitting status information selected according to a user operation to the relay device 30.
  • the third selection unit 119 receives status information from one of the two communication terminals (the second communication terminal) of the two communication terminals matched by the switch function unit 102, the third selection unit 119 refers to the voice data conversion information storage unit 118. Then, predetermined voice data associated with the status information received from the second communication terminal is selected.
  • the switch function unit 102 when the switch function unit 102 receives the status information from the second communication terminal via the communication interface unit 104, the switch function unit 102 requests the voice-to-text converter 105 to receive the status information received from the second communication terminal. Request to select predetermined audio data corresponding to.
  • the voice-to-text conversion unit 105 that has received this request instructs the third selection unit 119 to select voice data corresponding to the status information received from the second communication terminal. Having received this instruction, the third selection unit 119 refers to the voice data conversion information storage unit 118, and selects predetermined voice data associated with the status information received from the second communication terminal.
  • the voice-to-text conversion unit 105 sends the predetermined voice data selected by the third selection unit 119 to the switching unit function unit 102 as a response to the request from the switching unit function unit 102 (the request for selecting the predetermined voice data).
  • the exchange function unit 102 performs control to transmit predetermined voice data selected by the third selection unit 119 to the first communication terminal.
  • the exchange function unit 102 can be considered to have a function corresponding to the “third transmission control unit” in the claims.
  • the text data conversion information storage unit 120 shown in FIG. 2 stores predetermined (fixed) text data in association with each other for each of a plurality of input information indicating information that can be input to the communication terminal by the user.
  • the voice data conversion information storage unit 118 is, for example, a text indicating a character string "urgent” with respect to input information indicating a number "9" input when the user presses the push button "9" of the communication terminal. Data can also be stored in association.
  • the fourth selection unit 121 refers to the text data conversion information storage unit 120 when receiving input information from one of the two communication terminals (second communication terminal) of the two communication terminals matched by the switch function unit 102. Then, predetermined text data associated with the input information received from the second communication terminal is selected.
  • the switch function unit 102 when the switch function unit 102 receives input information from the second communication terminal via the communication interface unit 104, the switch function unit 102 instructs the voice-to-text conversion unit 105 to receive input information received from the second communication terminal. Request to select the text data corresponding to.
  • the voice-to-text conversion unit 105 that has received the request instructs the fourth selection unit 121 to select text data corresponding to the input information received from the second communication terminal.
  • the fourth selection unit 121 that has received this instruction refers to the text data conversion information storage unit 120, and selects predetermined text data associated with the input information received from the second communication terminal.
  • the voice-to-text conversion unit 105 sends the predetermined text data selected by the fourth selection unit 121 to the exchange function unit 102 as a response to the request from the exchange function unit 102 (a request to select the predetermined text data).
  • the exchange function unit 102 performs control to transmit the predetermined text data selected by the fourth selection unit 121 to the first communication terminal.
  • the exchange function unit 102 can be considered to have a function corresponding to the “fourth transmission control unit” in the claims.
  • the hardware configuration of the relay device 30 described above includes a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, an external storage device such as an HDD and a CD drive device, a display device such as a display device, and a keyboard It is also possible to adopt a hardware configuration using a normal computer provided with an input device such as a mouse or the like.
  • each unit of relay device 30 for example, first selection unit 113, first conversion unit 114, second selection unit 116, second conversion unit 117, third selection unit 119, fourth selection unit 121 and the like can be realized by the CPU executing a program stored in the storage device, or can be realized by a dedicated hardware circuit (semiconductor integrated circuit or the like).
  • the program executed by the relay device 30 may be stored on a computer connected to a network such as the Internet and may be provided by being downloaded via the network. Also, the program executed by the relay device 30 may be provided or distributed via a network such as the Internet. Further, the program executed by the relay device 30 may be provided by being incorporated in advance in a non-volatile storage medium such as a ROM.
  • the user A performs a calling operation (such as inputting a telephone number) for calling the data communication terminal 20 (step S100).
  • the voice communication terminal 10 that has received this transmission operation transmits a connection request signal including the telephone number of the data communication terminal 20 to the relay device 30 (step S101).
  • the relay device 30 having received the connection request signal refers to the numbering plan information and the terminal information held in the management unit 101 to match the voice communication terminal 10 (calling source) with the data communication terminal 20 (calling destination).
  • the call signal (ring tone) is transmitted to the data communication terminal 20 (step S102).
  • the data communication terminal 20 displays the screen shown in FIG. 10 on the display unit (step S103).
  • the screen illustrated in FIG. 10 includes a UI button 201 corresponding to status information indicating "in a meeting", a UI button 202 corresponding to status information indicating "in motion”, and a UI corresponding to status information indicating "busy”.
  • a button 203 and a UI button 204 corresponding to another function for notifying the other party that the user can not make a voice call are included.
  • the user B performs an operation of selecting any of the UI buttons on the screen displayed on the display unit of the data communication terminal 20 (step S104), and the data communication terminal 20 performs information corresponding to the operation of the user B.
  • the (data) is transmitted to the relay device 30 together with the Busy information indicating that the user can not make a voice call (step S105).
  • the data communication terminal 20 transmits, to the relay device 30, status information indicating “in meeting” and Busy information.
  • the data communication terminal 20 converts the input arbitrary character string into a voice and sends it to the other party. Notifies the other party (not shown) corresponding to the function to notify (called the "first UI button” for convenience of explanation), and notify the other party to call back (recall the phone) after the specified time has elapsed
  • the screen is switched to a screen including an unshown UI button (referred to as a “second UI button”) corresponding to the function.
  • the data communication terminal 20 displays a screen prompting the user to input a character string and receives the input of the character string. Then, the data communication terminal 20 transmits the text data indicating the character string input by the user B and the above-mentioned Busy information to the relay device 30.
  • the relay device 30 receiving the Busy information and the information according to the operation of the user B from the data communication terminal 20 performs processing according to the received information (step S106), and transmits the processing result to the voice communication terminal 10. (Step S107). For example, when Busy information and text data (arbitrary character string input by the user B) are received from the data communication terminal 20, the relay device 30 is associated with the terminal information of the data communication terminal 20 as described above. A process of converting text data received from the data communication terminal 20 into voice data is executed using the first dictionary information, and the converted voice data is transmitted to the voice communication terminal 10.
  • the above-mentioned Busy information corresponds to the above-mentioned second instruction information (information instructing conversion of text data to voice data)
  • the data communication terminal 20 corresponds to the above-mentioned second communication terminal.
  • the relay device 30 is associated with the status information received from the data communication terminal 20 as described above.
  • the predetermined voice data is transmitted to the voice communication terminal 10.
  • the user A who has heard the voice data transmitted from the relay device 30 to the voice communication terminal 10 as described above utters, for example, a business condition to notify the determination information as to whether the user B will answer the call or not.
  • the voice data can be input (step S108).
  • the voice communication terminal 10 transmits voice data input by the user A to the relay device 30 (step S109).
  • the relay device 30 that has received this voice data uses the second dictionary information associated with the terminal information of the voice communication terminal 10 to make text data of voice data received from the voice communication terminal 10 A process of converting into text data is executed (step S110), and the converted text data is transmitted to the data communication terminal 20 (step S111).
  • the data communication terminal 20 displays the text data received from the relay device 30 on the display unit (step S112).
  • the user B can check the text data displayed on the display unit of the data communication terminal 20 and determine whether to answer the call.
  • the user A can also input the above-described input information in addition to the utterance of the business case.
  • the user A presses the push button "9" provided on the voice communication terminal 10 to input input information indicating the number "9". It can also be done.
  • the voice communication terminal 10 transmits to the relay device 30 input information indicating a number “9”.
  • the relay device 30 having received the input information selects the predetermined text data (in this example, text data indicating a character string “emergency”) associated with the received input information.
  • the selected text data is transmitted to the data communication terminal 20.
  • the data communication terminal 20 displays the text data received from the relay device 30 on the display unit.
  • FIG. 11 is a view showing an example of a screen displayed on the display unit of the data communication terminal 20. As shown in FIG. On the screen illustrated in FIG. 11, text data indicating a character string “emergency” and text data indicating contents uttered by the user A are displayed. In step S108 described above, for example, the user A can perform both the utterance of the business case and the input of the input information, or can selectively perform only one of them.
  • the relay device 30 when the relay device 30 according to the present embodiment receives voice data from the second communication terminal that is the communication partner of the first communication terminal, the relay device 30 is associated with the terminal information of the second communication terminal.
  • the first dictionary information on which the selected feature information is reflected is selected, and the voice data received from the second communication terminal is converted into text data using the selected first dictionary information, and the first communication terminal is converted to the first communication terminal. Since it transmits, the advantageous effect that the precision of conversion from input speech data to text data can be improved can be achieved.
  • the relay device 30 selects the second dictionary information in which the feature information associated with the terminal information of the second communication terminal is reflected. Since the text data received from the second communication terminal is converted into voice data and transmitted to the first communication terminal using the selected second dictionary information, the accuracy of the conversion from the input text data to the voice data Can achieve an advantageous effect of improving the
  • each communication terminal since the relay device 30, which relays communication between communication terminals, executes conversion of input text data into voice data or conversion of input voice data into text data, each communication terminal The load on each communication terminal can be reduced as compared with the configuration in which conversion from input text data to speech data or conversion from input speech data to text data is executed. That is, according to the present embodiment, since the power consumption of each communication terminal can be suppressed, the configuration of the present embodiment is particularly effective in a communication system including a communication terminal operating with a storage battery, for example.
  • the relay device 30 when the relay device 30 receives the above-described Busy information from the data communication terminal 20, it determines to convert the voice data received from the voice communication terminal 10 into text data thereafter. That is, when the voice communication terminal 10 is considered as the above-mentioned second communication terminal, the above-mentioned Busy information corresponds to the above-mentioned first instruction information (information instructing to convert voice data into text data). However, it is not limited thereto.
  • the user A performs an operation of inputting a number (for example, "99" or the like) or a symbol corresponding to an instruction to convert voice data into text data when uttering a matter.
  • step S109 of 9 the voice communication terminal 10 transmits to the relay device 30 predetermined information indicating a number or a symbol corresponding to an instruction to convert voice data into text data, along with voice data indicating the content of the utterance of the user A. It may be in the form. Then, the relay device 30 which has received the predetermined information from the voice communication terminal 10 executes the process of converting the voice data received from the voice communication terminal 10 into text data. That is, in this example, it can be considered that the above-mentioned predetermined information corresponds to the above-mentioned first instruction information.
  • the relay device 30 when the relay device 30 receives the first instruction information instructing conversion of voice data into text data (may be received from the first communication terminal or received from the second communication terminal) It is possible to execute processing of converting voice data received from the second communication terminal into text data.
  • the relay device 30 when receiving the second instruction information instructing to convert text data into voice data (the relay device 30 may receive from the first communication terminal or may receive from the second communication terminal) And may convert text data received from the second communication terminal into voice data.
  • the relay device 30 when the relay device 30 receives the first instruction information described above, the relay device 30 converts voice data received from the second communication terminal into text data and transmits the text data to the first communication terminal.
  • the present invention is not limited to this.
  • the relay device 30 when the relay device 30 receives voice data from the second communication terminal, it unconditionally converts the received voice data into text data and converts it into the first communication terminal. It may be in the form of transmission.
  • the relay device 30 when the relay device 30 receives the second instruction information described above, the relay device 30 converts text data received from the second communication terminal into voice data and transmits the voice data to the first communication terminal.
  • the present invention is not limited to this.
  • the relay device 30 when text data is received from the second communication terminal, the relay device 30 unconditionally converts the received text data into voice data and performs the first communication. It may be transmitted to the terminal.
  • the relay device 30 includes the feature information storage unit 111, the first dictionary information storage unit 112, the second dictionary information storage unit 115, the voice data conversion information storage unit 118, and the text data conversion information storage unit 120. It is preferable to have a function to change each data content. For example, with respect to each of the feature information storage unit 111, the first dictionary information storage unit 112, the second dictionary information storage unit 115, the voice data conversion information storage unit 118, and the text data conversion information storage unit 120 described above. Each time a predetermined time (for example, one hour, one day, or one year) elapses, the data content may be automatically updated. It may be in a form having a function of changing data contents according to the instruction of.
  • a predetermined time for example, one hour, one day, or one year
  • FIG. 12 is a diagram showing an example of a functional configuration of the exchange function unit 102 according to the modification.
  • the exchange function unit 102 includes a first display control unit 130, a first acquisition unit 131, a first conversion information storage unit 132, a fifth selection unit 133, and a second.
  • a display control unit 134, a second acquisition unit 135, a second conversion information storage unit 136, a sixth selection unit 137, and a third display control unit 138 are included.
  • the exchange function unit 102 corresponds to the "display device" in the claims.
  • the function possessed by the exchange function unit 102 is not limited to these.
  • the functions of each unit of the exchange function unit 102 can be realized by the CPU mounted on the relay device 30 executing a program stored in the storage device, or a dedicated hardware circuit (semiconductor integrated circuit It can also be realized by a circuit or the like.
  • the first conversion information storage unit 132 and the second conversion information storage unit 136 can be realized by a storage device such as a ROM mounted on the relay device 30.
  • FIG. 13 is a diagram showing an example of the first screen.
  • the first screen includes a first selection image 151 for selecting the status information indicating “in meeting” and a first selection image 152 for selecting the status information indicating “in motion”. And a first selection image 153 for selecting status information indicating “busy”, a UI image 154 for selecting to answer a call, and a UI image for selecting to reject a call And 155, but is not limited thereto.
  • the first display control unit 130 generates a first screen as shown in FIG. 13 and performs control to transmit the first screen generated together with the call signal to the second communication terminal. May be Also, for example, the first display control unit 130 performs control to transmit an instruction to generate and display a first screen as shown in FIG. 13 together with a call signal to the second communication terminal. It is also good.
  • the first acquisition unit 131 acquires, from the second communication terminal, the status information selected via the first selected image.
  • the second communication terminal transmits, to the relay device 30, status information corresponding to the first selected image pressed by the user.
  • the first conversion information storage unit 132 stores the first information in association with each of the plurality of pieces of status information.
  • FIG. 14 is a diagram showing an example of a configuration of data stored in the first conversion information storage unit 132.
  • the first information is text data, but the present invention is not limited to this.
  • the first information may be a symbol or a symbol representing the user's situation. That is, the aspect of the first information is arbitrary.
  • the fifth selection unit 133 selects the first information associated with the status information acquired by the first acquisition unit 131.
  • the second display control unit 134 performs control to display a second screen including at least the first information selected by the fifth selection unit 133 on the first communication terminal.
  • the second screen may be configured to include a plurality of notification information representing notification content and a plurality of second selection images corresponding to the one-to-one correspondence and for selecting the notification information.
  • FIG. 15 is a diagram showing an example of the second screen. In the example of FIG.
  • the second screen is the first information associated with the status information indicating “in meeting” (text data “in the example, you can not answer the call because in the meeting”) 161 , Second selection information 162 for selecting notification information representing "urgent”, second selection image 163 for selecting notification information representing "callback”, and notification information representing "OK” And the UI image 165 for selecting to end the connection, but the present invention is not limited thereto.
  • the second display control unit 134 may be configured to generate a second screen as shown in FIG. 15 and perform control to transmit the second screen to the first communication terminal. Also, for example, the second display control unit 134 may perform control to transmit an instruction to generate and display a second screen as shown in FIG. 15 to the first communication terminal.
  • the second acquisition unit 135 acquires notification information selected via the second selected image from the first communication terminal.
  • the first communication terminal transmits to the relay device 30 notification information corresponding to the second selected image pressed by the user.
  • the second conversion information storage unit 136 stores the second information in association with each of the plurality of pieces of notification information.
  • FIG. 16 is a diagram showing an example of a configuration of data stored in second conversion information storage unit 136.
  • the second information is text data, but the present invention is not limited to this.
  • the second information may be a symbol or a symbol representing notification content.
  • the sixth selection unit 137 selects the second information associated with the notification information acquired by the second acquisition unit 135.
  • the third display control unit 138 performs control to display a third screen including at least the second information selected by the sixth selection unit 137 on the second communication terminal.
  • FIG. 17 is a diagram showing an example of the third screen.
  • the third screen is the second information (in this example, text data “It is a requirement for [urgent] rush”) 170 associated with the notification information indicating “urgent”, and the call
  • the UI image 154 for selecting to respond to and the UI image 155 for selecting to reject the call are included, the present invention is not limited thereto.
  • the third display control unit 138 includes at least a third information including the second information associated with the notification information. After performing the control of displaying the screen of the second communication terminal, the control of terminating the connection may be performed.
  • FIG. 18 shows a user A who uses the voice communication terminal 10 (corresponding to “first communication terminal” in this example) and a data communication terminal 20 (“second communication terminal” in this example) in this modification.
  • Correspondence is a sequence diagram showing an example of the flow of communication with the user B who uses the
  • the voice communication terminal 10 is a telephone terminal provided with a voice call function and a rich UI, for example, a case where it is configured by a mobile phone terminal (including a smart phone etc.), a business phone, etc. explain.
  • the contents of steps S200 to S202 are the same as the contents of steps S100 to S102 of FIG.
  • the data communication terminal 20 when the data communication terminal 20 receives from the relay device 30 (the first display control unit 130) an instruction to generate and display a first screen shown in FIG. 13 together with a call signal, the data communication terminal 20 follows the instruction.
  • the first screen shown in FIG. 13 is generated and displayed on the display unit (step S203).
  • the user B performs an operation to press any first selected image on the first screen displayed on the display unit of the data communication terminal 20 (step S204).
  • the situation information corresponding to the first selected image pressed by the user B is transmitted to the relay device 30 (step S205).
  • the relay device 30 For example, when the user B presses the first selection image 151 illustrated in FIG. 13, the data communication terminal 20 transmits, to the relay device 30, status information indicating “in a meeting”.
  • the relay device 30 having received the status information from the data communication terminal 20 selects the first information associated with the received status information (step S206). Then, the relay device 30 transmits, to the voice communication terminal 10, an instruction to generate and display a second screen (see, for example, FIG. 15) including at least the first information selected in step S206 (step S207).
  • the voice communication terminal 10 generates a second screen in accordance with the command received from the relay device 30 and displays the second screen on the display unit. Then, in this example, the user A performs an operation to press any second selected image on the second screen displayed on the display unit of the voice communication terminal 10 (step S208). 10 transmits notification information corresponding to the second selected image pressed by the user A to the relay device 30 (step S209).
  • the relay device 30 receiving the notification information from the voice communication terminal 10 selects the second information associated with the received notification information (step S210). Then, the relay device 30 transmits, to the data communication terminal 20, an instruction to generate and display a third screen (see, for example, FIG. 17) including at least the second information selected in step S210 (step S211).
  • the data communication terminal 20 generates a third screen according to the command received from the relay device 30, and displays the third screen on the display unit (step S212). Then, the user B can confirm the third screen displayed on the display unit of the data communication terminal 20 and determine whether to respond.
  • the first selection unit 113 described above may select different feature information according to time or position as the feature information associated with each terminal information. Good. As an example, as shown in FIG. 19, occupation information indicating "sales” is associated with the terminal information indicating "xxx-001" as the characteristic information to be selected in the time zone of 9 am-18 pm As the feature information to be selected in other time zones, occupation information indicating “father” may be associated and stored in the feature information storage unit 111 described above.
  • the first dictionary information storage unit 112 described above corresponds to the first dictionary information (the occupation information indicating “sales”) in which the occupation information is reflected with respect to the occupation information indicating “father”
  • First dictionary information different from the first dictionary information is stored in association with each other.
  • the communication terminal identified by the terminal information is selected when the position of the communication terminal is within ⁇ ⁇ km around the home.
  • a mode in which occupation information indicating "business" is associated as feature information, and occupation information indicating "father” is associated as feature information to be selected in other cases and stored in the above-mentioned feature information storage unit 111 It may be Note that various known techniques can be used as a method of detecting the position of the communication terminal.
  • the relay device 30 can detect the position of the communication terminal using GPS or the like.
  • DESCRIPTION OF SYMBOLS 1 communication system 10 voice communication terminal 20 data communication terminal 30 relay apparatus 101 management unit 102 switch function unit 103 mail control unit 104 communication interface unit 105 voice-text conversion unit 111 feature information storage unit 112 first dictionary information storage unit 113 first Selection unit 114 First conversion unit 115 Second dictionary information storage unit 116 Second selection unit 117 Second conversion unit 118 Voice data conversion information storage unit 119 Third selection unit 120 Text data conversion information storage unit 121 Fourth selection unit 130 Fourth selection unit 1 display control unit 131 first acquisition unit 132 first conversion information storage unit 133 fifth selection unit 134 second display control unit 135 second acquisition unit 136 second conversion information storage unit 137 sixth selection unit 138 Third Display Control Unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 中継装置は、特徴情報記憶部と第1辞書情報記憶部と第1選択部と第1変換部とを備える。特徴情報記憶部は、複数の端末情報ごとに、ユーザの特徴を示す特徴情報を対応付けて記憶する。第1辞書情報記憶部は、複数の特徴情報ごとに、音声データをテキストデータに変換するのに用いられる第1辞書情報を対応付けて記憶する。第1選択部は、第1の通信端末の通信相手となる第2の通信端末から音声データを受信した場合、第2の通信端末を識別する端末情報に対応付けられた特徴情報を選択し、その選択した特徴情報に対応付けられた第1辞書情報を選択する。第1変換部は、第1辞書情報を用いて、第2の通信端末から受信した音声データをテキストデータに変換する。

Description

中継装置、表示装置および通信システム
 本発明は、中継装置、表示装置および通信システムに関する。
 従来、音声データからテキストデータへのデータ変換、または、テキストデータから音声データへのデータ変換を利用した通信システムが知られている。
 例えば特許文献1では、テキストデータを音声データに変換するのに用いられる第1辞書情報(「単語辞書」)が予め用意されており、その第1辞書情報を用いて、入力テキストデータを表音文字列に変換し、入力テキストデータに含まれる所定の情報に基づいて、例えば感情、思考、性別、顔形、身長、体重、年齢、職業、出身地、趣味、嗜好などを加味した合成音声が得られるよう、変換した表音文字列を加工している。
 また、特許文献1では、音声データをテキストデータに変換するのに用いられる第2辞書情報(「単語モデル」と「言語モデル」)が予め用意されており、その第2辞書情報を用いて、入力音声データをテキストデータに変換し、入力音声データから話者の感情、思考、体調、性別、顔形、身長、体重、年齢、職業、出身地、趣味、嗜好などを推定し、その推定結果に応じて、変換したテキストデータを加工している。
 しかしながら、従来においては、ユーザの特徴や状況に応じて最適な通信制御を行うことはできなかった。
 本発明は、上記に鑑みてなされたものであって、ユーザの特徴や状況に応じて最適な通信制御を行うことを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、第1の通信端末と第2の通信端末を少なくとも含む複数の通信端末間の通信を中継する中継装置であって、それぞれが前記通信端末を識別する複数の端末情報ごとに、前記通信端末を使用するユーザの特徴を示す特徴情報を対応付けて記憶する特徴情報記憶部と、複数の前記特徴情報ごとに、音声データをテキストデータに変換するのに用いられる第1辞書情報を対応付けて記憶する第1辞書情報記憶部と、前記第1の通信端末の通信相手となる前記第2の通信端末から音声データを受信した場合、前記第2の通信端末を識別する前記端末情報に対応付けられた前記特徴情報を選択し、その選択した前記特徴情報に対応付けられた前記第1辞書情報を選択する第1選択部と、前記第1選択部により選択された前記第1辞書情報を用いて、前記第2の通信端末から受信した音声データをテキストデータに変換する第1変換部と、を備える中継装置である。
 また、本発明は、第1の通信端末と第2の通信端末を少なくとも含む複数の通信端末間の通信を中継する中継装置であって、それぞれが前記通信端末を識別する複数の端末情報ごとに、前記通信端末を使用するユーザの特徴を示す特徴情報を対応付けて記憶する特徴情報記憶部と、複数の前記特徴情報ごとに、テキストデータを音声データに変換するのに用いられる第2辞書情報を対応付けて記憶する第2辞書情報記憶部と、前記第1の通信端末の通信相手となる前記第2の通信端末からテキストデータを受信した場合、前記第2の通信端末を識別する前記端末情報に対応付けられた前記特徴情報を選択し、その選択した前記特徴情報に対応付けられた前記第2辞書情報を選択する第2選択部と、前記第2選択部により選択された前記第2辞書情報を用いて、前記第2の通信端末から受信したテキストデータを音声データに変換する第2変換部と、を備える中継装置である。
 本発明によれば、入力テキストデータから音声データへの変換、または、入力音声データからテキストデータへの変換の精度を向上させることが可能な中継装置、表示装置および通信システムを提供することができる。
図1は、通信システムの構成の一例を示す図である。 図2は、中継装置の構成の一例を示す図である。 図3は、特徴情報記憶部に記憶されたデータの構成の一例を示す図である。 図4は、第1辞書情報記憶部に記憶されたデータの構成の一例を示す図である。 図5は、第1辞書情報の選択方法の一例を示すフローチャートである。 図6は、第2辞書情報記憶部に記憶されたデータの構成の一例を示す図である。 図7は、第2辞書情報の選択方法の一例を示すフローチャートである。 図8は、音声データ変換情報記憶部に記憶されたデータの構成の一例を示す図である。 図9は、通信端末を利用するユーザ間のコミュニケーションの流れの一例を示すシーケンス図である。 図10は、データ通信端末の表示部に表示された画面の一例を示す図である。 図11は、データ通信端末の表示部に表示された画面の他の例を示す図である。 図12は、変形例の交換機機能部の機能構成の一例を示す図である。 図13は、第1の画面の一例を示す図である。 図14は、第1の変換情報記憶部に記憶されたデータの構成の一例を示す図である。 図15は、第2の画面の一例を示す図である。 図16は、第2の変換情報記憶部に記憶されたデータの構成の一例を示す図である。 図17は、第3の画面の一例を示す図である。 図18は、通信端末を利用するユーザ間のコミュニケーションの流れの一例を示すシーケンス図である。 図19は、端末情報に対応付けられる特徴情報の変形例を説明するための図である。 図20は、端末情報に対応付けられる特徴情報の変形例を説明するための図である。
 以下、添付図面を参照しながら、本発明に係る中継装置、表示装置および通信システムの実施形態を詳細に説明する。
 図1は、本実施形態の通信システム1の構成の一例を示す図である。図1に示すように、通信システム1は、音声通信端末10と、データ通信端末20と、中継装置30とを備える。音声通信端末10は、音声による通話が可能な電話端末であり、例えば固定電話機(IP電話、アナログ電話)、携帯電話端末等で構成され得る。この例では、音声通信端末10は、ダイアル操作を押しボタンで行う方式の固定電話機であって、ボタン入力に応じて数字や記号を送出する機能(Dual-Tone Multi-Frequency、以下、「DTMF」と称する)を有している場合を例に挙げて説明する。音声通信端末10は、請求項の「通信端末」の一例である。
 データ通信端末20は、音声通話機能およびリッチなUIを備える電話端末であり、例えば、携帯電話端末(スマートフォンなどを含む)、ビジネスフォンなどで構成され得る。この例では、データ通信端末20は、携帯電話端末で構成される場合を例に挙げて説明する。データ通信端末20は、中継装置30から送出された呼出信号を受信した場合(着信があった場合)に、予め用意された複数の状況情報(後述)を含む画面を表示部に表示する機能や、画面に対するユーザ操作を受け付ける機能、受け付けたユーザ操作に応じた情報を中継装置30へ送信する機能などを有している。データ通信端末20は、請求項の「通信端末」の一例である。
 なお、以下の説明では、音声通信端末10とデータ通信端末20を区別する必要が無い場合は、単に「通信端末」と称する場合がある。また、以下の説明においては、音声通信端末10が請求項の「第1の通信端末」に対応し、データ通信端末20が請求項の「第2の通信端末」に対応する場合もあるし、反対に、音声通信端末10が請求項の「第2の通信端末」に対応し、データ通信端末20が請求項の「第1の通信端末」に対応する場合もある。
 中継装置30は、音声通信端末10とデータ通信端末20との間の通信を中継する装置であり、通信端末間でセッションを確立するための発呼処理や通信データの中継処理を行う機能を有する。なお、図1の例では、説明の便宜上、通信システム1に含まれる通信端末として、音声通信端末10とデータ通信端末20の2台のみを例示しているが、これに限らず、通信システム1に含まれる通信端末の数や種類は任意である。詳しくは後述するが、中継装置30は、通信端末から受信した音声データをテキストデータに変換する機能、および、通信端末から受信したテキストデータを音声データに変換する機能を有する。
 なお、上述の各装置(音声通信端末10、データ通信端末20、中継装置30)は、例えばIPネットワーク、公衆電話網、携帯電話網(3G、LTE)などを介して接続することができる。
 図2は、中継装置30の構成の一例を示す図である。図2に示すように、中継装置30は、管理部101と、交換機機能部102と、音声-テキスト変換部105と、メール制御部103と、通信インターフェース部104とを備える。管理部101は、番号計画情報や、通信端末を識別する端末情報を設定する機能を有する。この設定機能は、例えば通信インターフェース部104を介して、Web UIで提供されてもよい。また、管理部101は、通話記録情報を保持する機能を有する。
 交換機機能部102は、管理部101に保持される番号計画情報と端末情報を参照して、発呼の呼び出し元と呼び出し先のマッチングを行う機能や、発呼処理を行う機能や、後述の音声-テキスト変換部105による処理を音声通話に組み込んで、通信データの中継処理を行う機能などを有する。また、具体的な内容は後述するが、交換機機能部102は、音声データをテキストデータへ変換することを指示する第1指示情報を、通信インターフェース部104を介して受信した場合は、音声-テキスト変換部105に対して、マッチングを行った2つの通信端末のうちの一方の通信端末から受信した音声データをテキストデータへ変換する処理を要求する。また、交換機機能部102は、テキストデータを音声データへ変換することを指示する第2指示情報を、通信インターフェース部104を介して受信した場合は、音声-テキスト変換部105に対して、マッチングを行った2つの通信端末のうちの一方の通信端末から受信したテキストデータを音声データへ変換する処理を要求する。
 メール制御部103は、交換機機能部102および管理部101のリクエストに応じてメール送信を行う機能を有する。通信インターフェース部104は、交換機機能部102、管理部101、メール制御部103に対してIPネットワーク機能を提供する。具体的には、Ethernet(登録商標)やWi-Fiといった通信インターフェースとTCP/UDP、IPネットワークのソフトウェアスタックから構成される。交換機機能部102に対しては、音声通話用にアナログ回線やISDN回線を備えてもよい。
 音声-テキスト変換部105は、交換機機能部102からの要求に応じて、通信端末から受信した音声データをテキストデータへ変換する機能、および、通信端末から受信したテキストデータを音声データへ変換する機能を有する。本実施形態では、音声-テキスト変換部105は、特徴情報記憶部111と、第1辞書情報記憶部112と、第1選択部113と、第1変換部114と、第2辞書情報記憶部115と、第2選択部116と、第2変換部117と、音声データ変換情報記憶部118と、第3選択部119と、テキストデータ変換情報記憶部120と、第4選択部121とを有する。
 特徴情報記憶部111は、それぞれが通信端末を識別する複数の端末情報ごとに、通信端末を使用するユーザの特徴を示す特徴情報を対応付けて記憶する。この例では、端末情報として、電話番号が用いられる場合を例に挙げて説明するが、これに限られるものではない。また、この例では、特徴情報として、ユーザの性別を示す性別情報、年齢を示す年齢情報、職業を示す職業情報のうちの何れか1つ、または、何れか2つ以上の組み合わせが用いられる場合を例に挙げて説明するが、これに限られるものではない。図3は、特徴情報記憶部111に記憶されたデータの構成の一例を示す図である。図3の例では、特徴情報記憶部111は、端末情報ごとに割り当てられるIDと、端末情報との組み合わせごとに、性別情報と、年齢情報と、職業情報とを対応付けて記憶している。
 第1辞書情報記憶部112は、複数の特徴情報ごとに、音声データをテキストデータに変換するのに用いられる第1辞書情報を対応付けて記憶する。この例では、複数の特徴情報ごとに、当該特徴情報が反映された第1辞書情報が対応付けられている。図4は、第1辞書情報記憶部112に記憶されたデータの構成の一例を示す図である。図4の例では、第1辞書情報記憶部112は、ユーザの職業を示す職業情報ごとに、第1辞書情報を識別する情報を示す第1辞書情報IDを対応付けて記憶している。なお、この例では、特徴情報として、職業情報が用いられているが、これに限られるものではなく、例えば、年齢情報または性別情報を特徴情報として用いることもできるし、年齢情報、性別情報および職業情報のうちの少なくとも2つの組み合わせを特徴情報として用いることもできる。
 また、この例では、複数の第1辞書情報IDと1対1に対応する複数の第1辞書情報は、別のメモリ(不図示)に格納されているが、見方を変えれば、第1辞書情報記憶部112は、複数の職業情報ごとに、第1辞書情報を対応付けて記憶していると考えることもできる。また、例えば第1辞書情報記憶部112は、複数の第1辞書情報IDと1対1に対応する複数の第1辞書情報を記憶する領域をさらに有する形態であってもよいし、例えば第1辞書情報記憶部112は、第1辞書情報IDを格納せずに、複数の特徴情報(例えば職業情報)ごとに、第1辞書情報を対応付けて記憶する形態であってもよい。
 また、この例では、第1辞書情報は、予め用意された複数の音素列ごとに、音声からテキスト(文字列)へ変換する際の候補を示す1以上のテキストと、それぞれの候補の優先順位を示す優先順位情報とが対応付けられているが、これに限られるものではなく、第1辞書情報としては、音声データをテキストデータへ変換するのに用いられる公知の様々な辞書情報を利用することができる。なお、音素とは、語を区別する音声の最小単位を示す。また、この例では、第2辞書情報は、音声データからテキストデータへの変換を行う際の、音声データの区切り方(モデリング)を示すモデリング情報も含んでいる。各第1辞書情報に含まれるモデリング情報は、当該第1辞書情報に対応付けられた特徴情報に応じて設定される。
 図2に戻って説明を続ける。第1選択部113は、交換機機能部102によりマッチングされた2つの通信端末のうちの一方の通信端末(以下の説明では、「第2の通信端末」と称する場合がある)から音声データを受信した場合、特徴情報記憶部111を参照して、第2の通信端末を識別する端末情報に対応付けられた特徴情報を選択する。そして、第1辞書情報記憶部112を参照して、選択した特徴情報に対応付けられた第1辞書情報を選択する。なお、ここでは、第1選択部113は、上述の第1指示情報(音声データをテキストデータへ変換することを指示する情報)を受信した場合は、第1辞書情報の選択を行う一方、上述の第1指示情報を受信しない場合は、第1辞書情報の選択は行わない。
 図5を用いて、中継装置30が、上述の第1指示情報を受信し、かつ、第2の通信端末から音声データを受信した場合における第1辞書情報の選択方法を説明する。図5に示すように、交換機機能部102は、通信インターフェース部104を介して、上述の第1指示情報を受信し、かつ、第2の通信端末から音声データを受信した場合(ステップS1:Yes)、音声-テキスト変換部105に対して、第2の通信端末から受信した音声データをテキストデータへ変換する処理を要求する。この要求を受けた音声-テキスト変換部105は、第1選択部113に対して、第1辞書情報の選択を指示する。この指示を受けた第1選択部113は、特徴情報記憶部111を参照して、第2の通信端末を識別する端末情報に対応付けられた特徴情報(この例では職業情報)を選択する(ステップS2)。次に、第1選択部113は、第1辞書情報記憶部112を参照して、ステップS2で選択した特徴情報に対応付けられた第1辞書情報を選択する(ステップS3)。
 図2に戻って説明を続ける。第1選択部113により第1辞書情報が選択された場合、音声-テキスト変換部105は、第1変換部114に対して、第1選択部113により選択された第1辞書情報を用いて、第2の通信端末から受信した音声データをテキストデータに変換することを指示する。この指示を受けた第1変換部114は、第1選択部113により選択された第1辞書情報を用いて、第2の通信端末から受信した音声データをテキストデータに変換する。
 そして、音声-テキスト変換部105は、交換機機能部102からの要求(音声データをテキストデータへ変換する要求)に対する応答として、第1変換部114によって変換されたテキストデータを交換機機能部102へ渡し、交換機機能部102は、第1変換部114によって変換されたテキストデータを、マッチングした2つの通信端末のうちの他方の通信端末、つまり、第2の通信端末の通信相手となる通信端末(以下の説明では「第1の通信端末」と称する場合がある)へ送信する制御を行う。この例では、交換機機能部102は、請求項の「第1送信制御部」に対応する機能を有していると考えることができる。
 上述したように、本実施形態では、複数の特徴情報ごとに、当該特徴情報が反映された第1辞書情報が対応付けられているので、例えば「生物学者」を示す職業情報に対応付けられた第1辞書情報では、「くも」という発音を示す音素列に対して、「蜘蛛」という変換候補を示すテキストと、「雲」という変換候補を示すテキストとが対応付けられるとともに、「蜘蛛」という変換候補の優先順位は1位であり、「雲」という変換候補の優先順位は2位であることを示す優先順位情報が対応付けられていてもよい。また、例えば「子供」を示す職業情報に対応付けられた第1辞書情報では、「くも」という発音を示す音素列に対して、「蜘蛛」という変換候補を示すテキストと、「雲」という変換候補を示すテキストとが対応付けられるとともに、「蜘蛛」という変換候補の優先順位は2位であり、「雲」という変換候補の優先順位は1位であることを示す優先順位情報が対応付けられていてもよい。
 したがって、「くも」という発音を示す音素列をテキストに変換する際に、「生物学者」を示す職業情報に対応付けられた第1辞書情報が選択されていた場合は、「蜘蛛」というテキストに優先的に変換される一方、「子供」を示す職業情報に対応付けられた第1辞書情報が選択されていた場合は、「雲」というテキストに優先的に変換されるといった具合である。すなわち、本実施形態によれば、音声データの入力を行ったユーザの特徴を正確に反映させて、音声データからテキストデータへの変換を行うことができるという有利な効果を達成できる。
 図2の説明を続ける。第2辞書情報記憶部115は、複数の特徴情報ごとに、テキストデータを音声データに変換するのに用いられる第2辞書情報を対応付けて記憶する。この例では、複数の特徴情報ごとに、当該特徴情報が反映された第2辞書情報が対応付けられている。図6は、第2辞書情報記憶部115に記憶されたデータの構成の一例を示す図である。図6の例では、第2辞書情報記憶部115は、年齢情報と性別情報(「男性」または「女性」を示す情報)との組み合わせごとに、第2辞書情報を識別する情報を示す第2辞書情報IDを対応付けて記憶している。なお、この例では、特徴情報として、年齢情報と性別情報との組み合わせが用いられているが、これに限られるものではなく、例えば、年齢情報、性別情報、職業情報のうちの何れか1つを特徴情報として用いることもできるし、年齢情報と職業情報との組み合わせを特徴情報として用いることもできるし、性別情報と職業情報との組み合わせを特徴情報として用いることもできる。
 また、この例では、複数の第2辞書情報IDと1対1に対応する複数の第2辞書情報は、別のメモリ(不図示)に格納されているが、見方を変えれば、第2辞書情報記憶部115は、年齢情報と性別情報との組み合わせごとに、第2辞書情報を対応付けて記憶していると考えることもできる。また、例えば第2辞書情報記憶部115は、複数の第2辞書情報IDと1対1に対応する複数の第2辞書情報を記憶する領域をさらに有する形態であってもよいし、例えば第2辞書情報記憶部115は、第2辞書情報IDを格納せずに、複数の特徴情報(例えば年齢情報と性別情報との組み合わせ)ごとに、第2辞書情報を対応付けて記憶する形態であってもよい。
 また、この例では、第2辞書情報は、予め用意された複数の文字列(テキスト)ごとに、その読み(音)を示す音素列を対応付けた第1対応情報と、複数の音素列ごとに、音声の特性(声色やイントネーションなど)を制御するためのパラメータを対応付けた第2対応情報とから構成されているが、これに限られるものではなく、第2辞書情報としては、テキストデータを音声データに変換するのに用いられる公知の様々な辞書情報を利用することができる。
 図2に戻って説明を続ける。第2選択部116は、交換機機能部102によりマッチングされた2つの通信端末のうちの一方の通信端末(第2の通信端末)からテキストデータを受信した場合、特徴情報記憶部111を参照して、第2の通信端末を識別する端末情報に対応付けられた特徴情報を選択する。そして、第2辞書情報記憶部115を参照して、選択した特徴情報に対応付けられた第2辞書情報を選択する。なお、ここでは、第2選択部116は、上述の第2指示情報(テキストデータを音声データへ変換することを指示する情報)を受信した場合は、第2辞書情報の選択を行う一方、上述の第2指示情報を受信しない場合は、第2辞書情報の選択は行わない。
 図7を用いて、中継装置30が、上述の第2指示情報を受信し、かつ、第2の通信端末からテキストデータを受信した場合における第2辞書情報の選択方法を説明する。図7に示すように、交換機機能部102は、通信インターフェース部104を介して、上述の第2指示情報を受信し、かつ、第2の通信端末からテキストデータを受信した場合(ステップS11:Yes)、音声-テキスト変換部105に対して、第2の通信端末から受信したテキストデータを音声データへ変換する処理を要求する。この要求を受けた音声-テキスト変換部105は、第2選択部116に対して、第2辞書情報の選択を指示する。この指示を受けた第2選択部116は、特徴情報記憶部111を参照して、第2の通信端末を識別する端末情報に対応付けられた特徴情報(この例では性別情報と年齢情報との組み合わせ)を選択する(ステップS12)。次に、第2選択部116は、第2辞書情報記憶部115を参照して、ステップS12で選択した特徴情報に対応付けられた第2辞書情報を選択する(ステップS13)。
 再び図2に戻って説明を続ける。第2選択部116により第2辞書情報が選択された場合、音声-テキスト変換部105は、第2変換部117に対して、第2選択部116により選択された第2辞書情報を用いて、第2の通信端末から受信したテキストデータを音声データに変換することを指示する。この指示を受けた第2変換部117は、第2選択部116により選択された第2辞書情報を用いて、第2の通信端末から受信したテキストデータを音声データに変換する。そして、音声-テキスト変換部105は、交換機機能部102からの要求(テキストデータを音声データへ変換する要求)に対する応答として、第2変換部117によって変換された音声データを交換機機能部102へ渡し、交換機機能部102は、第2変換部117によって変換された音声データを、第1の通信端末へ送信する制御を行う。この例では、交換機機能部102は、請求項の「第2送信制御部」に対応する機能を有していると考えることができる。
 図2に示す音声データ変換情報記憶部118は、それぞれがユーザの状況を表す複数の状況情報ごとに、所定の(固定の)音声データを対応付けて記憶する。図8は、音声データ変換情報記憶部118に記憶されたデータの構成の一例を示す図である。図8の例では、「会議中」を示す状況情報に対しては、「会議中のため、電話に出られません」という固定の音声データが対応付けられ、「移動中」を示す状況情報に対しては、「移動中のため、電話に出られません」という固定の音声データが対応付けられ、「多忙」を示す状況情報に対しては、「多忙のため、電話に出られません」という固定の音声データが対応付けられている。なお、この例では、データ通信端末20は、中継装置30から送出された呼出信号を受信した場合(着信があった場合)に、予め用意された複数の状況情報(この例では、「会議中」を示す状況情報、「移動中」を示す状況情報、「多忙」を示す状況情報)を含む画面を表示部に表示する機能、画面に対するユーザ操作(例えばタッチ操作など)に応じて何れかの状況情報を選択する機能、ユーザ操作に応じて選択した状況情報を、中継装置30へ送信する機能を有している。
 図2に戻って説明を続ける。第3選択部119は、交換機機能部102によりマッチングされた2つの通信端末のうちの一方の通信端末(第2の通信端末)から状況情報を受信した場合、音声データ変換情報記憶部118を参照して、第2の通信端末から受信した状況情報に対応付けられた所定の音声データを選択する。
 ここでは、交換機機能部102は、通信インターフェース部104を介して、第2の通信端末から状況情報を受信した場合、音声-テキスト変換部105に対して、第2の通信端末から受信した状況情報に対応する所定の音声データを選択することを要求する。この要求を受けた音声-テキスト変換部105は、第3選択部119に対して、第2の通信端末から受信した状況情報に対応する音声データの選択を指示する。この指示を受けた第3選択部119は、音声データ変換情報記憶部118を参照して、第2の通信端末から受信した状況情報に対応付けられた所定の音声データを選択する。そして、音声-テキスト変換部105は、交換機機能部102からの要求(所定の音声データを選択する要求)に対する応答として、第3選択部119によって選択された所定の音声データを交換機機能部102へ渡し、交換機機能部102は、第3選択部119によって選択された所定の音声データを第1の通信端末へ送信する制御を行う。この例では、交換機機能部102は、請求項の「第3送信制御部」に対応する機能を有していると考えることができる。
 図2の説明を続ける。図2に示すテキストデータ変換情報記憶部120は、それぞれが、ユーザが通信端末に対して入力可能な情報を示す複数の入力情報ごとに、所定の(固定の)テキストデータを対応付けて記憶する。音声データ変換情報記憶部118は、例えばユーザが通信端末のプッシュボタン「9」を押すことで入力される、「9」という番号を示す入力情報に対して、「緊急」という文字列を示すテキストデータを対応付けて記憶することもできる。
 第4選択部121は、交換機機能部102によりマッチングされた2つの通信端末のうちの一方の通信端末(第2の通信端末)から入力情報を受信した場合、テキストデータ変換情報記憶部120を参照して、第2の通信端末から受信した入力情報に対応付けられた所定のテキストデータを選択する。
 ここでは、交換機機能部102は、通信インターフェース部104を介して、第2の通信端末から入力情報を受信した場合、音声-テキスト変換部105に対して、第2の通信端末から受信した入力情報に対応するテキストデータを選択することを要求する。この要求を受けた音声-テキスト変換部105は、第4選択部121に対して、第2の通信端末から受信した入力情報に対応するテキストデータの選択を指示する。この指示を受けた第4選択部121は、テキストデータ変換情報記憶部120を参照して、第2の通信端末から受信した入力情報に対応付けられた所定のテキストデータを選択する。そして、音声-テキスト変換部105は、交換機機能部102からの要求(所定のテキストデータを選択する要求)に対する応答として、第4選択部121によって選択された所定のテキストデータを交換機機能部102へ渡し、交換機機能部102は、第4選択部121によって選択された所定のテキストデータを第1の通信端末へ送信する制御を行う。この例では、交換機機能部102は、請求項の「第4送信制御部」に対応する機能を有していると考えることができる。
 以上の中継装置30のハードウェア構成としては、CPUと、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えた通常のコンピュータを利用したハードウェア構成を採用することもできる。そして、中継装置30の各部の機能のうちの一部(例えば第1選択部113、第1変換部114、第2選択部116、第2変換部117、第3選択部119、第4選択部121等)は、CPUが、記憶装置に格納されたプログラムを実行することにより実現することもできるし、専用のハードウェア回路(半導体集積回路等)により実現することもできる。
 なお、中継装置30で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、中継装置30で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、中継装置30で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
 次に、図9を用いて、音声通信端末10を使用するユーザAと、データ通信端末20を使用するユーザBとのコミュニケーションの流れの一例を説明する。図9の例では、ユーザBは、電話に出難い状況(シチュエーション)である場合を例に挙げて説明する。まず、ユーザAは、データ通信端末20を呼び出すための発信操作(電話番号の入力等)を行う(ステップS100)。この発信操作を受け付けた音声通信端末10は、データ通信端末20の電話番号を含む接続要求信号を中継装置30へ送信する(ステップS101)。この接続要求信号を受けた中継装置30は、管理部101に保持される番号計画情報と端末情報を参照して、音声通信端末10(呼び出し元)とデータ通信端末20(呼び出し先)のマッチングを行い、データ通信端末20に対して、呼出信号(呼出音)を送信する(ステップS102)。この例では、データ通信端末20は、呼び出し信号を受信すると、図10に示す画面を表示部に表示する(ステップS103)。図10に示す画面は、「会議中」を示す状況情報に対応するUIボタン201と、「移動中」を示す状況情報に対応するUIボタン202と、「多忙」を示す状況情報に対応するUIボタン203と、音声通話をすることができない状況であることを相手に知らせるための他の機能に対応するUIボタン204とを含む。
 ユーザBは、データ通信端末20の表示部に表示された画面に対して、何れかのUIボタンを選択する操作を行い(ステップS104)、データ通信端末20は、ユーザBの操作に応じた情報(データ)を、ユーザが音声通話をすることができない状況であることを示すBusy情報とともに、中継装置30へ送信する(ステップS105)。
 例えばユーザBが、図10に示すUIボタン201を押下した場合、データ通信端末20は、「会議中」を示す状況情報とBusy情報とを中継装置30へ送信する。また、例えばユーザBが、図10に示すUIボタン204(「カスタム」と表示されたUIボタン)を押下した場合、データ通信端末20は、入力した任意の文字列を音声に変換して相手に通知する機能に対応する不図示のUIボタン(説明の便宜上、「第1のUIボタン」と称する)や、指定した時間が経過した後にコールバックする(電話をかけ直す)ことを相手に通知する機能に対応する不図示のUIボタン(「第2のUIボタン」と称する)などを含む画面に切り替える。そして、例えばユーザBが、第1のUIボタンを押下した場合、データ通信端末20は、文字列の入力を促す画面を表示して文字列の入力を受け付ける。そして、データ通信端末20は、ユーザBによって入力された文字列を示すテキストデータと、上述のBusy情報とを中継装置30へ送信するという具合である。
 データ通信端末20から、Busy情報と、ユーザBの操作に応じた情報とを受信した中継装置30は、受信した情報に応じた処理を行い(ステップS106)、処理結果を音声通信端末10へ送信する(ステップS107)。例えば、Busy情報と、テキストデータ(ユーザBが入力した任意の文字列)とをデータ通信端末20から受信した場合、中継装置30は、上述したように、データ通信端末20の端末情報に対応付けられた第1辞書情報を用いて、データ通信端末20から受信したテキストデータを音声データへ変換する処理を実行し、変換した音声データを音声通信端末10へ送信する。この例では、上述のBusy情報が上述の第2指示情報(テキストデータを音声データへ変換することを指示する情報)に対応し、データ通信端末20が上述の第2の通信端末に対応していると考えることができる。また、例えば、Busy情報と、ユーザBが選択した状況情報とをデータ通信端末20から受信した場合、中継装置30は、上述したように、データ通信端末20から受信した状況情報に対応付けられた所定の音声データを音声通信端末10へ送信する。
 以上のようにして中継装置30から音声通信端末10へ送信された音声データを聞いたユーザAは、ユーザBが電話に出るか否かの判断情報を通知するために、例えば用件を発話する(音声データを入力する)ことができる(ステップS108)。この場合、音声通信端末10は、ユーザAによって入力された音声データを中継装置30へ送信する(ステップS109)。そして、この音声データを受信した中継装置30は、上述したように、音声通信端末10の端末情報に対応付けられた第2辞書情報を用いて、音声通信端末10から受信した音声データをテキストデータへ変換する処理を実行し(ステップS110)、変換したテキストデータをデータ通信端末20へ送信する(ステップS111)。そして、データ通信端末20は、中継装置30から受信したテキストデータを表示部に表示する(ステップS112)。ユーザBは、データ通信端末20の表示部に表示されたテキストデータを確認して、電話に出るか否かを判断することができる。
 また、上述のステップS108において、ユーザAは、用件の発話に加えて上述の入力情報を入力することもできる。例えば緊急の用件であることをユーザBに伝えるために、ユーザAは、音声通信端末10に設けられたプッシュボタン「9」を押すことで、「9」という番号を示す入力情報を入力することもできる。この場合、音声通信端末10は、「9」という番号を示す入力情報を中継装置30へ送信する。この入力情報を受信した中継装置30は、上述したように、受信した入力情報に対応付けられた所定のテキストデータ(この例では、「緊急」という文字列を示すテキストデータ)を選択する処理を実行し、選択したテキストデータをデータ通信端末20へ送信する。データ通信端末20は、中継装置30から受信したテキストデータを表示部に表示する。図11は、データ通信端末20の表示部に表示された画面の一例を示す図である。図11に例示された画面においては、「緊急」という文字列を示すテキストデータと、ユーザAが発話した内容を示すテキストデータとが表示されている。なお、上述のステップS108において、例えばユーザAは、用件の発話、および、入力情報の入力の両方を行うこともできるし、何れか一方のみを選択的に行うこともできる。
 以上に説明したように、本実施形態の中継装置30は、第1の通信端末の通信相手となる第2の通信端末から音声データを受信した場合、第2の通信端末の端末情報に対応付けられた特徴情報が反映された第1辞書情報を選択し、その選択した第1辞書情報を用いて、第2の通信端末から受信した音声データをテキストデータに変換して第1の通信端末へ送信するので、入力音声データからテキストデータへの変換の精度を向上させることができるという有利な効果を達成できる。
 また、本実施形態の中継装置30は、第2の通信端末からテキストデータを受信した場合、第2の通信端末の端末情報に対応付けられた特徴情報が反映された第2辞書情報を選択し、その選択した第2辞書情報を用いて、第2の通信端末から受信したテキストデータを音声データに変換して第1の通信端末へ送信するので、入力テキストデータから音声データへの変換の精度を向上させることができるという有利な効果を達成できる。
 さらに、本実施形態では、通信端末間の通信を中継する中継装置30が、入力テキストデータから音声データへの変換、または、入力音声データからテキストデータへの変換を実行するので、各通信端末が、入力テキストデータから音声データへの変換、または、入力音声データからテキストデータへの変換を実行する構成に比べて、各通信端末の負荷を軽減することができる。つまり、本実施形態によれば、各通信端末の消費電力を抑制することができるので、例えば蓄電池で動作する通信端末を含む通信システムにおいては、本実施形態の構成は格別に有効である。
 以上、本発明の実施形態を説明したが、上述の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。
 例えば図9の例においては、中継装置30は、データ通信端末20から上述のBusy情報を受信すると、その後に音声通信端末10から受信した音声データをテキストデータに変換することを決定している。つまり、音声通信端末10を上述の第2の通信端末として考えた場合に、上述のBusy情報が、上述の第1指示情報(音声データをテキストデータへ変換することを指示する情報)に対応していると考えることができるが、これに限られるものではない。例えば図9のステップS108において、ユーザAは、用件を発話する際に、音声データをテキストデータへ変換する指示に対応する番号(例えば「99」等)や記号を入力する操作を行い、図9のステップS109において、音声通信端末10は、ユーザAの発話内容を示す音声データとともに、音声データをテキストデータへ変換する指示に対応する番号や記号を示す所定の情報を中継装置30へ送信する形態であってもよい。そして、音声通信端末10から所定の情報を受信した中継装置30は、音声通信端末10から受信した音声データをテキストデータへ変換する処理を実行するという具合である。つまり、この例では、上述の所定の情報が上述の第1指示情報に対応していると考えることができる。
 要するに、中継装置30は、音声データをテキストデータへ変換することを指示する第1指示情報を受信した場合(第1の通信端末から受信してもよいし、第2の通信端末から受信してもよい)、第2の通信端末から受信した音声データをテキストデータへ変換する処理を実行することができる。同様に、中継装置30は、テキストデータを音声データへ変換することを指示する第2指示情報を受信した場合(第1の通信端末から受信してもよいし、第2の通信端末から受信してもよい)、第2の通信端末から受信したテキストデータを音声データへ変換する処理を実行することができる。
 また、上述の実施形態では、中継装置30は、上述の第1指示情報を受信した場合に、第2の通信端末から受信した音声データをテキストデータへ変換して第1の通信端末へ送信しているが、これに限らず、例えば中継装置30は、第2の通信端末から音声データを受信した場合は、無条件に、その受信した音声データをテキストデータへ変換して第1の通信端末へ送信する形態であってもよい。同様に、上述の実施形態では、中継装置30は、上述の第2指示情報を受信した場合に、第2の通信端末から受信したテキストデータを音声データへ変換して第1の通信端末へ送信しているが、これに限らず、例えば中継装置30は、第2の通信端末からテキストデータを受信した場合は、無条件に、その受信したテキストデータを音声データへ変換して第1の通信端末へ送信する形態であってもよい。
 また、例えば中継装置30は、上述の特徴情報記憶部111、第1辞書情報記憶部112、第2辞書情報記憶部115、音声データ変換情報記憶部118、および、テキストデータ変換情報記憶部120の各々のデータ内容を変更する機能を有していることが好ましい。例えば中継装置30は、上述の特徴情報記憶部111、第1辞書情報記憶部112、第2辞書情報記憶部115、音声データ変換情報記憶部118、および、テキストデータ変換情報記憶部120の各々について、予め定められた時間(例えば1時間でもよいし、1日でもよいし、1年でもよい)が経過するたびに、そのデータ内容を自動更新する機能を有する形態であってもよいし、ユーザの指示に従ってデータ内容を変更する機能を有する形態であってもよい。
 図12は、変形例に係る交換機機能部102の機能構成の一例を示す図である。図12に示すように、交換機機能部102は、第1の表示制御部130と、第1の取得部131と、第1の変換情報記憶部132と、第5選択部133と、第2の表示制御部134と、第2の取得部135と、第2の変換情報記憶部136と、第6選択部137と、第3の表示制御部138とを有する。この例では、交換機機能部102(中継装置30)は、請求項の「表示装置」に対応していると考えることができる。なお、説明の便宜上、図12の例では、本発明に係る機能を主に例示しているが、交換機機能部102が有する機能はこれらに限られるものではない。また、交換機機能部102の各部の機能(第1の表示制御部130、第1の取得部131、第5選択部133、第2の表示制御部134、第2の取得部135、第6選択部137、第3の表示制御部138)は、中継装置30に搭載されたCPUが、記憶装置に格納されたプログラムを実行することにより実現することもできるし、専用のハードウェア回路(半導体集積回路等)により実現することもできる。また、第1の変換情報記憶部132および第2の変換情報記憶部136は、中継装置30に搭載されたROM等の記憶装置により実現可能である。
 第1の表示制御部130は、第1の通信端末の通信相手となる第2の通信端末を呼び出す際に、ユーザの状況を表す複数の状況情報と1対1に対応するとともに状況情報を選択するための複数の第1選択画像を少なくとも含む第1の画面を第2の通信端末に表示する制御を行う。図13は、第1の画面の一例を示す図である。図13の例では、第1の画面は、「会議中」を示す状況情報を選択するための第1選択画像151と、「移動中」を示す状況情報を選択するための第1選択画像152と、「多忙」を示す状況情報を選択するための第1選択画像153と、呼び出しに対して応答することを選択するためのUI画像154と、呼び出しを拒否することを選択するためのUI画像155とを含んでいるが、これに限られるものではない。
 例えば第1の表示制御部130は、図13のような第1の画面を生成し、第2の通信端末に対して、呼出信号とともに生成した第1の画面を送信する制御を行う形態であってもよい。また、例えば第1の表示制御部130は、第2の通信端末に対して、呼出信号とともに図13のような第1の画面を生成して表示する命令を送信する制御を行う形態であってもよい。
 図12に戻って説明を続ける。第1の取得部131は、第2の通信端末から、第1選択画像を介して選択された状況情報を取得する。この例では、第2の通信端末は、ユーザによって押下された第1選択画像に対応する状況情報を中継装置30へ送信する。
 第1の変換情報記憶部132は、複数の状況情報ごとに、第1の情報を対応付けて記憶する。図14は、第1の変換情報記憶部132に記憶されたデータの構成の一例を示す図である。この例では、第1の情報はテキストデータであるが、これに限らず、例えばユーザの状況を表す記号やシンボルなどであってもよい。つまり、第1の情報の態様は任意である。
 図12に戻って説明を続ける。第5選択部133は、第1の取得部131により取得された状況情報に対応付けられた第1の情報を選択する。第2の表示制御部134は、第5選択部133により選択された第1の情報を少なくとも含む第2の画面を、第1の通信端末に表示する制御を行う。例えば第2の画面は、通知内容を表す複数の通知情報と1対1に対応するとともに通知情報を選択するための複数の第2選択画像を含む形態であってもよい。図15は、第2の画面の一例を示す図である。図15の例では、第2の画面は、「会議中」を示す状況情報に対応付けられた第1の情報(この例では「会議中のため電話に出られません」というテキストデータ)161と、「緊急」を表す通知情報を選択するための第2選択情報162と、「コールバック」を表す通知情報を選択するための第2選択画像163と、「了解」を表す通知情報を選択するための第2選択画像164と、接続を終了することを選択するためのUI画像165とを含んでいるが、これに限られるものではない。
 例えば第2の表示制御部134は、図15のような第2の画面を生成し、第1の通信端末に対して、第2の画面を送信する制御を行う形態であってもよい。また、例えば第2の表示制御部134は、第1の通信端末に対して、図15のような第2の画面を生成して表示する命令を送信する制御を行う形態であってもよい。
 図12に戻って説明を続ける。第2の取得部135は、第1の通信端末から、第2選択画像を介して選択された通知情報を取得する。この例では、第1の通信端末は、ユーザによって押下された第2選択画像に対応する通知情報を中継装置30へ送信する。
 第2の変換情報記憶部136は、複数の通知情報ごとに、第2の情報を対応付けて記憶する。図16は、第2の変換情報記憶部136に記憶されたデータの構成の一例を示す図である。この例では、第2の情報はテキストデータであるが、これに限らず、例えば通知内容を表す記号やシンボルなどであってもよい。
 図12に戻って説明を続ける。第6選択部137は、第2の取得部135により取得された通知情報に対応付けられた第2の情報を選択する。第3の表示制御部138は、第6選択部137により選択された第2の情報を少なくとも含む第3の画面を、第2の通信端末に表示する制御を行う。図17は、第3の画面の一例を示す図である。図17の例では、第3の画面は、「緊急」を表す通知情報に対応付けられた第2の情報(この例では「[緊急]急ぎの要件です」というテキストデータ)170と、呼び出しに対して応答することを選択するためのUI画像154と、呼び出しを拒否することを選択するためのUI画像155とを含んでいるが、これに限られるものではない。また、例えば第3の表示制御部138は、第2の取得部135により「了解」を表す通知情報が取得された場合は、当該通知情報に対応付けられた第2の情報を少なくとも含む第3の画面を第2の通信端末に表示する制御を行った後に、接続を終了する制御を行う形態であってもよい。
 図18は、本変形例において、音声通信端末10(この例では「第1の通信端末」に対応)を使用するユーザAと、データ通信端末20(この例では「第2の通信端末」に対応)を使用するユーザBとのコミュニケーションの流れの一例を示すシーケンス図である。ここでは、ユーザBは、電話に出難い状況である場合を例に挙げて説明する。また、ここでは、音声通信端末10は、音声通話機能およびリッチなUIを備える電話端末であり、例えば、携帯電話端末(スマートフォンなどを含む)、ビジネスフォンなどで構成される場合を例に挙げて説明する。ステップS200~ステップS202の内容は図9のステップS100~ステップS102の内容と同様である。この例では、データ通信端末20は、中継装置30(第1の表示制御部130)から、呼び出し信号とともに図13に示す第1の画面を生成して表示する命令を受信すると、当該命令に従って、図13に示す第1の画面を生成して表示部に表示する(ステップS203)。
 この例では、ユーザBは、データ通信端末20の表示部に表示された第1の画面に対して、何れかの第1選択画像を押下する操作を行い(ステップS204)、データ通信端末20は、ユーザBによって押下された第1選択画像に対応する状況情報を、中継装置30へ送信する(ステップS205)。例えばユーザBが、図13に示す第1選択画像151を押下した場合、データ通信端末20は、「会議中」を示す状況情報を中継装置30へ送信するという具合である。
 データ通信端末20から状況情報を受信した中継装置30は、その受信した状況情報に対応付けられた第1の情報を選択する(ステップS206)。そして、中継装置30は、ステップS206で選択した第1の情報を少なくとも含む第2の画面(例えば図15参照)を生成して表示する命令を、音声通信端末10へ送信する(ステップS207)。音声通信端末10は、中継装置30から受信した命令に従って、第2の画面を生成して表示部に表示する。そして、この例では、ユーザAは、音声通信端末10の表示部に表示された第2の画面に対して、何れかの第2選択画像を押下する操作を行い(ステップS208)、音声通信端末10は、ユーザAによって押下された第2選択画像に対応する通知情報を、中継装置30へ送信する(ステップS209)。
 音声通信端末10から通知情報を受信した中継装置30は、その受信した通知情報に対応付けられた第2の情報を選択する(ステップS210)。そして、中継装置30は、ステップS210で選択した第2の情報を少なくとも含む第3の画面(例えば図17参照)を生成して表示する命令を、データ通信端末20へ送信する(ステップS211)。データ通信端末20は、中継装置30から受信した命令に従って、第3の画面を生成して表示部に表示する(ステップS212)。そして、ユーザBは、データ通信端末20の表示部に表示された第3の画面を確認して、応答するか否かを判断することができる。
 また、例えば上述の実施形態および変形例において、上述の第1選択部113は、各端末情報に対応付けられた特徴情報として、時間や位置に応じて異なる特徴情報を選択する形態であってもよい。一例として、図19に示すように、「xxx-001」を示す端末情報に対して、午前9時―午後18時の時間帯で選択すべき特徴情報として「営業」を示す職業情報が対応付けられ、それ以外の時間帯で選択すべき特徴情報として「父親」を示す職業情報が対応付けられて上述の特徴情報記憶部111に記憶される形態であってもよい。この例では、上述の第1辞書情報記憶部112は、「父親」を示す職業情報に対して、当該職業情報が反映された第1辞書情報(「営業」を示す職業情報に対応付けられた第1辞書情報とは異なる第1辞書情報)を対応付けて記憶している。
 また、他の例として、図20に示すように、「xxx-001」を示す端末情報に対して、当該端末情報で識別される通信端末の位置が自宅周辺○○km以内の場合に選択すべき特徴情報として「営業」を示す職業情報が対応付けられ、その他の場合に選択すべき特徴情報として「父親」を示す職業情報が対応付けられて上述の特徴情報記憶部111に記憶される形態であってもよい。なお、通信端末の位置を検出する方法としては、公知の様々な技術を利用することができる。例えば中継装置30は、GPSなどを利用して、通信端末の位置を検出することができる。
1   通信システム
10  音声通信端末
20  データ通信端末
30  中継装置
101 管理部
102 交換機機能部
103 メール制御部
104 通信インターフェース部
105 音声-テキスト変換部
111 特徴情報記憶部
112 第1辞書情報記憶部
113 第1選択部
114 第1変換部
115 第2辞書情報記憶部
116 第2選択部
117 第2変換部
118 音声データ変換情報記憶部
119 第3選択部
120 テキストデータ変換情報記憶部
121 第4選択部
130 第1の表示制御部
131 第1の取得部
132 第1の変換情報記憶部
133 第5選択部
134 第2の表示制御部
135 第2の取得部
136 第2の変換情報記憶部
137 第6選択部
138 第3の表示制御部
特開2002-244688号公報

Claims (16)

  1.  第1の通信端末と第2の通信端末を少なくとも含む複数の通信端末間の通信を中継する中継装置であって、
     それぞれが前記通信端末を識別する複数の端末情報ごとに、前記通信端末を使用するユーザの特徴を示す特徴情報を対応付けて記憶する特徴情報記憶部と、
     複数の前記特徴情報ごとに、音声データをテキストデータに変換するのに用いられる第1辞書情報を対応付けて記憶する第1辞書情報記憶部と、
     前記第1の通信端末の通信相手となる前記第2の通信端末から音声データを受信した場合、前記第2の通信端末を識別する前記端末情報に対応付けられた前記特徴情報を選択し、その選択した前記特徴情報に対応付けられた前記第1辞書情報を選択する第1選択部と、
     前記第1選択部により選択された前記第1辞書情報を用いて、前記第2の通信端末から受信した音声データをテキストデータに変換する第1変換部と、を備える、
     中継装置。
  2.  前記第1選択部は、
     音声データをテキストデータへ変換することを指示する第1指示情報を受信した場合は、前記第1辞書情報の選択を行う一方、前記第1指示情報を受信しない場合は、前記第1辞書情報の選択は行わない、
     請求項1に記載の中継装置。
  3.  前記第1変換部によって変換されたテキストデータを前記第1の通信端末へ送信する制御を行う第1送信制御部をさらに備える、
     請求項1または請求項2に記載の中継装置。
  4.  第1の通信端末と第2の通信端末を少なくとも含む複数の通信端末間の通信を中継する中継装置であって、
     それぞれが前記通信端末を識別する複数の端末情報ごとに、前記通信端末を使用するユーザの特徴を示す特徴情報を対応付けて記憶する特徴情報記憶部と、
     複数の前記特徴情報ごとに、テキストデータを音声データに変換するのに用いられる第2辞書情報を対応付けて記憶する第2辞書情報記憶部と、
     前記第1の通信端末の通信相手となる前記第2の通信端末からテキストデータを受信した場合、前記第2の通信端末を識別する前記端末情報に対応付けられた前記特徴情報を選択し、その選択した前記特徴情報に対応付けられた前記第2辞書情報を選択する第2選択部と、
     前記第2選択部により選択された前記第2辞書情報を用いて、前記第2の通信端末から受信したテキストデータを音声データに変換する第2変換部と、を備える、
     中継装置。
  5.  前記第2選択部は、
     テキストデータを音声データへ変換することを指示する第2指示情報を受信した場合は、前記第2辞書情報の選択を行う一方、前記第2指示情報を受信しない場合は、前記第2辞書情報の選択は行わない、
     請求項4に記載の中継装置。
  6.  前記第2変換部によって変換された音声データを前記第1の通信端末へ送信する制御を行う第2送信制御部をさらに備える、
     請求項4または請求項5に記載の中継装置。
  7.  それぞれが前記ユーザの状況を表す複数の状況情報ごとに、所定の音声データを対応付けて記憶する音声データ変換情報記憶部と、
     前記第2の通信端末から前記状況情報を受信した場合、その受信した前記状況情報に対応付けられた前記所定の音声データを選択する第3選択部と、をさらに備える、
     請求項1乃至6のうちの何れか1項に記載の中継装置。
  8.  前記第3選択部により選択された前記所定の音声データを、前記第1の通信端末へ送信する制御を行う第3送信制御部をさらに備える、
     請求項7に記載の中継装置。
  9.  それぞれが、前記ユーザが前記通信端末に対して入力可能な情報を示す複数の入力情報ごとに、所定のテキストデータを対応付けて記憶するテキストデータ変換情報記憶部と、
     前記第2の通信端末から前記入力情報を受信した場合、その受信した前記入力情報に対応付けられた前記所定のテキストデータを選択する第4選択部と、をさらに備える、
     請求項1乃至8のうちの何れか1項に記載の中継装置。
  10.  前記第4選択部により選択された前記所定のテキストデータを、前記第1の通信端末へ送信する制御を行う第4送信制御部をさらに備える、
     請求項9に記載の中継装置。
  11.  第1の通信端末と第2の通信端末を少なくとも含む複数の通信端末と、前記通信端末間の通信を中継する中継装置とを備える通信システムであって、
     それぞれが前記通信端末を識別する複数の端末情報ごとに、前記通信端末を使用するユーザの特徴を示す特徴情報を対応付けて記憶する特徴情報記憶部と、
     複数の前記特徴情報ごとに、音声データをテキストデータに変換するのに用いられる第1辞書情報を対応付けて記憶する第1辞書情報記憶部と、
     前記第1の通信端末の通信相手となる前記第2の通信端末から音声データを受信した場合、前記第2の通信端末を識別する前記端末情報に対応付けられた前記特徴情報を選択し、その選択した前記特徴情報に対応付けられた前記第1辞書情報を選択する第1選択部と、
     前記第1選択部により選択された前記第1辞書情報を用いて、前記第2の通信端末から受信した音声データをテキストデータに変換する第1変換部と、を備える、
     通信システム。
  12.  第1の通信端末と第2の通信端末を少なくとも含む複数の通信端末と、前記通信端末間の通信を中継する中継装置とを備える通信システムであって、
     それぞれが前記通信端末を識別する複数の端末情報ごとに、前記通信端末を使用するユーザの特徴を示す特徴情報を対応付けて記憶する特徴情報記憶部と、
     複数の前記特徴情報ごとに、テキストデータを音声データに変換するのに用いられる第2辞書情報を対応付けて記憶する第2辞書情報記憶部と、
     前記第1の通信端末の通信相手となる前記第2の通信端末からテキストデータを受信した場合、前記第2の通信端末の前記端末情報に対応付けられた前記特徴情報を選択し、その選択した前記特徴情報に対応付けられた前記第2辞書情報を選択する第2選択部と、
     前記第2選択部により選択された前記第2辞書情報を用いて、前記第2の通信端末から受信したテキストデータを音声データに変換する第2変換部と、を備える、
     通信システム。
  13.  第1の通信端末の通信相手となる第2の通信端末を呼び出す際に、ユーザの状況を表す複数の状況情報と1対1に対応するとともに前記状況情報を選択するための複数の第1選択画像を少なくとも含む第1の画面を前記第2の通信端末に表示する制御を行う第1の表示制御部と、
     前記第2の通信端末から、前記第1選択画像を介して選択された前記状況情報を取得する第1の取得部と、
     複数の前記状況情報ごとに、第1の情報を対応付けて記憶する第1の変換情報記憶部と、
     前記第1の取得部により取得された前記状況情報に対応付けられた前記第1の情報を選択する第5選択部と、
     前記第5選択部により選択された前記第1の情報を少なくとも含む第2の画面を、前記第1の通信端末に表示する制御を行う第2の表示制御部と、を備える、
     表示装置。
  14.  前記第2の画面は、通知内容を表す複数の通知情報と1対1に対応するとともに前記通知情報を選択するための複数の第2選択画像を含み、
     前記第1の通信端末から、前記2選択画像を介して選択された前記通知情報を取得する第2の取得部と、
     複数の前記通知情報ごとに、第2の情報を対応付けて記憶する第2の変換情報記憶部と、
     前記第2の取得部により取得された前記通知情報に対応付けられた前記第2の情報を選択する第6選択部と、
     前記第6選択部により選択された前記第2の情報を少なくとも含む第3の画面を、前記第2の通信端末に表示する制御を行う第3の表示制御部と、を備える、
     請求項13に記載の表示装置。
  15.  第1の通信端末と第2の通信端末を少なくとも含む複数の通信端末と、前記通信端末間の通信を中継する中継装置とを備える通信システムであって、
     前記第1の通信端末の通信相手として前記第2の通信端末を呼び出す際に、ユーザの状況を表す複数の状況情報と1対1に対応するとともに前記状況情報を選択するための複数の第1選択画像を少なくとも含む第1の画面を前記第2の通信端末に表示する制御を行う第1の表示制御部と、
     前記第2の通信端末から、選択された前記第1選択画像に対応する前記状況情報を取得する第1の取得部と、
     複数の前記状況情報ごとに、第1の情報を対応付けて記憶する第1の変換情報記憶部と、
     前記第1の取得部により取得された前記状況情報に対応付けられた前記第1の情報を選択する第5選択部と、
     前記第5選択部により選択された前記第1の情報を少なくとも含む第2の画面を、前記第1の通信端末に表示する制御を行う第2の表示制御部と、を備える、
     通信システム。
  16.  前記第2の画面は、通知内容を表す複数の通知情報と1対1に対応するとともに前記通知情報を選択するための複数の第2選択画像を含み、
     前記第1の通信端末から、選択された前記第2選択画像を取得する第2の取得部と、
     複数の前記通知情報ごとに、第2の情報を対応付けて記憶する第2の変換情報記憶部と、
     前記第2の取得部により取得された前記通知情報に対応付けられた前記第2の情報を選択する第6選択部と、
     前記第6選択部により選択された前記第2の情報を少なくとも含む第3の画面を、前記第2の通信端末に表示する制御を行う第3の表示制御部と、を備える、
     請求項15に記載の通信システム。
PCT/JP2014/081985 2013-12-03 2014-12-03 中継装置、表示装置および通信システム Ceased WO2015083741A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP14867071.4A EP3079342A4 (en) 2013-12-03 2014-12-03 Relay device, display device, and communication system
US15/101,294 US10255266B2 (en) 2013-12-03 2014-12-03 Relay apparatus, display apparatus, and communication system
KR1020167014833A KR101813827B1 (ko) 2013-12-03 2014-12-03 중계 장치, 표시 장치 및 통신 시스템
JP2015551542A JPWO2015083741A1 (ja) 2013-12-03 2014-12-03 中継装置、表示装置および通信システム
CN201480065797.1A CN105794188B (zh) 2013-12-03 2014-12-03 中继装置、显示装置和通信系统

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013250480 2013-12-03
JP2013-250480 2013-12-03
JP2014-231043 2014-11-13
JP2014231043 2014-11-13

Publications (1)

Publication Number Publication Date
WO2015083741A1 true WO2015083741A1 (ja) 2015-06-11

Family

ID=53273502

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/081985 Ceased WO2015083741A1 (ja) 2013-12-03 2014-12-03 中継装置、表示装置および通信システム

Country Status (6)

Country Link
US (1) US10255266B2 (ja)
EP (1) EP3079342A4 (ja)
JP (1) JPWO2015083741A1 (ja)
KR (1) KR101813827B1 (ja)
CN (1) CN105794188B (ja)
WO (1) WO2015083741A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10255266B2 (en) * 2013-12-03 2019-04-09 Ricoh Company, Limited Relay apparatus, display apparatus, and communication system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180315414A1 (en) 2017-04-26 2018-11-01 International Business Machines Corporation Adaptive digital assistant and spoken genome
US10522138B1 (en) * 2019-02-11 2019-12-31 Groupe Allo Media SAS Real-time voice processing systems and methods
TWI803782B (zh) 2020-10-16 2023-06-01 明泰科技股份有限公司 無線電網路閘道器以及無線電系統
CN114025366B (zh) * 2021-10-21 2023-12-19 广州市瀚云信息技术有限公司 一种直放站的通信确定方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244688A (ja) 2001-02-15 2002-08-30 Sony Computer Entertainment Inc 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム
JP2003092628A (ja) * 2001-07-13 2003-03-28 Ketsu Aoki 電話リレーサービス方法
JP2004129174A (ja) * 2002-08-06 2004-04-22 Ricoh Co Ltd 情報通信装置、情報通信プログラム、及び記録媒体
JP2007096449A (ja) * 2005-09-27 2007-04-12 Oki Electric Ind Co Ltd 通話拒否メッセージ通知方法
JP2009139390A (ja) * 2007-12-03 2009-06-25 Nec Corp 情報処理システム、処理方法及びプログラム
JP2014167517A (ja) * 2013-02-28 2014-09-11 Nippon Telegraph & Telephone East Corp 会話提供システム、ゲーム提供システム、会話提供方法、ゲーム提供方法及びプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190470A (ja) * 1995-01-05 1996-07-23 Toshiba Corp 情報提供端末
JPH09179582A (ja) * 1995-12-26 1997-07-11 Nec Corp 音声認識装置
JP2001309049A (ja) * 2000-04-20 2001-11-02 Casio Comput Co Ltd メール作成システム、装置、方法及び記録媒体
US6424935B1 (en) * 2000-07-31 2002-07-23 Micron Technology, Inc. Two-way speech recognition and dialect system
JP3916387B2 (ja) 2000-08-29 2007-05-16 株式会社リコー 電話応答コンピュータシステム,該システムの機能を実現するためのボード及び記録媒体
US7027987B1 (en) * 2001-02-07 2006-04-11 Google Inc. Voice interface for a search engine
GB0113570D0 (en) * 2001-06-04 2001-07-25 Hewlett Packard Co Audio-form presentation of text messages
US6996528B2 (en) * 2001-08-03 2006-02-07 Matsushita Electric Industrial Co., Ltd. Method for efficient, safe and reliable data entry by voice under adverse conditions
US8856236B2 (en) 2002-04-02 2014-10-07 Verizon Patent And Licensing Inc. Messaging response system
EP1495603B1 (en) 2002-04-02 2010-06-16 Verizon Business Global LLC Call completion via instant communications client
US7917581B2 (en) 2002-04-02 2011-03-29 Verizon Business Global Llc Call completion via instant communications client
JP4100081B2 (ja) * 2002-07-24 2008-06-11 日本電気株式会社 中継装置
US7315811B2 (en) * 2003-12-31 2008-01-01 Dictaphone Corporation System and method for accented modification of a language model
US20070011012A1 (en) * 2005-07-11 2007-01-11 Steve Yurick Method, system, and apparatus for facilitating captioning of multi-media content
US7734623B2 (en) * 2006-11-07 2010-06-08 Cycorp, Inc. Semantics-based method and apparatus for document analysis
KR101229034B1 (ko) * 2008-09-10 2013-02-01 성준형 디바이스 인터페이싱을 위한 다중모드 조음 통합
US8447608B1 (en) * 2008-12-10 2013-05-21 Adobe Systems Incorporated Custom language models for audio content
JP5482569B2 (ja) 2010-08-20 2014-05-07 株式会社ナカヨ通信機 通信端末、および双方向通信方法
US9099087B2 (en) * 2010-09-03 2015-08-04 Canyon IP Holdings, LLC Methods and systems for obtaining language models for transcribing communications
US8996371B2 (en) * 2012-03-29 2015-03-31 Nice-Systems Ltd. Method and system for automatic domain adaptation in speech recognition applications
US9110880B1 (en) * 2013-02-08 2015-08-18 Google Inc. Acoustically informed pruning for language modeling
US9076347B2 (en) * 2013-03-14 2015-07-07 Better Accent, LLC System and methods for improving language pronunciation
US20150348538A1 (en) * 2013-03-14 2015-12-03 Aliphcom Speech summary and action item generation
KR101371184B1 (ko) 2013-05-24 2014-03-07 이담정보통신(주) 근거리 통신을 이용한 착신자 상황 정보 전송 장치 및 방법
WO2015083741A1 (ja) * 2013-12-03 2015-06-11 株式会社リコー 中継装置、表示装置および通信システム
US9472186B1 (en) * 2014-01-28 2016-10-18 Nvoq Incorporated Automated training of a user audio profile using transcribed medical record recordings
US9672202B2 (en) * 2014-03-20 2017-06-06 Microsoft Technology Licensing, Llc Context-aware re-formating of an input
US9367537B2 (en) * 2014-04-01 2016-06-14 International Business Machines Corporation Analyzing messages and/or documents to provide suggestions to modify messages and/or documents to be more suitable for intended recipients
DE112015003382B4 (de) * 2014-07-23 2018-09-13 Mitsubishi Electric Corporation Spracherkennungseinrichtung und Spracherkennungsverfahren
US20160275942A1 (en) * 2015-01-26 2016-09-22 William Drewes Method for Substantial Ongoing Cumulative Voice Recognition Error Reduction
US9947313B2 (en) * 2015-01-26 2018-04-17 William Drewes Method for substantial ongoing cumulative voice recognition error reduction
KR102386863B1 (ko) * 2015-09-09 2022-04-13 삼성전자주식회사 사용자 기반 언어 모델 생성 장치, 방법 및 음성 인식 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244688A (ja) 2001-02-15 2002-08-30 Sony Computer Entertainment Inc 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム
JP2003092628A (ja) * 2001-07-13 2003-03-28 Ketsu Aoki 電話リレーサービス方法
JP2004129174A (ja) * 2002-08-06 2004-04-22 Ricoh Co Ltd 情報通信装置、情報通信プログラム、及び記録媒体
JP2007096449A (ja) * 2005-09-27 2007-04-12 Oki Electric Ind Co Ltd 通話拒否メッセージ通知方法
JP2009139390A (ja) * 2007-12-03 2009-06-25 Nec Corp 情報処理システム、処理方法及びプログラム
JP2014167517A (ja) * 2013-02-28 2014-09-11 Nippon Telegraph & Telephone East Corp 会話提供システム、ゲーム提供システム、会話提供方法、ゲーム提供方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3079342A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10255266B2 (en) * 2013-12-03 2019-04-09 Ricoh Company, Limited Relay apparatus, display apparatus, and communication system

Also Published As

Publication number Publication date
CN105794188B (zh) 2019-03-01
EP3079342A1 (en) 2016-10-12
EP3079342A4 (en) 2017-03-15
US10255266B2 (en) 2019-04-09
KR101813827B1 (ko) 2017-12-29
US20170322924A1 (en) 2017-11-09
KR20160083066A (ko) 2016-07-11
CN105794188A (zh) 2016-07-20
JPWO2015083741A1 (ja) 2017-03-16

Similar Documents

Publication Publication Date Title
KR102458806B1 (ko) 공유된 음성 작동 디바이스상의 호출 핸들링
JP6438674B2 (ja) 応答システム、応答方法及びコンピュータプログラム
KR20130084856A (ko) 휴대단말기의 통화 서비스 장치 및 방법
JP2008125086A (ja) メディアに依存しないオフィス外管理
WO2015083741A1 (ja) 中継装置、表示装置および通信システム
TW201246899A (en) Handling a voice communication request
US11785137B2 (en) Voice communication system and method for providing call sessions between personal communication devices of caller users and recipient users
JP2016225740A (ja) 通話振り分けシステム、呼制御装置およびプログラム
JP6462291B2 (ja) 通訳サービスシステム及び通訳サービス方法
US20170310802A1 (en) Emergency services access device
JP6697172B1 (ja) 情報処理装置および情報処理プログラム
JP2020113938A (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
KR102128814B1 (ko) 보이스 메일로 정보를 전송하기 위한 방법 및 그 전자 장치
JP7222802B2 (ja) インターホンシステム
JP4230982B2 (ja) 通話補助装置、通話補助方法、通話補助プログラムおよび通話補助システム
JP2004048416A (ja) 個人適応型音声通信方法及びその装置
WO2018168460A1 (ja) 管理サーバ
KR101621136B1 (ko) 조도 센서를 이용한 음성 인식 서비스 제공 방법 및 음성 인식 서비스를 제공하는 통신 단말기
JP4583350B2 (ja) 携帯端末装置、着信音出力方法
KR20110030985A (ko) 영상 채팅 방식을 이용한 텍스트-음성 통화 서비스 방법 및 시스템
JP2006146732A (ja) 自動翻訳システム、自動翻訳サーバ装置及びそれらに用いる自動翻訳方法
JP2015115740A (ja) 電話通信装置、電話通信方法及びプログラム
JP6520040B2 (ja) 情報処理システム、コミュニケーション処理方法、及びそのためのプログラム
JP2011097161A (ja) メッセージ送信装置及びメッセージ送信方法
WO2019174604A1 (zh) 电子设备及电子设备控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14867071

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015551542

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014867071

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014867071

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20167014833

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE