[go: up one dir, main page]

WO1999008179A1 - Transformateur et procede de transformation de donnees caracteres - Google Patents

Transformateur et procede de transformation de donnees caracteres Download PDF

Info

Publication number
WO1999008179A1
WO1999008179A1 PCT/JP1998/003554 JP9803554W WO9908179A1 WO 1999008179 A1 WO1999008179 A1 WO 1999008179A1 JP 9803554 W JP9803554 W JP 9803554W WO 9908179 A1 WO9908179 A1 WO 9908179A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
character data
character
storage unit
conversion
Prior art date
Application number
PCT/JP1998/003554
Other languages
English (en)
French (fr)
Inventor
Eiichi Yamada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/269,724 priority Critical patent/US6411931B1/en
Publication of WO1999008179A1 publication Critical patent/WO1999008179A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Definitions

  • the present invention relates to a character data conversion device and a conversion method for converting character data supplied via a public telephone line or the like into voice data, and more particularly to a character data conversion device supplied from the outside and stored in a storage unit.
  • the present invention relates to a character-to-evening conversion device and a conversion method thereof, which convert character data other than that instructed by an instruction to an audio data and enable quick grasp and retrieval of information based on the character data.
  • BACKGROUND ART Conventionally, a device having an electronic mail function of transmitting and receiving character data via communication means such as a public telephone line or an integrated services digital network (ISDN) has been widely used.
  • ISDN integrated services digital network
  • This type of device receives a character data transmitted via a communication means such as a public telephone line, and converts the received character data into voice data and outputs it.
  • Information processing devices such as terminals and communication devices such as mobile phones are used.
  • the audio data output from this type of device or equipment is converted into an analog audio signal and converted to an electroacoustic transducer such as a speaker or earphone. It is input and heard as voice.
  • the character data transmitted by e-mail is transmitted by forming one file for each unit information and stored in the storage unit of an information processing device such as a personal computer or a portable information terminal. Therefore, when converting the transmitted character data to voice data, specify the 1 file stored in the storage unit, convert the text data included in this file to voice data, and output it. Input to the electroacoustic transducer.
  • the character data constituting one file includes the address of the e-mail sender, the date and time of reception, and the like.
  • the transmitted character data includes data unnecessary for listening as voice.
  • An object of the present invention is to provide a character data conversion device and a conversion method capable of converting only character data useful to a receiver among character data supplied via communication means into voice data. Is to do. Another object of the present invention is to avoid converting character data that is inappropriate or cannot be converted to voice in the supplied character data into voice data, and to convert the character data into voice data.
  • a character data converter that converts only character data suitable for output into audio data; and It is to provide a conversion method.
  • a character data conversion device proposed to achieve the above object includes a storage unit for storing supplied character data, an operation unit operated by a user, and an operation unit. Instruction data indicating a portion of the character data stored in the storage unit that does not need to be converted to voice data based on the input of the instruction data, and from the storage unit based on the generated instruction data. And a control unit for converting a portion of the read character data that is not specified by the instruction data into audio data.
  • the control unit of this device includes a data conversion unit that converts character data read from the storage unit into voice data.
  • the apparatus according to the present invention further includes an acoustic conversion unit that converts the audio data output from the data conversion unit into an audible sound.
  • control unit configured to avoid converting character data corresponding to at least punctuation marks into voice data among character data read from the storage unit based on input from the operation unit. Control.
  • control unit reads characters from the storage unit based on the input from the operation unit. By repeatedly reading out the data in a predetermined amount of data discretely and converting it into audio data, it is possible to quickly grasp the contents of the character data.
  • control unit is configured to repeatedly perform an operation of converting a predetermined amount of character data following character data corresponding to a period from the character data read from the storage unit into voice data, and It is possible to quickly grasp the contents of the information.
  • control unit converts the character data read from the storage unit into the audio data except for the first part or the last part, and converts only the character data necessary as information into voice.
  • the character-to-character conversion method includes an instruction for indicating a portion of the character data stored in the storage unit based on an input from the operation unit that does not need to be converted to the voice data. Data is generated, and a portion of the character data read from the storage unit that is not specified by the instruction data is converted into a voice data based on the generated instruction data.
  • the character data conversion device includes a storage unit that stores the supplied character data, an operation unit that is operated by a user, and a storage unit that is stored in the storage unit based on an input from the operation unit.
  • the instruction data indicating a portion of the character data stored in the storage unit based on the input from the operation unit that does not need to be converted to the audio data is output. Generate and generate this The instruction data thus read is compared with the character data read from the storage unit, and characters that do not match the instruction data are converted into voice data based on the result of the comparison.
  • the character data conversion method compares the supplied character data with at least one instruction data indicating a portion of the character data that does not need to be subjected to voice conversion.
  • the operation of converting the character data that follows the character data that matches the instruction data out of the character data supplied based on the result of the comparison into voice data is referred to as the character data in which the comparison result is captured. It repeats until the next time it matches the instruction data, then converts the converted audio data into audible sound and outputs it.
  • the character data conversion method when the captured character data next matches the designated data, the character data is connected to the next matched character data.
  • the operation of converting the character data into voice data and then converting the voice data into voice data is repeated until the command data and the captured data match again.
  • This conversion method converts the first character data of the captured character data into audio data and converts the character data of the first character data converted into audio data into the second character data.
  • the operation of converting character data separated by the data amount into voice data by the first data amount is repeated.
  • the audio data converted from the character data is converted into an audible sound and output.
  • FIG. 1 is a block diagram showing a character-to-night conversion device according to the present invention.
  • FIG. 2 is a diagram illustrating an example of a screen displayed on the display unit.
  • FIG. 3 is a diagram illustrating an example of character data stored in the storage unit.
  • FIG. 4 is a flowchart showing an example when setting the omission condition.
  • FIG. 5 is a flowchart showing an example in which when the supplied character data is converted into audio data and output as audio, the audio data is output by comparing the character data with the omission condition.
  • FIG. 6 is a flowchart illustrating an example of scanning when outputting audio.
  • FIG. 7 is a flowchart illustrating an example of skipping when audio is being output.
  • the character data conversion device has an e-mail function for transmitting and receiving character data that can receive character data via a communication network such as a public telephone line or ISDN (Integrated services digital ntwork).
  • a communication network such as a public telephone line or ISDN (Integrated services digital ntwork).
  • the device to which the device is applied is a personal computer, a portable information terminal device, an information processing device such as an IC recorder capable of inputting character data, and a communication device such as a mobile phone.
  • a character data processing device 1 according to the present invention includes a receiving unit 2 for receiving character data of an e-mail transmitted via a communication network such as a public telephone line or ISDN;
  • the character data supplied to 2 is provided with a storage unit 3 in which the evening is recorded.
  • the character data is transmitted by composing one file for each unit information.
  • the storage unit 3 uses a recording medium such as a hard disk built in the computer body and is applied to an information terminal or a mobile phone. In such cases, the RAM built into these devices is used.
  • character data transmitted via a public telephone line or a communication network such as ISDN are transmitted as ASCII (ASCII) code data.
  • the character data conversion device 1 is supplied with the character data read from the storage unit 3 and, for example, audio data among the character data constituting one file.
  • a signal processing unit 5 that generates an instruction data indicating a portion that does not need to be converted into an overnight signal, and the data is read from the storage unit 3 based on the instruction data generated by the signal processing unit 5.
  • the control unit 7 includes a voice data conversion unit 6 that converts a portion of the character data not specified by the instruction data into voice data.
  • the character data conversion apparatus 1 includes a character data that does not need to be converted into a voice data among the character data read from the storage unit 3. And an operation unit 8 operated by a user to input a command signal for generating an instruction for instructing the evening to the signal processing unit 5 of the control unit 7.
  • a keyboard and a mouse connected to the personal computer are used, and when the present invention is applied to an information terminal or a mobile phone, a dial key is used. And function keys are used.
  • the command signal input from the operation unit 8 includes the character data stored in the storage unit 3, a file designation signal for specifying the evening file, and the character data read from the storage unit 3, which is omitted during the night. And input signals such as an skip signal, a skip signal, and a scan signal.
  • the character-to-night conversion device 1 includes a display unit 9 for displaying a screen for setting various conditions for omitting character data read from the storage unit 3. .
  • the character-to-data converter 1 includes a D / A converter 10 and a D / A converter 10 that convert the audio data output from the audio data converter 6 included in the controller 7 into an analog audio signal.
  • An amplifier 11 for amplifying and outputting the audio signal output from the / A converter 10 and an output terminal 12 for outputting the audio signal output from the amplifier 11 to the outside of the converter 1 are provided.
  • the output terminal 12 is connected to an electroacoustic transducer 13 such as a speaker device or an earphone, and converts an audio signal into an audible sound and outputs it.
  • the electroacoustic transducer 13 may be built in a personal computer or a mobile phone in which the character data converter 1 is incorporated.
  • the user operates the operation unit 8 such as a keyboard / mouse and stores the data in the storage unit 3.
  • the file specification information is transmitted to the signal processing unit 5.
  • the signal processing unit 5 generates a file specification file based on the file specification information, inputs this specification data to the storage unit 3, and converts the character data of the file specified from the storage unit 3 into a signal processing unit. Read out to the memory working area above 5.
  • the specified file is read from the storage unit 3, the text name 15 of the file is displayed on the display unit 9 as shown in FIG.
  • the character data conversion device 1 By operating the operation unit 8, the character data conversion device 1 generates conversion-unnecessary information indicating conditions under which conversion of character data constituting a specified file into audio data is not necessary. It is human-powered.
  • the signal processing unit 5 When the conversion-unnecessary information is input to the signal processing unit 5, the signal processing unit 5 generates a conversion-unnecessary instruction based on the conversion-unnecessary information and outputs the generated instruction to the storage unit 3, and as shown in FIG.
  • the conversion unnecessary instruction information 16 corresponding to the conversion unnecessary instruction data is displayed on the display unit 9.
  • the conversion unnecessary instruction output from the signal processing unit 5 is stored in the storage unit 3.
  • the conversion unnecessary instruction data when the character data is e-mail information as shown in FIG.
  • a character data group 21 indicating the address information or the like described first in the e-mail is used.
  • the character data of the sender information described at the end of the e-mail group 22 is cited.
  • the stylized data Specify some information.
  • conversion unnecessary indications include a period (.), A reading (,) period, a question mark (?), And an exclamation mark.
  • character data that is not suitable for conversion to audio such as (!).
  • the character data conversion device 1 when designating a certain character file among the character files constituting the specified file, while searching for the specified character data, A mechanism is provided for skipping over the character data corresponding to the character data and converting a predetermined amount of the character data existing corresponding to the skipped position into audio data.
  • the operation unit 8 In order to convert the character data constituting the file into audio data while skipping, the operation unit 8 is operated, and skip condition information corresponding to the character data indicating the skip condition is input.
  • the skip condition information includes one or more lines of blank information included in the character data of the specified file, punctuation marks (.), Punctuation marks (,), periods (.), Question mark (?), Extract mark (!), Etc.
  • the skip condition information input by operating the operation unit 8 is input to the signal processing unit 5.
  • the signal processing unit 5 generates a skip instruction data based on the skip condition information, outputs the skip instruction data to the storage unit 3, and displays the skip condition information 17 corresponding to the skip instruction data on the display unit as shown in FIG. Display in 9.
  • the skip instruction data output from the signal processing unit 5 is stored in the storage unit 3.
  • the character-data-to-night conversion device 1 is started, and in step S1, a program read command signal from the control unit 7 is output. Based on this, for example, the condition registration program stored in the storage unit 3 is started. Let it. When the condition registration program is started, a screen as shown in FIG.
  • step S2 when the user operates the operation unit 8 and inputs the conversion-unnecessary information, the conversion-unnecessary information is input to the signal processing unit 5, and the signal processing unit 5 generates the conversion-unnecessary information based on the conversion-unnecessary information. Conversion unnecessary instruction data is generated.
  • step S3 when the user operates the operation unit 8 to input the skip condition information, the skip condition information is input to the signal processing unit 5, and the signal processing unit 5 executes the skip condition based on the skip condition information. Case data is generated.
  • step S4 the conversion unnecessary instruction data and the skip condition data generated in step S2 and step S3 are output from the signal processing unit 5 and stored in the storage unit 3.
  • a display command signal from the control unit 7 is supplied to the display unit 9, and as shown in FIG. 2, the conversion start button 26, the skip button 27, the scan on button 28, the scan off button 2 9 is displayed.
  • the control unit 7 is controlled as described below, and the file designation information
  • the character data of the file read from the storage unit 3 is converted into the voice data based on the file designation data generated by the signal processing unit 5 of the control unit 7 based on the data.
  • a keyboard and a mouse are used as the operation unit 8 and any of the buttons 26 to 29 displayed on the display unit 9 is designated by a keyboard. Operation of the cursor keys provided on the Done.
  • any of the buttons 26 to 29 displayed on the display unit 9 is designated by a function key provided on these devices. Done.
  • the conversion start button 26 is a button for generating a conversion start command when specified by operating the operation unit 8.
  • the conversion set button is designated 26, and a conversion start command is generated.
  • This conversion start command is input to the signal processing unit 5, and the conversion instruction data is input from the signal processing unit 5 to the audio / data conversion unit 6.
  • the audio data conversion unit 6 starts a conversion operation for converting the character data read from the storage unit 3 via the signal processing unit 5 into the audio data.
  • the skip button 27 is a button that generates a skip command when specified by operating the operation unit 8. When a skip instruction is generated with the skip button 27 specified, the skip instruction is input to the signal processing unit 5 of the control unit 7.
  • the signal processing unit 5 generates the skip condition data based on the skip command and inputs the generated skip condition data to the voice data conversion unit 6.
  • the voice data conversion unit 6 receives the skip condition data, Based on this data, an audio output is output.
  • This skip command causes the audio data conversion unit 6 to skip over a predetermined character data amount, that is, skip instruction data for controlling the character data to be converted into audio data by skipping.
  • a specific key other than the cursor key of the personal keyboard may be used as a skip button for generating a skip command.
  • Scan on button 28 and scan off button 29 It is specified when converting character data to voice data while scanning character data when converting data to voice data. That is, when specified by the operation of the operation unit 8, the scan-on button 28 generates a scan signal and inputs it to the signal processing unit 5 of the control unit 7. When the scan signal is input, the signal processing unit 5 generates a scan instruction data and outputs it to the audio data conversion unit 6. At this time, the signal processing unit 5 causes the audio data conversion unit 6 to repeat a process of, for example, converting a predetermined amount of character data following the character data specified by the scan condition data into audio data and outputting the audio data as audio. Control.
  • the scan-off button 19 is designated when the above-described scan is stopped.
  • the scan-off button 19 generates a scan-off signal specified by the operation of the operation unit 8 and inputs the signal to the signal processing unit 5 of the control unit 7.
  • the signal processing unit 5 When the scan-off signal is input, the signal processing unit 5 generates a scan-off instruction data, outputs the scan-off instruction data to the audio data conversion unit 6, and converts the character data thereafter into audio data.
  • a voice conversion control signal for controlling the converter 6 is generated.
  • the voice data conversion unit 6 receives the character data stored in the storage unit 3 via the signal processing unit 5 and inputs each instruction data generated by the signal processing unit 5. .
  • the voice data conversion unit 6 converts at least a part of the character data input from the storage unit 3 according to each input instruction data. Convert to De-Isak. That is, when the audio data conversion unit 6 compares the character data with the instruction data for omitting the conversion to the audio data in the signal processing unit 5, the audio data conversion unit 6 , Character data that does not correspond to the —It is controlled to convert only the evening into the audio data.
  • the comparison between the character data read from the storage unit 3 and the instruction data for omitting the conversion is performed as follows. That is, the character data stored in the storage unit 3 is read out onto the RAM in the signal processing unit 5 based on the file instruction data input from the signal processing unit 5 to the storage unit 3, and is mapped to the signal data. This is performed by comparing one by one with the character data designated by each instruction data stored in the RAM on the processing unit 5.
  • the character data conversion device 1 receives character data of e-mail transmitted through a communication network such as a public telephone line or ISDN.
  • a communication network such as a public telephone line or ISDN.
  • the control unit 7. converts the character data into the voice data according to the flowchart shown in FIG. 5 and outputs the voice. That is, the flowchart shown in FIG. 5 shows the operation of the signal processing unit 5 and the audio data conversion unit 6 of the control unit.
  • step S 101 To convert the character data received via the receiving unit 2 and stored in the storage unit 3 into voice data and output it as voice, first place the control unit 7 and activate this character-data-to-night conversion program Let it. Specifically, in step S 101, for example, a conversion program stored in the storage unit 3 is read into the signal processing unit 5 based on a program read command signal from the signal processing unit 5 of the control unit 7. Be executed. When the conversion program is activated, a screen as shown in FIG.
  • step S102 the user converts the file received from the receiving unit 2 and stored in the storage unit 3 into audio data.
  • the file to be converted (hereinafter referred to as the text to be converted) is the operation unit
  • the signal processing unit 5 of the control unit 7 specifies the file designation data and the character data of the conversion text (hereinafter referred to as n max) . ) Is generated and output to the storage unit 3.
  • step S103 the user operates the operation unit 8 to operate the conversion unnecessary information 16 such as a period (.), A period (.), A question mark (?), And an exclamation point. Mark
  • the operation unit 8 When (!) Or the like is input, the operation unit 8 generates the abbreviated data A (i) and inputs it to the signal processing unit 5.
  • the abbreviation A (i) is stored on the RAM of the signal processing unit 5 as an array whose argument is i.
  • the maximum value of i is predetermined, and the maximum value is i. It shall be.
  • Step S104 when n indicating the order of the character data A in the file is set to 1 from the signal processing unit 5, that is, an instruction to read the first character data from the storage unit 3 is output. You.
  • step S105 the n-th character data of the text to be converted is loaded on the RAM of the signal processing unit 5. That is, the text to be converted is a character data string where n is 1, 2, ... , N max .
  • step S107 the n-th character data of the text to be converted uttered in step S105 and the abbreviated data A (i) generated from the conversion unnecessary information 16 are determined.
  • the signal processing unit 5 compares them.
  • step S109 the n-th character data of the text to be converted is If it corresponds to the omitted data A (i), the process proceeds to step S108.
  • step S109 i is i. That is, the signal processing unit 5 determines whether or not the n-th character data has been compared with the last omitted data A (io). And i two i. If so, the process proceeds to step S110. On the other hand, when i has not reached i 0, the process proceeds to step S 105.
  • the audio data converted by the audio data conversion unit 6 is input to the D / A converter 10, which converts the audio data into an audio signal as an analog signal, and outputs the audio signal to the output terminal 1. Output from 2.
  • Step S107 when the n-th character data of the text to be converted is loaded into the RAM on the signal processing unit 5, the n-th character of the text to be converted is read. The data is compared with all the omitted data A (1) to A (i.). Then, only when it is determined that the n-th character data of the text to be converted does not correspond to all the omitted data A (1) to A (i.), The process proceeds to step S109, and Character data is converted to audio data and output.
  • Step S 1 0 8 Step S 1 0 n th character data converted text were compared in 7 last character de Isseki, i.e.
  • step S107 the signal processing unit 5 compares each character data of the text to be converted with all the abbreviated signals A (i), and compares all the abbreviated data A (i). Only when the condition does not correspond to i), the character data is converted to voice data by the voice data converter 6 and this voice data is converted to an analog voice signal by the D / A converter 1 ⁇ and output. In addition, at least a part of the conversion target sentence read from the storage unit 3 can be omitted and converted to an audio signal and output.
  • the sentence to be converted is composed of a plurality of phrases, and when the speech data conversion unit 6 converts the sentence into a speech data and outputs it,
  • the operation of the character-data-to-night conversion device 1 that scans the first part of the data and converts it into audio data will be described with reference to the flowchart shown in FIG.
  • the conversion target sentence is converted into audio data in accordance with the flowchart shown in FIG. It converts it to evening and converts this audio data into an audio signal and outputs it as audio.
  • a scan is used when the user wants to know information about a phrase that is located further ahead of the phrase being converted to speech.
  • step S202 when the text to be converted is output as speech in step S201 described above, it is determined whether the scan-on button 28 has been operated on the screen shown in FIG. Is determined by At this time, if the user operates the operation unit 8 and operates the scan-on button 28 to output a scan command from the operation unit 8, the process proceeds to step S2 ⁇ 3, and the operation unit 8 scans.
  • step S204 When the on button 282 is not operated, the process proceeds to step S204. That is, when the operation unit 8 is operated, a scan signal is generated, and the scan signal is input to the signal processing unit 5 of the control unit 7. The signal processing unit 5 determines whether a scan signal has been input, and proceeds to step 203 or 204.
  • step S203 that is, when the scan-on button 28 is operated, a predetermined amount of character data is converted into voice data from this character data based on a predetermined character data, and In order to perform the conversion again from the next predetermined character data, a predetermined amount of character data is deleted.
  • the amount of character data to be deleted at this time is set in advance by the user. Is defined.
  • the character data to be deleted is the skip condition information described above.
  • a predetermined amount following this punctuation mark is set as in 17.
  • the amount of character data set is the skip condition information
  • a predetermined amount of character data located after the punctuation is converted into audio data, and this audio data is converted into an audio signal.
  • the character data is output as voice via the electro-acoustic transducer 13, and character data up to the next character data such as punctuation marks, which are pre-specified standards, are omitted.
  • a predetermined amount of character data following this character data is converted into voice data again. This operation is repeated to convert the selected text to be converted into speech.
  • step 204 an instruction data is generated to control the voice data converter 6 so as to convert the character data following the character data omitted in the above step 203 into voice. .
  • step S205 similarly to step S202 described above, it is determined whether or not operation unit 8 has been operated and scan-on button 28 has been operated again. At this time, if the user operates the operation unit 8 to operate the scan-on button 28, the process proceeds to step S206, in which it is assumed that the skip key is turned on, and the readout is performed in step 204. Character data that is scanned next and read out skip.
  • step 207 the process proceeds to a process of converting the next character data skipped in step 206 into voice data. If the scan-on button 28 is not operated in step 205, the process of converting character data into audio data according to the conversion function specified in step 201 described above is performed. Done.
  • step S206 when the skip button 27 is operated while the scan-on button 28 is operated in step S205, character data such as punctuation marks, which are the next predetermined reference, are used.
  • the conversion to the audio data of the predetermined amount of character data that has been set after one night is stopped, instruction data for omitting the predetermined amount of character data is generated, and the process proceeds to step S207.
  • This instruction data is input to the audio / data converter 6, and a predetermined amount of character data is converted into audio data and output.
  • step S301 when the user operates the operation unit 8 to specify the skip button 27, a skip command is output by the operation unit 8, and the skip command is output to the signal processing unit 5 of the control unit 7. Is entered.
  • the skip signal is output by operating the operation unit 8 and inputting the skip condition information 17 displayed on the screen shown in FIG. 3, and the skip signal is output to the signal processing unit of the control unit 7. 5 and is input from the signal processing unit 5 to the storage unit 3 as character data omission information.
  • the skip condition information character data which is not compatible with conversion of voice data such as punctuation is specified.
  • step S302 when skip condition information 17 is input by operating the operation unit 8, a skip signal is output from the operation unit 8.
  • the signal processing unit 5 When the skip signal is input to the signal processing unit 5 of the control unit 7, the signal processing unit 5 generates skip condition data B (i), and outputs the skip condition data stored in the storage unit 3 to the file to be converted. Be sent
  • the skip condition is composed of an array from B (1) to B (ii). That is, a signal sequence of skip condition data—evening, B (1), B (2),..., B (i.).
  • step S304 signal processing is performed on the n clauses of the sentence to be converted read from the storage unit 3 and the skip condition data B (i) generated based on the skip condition information 17 Compare in Part 5.
  • step S304 the conversion target sentence is compared with, for example, the skip condition data in units of clauses, and the character data for each clause is generated based on the skip condition information 17. It is determined whether or not the condition data B (i) is satisfied.
  • the process proceeds to step S305.
  • the character data of n segments of the text to be converted does not correspond to the skip condition data signal B (i) generated based on the skip condition information 17, the process proceeds to step S306.
  • step S305 the array is arranged at a predetermined skip position.
  • the instruction data is generated by the signal processing unit 5 so as to convert the character data into voice data.
  • the voice command is converted into voice data when the skip command is output by the operation unit 8.
  • the character data at a predetermined skip position of the text to be converted can be skipped from the current position without being converted to voice data.
  • step S304 based on the speech conversion information generated in step S307, the speech data is decoded as described using the flowchart shown in FIG. Convert to character data and output.
  • step S306 the skip condition data generated based on the skip condition information 17 for the characters in the n segments of the conversion target sentence is a skip signal corresponding to B (ii)
  • the signal processing unit 5 determines whether or not this is the case.
  • the skip condition data compared in step S304 is the skip condition data corresponding to B (i!)
  • the process proceeds to step S308.
  • step S308 and S309 the next phrase after the phrase compared in step S304 is specified, and the process returns to step S303 again to return the n + Compare one clause with skip condition data B (i).
  • step S304 if the skip condition data compared in step S304 is not the skip condition data corresponding to B (ii), the process proceeds to step S310.
  • step S310 the skip condition data compared in step S304 in step S306 described above is used. ), The skip signal B (i + 1) of the next array is designated, and the process proceeds to step S304 again. That is, in the flowchart shown in FIG. 7, when n clauses of the sentence to be converted are loaded into the RAM on the signal processing unit 5, B
  • step S306 character data of n clauses
  • step S305 Only when it is determined that the conditions for skipping from (1) to B (ii) do not apply, the phrase is skipped in step S305, and the flow advances to step S307 to proceed to the above-described diagram.
  • character data is converted into audio data
  • the audio data is converted into an analog audio signal and output.
  • the character-data-to-night conversion device 1 As described above, by using the character-data-to-night conversion device 1 according to the present invention, the user can skip unnecessary information according to the text to be converted without converting it into voice data. Then, the character data can be converted into voice data and only the necessary information can be heard by voice. INDUSTRIAL APPLICABILITY As described above, the character-to-data conversion device and the conversion method according to the present invention are provided by the voice conversion unit based on instruction data that specifies a portion that does not need to be converted to voice data. The conversion of character data that is not converted into voice data is restricted, so that the conversion of character data that the user does not need as information into voice data is restricted, and only the necessary information is converted. Since the character data can be converted into voice data for listening, the information stored as character data in the storage unit can be checked efficiently, and the character data stored in the storage unit can be quickly displayed. You can search.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Document Processing Apparatus (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

明现: 文字デヌタ倉換装眮及びその倉換方法
技術分野 本発明は、 公衆電話回線などを介しお䟛絊される文字デヌタを音 声デヌタに倉換する文字デヌタ倉換装眮及びその倉換方法に関し、 特に、 倖郚から䟛絊され蚘憶郚に蚘憶される文字デヌタのうち指瀺 デ䞀倕により指瀺された以倖の文字デヌタを音声デ䞀倕に倉換し、 文字デ䞀倕に基づく情報の迅速な把握及び怜玢を可胜ずする文字デ —倕倉換装眮及びその倉換方法に関する。 背景技術 埓来、 公衆電話回線や I S D N ( Integrated services digital ntwork)等の通信手段を介しお、 文字デヌタを送受信する電子メヌ ル機胜を備えた装眮が広く甚いられおいる。
この皮の装眮ずしお、 公衆電話回線等の通信手段を介しお䌝送さ れる文字デヌタを受信し、 この受信された文字デヌタを音声デ䞀倕 に倉換しお出力するパヌ゜ナルコンビナヌ倕や携垯情報端端末機等 の情報凊理装眮、 あるいは携垯電話機等の通信機噚が甚いられおい る。 この皮の装眮や機噚から出力される音声デ䞀倕は、 アナログの 音声信号に倉換されおスピヌカやむダホヌン等の電気音響倉換噚に 入力され、 音声ずしお聎取される。
たた、 電子メヌルによっお送信される文字デ䞀倕は、 単䜍情報毎 に 1぀のフアむルを構成しお送信され、 パ䞀゜ナルコンピュヌタや 携垯情報端末等の情報凊理装眮の蚘憶郚に蚘憶される。 そこで、 送 信された文字デヌタを音声デ䞀倕に倉換する堎合、 蚘憶郚に蚘憶さ れおいる 1のフアむルを指定し、 このファむルに含たれる文字デ䞀 倕を音声デヌタに倉換しお出力し、 電気音響倉換噚に入力するよう にしおいる。
1぀のファむルを構成する文字デヌタは、 電子メヌルの送信偎の ァドレスや受信日時等を含んでいる。 送信される文字デ䞀倕には、 音声ずしお聎取するには䞍芁なデ䞀倕も含んでいる。
たた、 文字デヌタを受信する偎では、 受信される文字デヌタを迅 速に確認し、 あるいは必芁な情報のみを確認するためには、 受信さ れる文字デヌタ䞭の実䜓的な内容を含む文字デヌタのみを音声に倉 換するこずが望たしい。 発明の開瀺 本発明の目的は、 通信手段を介しお䟛絊される文字デ䞀倕のうち- 受信者にずっお有甚な文字デヌタのみを音声デヌタに倉換するこず ができる文字デヌタ倉換装眮及び倉換方法を提䟛するこずにある。 本発明の他の目的は、 䟛絊される文字デヌタ䞭の音声ずしお出力 されるに䞍適圓な、 あるいは音声に倉換しえない文字デヌタを音声 デ䞀倕に倉換しなようにしお、 音声デヌタずしお出力されるに適し た文字デヌタのみを音声デ䞀倕に倉換する文字デヌタ倉換装眮及び 倉換方法を提䟛するこずにある。
本発明の曎に他の目的は、 通信手段を介しお䟛絊され蚘憶郚に蚘 憶されたる文字デヌタを音声により短時間に把握するこずを可胜ず なす文字デヌタ倉換装眮及びその倉換方法を提䟛するこずにある。 本発明の曎に他の目的は、 通信手段を介しお䟛絊され蚘憶郚に蚘 憶されたる文字デヌタ䞭の必芁な文字デヌタを迅速に怜玢し、 音声 デヌタに倉換しお出力するこずができる文字デヌタ倉換装眮及びそ の倉換方法を提䟛するこずにある。
䞊述のような目的を達成するために提案される本発明に係る文字 デヌタ倉換装眮は、 䟛絊される文字デヌタを蚘憶する蚘憶郚ず、 ュ 䞀ザによっお操䜜される操䜜郚ず、 この操䜜郚からの入力に基づい お蚘憶郚に蚘憶される文字デ䞀倕のうち音声デヌタぞの倉換を䞍必 芁ずする郚分を瀺す指瀺デヌタを生成し、 この生成された指瀺デ䞀 倕に基づいお蚘憶郚から読み出された文字デヌタのうち指瀺デヌタ によっお指定されおいない郚分を音声デヌタに倉換する制埡郚ずを 備えおいる。
この装眮の制埡郚は、 蚘憶郚から読み出された文字デヌタを音声 デ䞀倕に倉換するデヌタ倉換郚を備えおいる。
本発明に係る装眮は、 さらにデヌタ倉換郚から出力された音声デ 䞀倕を可聎音に倉換する音響倉換郚を備えおいる。
たた、 制埡郚によっお生成された指瀺デ䞀倕は、 操䜜郚からの入 力に基づいお蚘憶郚から読み出される文字デ䞀倕のうち少なく ずも 句読点に察応する文字デヌタを音声デヌタに倉換しないように制埡 する。
さらに、 制埡郚は、 操䜜郚からの入力に基づいお蚘憶郚から文字 デ䞀倕を所定のデヌタ量だけ離散的に繰り返し読み出しお音声デヌ 倕に倉換するこずにより、 文字デヌタの内容の迅速な把握を行うこ ずを可胜ずする。
さらにたた、 制埡郚は、 蚘憶郚から読み出される文字デ䞀倕のう ち句点に察応する文字デヌタに続く文字デヌタを所定で量だけ音声 デヌタに倉換する動䜜を繰り返し行うように構成され、 文字デヌタ の内容の迅速な把握を行うこずを可胜ずする。
さらにたた、 制埡郚は、 蚘憶郚から読み出される文字デヌタの最 初の郚分若しくは最埌の郚分を陀いお䞊蚘音声デ䞀倕に倉換し、 情 報ずしお必芁な文字デヌタのみを音声に倉換する。
たた、 本発明に係る文字デ䞀倕の倉換方法は、 操䜜郚からの入力 に基づいお蚘憶郚に蚘憶された文字デヌタのうち音声デ䞀倕ぞの倉 換を䞍必芁ずする郚分を瀺す指瀺デヌタを生成し、 この生成された 指瀺デヌタに基づいお蚘憶郚から読み出された文字デ䞀倕のうち指 瀺デヌタによっお指定されおいない郚分を音声デ䞀倕に倉換する。 さらに、 本発明に係る文字デヌタ倉換装眮は、 䟛絊される文字デ 䞀倕を蚘憶する蚘憶郚ず、 ナヌザによっお操䜜される操䜜郚ず、 こ の操䜜郚からの入力に基づいお蚘憶郚に蚘憶される文字デ䞀倕のう ち音声デヌタぞの倉換を䞍必芁ずする郚分を瀺す指瀺デヌタを生成 し、 この生成された指瀺デ䞀倕ず蚘憶郚から読み出された文字デヌ 倕ずを比范し、 この比范の結果に基づいお指瀺デヌタず䞍䞀臎な文 字を音声デヌタに倉換する制埡郚ずを備えおいる。
さらにたた、 本発明に係る文字デヌタの倉換方法は、 操䜜郚から の入力に基づいお蚘憶郚に蚘憶される文字デヌタのうち音声デ䞀倕 ぞの倉換を䞍必芁ずする郚分を瀺す指瀺デヌタを生成し、 この生成 された指瀺デヌタず蚘憶郚から読み出された文字デヌタずを比范し、 この比范の結果に基づいお指瀺デ䞀倕ず䞍䞀臎な文字を音声デヌタ に倉換する。
さらにたた、 本発明に係る文字デ䞀倕の倉換方法は、 䟛絊された 文字デヌタずこの文字デヌタのうち音声倉換を行う必芁のない郚分 を指瀺する少なく ずも䞀぀の指瀺デ䞀倕ずを比范し、 この比范した 結果に基づいお䟛絊された文字デヌタのうち指瀺デヌタず䞀臎する 文字デ䞀倕に埌続する文字デ䞀倕を音声デヌタに倉換する動䜜を、 䞊蚘比范した結果が取り蟌たれた文字デ䞀倕のうち次に指瀺デ䞀倕 ず䞀臎するたで繰り返し行い、 倉換された音声デ䞀倕を可聎音に倉 換しお出力する。
ここで、 本発明に係る文字デヌタの倉換方法は、 取り蟌たれた文 字デヌタが次に指瀺デ䞀倕ず䞀臎した堎合には、 次に指瀺デ䞀倕ず 䞀臎した文字デ䞀倕ず接続する文字デヌタを音声デ䞀倕に倉換し、 再び指瀺デ䞀倕ず取り蟌たれたデヌタずがヌ臎するたで音声デ䞀倕 に倉換する動䜜を繰り返し行う。
そしお、 この倉換方法は、 取り蟌たれた文字デヌタのうち第 1の デ䞀倕量だけ音声デヌタに倉換するずずもに音声デヌタに倉換され た第 1のデ䞀倕量の文字デ䞀倕から第 2のデヌタ量だけ離れた文字 デヌタを第 1のデヌタ量だけ音声デ䞀倕に倉換する動䜜を繰り返し 行う。
ここで、 文字デヌタから倉換された音声デ䞀倕は、 可聎音に倉換 しお出力される。
本発明の曎に他の目的、 本発明によっお埗られる具䜓的な利点は、 以䞋に説明される実斜䟋の説明から䞀局明らかにされるであろう。 図面の簡単な説明 図 1は、 本発明に係る文字デ䞀倕倉換装眮を瀺すプロック図であ る。
図 2は、 衚瀺郚に衚瀺させる画面の䞀䟋を瀺す図である。
図 3は、 蚘憶郚に蚘憶される文字デヌタの -䟋を瀺す図である。 図 4は、 省略条件を蚭定するずきの䞀䟋を瀺すフロヌチャヌトで ある。
図 5は、 䟛絊された文字デヌタを音声デ䞀倕に倉換しお音声ずし お出力する際に、 文字デヌタず省略条件ずを比范しお音声を出力す る䞀䟋を瀺すフロヌチダ䞀トである。
図 6は、 音声を出力しおいるずきに、 スキャンを行うずきの䞀䟋 を瀺すフロヌチャヌトである。
図 7は、 音声を出力しおいるずきに、 スキップを行うずきの䞀䟋 を瀺すフロヌチャヌトである。
発明を実斜するための最良の圢態 以䞋、 本発明に係る文字デヌタ倉換装眮及び文字デヌタの倉換方 法を図面を参照しお説明する。
本発明に係る文字デヌタ倉換装眮は、 公衆電話回線や I S D N ( I ntegrated services digital ntwork)等の通信網を介しお文字デヌ 倕を受信を行うこずができる文字デ䞀倕を送受信する電子メヌル機 胜を備えた装眮に適甚されるものである。 ここで、 文字デヌタ倉換 装眮が適甚される装眮ずしおは、 パヌ゜ナルコンピュヌタや携垯情 報端末装眮、 文字デヌタの入力を可胜ずした I Cレコヌダ等の情報 凊理装眮や、 携垯電話機等の通信機噚に適甚されるものである。 本発明に係る文字デヌタ凊理装眮 1は、 図 1に瀺すように、 公衆 電話回線や I S D N等の通信網を介しお送信される電子メヌルの文 字デヌタを受信する受信郚 2ず、 この受信郚 2に䟛絊された文字デ —倕が蚘録される蚘憶郚 3を備える。 文字デ䞀倕は、 単䜍情報毎に 1぀のファむルを構成しお送信される。
ここで、 蚘憶郚 3は、 本発明がパヌ゜ナルコンピュヌタに適甚さ れた堎合には、 コンピュヌタ本䜓に内蔵されたハ䞀ドディスク等の 蚘録媒䜓が甚いられ、 情報端末機や携垯電話機に適甚された堎合に は、 これら機噚本䜓に内蔵した R A Mが甚いられる。
たた、 公衆電話回線や I S D N等の通信網を介しお送信される文 字デ䞀倕は、 アスキヌ A S C I I ) コヌドのデ䞀倕ずしお送信さ れる。
そしお、 本発明に係る文字デヌタ倉換装眮 1は、 図 1に瀺すよう に、 蚘憶郚 3から読み出された文字デヌタが䟛絊され、 䟋えば 1぀ のファむルを構成する文字デ䞀倕のうち音声デ䞀倕ぞの倉換を䞍必 芁ずする郚分を瀺す指瀺デ䞀倕を生成する信号凊理郚 5ず、 信号凊 理郹 5により生成された指瀺デ䞀倕に基づいお蚘憶郚 3から読み出 された文字デヌタのうち指瀺デヌタによっお指定されおいない郚分 を音声デヌタに倉換する音声デヌタ倉換郚 6ずを備えた制埡郚 7を 備える。
たた、 本発明に係る文字デ䞀倕倉換装眮 1は、 蚘憶郚 3から読み 出された文字デヌタうちの音声デ䞀倕に倉換する必芁のない文字デ —倕を指瀺する指瀺デ䞀倕を生成するための指什信号を制埡郚 7の 信号凊理郚 5に入力するナヌザによっお操䜜される操䜜郚 8を備え おいる。 この操䜜郚 8は、 本発明がパヌ゜ナルコンピュヌタに適甚 された堎合には、 パヌ゜ナルコンピュヌタに接続されたキヌボ䞀ド やマりスが甚いられ、 情報端末機や携垯電話機に適甚された堎合に は、 ダむダルキ䞀やファンクションキヌが甚いられる。 そしお、 操 䜜郚 8から入力される指什信号には、 蚘憶郚 3に蚘憶された文字デ —倕のフアむルを指定するフアむル指定信号、 蚘憶郚 3から読み出 された文字デ䞀倕䞭の省略を指瀺する省略信号、 スキップ信号、 ス キャン信号等の入力信号が含たれる。
さらに、 本発明に係る文字デ䞀倕倉換装眮 1は、 蚘憶郚 3から読 み出された文字デヌタ䞭の省略をするための皮々の条件を蚭定する 画面を衚瀺する衚瀺郚 9を備えおいる。
そしお、 本発明に係る文字デ䞀倕倉換装眮 1は、 制埡郚 7を構成 する音声デヌタ倉換郚 6から出力される音声デヌタをアナログの音 声信号に倉換する D /A倉換噚 1 0及び D / A倉換噚 1 0から出力 される音声信号を増幅しお出力する増幅噚 1 1 ず増幅噚 1 1から出 力される音声信号を倉換装眮 1の倖郚に出力する出力端子 1 2を備 えおいる。 出力端子 1 2には、 スピヌカ装眮やむダホンなどの電気 音響倉換噚 1 3が接続され、 音声信号を可聎音に倉換しお出力する。 なお、 電気音響倉換噚 1 3は、 文字デヌタ倉換装眮 1が組み蟌た れるパヌ゜ナルコンピュヌタや携垯電話機に内蔵されたものであ぀ おもよい。
䞊蚘のような構成を備えた本発明に係る文字デ䞀倕倉換装眮 1は、 ナヌザがキヌボヌドゃマりス等の操䜜郚 8を操䜜し、 蚘憶郚 3に蚘 憶された文字デ䞀倕のファむル䞭から、 制埡郚 7の音声デヌタ倉換 郚 6により音声デ䞀倕に倉換される文字デヌタのファむルが指定す るず、 そのファむル指定情報が信号凊理郚 5に入力される。 信号凊 理郹 5は、 フアむル指定情報に基づいおファィル指定デ䞀倕を生成 し、 この指定デヌタを蚘憶郚 3に入力し、 蚘憶郚 3から指定された フアむルの文字デ䞀倕を信号凊理郚 5䞊のメモり䜜業領域に読み出 す。 蚘憶郚 3から指定されたファむルが読み出されるず、 図 2に瀺 すように、 そのファむルのテキス ト名 1 5が衚瀺郚 9に衚瀺される。 この文字デヌタ倉換装眮 1は、 操䜜郚 8を操䜜するこずにより、 指定されたファむルを構成する文字デヌタのうち音声デヌタぞの倉 換を䞍必芁ずする条件を瀺す倉換䞍芁情報が信号凊理郚 5に人力さ れる。 信号凊理郚 5に倉換䞍芁情報が入力されるず、 信号凊理郚 5 は、 倉換䞍芁情報に基づいお倉換䞍芁指瀺デ䞀倕を生成し蚘憶郚 3 に出力するずずもに、 図 2に瀺すように、 倉換䞍芁指瀺デヌタに察 応する倉換䞍芁指瀺情報 1 6を衚瀺郚 9に衚瀺する。 信号凊理郚 5 から出力された倉換䞍芁指瀺デ䞀倕は、 蚘憶郚 3に蚘憶される。 ここで、 倉換䞍芁指瀺デヌタずしおは、 文字デヌタが図 3に瀺す ような電子メヌル情報である堎合には、 電子メヌル䞭の最初に蚘茉 されたアドレス情報等を瀺す文字デ䞀倕矀 2 1や、 電子メヌル䞭の 最埌に蚘茉された送信者情報の文字デ䞀倕矀 2 2が挙げられる。 電 子メヌル䞭のァドレス情報等を瀺す文字デヌタ矀 2 1や送信者情報 の文字デヌタ矀 2 2を倉換䞍芁指瀺デ䞀倕ずしお指定する堎合には、 ァドレス情報や送信情報䞭の定型化された䞀郚の情報を指定する。 たた、 倉換䞍芁指瀺デ䞀倕ずしおは、 句点 。  読点 、 ) ピリオ ド し  、 ク゚スチョンマヌク  、 ゚キスクラメヌシペンマ䞀 ク    等の音声ぞの倉換に適さない文字デヌタがある。
たた、 本発明に係る文字デヌタ倉換装眮 1は、 指定されたフアむ ルを構成する文字デ䞀倕䞭の䞀定の文字デ䞀倕を指定したずき、 こ れら指定された文字デヌタを怜玢しながら、 この文字デ䞀倕に察応 する文字デ䞀倕にスキップし、 スキップされた䜍眮に察応しお存圚 する所定量の文字デ䞀倕を音声デヌタに倉換する機構を備える。 フ ァィルを構成する文字デヌタをスキップさせながら音声デ䞀倕に倉 換するためには、 操䜜郚 8を操䜜し、 スキップ条件を瀺す文字デヌ 倕に察応するスキップ条件情報を入力する。 スキップ条件情報ずし おは、 指定されたファむルの文字デヌタ䞭に含たれる 1行以䞊のプ ランク情報や、 文章の区切りを瀺すために甚いられる句点 。 ) 読 点 、  ピリオド .  、 ク゚スチョンマヌク  、 ゚キスクラ メ䞀シペンマヌク    等があげられる。
操䜜郚 8の操䜜によっお入力されるスキップ条件情報は、 信号凊 理郹 5に入力される。 信号凊理郚 5は、 スキップ条件情報に基づい おスキップ指瀺デ䞀倕を生成し、 蚘憶郚 3に出力するずずもに、 図 2に瀺すように、 スキップ指瀺デヌタに察応するスキップ条件情報 1 7を衚瀺郚 9に衚瀺する。 信号凊理郚 5から出力されたスキップ 指瀺デヌタは、 蚘憶郚 3に蚘憶される。
䞊蚘したような倉換䞍芁指瀺デヌタ及びスキップ条件デヌタを生 成する䞀䟋を図 4に瀺すフロヌチャヌトを甚いお説明する。
倉換䞍芁指瀺デ䞀倕及びスキップ条件デヌタを生成するには、 図 4に瀺すように、 この文字デ䞀倕倉換装眮 1を起動させ、 ステップ S 1においお、 制埡郚 7からのプログラム読み出し指什信号に基づ いお、 䟋えば蚘憶郚 3に蚘憶されおいる条件登録プログラムを起動 させる。 条件登録プログラムが起動させるず、 図 3に瀺すような画 面が衚瀺郚 9に衚瀺される。
次に、 ステップ S 2においお、 ナヌザが操䜜郚 8を操䜜しお、 倉 換䞍芁情報を入力するず、 この倉換䞍芁情報が信号凊理郚 5に入力 され、 信号凊理郚 5においお倉換䞍芁情報に基づいお倉換䞍芁指瀺 デヌタが生成される。
ステップ S 3には、 ナヌザが操䜜郚 8を操䜜しお、 スキップ条件 情報を入力するず、 このスキップ条件情報が信号凊理郚 5に入力さ れ、 信号凊理郚 5においおスキップ条件情報に基づいおスキゟプ条 件デヌタが生成される。
そしお、 ステップ S 4においお、 䞊述のステップ S 2及びステヅ プ S 3においお生成された倉換䞍芁指瀺デヌタ及びスキップ条件デ 䞀倕が信号凊理郚 5から出力され、 蚘憶郚 3に蚘憶される。
たた、 衚瀺郚 9には、 制埡郚 7からの衚瀺指什信号が䟛絊され、 図 2に瀺すように、 倉換ス倕䞀トボタン 2 6、 スキップボタン 2 7、 スキャンオンボタン 2 8、 スキャンオフボタン 2 9が衚瀺される。 そしお、 ナヌザが操䜜郚 8を操䜜しお衚瀺郚 9に衚瀺された各ボタ ン 2 6 ~ 2 9のいずれかを遞択するこずにより、 以䞋に述べるよう に制埡郚 7を制埡し、 フアむル指定情報に基づいお制埡郚 7の信号 凊理郚 5により生成されるファむル指定デ䞀倕に基づいお蚘憶郚 3 から読み出されたファむルの文字デヌタを音声デ䞀倕に倉換する。 ここで、 本発明がパヌ゜ナルコンピュヌタに適甚された堎合には、 操䜜郚 8は、 キヌボヌドやマりスが甚いられ、 衚瀺郚 9に衚瀺され た各ボタン 2 6〜 2 9のいずれかの指定は、 キヌボヌドに蚭けられ たカヌ゜ルキヌの操䜜やマりスによっお操䜜されるポむンタによ぀ お行われる。 たた、 本発明が情報端末機や携垯電話機に適甚された 堎合には、 衚瀺郚 9に衚瀺された各ボタン 2 6〜 2 9のいずれかの 指定は、 これら機噚に蚭けられたファンクシペンキヌによっお行わ れ 。
倉換ス倕䞀トボタン 2 6は、 操䜜郚 8の操䜜によっお指定される こずにより倉換スタヌト呜什を生成するボタンである。 倉換ス倕䞀 卜ボタンが 2 6が指定され、 倉換スタヌト呜什が生成される。 この 倉換スタヌト呜什は、 信号凊理郚 5に入力され、 信号凊理郚 5から 倉換指瀺デヌタが音声デ䞀倕倉換郚 6に入力されろ。 音声デヌタ倉 換郚 6は、 信号凊理郚 5を介しお蚘憶郚 3から読み出される文字デ 䞀倕を音声デ䞀倕に倉換する倉換動䜜を開始する。 たた、 スキップ ボタン 2 7は、 操䜜郚 8の操䜜によっお指定されるこずによりスキ ップ呜什を生成するボ倕ンである。 スキップボ倕ン 2 7が指定され おスキップ呜什が生成されるず、 スキップ呜什が制埡郚 7の信号凊 理郹 5に入力される。 信号凊理郚 5は、 スキップ呜什に基づいおス キップ条件デ䞀倕を生成しお音声デ䞀倕倉換郚 6に入力する、 音声 デヌタ倉換郚 6は、 スキップ条件デ䞀倕が入力されるず、 このデヌ 倕に基づいお音声デ䞀倕を出力する。
なお、 このスキップ呜什は、 音声デヌタ倉換郚 6が所定の文字デ —倕量だけ読み飛ばす、 すなわちスキップさせお文字デヌタを音声 デヌタに倉換するように制埡するスキップ指瀺デヌタを生成させる。 本発明では、 スキップボタン 2 7に代えお、 パヌ゜ナルコンビュ —倕のキヌボヌドのカヌ゜ルキヌ以倖の特定のキヌをスキップ呜什 を生成するスキップボタンずしお甚いるようにしおもよい。
スキャンオンボタン 2 8及びスキャンオフボタン 2 9は、 文字デ 䞀倕を音声デヌタに倉換する際、 文字デ䞀倕をスキャンしながら文 字デヌタを音声デ䞀倕に倉換するずきに指定される。 すなわち、 ス キャンオンボタン 2 8は、 操䜜郚 8の操䜜によっお指定されるず、 スキャン信号を生成し制埡郚 7の信号凊理郚 5に入力する。 信号凊 理郹 5は、 スキャン信号が入力されるずスキャン指瀺デ䞀倕を生成 しお音声デヌタ倉換郚 6に出力する。 このずき、 信号凊理郚 5は、 䟋えばスキャン条件デヌタにより指定された文字デヌタに続く所定 量の文字デヌタを音声デヌタに倉換しお音声ずしお出力させるずい う凊理を繰り返すように音声デヌタ倉換郚 6を制埡する。
たた、 スキャンオフボタン 1 9は、 䞊述のスキダンを䞭止するず きに指定される。 スキャンオフボタン 1 9は、 操䜜郚 8の操䜜によ ぀お指定されスキャンオフ信号を生成し制埡郚 7の信号凊理郚 5に 入力する。 信号凊理郚 5は、 スキャンオフ信号が入力されるず、 ス キャンオフ指瀺デ䞀倕を生成しお音声デヌタ倉換郚 6に出力し、 そ の埌の文字デヌタを音声デヌタに倉換するように音声デヌタ倉換郚 6を制埡する音声倉換制埡信号を生成する。
ずころで、 音声デヌタ倉換郚 6は、 䞊述の蚘憶郚 3に蚘憶された 文字デ䞀倕が信号凊理郚 5を介しお入力されるずずもに、 信号凊理 郚 5で生成された各指瀺デヌタが入力される。 音声デヌタ倉換郚 6 は、 入力された文字デ䞀倕を音声デ䞀倕に倉換するずき、 入力され た各指瀺デヌタに応じお蚘憶郚 3から入力された文字デヌタのうち 少なく ずも䞀郚を音声デ䞀倕に倉換する。 すなわち、 この音声デヌ 倕倉換郚 6は、 信号凊理郚 5で文字デヌタず音声デ䞀倕ぞの倉換を 省略する指瀺デヌタずを比范したずきに、 音声デ䞀倕に倉換する文 字デヌタのうち、 倉換省略甚の各指瀺字デ䞀倕に該圓しない文字デ —倕のみを音声デ䞀倕に倉換するように制埡される。
ここで、 蚘憶郚 3から読み出された文字デ䞀倕ず倉換省略甚の指 瀺デヌタの比范は、 次のようにしお行われる。 すなわち、 蚘憶郚 3 蚘憶された文字デヌタは、 信号凊理郚 5から蚘憶郚 3に入力される ファむル指瀺デ䞀倕に基づいお信号凊理郚 5内のの R A M䞊に読み 出されおマツビングされ、 信号凊理郚 5䞊の R A Mに蚘憶されおい る各指瀺デヌタにより指定された文字デヌタず䞀぀ず぀比范するこ ずによっお行われる。
䞊述のように構成された本発明に係る文字デヌタ倉換装眮 1では、 公衆電話回線や I S D N等の通信網を介しお送信される電子メヌル の文字デヌタを受信する受信郚 2を介しお文字デ䞀倕が受信される ず、 制埡郚 7.は、 図 5に瀺すようなフロヌチャヌトにしたがっお文 字デ䞀倕を音声デ䞀倕に倉換しお音声を出力する。 すなわち、 図 5 に瀺すフロヌチャヌトは、 制埡郚の信号凊理郚 5及び音声デヌタ倉 換郚 6の瀺す動䜜を瀺すものである。
受信郚 2を介しお受信され、 蚘憶郚 3に蚘憶された文字デヌタを 音声デヌタに倉換しお音声ずしお出力するには、 たず、 制埡郚 7に 眮いお、 この文字デ䞀倕倉換プログラムを起動させる。 具䜓的には、 ステップ S 1 0 1においお、 制埡郚 7の信号凊理郚 5からのプログ ラム読み出し指什信号に基づいお、 䟋えば蚘憶郚 3に蚘憶されおい る倉換プログラムが信号凊理郚 5に読み蟌たれ実行される。 倉換プ 口グラムが起動させるず、 図 3に瀺すような画面が衚瀺郚 9に奉瀺 される。
次に、 ステップ S 1 0 2においお、 䟋えばナヌザが受信郚 2で受 信され蚘憶郚 3に蚘憶されたファむルのうち、 音声デヌタぞの倉換 の察象ずなるファむル 以䞋、 倉換察象文章ず称する。  を操䜜郚
8で指定する。 操䜜郚 8の操䜜によっお蚘憶郚 3に蚘憶された倉換 察象文章が指定されるず、 制埡郚 7の信号凊理郚 5でフアむル指定 デヌタ及び倉換文章の文字デ䞀倕 以䞋、 n m a xず称する。  が生成 され蚘憶郚 3に出力される。
次に、 ステップ S 1 0 3においお、 ナヌザによっお操䜜郚 8を操 䜜しお倉換䞍芁情報 1 6、 䟋えば、 句点 。  読点 し  ピリオド ( . ) 、 ク゚スチョンマヌク  、 ゚キスクラメヌシペンマヌク
(  ) 等をが入力されるず、 操䜜郚 8で省略デヌタ A ( i ) が生成 されお信号凊理郚 5に入力される。 ここで、 省略デ䞀倕 A ( i ) は、 匕数が iである配列ずしお信号凊理郚 5の R A M䞊に蚘憶される。 ここで、 iの最倧倀は、 予め定められおおり、 その最倧倀を i。ずす る。
次に、 ステップ S 1 0 4においお、 信号凊理郚 5よりファむルの 文字デ䞀倕 Aの順番を瀺す nが 1 ずされたずき、 すなわち、 最初の 文字デヌタを蚘憶郚 3から読み出す呜什が出力される。
次に、 ステップ S 1 0 5においお、 倉換察象文章の n番目の文字 デ䞀倕が信号凊理郚 5の R A M䞊にロヌドする。 すなわち、 倉換察 象文章は、 nを 1 2 · · · n m a xずした文字デヌタ列である。 ― 次に、 ステヅプ S 1 0 6においお、 信号凊理郚 5で i = 1 ずされ、 省略デヌタ配列の最初の省略デ䞀倕 A ( i = l ) が指定される。
する。
次に、 ステップ S 1 0 7においお、 前述のステツプ S 1 0 5で口 䞀ドされた倉換察象文章の n番目の文字デヌタず倉換䞍芁情報 1 6 により生成された省略デヌタ A ( i ) ずを信号凊理郚 5で比范する。 ここで、 n = l 、 i = lであるので、 すなわち、 1回目のステップ S 1 0 7の凊理においおは、 倉換察象文章の先頭文の文字デヌタが 省略デヌタ A ( 1 ) に該圓するか吊かが信号凊理郚 5により刀定さ れる。 このずき、 倉換察象文章の n番目の文字デ䞀倕が省略デ䞀倕 A ( i ) に該圓しないずきには、 凊理ステツプ S 1 0 9に進み、 倉 換察象文章の n番目の文字デ䞀倕が省略デ䞀倕 A ( i ) に該圓する ずきには、 凊理がステップ S 1 0 8に進む。
次に、 ステップ S 1 0 9においお、 iが i。に等しいか吊か、 すな わち、 n番目の文字デ䞀倕が最埌の省略デヌタ A ( i o ) ず比范され たか吊かが信号凊理郚 5により刀定される。 そしお、 i 二 i。のずき には、 凊理はステヅプ S 1 1 0に進む。 䞀方、 iが i 0に達しおいな いずきには、 凊理は、 ステップ S 1 0 5に進む。
ステップ S 1 1 0においおは、 䞊述のステップ S 1 0 7で比范し た結果、 倉換察象文章の n番目、 䟋えば n = 1である先頭の文字デ 䞀倕が指定した倉換䞍芁の文字デヌタであるず刀定されたので、 制 埡郚 7の信号凊理郚 5から圓該文字デ䞀倕が音声デヌタ倉換郚 6に 出力され、 音声デヌタ倉換郚 6で倉換察象文章の䟋えば先頭の文字 デ䞀倕が音声デ䞀倕に倉換される。 この音声デヌタ倉換郚 6により 倉換された音声デ䞀倕は、 D / A倉換噚 1 0に入力され、 この D / A倉換噚 1 0でアナログ信号ずしおの音声信号に倉換されお出力端 子 1 2から出力される。
䞀方、 ステップ S 1 1 1では、 䞊述のステヅプ S 1 0 9においお iが i。に達しおいないので、 すなわち、 n番目の文字デ䞀倕が党お の省略デヌタ  i ) ず比范されおいないので、 省略デヌタず比范す るために i = i + l ずされお、 凊理はステップ S 1 0 7に戻り、 ス テヅプ S 1 0 7〜ステツプ S 1 1 1の凊理が繰り返される。
すなわち、 ステップ S 1 0 7〜ステップ S 1 1 1からなるルヌチ ンでは、 倉換察象文章の n番目の文字デヌタが信号凊理郚 5䞊の R A Mにロヌドされるず、 倉換察象文章の n番目の文字デ䞀倕が党お の省略デヌタ A ( 1 ) 〜A ( i。 ず比范されるこずになる。 そしお、 倉換察象文章の n番目の文字デヌタが党おの省略デ䞀倕 A ( 1 ) 〜 A ( i。 に該圓しないず刀定された堎合にのみ、 凊理がステップ S 1 0 9に進んで、 文字デヌタが音声デヌタに倉換されお出力される。 ステップ S 1 0 8では、 ステップ S 1 0 7においお比范した倉換 察象文章の n番目の文字デヌタが最埌の文字デ䞀倕、 すなわち n = n MA Xであるか吊かが信号凊理郚 5により刀定される。 このずき、 倉 換察象文章の n番目の文字デヌタが最埌の文字デ䞀倕 n MA Xでない堎 合には、 凊理はステツプ S 1 1 2に進み、 ステップ S 1 0 7で比范 された文字デヌタの次の文字デヌタが指定されお、 凊理が再びステ ップ S 1 0 5に戻り、 倉換察象文章の n + 1番目の文字デヌタが信 号凊理郚 5の R A M䞊にロヌドされる。
䞊述したような手順によれば、 ステップ S 1 0 7においお信号凊 理郹 5により倉換察象文章の各文字デヌタず党おの省略信号 A ( i ) ずを比范しお党おの省略デ䞀倕 A ( i ) に該圓しない堎合にのみ音 声デヌタ倉換郚 6により文字デヌタを音声デヌタに倉換され、 この 音声デ䞀倕が D / A倉換噚 1 ◊によりアナログの音声信号に倉換さ れ出力されるので、 蚘憶郚 3から読み出された倉換察象文章の少な く ずも䞀郚を省略しお音声信号に倉換しお出力するこずができる。 次に、 倉換察象文章が耇数の文節からなり、 音声デヌタ倉換郚 6 により音声デ䞀倕に倉換しお出力する際に、 倉換察象文章の各文節 の先頭郚分をスキャンしお音声デヌタに倉換する文字デ䞀倕倉換装 眮 1の動䜜に぀いお図 6に瀺すフロヌチダ䞀卜を参照しお説明する。 倉換察象文章の各文節の先頭郚分をスキャンしお音声デヌタに倉 換する動䜜は、 図 6に瀺すように、 ステップ 2 0 1で、 前述した図 5に瀺すフロヌチャヌトに埓っお倉換察象文章を音声デ䞀倕に倉換 し、 この音声デ䞀倕を音声信号に倉換しお音声ずしお出力する。 こ の動䜜の途䞭で、 ナヌザが音声に倉換されおいる文節からさらに先 に䜍眮する文節に぀いおの情報を知りたいずきにスキダンが䜿甚さ れる。
ステップ S 2 0 2おいお、 䞊述のステツプ S 2 0 1においお倉換 察象文章を音声ずしお出力しおいるずき、 図 2に瀺す画面においお スキャンオンボタン 2 8が操䜜されたか吊かが信号凊理郚 5により 刀定される。 このずき、 ナヌザが操䜜郚 8を操䜜し、 スキャンオン ボタン 2 8が操䜜され、 操䜜郚 8からスキダン呜什が出力されたず きには、 凊理はステップ S 2 ◩ 3に進み、 操䜜郚 8でスキャンオン ボタン 2 8が操䜜されないずきにはステップ S 2 0 4に進む。 すな わち、 操䜜郚 8が操䜜されるず、 スキャン信号が生成され、 このス キャン信号が制埡郚 7の信号凊理郚 5に入力される。 信号凊理郚 5 は、 スキャン信号が入力されたか吊かを刀定しお、 ステップ 2 0 3 又は 2 0 4に進む
ステップ S 2 0 3においお、 すなわち、 スキャンオンボタン 2 8 が操䜜されたずきには、 所定の文字デ䞀倕を基準にしおこの文字デ —倕から所定量の文字デ䞀倕を音声デヌタに倉換し、 次の所定の文 字デ䞀倕から再び倉換を行うために、 所定量の文字デ䞀倕が削陀さ れる。 このずき削陀される文字デヌタ量は、 予めナヌザによっお蚭 定されおいる。 削陀される文字デ䞀倕は、 䞊述のスキップ条件情報
1 7のように、 䟋えば句読点を基準にし、 この句読点に続く所定量 が蚭定される。 この蚭定される文字デヌタ量は、 スツキプ条件情報
1 7ずずもに図 2に瀺す衚瀺郚 9に衚瀺される。
ここで、 䟋えば、 スキップ条件情報ずしお句読点が指定されたず きには、 句読点の埌に䜍眮する予め蚭定された所定量の文字デ䞀倕 が音声デヌタに倉換され、 この音声デヌタが音声信号に倉換され、 電気音響倉換噚 1 3を介しお音声ずしおを出力され、 次の予め指定 された基準ずされる句読点などの文字デヌタたでの文字デヌタが省 略される。 そしお、 次の予め指定された句読点などの文字デヌタが 怜出されるず、 この文字デヌタに続く所定量の文字デヌタが再び音 声デ䞀倕に倉換される。 この操䜜を繰り返しお遞択された倉換察象 文章の音声ぞの倉換が行われる。
なお、 倉換察象文章をスキャンをしおいる最䞭に、 倉換スタヌト ボタン 2 6が操䜜された堎合には、 䞊蚘のスキャンの蚭定が解陀さ れる。
ステップ 2 0 4では、 䞊述のす 2 0 3で省略した文字デヌタの次 の文字デ䞀倕から音声に倉換すように音声デ䞀倕倉換郚 6を制埡す る指瀺デ䞀倕が生成される。
次に、 ステップ S 2 0 5においお、 䞊述のステップ S 2 0 2ず同 様に、 操䜜郚 8が操䜜されお再びスキャンオンボタン 2 8が操䜜さ れたか吊かが刀断される。 このずき、 ナヌザが操䜜郚 8を操䜜しお スキダンオンボタン 2 8が操䜜されるず、 ステップ S 2 0 6に進み、 スキップキヌがオンずされたずみなしお、 ステップ 2 0 4で読み䞊 げおいる文字デヌタから次にスキダンしお読み䞊げる文字デヌタに スキップする。
次に、 ステップ 2 0 7においお、 ステップ 2 0 6でスキップされ た次の文字デ䞀倕を音声デヌタに倉換する凊理に移る。 たた、 ステ ヅプ 2 0 5においおスキャンオンボタン 2 8が操䜜されおいないず きには、 䞊述のステツプ 2 0 1で指定した倉換関数にしたがっお文 字デ䞀倕を音声デヌタに倉換する凊理が行われる。
ステップ S 2 0 6では、 ステップ S 2 0 5においおスキャンオン ボタン 2 8が操䜜されおいる状態でスキップボタン 2 7が操䜜され たずきには、 次の予め指定された基準ずされる句読点などの文字デ 䞀倕に続く蚭定された所定量の文字デ䞀倕の音声デヌタぞの倉換を を䞭止し、 所定量の文字デ䞀倕を省略する指瀺デヌタを生成しおス テツプ S 2 0 7に進み、 この指瀺デヌタを音声デ䞀倕倉換郚 6に入 力し、 所定量の文字デヌタを音声デヌタに倉換しお出力させる。 次に、 受信郚 2で受信され、 蚘憶郚 3に蚘憶された電子メヌルな どの文字デ䞀倕を音声デヌタに倉換しお音声を出力しおいる堎合に おいお、 ュ䞀ザがスキップボタン 2 7を指定しお倉換察象文章の文 字デヌタを音声デヌタに倉換するずきの状態を図 7に瀺すフロヌチ ダヌトを参照しお説明する。
この堎合は、 たずステップ S 3 0 1においお、 ナヌザが操䜜郚 8 を操䜜しおスキップボタン 2 7が指定されるず、 操䜜郚 8によりス キップ呜什が出力され制埡郚 7の信号凊理郚 5に入力される。 この ずき、 操䜜郚 8を操䜜しお、 図 3に瀺す画面に衚瀺されおいるスキ ップ条件情報 1 7を入力するこずでスキップ信号が出力され、 この スキップ信号が制埡郚 7の信号凊理郚 5に入力され、 この信号凊理 郚 5から文字デヌタ省略情報ずしお蚘憶郚 3に入力される。 ここで、 スキップ条件情報ずしおは、 句読点等の音声デ䞀倕ぞッ ドの倉換になじたない文字デ䞀倕が指定される。
次に、 ステップ S 3 0 2においお、 操䜜郚 8を操䜜しおスキップ 条件情報 1 7が入力されるず操䜜郚 8からスキップ信号が出力され る。 スキップ信号が制埡郚 7の信号凊理郚 5に入力されるず、 信号 凊理郚 5でスキップ条件デヌタ B ( i ) が生成され、 蚘憶郚 3に蚘 憶された倉換察象ずなるファむルに察しお口䞀ドされる。
次に、 ステップ S 3 0 3においお、 スキップ条件デ䞀倕の最初の 列  i = 1 ) を指定する。 ここで、 スキップ条件デ䞀倕は、 B ( 1 ) 〜B ( i i ) たでの配列から構成される。 すなわち、 スキップ条件デ —倕、 B ( 1 ) , B ( 2 ) , . • · , B ( i . ) の信号列である。
次に、 ステップ S 3 0 4においお、 蚘憶郚 3から読み出された倉 換察象文章の n文節ずスキップ条件情報 1 7に基づいお生成された スキップ条件デ䞀倕 B ( i ) ずを信号凊理郚 5で比范する。 すなわ ち、 このステップ S 3 0 4においおは、 倉換察象文章の䟋えば文節 単䜍でスキップ条件デ䞀倕ずの比范を行い、 文節毎の文字デヌタが スキップ条件情報 1 7に基づいお生成されたスキップ条件デヌタ B ( i ) に該圓するか吊かを刀断する。 このずき、 倉換察象文章の n 文節の文字デ䞀倕がスキップ条件情報 1 3に基づいお生成されたス キップ条件デ䞀倕 B ( i ) に該圓するずきにはステップ S 3 0 5に 進む。 䞀方、 倉換察象文章の n文節の文字デ䞀倕がスキップ条件情 å ± 1 7にに基づいお生成されたスキップ条件デヌタ信号 B ( i ) に 該圓しないずきには、 ステップ S 3 0 6に進む。
ステップ S 3 0 5においお、 所定のスキップ䜍眮に配列されおい る文字デ䞀倕から音声デヌタぞの倉換を行うように信号凊理郚 5で 指瀺デヌタを生成する。 このように、 所定のスキップ䜍眮に配列さ れおいる文字デヌタから音声デヌタに倉換するように音声倉換郚 6 を制埡するこずで、 スキップ呜什が操䜜郚 8により出力されたずき に音声デヌタに倉換しおいる䜍眮から倉換察象文章の所定のスキッ プ䜍眮にある文字デヌタを音声デ䞀倕に倉換するこずなく読み飛ば すこずができる。
次に、 ステップ S 3 0 4においお、 䞊述のステップ S 3 0 7で生 成された音声倉換情報に基づいお、 䞊述の図 5に瀺すフロヌチダ䞀 トを甚いお説明したように音声デ䞀倕を文字デヌタに倉換しお出力 する。
たた、 ステップ S 3 0 6においお、 倉換察象文章の n文節の文字 デ䞀倕に察しおスキップ条件情報 1 7に基づいお生成されたスキヅ プ条件デヌタが B ( i i ) に察応したスキップ信号であるか吊かを信 号凊理郚 5により刀断する。 このずき、 ステップ S 3 0 4で比范さ れたスキップ条件デ䞀倕が B ( i) に察応したスキップ条件デ䞀倕 である堎合には、 ステップ S 3 0 8に進む。
そしお、 ステップ S 3 0 8及びステップ S 3 0 9においお、 ステ ップ S 3 0 4で比范した文節の次の文節を指定しお、 再びステップ S 3 0 3に戻っお倉換察象文章の n + 1文節ずスキップ条件デヌタ B ( i ) ずを比范する。
䞀方、 ステップ S 3 0 4で比范されたスキップ条件デヌタが B ( i i ) に察応したスキップ条件デ䞀倕でない堎合には、 ステップ S 3 1 0に進む。 このステップ S 3 1 0では、 䞊述したステップ S 3 0 6においおステップ S 3 0 4で比范されたスキップ条件デ䞀倕が B ( i . ) に察応したスキップ条件デヌタでない堎合に次の配列のス キップ信号 B ( i + 1 ) を指定しお、 再びステップ S 3 0 4に進む こずずなる。 すなわち、 この図 7に瀺すフロヌチャヌトでは、 倉換 察象文章の n文節を信号凊理郚 5䞊の R A Mにロヌドするず、 B
( 1 ) 〜B ( i i ) たでのスキップ条件デヌタず倉換察象文章の n文 節の文字デ䞀倕ずを比范する。 ステップ S 3 0 6、 ステップ S 3 1 0、 ステップ S 3 0 4で倉換察象文章の n文節の文字デヌタが B
( 1 ) 〜B ( i i ) たでのスキップ条件デ䞀倕に該圓しないず刀断し た堎合にのみ、 ステップ S 3 0 5で文節のスキップを行い、 ステツ プ S 3 0 7に進んで䞊述の図 5に瀺すフロヌチャヌトに埓っお文字 デヌタを音声デヌタに倉換し、 さらに音声デヌタをアナログの音声 信号に倉換しお出力する。
このように、 本発明に係る文字デ䞀倕倉換装眮 1を甚いるこずに より、 ナヌザは、 倉換察象文章に応じお䞍芁な情報を音声デヌタに 倉換するこずなく読み飛ばすこずができるので、 効率的に文字デヌ 倕を音声デ䞀倕に倉換し、 必芁な情報のみを音声により聎取するこ ずができる。 産業䞊の利甚可胜性 䞊蚘したように、 本発明に係る文字デ䞀倕倉換装眮及び倉換方法 は、 音声デヌタぞの倉換を䞍必芁ずする郚分を指定する指瀺デヌタ に基づいお音声倉換郚により䟛絊される文字デ䞀倕を音声デヌタに 倉換するようにしおいるので、 ナヌザが情報ずしお必芁ずしない文 字デヌタを音声デ䞀倕に倉換するこずを芏制し、 必芁な情報のみを 文字デヌタから音声デヌタに倉換しお聎取するこずができるので、 蚘憶郚に文字デヌタずしお蚘憶された情報を効率よく確認するこず ができ、 さらに、 蚘憶郚に蚘憶された文字デ䞀倕の迅速な怜玢を行 うこずができる。

Claims

請求の範囲
1 . 䟛絊される文字デ䞀倕を蚘憶する蚘憶郚ず、
ナヌザによっお操䜜される操䜜郚ず、
䞊蚘操䜜郚からの入力に基づいお䞊蚘蚘憶郚に蚘憶される文字デ 䞀倕のうち音声デヌタぞの倉換を䞍必芁ずする郚分を瀺す指瀺デヌ 倕を生成し、 この生成された指瀺デ䞀倕に基づいお䞊蚘蚘憶郚から 読み出された文字デヌタのうち䞊蚘指瀺デヌタによっお指定されお いない郚分を音声デ䞀倕に倉換する制埡ずを備えおなる文字デ䞀倕 倉換装眮。
2 . 䞊蚘制埡郚は、 䞊蚘蚘憶郚から読み出された文字デ䞀倕を音声 デ䞀倕に倉換するデヌタ倉換郚を備えおいる請求の範囲第 1項蚘茉 の文字デヌタ倉換装眮。
3 . 䞊蚘装眮は、 さらに䞊蚘デヌタ倉換郚から出力された音声デヌ 倕を可聎音に倉換する音響倉換郚を備えおいるこずを特城ずする音 響倉換郚を備えおいる請求の範囲第 2項蚘茉の文字デヌタ倉換装眮 (
4 . 䞊蚘制埡郚によっお生成された指瀺デヌタは、 䞊蚘操䜜郚から の入力に基づいお䞊蚘蚘憶郚から読み出される文字デヌタのうち少 なくずも句読点に察応する文字デヌタを音声デ䞀倕に倉換しないよ うに制埡するものである請求の範囲第 1項蚘茉の文字デヌタ倉換装
5 . 䞊蚘制埡郚は、 䞊蚘操䜜郚からの入力に基づいお䞊蚘蚘憶郚か ら文字デヌタを所定のデ䞀倕量だけ離散的に繰り返し読み出しお䞊 蚘音声デヌタに倉換する請求の範囲第 1項蚘茉の文字デヌタ倉換装
6 . 䞊蚘制埡郚は、 䞊蚘蚘憶郚から読み出される文字デヌタのうち 句点に察応する文字デ䞀倕に続く文字デ䞀倕を所定で量だけ䞊蚘音 声デ䞀倕に倉換する動䜜を繰り返し行う請求の範囲第 5項蚘茉の文 字デヌタ倉換装眮。
7 . 䞊蚘制埡郚は、 䞊蚘蚘憶郚から読み出される文字デヌタの最初 の郚分を陀いお䞊蚘音声デ䞀倕に倉換する請求の範囲 1蚘茉の文字 デヌタ倉換装眮。
8 . 䞊蚘制埡郚は、 䞊蚘蚘憶郚から読み出される文字デ䞀倕の最埌 の郚分を陀いお䞊蚘音声デヌタに倉換する請求の範囲第 7項蚘茉の 文字デヌタ倉換装眮。
9 . 操䜜郚からの入力に基づいお蚘憶郚に蚘憶された文字デ䞀倕の うち音声デヌタぞの倉換を䞍必芁ずする郚分を瀺す指瀺デ䞀倕を生 成し、
この生成された指瀺デヌタに基づいお䞊蚘蚘憶郚から読み出され た文字デヌタのうち䞊蚘指瀺デ䞀倕によっお指定されおいない郚分 を音声デヌタに倉換する文字デヌタのデヌタ倉換方法。
1 0 . 䞊蚘生成された指瀺デヌタは、 䞊蚘操䜜郚からの入力に基づ いお䞊蚘蚘憶郚から読み出される文字デヌタのうち少なくずも句読 点に察応する文字デ䞀倕を音声デヌタに倉換しないように制埡する ものである請求の範囲 9蚘茉の文字デヌタのデヌタ倉換方法。
1 1 . デヌタ倉換出力方法は、 䞊蚘操䜜郚からの入力に基づいお䞊 蚘蚘憶郚から文字デヌタを所定のデヌタ量だけ離散的に繰り返しお 読み出しお音声デヌタに倉換する請求の範囲 9蚘茉の文字デヌタの デヌタ倉換方法。
1 2 . 䞊蚘デ䞀倕倉換出力方法は、 䞊蚘蚘憶郚から読み出される文 字デヌタのうち句点に察応する文字デヌタに続く文字デ䞀倕を所定 デ䞀倕量だけ䞊蚘音声デヌタに倉換する動䜜を繰り返し行う請求の 範囲第 1 1項蚘茉の文字デヌタのデヌタ倉換方法。
1 3 . 䞊蚘デ䞀倕倉換出力方法は、 䞊蚘蚘憶郚から読み出される文 字デヌタの最初の郚分を陀いお䞊蚘音声デ䞀倕に倉換する請求の範 囲 9蚘茉の文字デヌタのデヌタ倉換方法。
1 4 . 䞊蚘デヌタ倉換出力方法は、 䞊蚘蚘憶郚から読み出される文 字デヌタの最埌の郚分を陀いお䞊蚘音声デヌタに倉換する請求の範 囲第 1 3項蚘茉の文字デヌタのデヌタ倉換方法。
1 5 . 䞊蚘デ䞀倕倉換出力方法は、 曎に䞊蚘音声デヌタを可聎音に 倉換しお出力する請求の範囲第 9項蚘茉の文字デヌタのデヌタ倉換 方法。
1 6 . 䟛絊される文字デ䞀倕を蚘憶する蚘憶郚ず、
ナヌザによっお操䜜される操䜜郚ず、
䞊蚘操䜜郚からの入力に基づいお䞊蚘蚘憶郚に蚘憶される文字デ 䞀倕のうち音声デヌタぞの倉換を䞍必芁ずする郚分を瀺す指瀺デ䞀 倕を生成し、 この生成された指瀺デヌタず䞊蚘蚘憶郚から読み出さ 侀 れた文字デ䞀倕ずを比范し、 䞊蚘比范の結果䞊蚘指瀺デヌタず䞍䞀 臎な文字を音声デヌタに倉換する制埡郚ずを備えおなる文字デヌタ 倉換装眮。
1 7 . 䞊蚘制埡郚は、 䞊蚘蚘憶郚から読み出された文字デヌタを音 声デ䞀倕に倉換するデヌタ倉換郚を備えおいる請求の範囲第 1 6項 蚘茉の文字デヌタ倉換装眮。
1 8 . 䞊蚘装眮は、 さらに䞊蚘で倉換郚から出力された音声デ䞀倕 を可聎音に倉換する音響倉換郚を備えおいる請求の範囲第 1 7項蚘 茉の文字デヌタ倉換装眮。
1 9 . 䞊蚘制埡郚によっお生成される指瀺デヌタは、 䞊蚘操䜜郚か らの入力に基づいお䞊蚘蚘憶郚から読み出される文字デ䞀倕のうち 少なく ずも句読点に察応する文字デヌタを音声デ䞀倕に倉換しない ように倉換するものである請求の範囲第 1 6項蚘茉の文字デヌタ倉
2 0 . 䞊蚘制埡郚は、 䞊蚘操䜜郚からの入力に基づいお䞊蚘蚘憶郚 から文字デ䞀倕を所定のデヌタ量だけ離散的に繰り返しお読み出し お䞊蚘音声デヌタに倉換する請求の範囲第 1 6項蚘茉の文字デヌタ 倉換装眮。
2 1 . 䞊蚘制埡郚は、 䞊蚘蚘憶郚から読み出される文字デヌタのう ち句点に察応する文字デヌタに続く文字デヌタを所定デ䞀倕量だけ 䞊蚘音声デヌタに倉換する動䜜を繰り返し行う請求の範囲第 2 0項 蚘茉の文字デヌタ倉換装眮。
2 2 . 䞊蚘制埡郚は、 䞊蚘蚘憶郚から読み出される文字デ䞀倕の最 初の郚分を陀いお䞊蚘音声デヌタに倉換する請求の範囲第 1 6項蚘 茉の文字デヌタ倉換装眮。
2 3 . 䞊蚘制埡郚は、 䞊蚘蚘憶郚から読み出される文字デ䞀倕の最 埌の郚分を陀いお䞊蚘音声デ䞀倕に倉換する請求の範囲第 2 2項蚘 茉の文字デ䞀倕倉換装眮。
2 4 . 操䜜郚からの入力に基づいお蚘憶郚に蚘憶される文字デ䞀倕 のうち音声デヌタぞの倉換を䞍必芁ずする郚分を瀺す指瀺デヌタを 生成し、 この生成された指瀺デヌタず䞊蚘蚘憶郚から読み出された 文字デヌタずを比范し、 䞊蚘比范の結果䞊蚘指瀺デヌタず䞍䞀臎な 文字を音声デ䞀倕に倉換する文字デヌタの倉換方法。
2 5 . 䞊蚘生成された指瀺デヌタは、 䞊蚘操䜜郚からの入力に基づ いお䞊蚘蚘憶郚から読み出される文字デヌタのうち少なく ずも句読 点に察応する文字デ䞀倕を音声デヌタに倉換しないように倉換する ものである請求の範囲第 2 4項蚘茉の文字デヌタの倉換方法。
2 6 . 䞊蚘倉換方法は、 䞊蚘操䜜郚からの入力に基づいお䞊蚘蚘憶 郚から文字デヌタを所定のデ䞀倕量だけ離散的に繰り返しお読み出 しお䞊蚘音声デヌタに倉換する請求の範囲第 2 4項蚘茉の文字デヌ 倕の倉換方法。
2 7 . 䞊蚘倉換方法は、 䞊蚘蚘憶郚から読み出される文字デヌタの うち句点に察応する文字デヌタに続く文字デヌタを所定量だけ䞊蚘 音声デヌタに倉換する動䜜を繰り返し行う請求の範囲第 2 6項蚘茉 の文字デヌタの倉換方法。
2 8 . 䞊蚘倉換方法は、 䞊蚘蚘憶郚から読み出される文字デ䞀倕の 最初の郚分を陀いお䞊蚘音声デヌタに倉換する請求の範囲第 2 4項 蚘茉の文字デ䞀倕の倉換方法。
2 9 . 䞊蚘倉換方法は、 䞊蚘蚘憶郚から読み出される文字デヌタの 最埌の郚分を陀いお䞊蚘音声デヌタに倉換する請求の範囲第 2 8項 蚘茉の文字デヌタの倉換方法。
3 0 . 䟛絊された文字デヌタず圓該文字デヌタのうち音声倉換を行 う必芁のない郚分を指瀺する少なく ずも䞀぀の指瀺デヌタずを比范 し、
䞊蚘比范した結果に基づいお䞊蚘䟛絊された文字デ䞀倕のうち䞊 蚘指瀺デ䞀倕ず䞀臎する文字デ䞀倕に埌続する文字デヌタを音声デ 䞀倕に倉換する動䜜を䞊蚘比范した結果が䞊蚘取り蟌たれた文字デ 䞀倕のうち次に䞊蚘指瀺デヌタず䞀臎するたで繰り返し行い、 䞊蚘倉換された音声デヌタを可聎音に倉換しお出力する文字デヌ 倕の倉換方法。
3 1 . 䞊蚘倉換方法は、 䞊蚘取り蟌たれた文字デ䞀倕が次に䞊蚘指 瀺デヌタず䞀臎した堎合には、 䞊蚘次に䞊蚘指瀺デ䞀倕ず 臎した 文字デヌタず接続する文字デ䞀倕を音声デ䞀倕に倉換し、 再び t蚘 指瀺デ䞀倕ず䞊蚘取り蟌たれたデヌタずがヌ臎するたで音声デヌタ に倉換する動䜜を繰り返し行う請求の範囲第 3 0項蚘茉の文字デヌ 倕の倉換方法。
3 2 . 䞊蚘指瀺デ䞀倕は予め少なく ずも䞀぀蚭定されおいる請求の 範囲第 3 0項蚘茉の文字デヌタの倉換方法。
3 3 . 䞊蚘倉換方法は、 䞊蚘取り蟌たれた文字デヌタのうち第 1の デヌタ量だけ音声デヌタに倉換するずずもに䞊蚘音声デ䞀倕に倉換 された䞊蚘第 1のデヌタ量の文字デヌタから第 2のデヌタ量だけ離 れた文字デヌタを䞊蚘第 1のデヌタ量だけ音声デヌタに倉換する動 䜜を繰り返し行う請求の範囲第 3 0項蚘茉の文字デヌタの倉換方法。
3 4 . 䞊蚘倉換方法は、 さらに䞊蚘倉換された音声デヌタを可聎音 に倉換しお出力する請求の範囲第 3 0項蚘茉の文字デヌタの倉換方 法。
PCT/JP1998/003554 1997-08-08 1998-08-10 Transformateur et procede de transformation de donnees caracteres WO1999008179A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US09/269,724 US6411931B1 (en) 1997-08-08 1998-08-10 Character data transformer and transforming method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9/215210 1997-08-08
JP21521097 1997-08-08

Publications (1)

Publication Number Publication Date
WO1999008179A1 true WO1999008179A1 (fr) 1999-02-18

Family

ID=16668527

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/003554 WO1999008179A1 (fr) 1997-08-08 1998-08-10 Transformateur et procede de transformation de donnees caracteres

Country Status (3)

Country Link
US (1) US6411931B1 (ja)
KR (1) KR20000068701A (ja)
WO (1) WO1999008179A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149560A (ja) * 2000-08-28 2002-05-24 Sharp Corp 電子メヌル装眮及び電子メヌルシステム
JP2003058181A (ja) * 2001-08-14 2003-02-28 Oki Electric Ind Co Ltd 音声合成装眮

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160685A (ja) * 1993-12-06 1995-06-23 Canon Inc 文章読み䞊げ装眮
JPH07334493A (ja) * 1994-06-14 1995-12-22 Toshiba Corp 文曞読み䞊げ方法及び文曞読䞊装眮
JPH09179719A (ja) * 1995-12-26 1997-07-11 Nec Corp 音声合成装眮

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4811400A (en) * 1984-12-27 1989-03-07 Texas Instruments Incorporated Method for transforming symbolic data
DE69327774T2 (de) * 1992-11-18 2000-06-21 Canon Information Systems, Inc. Prozessor zur Umwandlung von Daten in Sprache und Ablaufsteuerung hierzu
JPH086591A (ja) * 1994-06-15 1996-01-12 Sony Corp 音声出力装眮
JPH0983655A (ja) * 1995-09-14 1997-03-28 Fujitsu Ltd 音声察話システム
US5850629A (en) * 1996-09-09 1998-12-15 Matsushita Electric Industrial Co., Ltd. User interface controller for text-to-speech synthesizer
US6169789B1 (en) * 1996-12-16 2001-01-02 Sanjay K. Rao Intelligent keyboard system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160685A (ja) * 1993-12-06 1995-06-23 Canon Inc 文章読み䞊げ装眮
JPH07334493A (ja) * 1994-06-14 1995-12-22 Toshiba Corp 文曞読み䞊げ方法及び文曞読䞊装眮
JPH09179719A (ja) * 1995-12-26 1997-07-11 Nec Corp 音声合成装眮

Also Published As

Publication number Publication date
US6411931B1 (en) 2002-06-25
KR20000068701A (ko) 2000-11-25

Similar Documents

Publication Publication Date Title
US5444768A (en) Portable computer device for audible processing of remotely stored messages
US6708152B2 (en) User interface for text to speech conversion
US6895257B2 (en) Personalized agent for portable devices and cellular phone
KR100689396B1 (ko) 음성 읞식을 읎용한 통화 낎역 ꎀ늬 장치 및 방법
JP2001352365A (ja) 移動通信端末装眮及びそれに甚いる着信識別方法
KR20030044899A (ko) 음성윌로 제얎되는 왞국얎 번역Ʞ용 방법 및 장치
US5752230A (en) Method and apparatus for identifying names with a speech recognition program
JP2002540731A (ja) 携垯電話機による䜿甚のための数字列を生成するシステムおよび方法
JP3570332B2 (ja) 携垯電話装眮及びその着信メロディ入力方法
JPH06237207A (ja) 通信システム、小型受信噚及び受信方法
JP2005012377A (ja) 通信端末、通信端末の制埡方法、音声認識凊理装眮、音声認識凊理装眮の制埡方法、通信端末制埡プログラム、通信端末制埡プログラムを蚘録した蚘録媒䜓、音声認識凊理装眮制埡プログラム、および、音声認識凊理装眮制埡プログラムを蚘録した蚘録媒䜓
JP2004032660A (ja) 携垯装眮䞊における電話垳の短瞮メモリの方法ず装眮
CN100353417C (zh) 甚于提䟛文本消息的方法和装眮
WO1999008179A1 (fr) Transformateur et procede de transformation de donnees caracteres
KR100380829B1 (ko) 에읎전튞륌 읎용한 대화 방식 읞터페읎슀 욎영 시슀템 및방법곌 ê·ž 프로귞랚 소슀륌 Ʞ록한 Ʞ록 맀첎
KR101133620B1 (ko) 데읎터 검색Ʞ능읎 구비된 읎동통신 닚말Ʞ 및 ê·ž 동작방법
CN1251538C (zh) 圚䟿携匏终端䞭利甚语音识别䌠送字笊消息的方法
JP3596737B2 (ja) 報知音䜜成装眮
JP2004134942A (ja) 携垯電話装眮
CN100518225C (zh) 䟿携匏终端装眮
KR200303592Y1 (ko) í‚€ 입력 음성 송출Ʞ능을 구비한 휎대용 닚말Ʞ
KR20060063420A (ko) 휎대닚말Ʞ에서의 음성읞식방법 및 읎륌 구비한 휎대닚말Ʞ
JP2000293187A (ja) デヌタ音声合成装眮及びデヌタ音声合成方法
JP2000270115A (ja) 移動䜓通信端末
KR100283167B1 (ko) 음성읞식전화Ʞ의음성메몚장치

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR US

WWE Wipo information: entry into national phase

Ref document number: 1019997002900

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 09269724

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1019997002900

Country of ref document: KR

WWR Wipo information: refused in national office

Ref document number: 1019997002900

Country of ref document: KR