[go: up one dir, main page]

WO2019235100A1 - 対話装置 - Google Patents

対話装置 Download PDF

Info

Publication number
WO2019235100A1
WO2019235100A1 PCT/JP2019/017734 JP2019017734W WO2019235100A1 WO 2019235100 A1 WO2019235100 A1 WO 2019235100A1 JP 2019017734 W JP2019017734 W JP 2019017734W WO 2019235100 A1 WO2019235100 A1 WO 2019235100A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
profile
user
date
user profile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2019/017734
Other languages
English (en)
French (fr)
Inventor
唯子 角森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2020523565A priority Critical patent/JP6944594B2/ja
Priority to US17/044,099 priority patent/US11604831B2/en
Publication of WO2019235100A1 publication Critical patent/WO2019235100A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Definitions

  • the present invention relates to a dialog device that performs a dialog with a user.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2001-188787 describes a conversation processing device. This conversation processing device stores profile data relating to the user's preferences, and can talk with the user using this profile data.
  • an object of the present invention is to provide an interactive apparatus that enables utterances that can improve intimacy with a user or user satisfaction.
  • the present invention includes an input information acquisition unit that acquires input information from a user, a focus information acquisition unit that acquires focus information indicating a focus in the input information, profile information of the user, and date / time information in which the profile information is registered.
  • Profile information for acquiring profile information according to the priority determined based on date and time information from the user profile storage unit that stores the information in association with each other and the profile information corresponding to the focus information stored in the user profile storage unit
  • An acquisition unit; and an utterance generation unit that generates utterance information corresponding to the profile information.
  • utterance information can be generated using profile information corresponding to date and time information. Therefore, user intimacy or user satisfaction can be improved.
  • FIG. 1 is a system configuration diagram of a dialog system including a dialog device 100 of the present embodiment.
  • 3 is a block diagram showing a functional configuration of the interactive apparatus 100.
  • FIG. It is a figure which shows the specific example of a category table.
  • 3 is a flowchart showing the operation of the interactive apparatus 100.
  • It is a schematic diagram about the process in which the message M2 is produced
  • FIG. 1 is a system configuration diagram of a dialog system including the dialog device 100 of the present embodiment.
  • the interactive system includes an interactive apparatus 100, a mail server 200, and a provider 300.
  • the dialogue apparatus 100 performs dialogue processing with the user terminal 50.
  • the dialogue apparatus 100 generates dialogue information corresponding to the input information (text information) transmitted from the user terminal 50 and returns it to the user terminal 50.
  • the dialogue information is text information based on the topic of the input information (focus information) and / or the user profile of the user of the user terminal 50 (profile information).
  • the user of the user terminal 50 can interact with the interaction device 100. For example, it is possible to conduct a conversation that does not particularly require provision of content information, such as chat.
  • the user terminal 50 is an information processing apparatus such as a mobile terminal, a smartphone, or a tablet terminal operated by the user. The user operates the user terminal 50 to input text for dialogue as input information.
  • the dialogue apparatus 100 extracts and stores the user profile of the user based on the input information transmitted from the user terminal 50, and generates dialogue information using the user profile.
  • the user profile is generated based on a dialogue performed between the dialogue apparatus 100 and the user terminal 50, but is not limited thereto.
  • the user profile is generated based on information (e.g., a mail body) obtained by the mail server 200 or the provider 300 through mail communication with the user terminal 50 or information (e.g., search key) obtained by connecting to the Internet. May be.
  • the dialogue apparatus 100 is configured to be able to communicate with the mail server 200 and the provider 300, acquires information for each user using the user ID as a key, and generates a user profile.
  • the interactive device 100 is configured to be able to communicate with the user terminal 50 via a network, but is not limited thereto.
  • the interactive device 100 is built in the user terminal 50, and the user may input input information or the like directly into the interactive device 100.
  • FIG. 2 is a block diagram illustrating a functional configuration of the interactive apparatus 100.
  • the dialogue apparatus 100 includes an input information acquisition unit 101, an input information analysis unit 102, a focus extraction unit 103 (focus information acquisition unit), a user profile estimation unit 104, a user profile registration unit 105, and a category determination unit.
  • 106 a profile information acquisition unit 107, an utterance generation unit 108, an output unit 109, a user profile DB 110 (user profile storage unit), and an utterance DB 111.
  • each component will be described.
  • the input information acquisition unit 101 is a part that acquires input information transmitted from the user terminal 50 directly or via a network.
  • the input information analysis unit 102 is a part that analyzes the input information acquired by the input information acquisition unit 101. Specifically, the input information analysis unit 102 performs morphological analysis to extract the smallest unit having meaning in a language such as one or more words, particles, and verbs from the input information.
  • the focus extraction unit 103 represents at least a part of the topic of the user utterance (input information) based on the information (minimum unit information) obtained by analysis by the input information analysis unit 102 and other information input by the user. This is the part that extracts the focus information.
  • the focus information is, for example, the word that is the center of the topic in the input information from the user.
  • Various well-known techniques can be applied to the extraction of the focus information from the input information. For example, a machine learning method such as deep learning or SVM can be used.
  • the focus extraction unit 103 extracts words extracted from the input information by the input information analysis unit 102 (morpheme analysis) as candidates for focus information, and words positioned before and after the focus information candidates in the input information from the user. Alternatively, characters and their features (features) are extracted.
  • the focus extraction unit 103 calculates a score based on the focus information candidates and the features of words (including characters) positioned before and after the focus information candidates, and determines the focus information from the focus information candidates based on the scores.
  • the focus extraction unit 103 calculates a feature vector of focus information.
  • the feature vector of the focus information is a vector indicating the meaning of the word represented by the focus information.
  • a word can be expressed as a vector by a known technique such as Word2Vector.
  • the user profile estimation unit 104 is a part that estimates a user profile from input information transmitted by the user terminal 50. For example, a user profile including focus information (topic), feature vector, predicate term structure pair, TagA, TagB, etc. of the input information is estimated from the input information.
  • the predicate term structure pair is a pair of a predicate as exemplified by a verb and a term that becomes a subject and an object of the predicate.
  • Tag A and Tag B are information indicating categories in the predicate term structure pair.
  • the user profile can be estimated based on the words included in the input information.
  • the user profile estimation unit 104 extracts focus information from the input information input during the conversation and extracts a predicate term structure pair from the input information.
  • a predicate term structure pair “Ramen_like” can be extracted from the input information “I like ramen”.
  • the predicate term structure is information that can be analyzed by a known technique.
  • a table in which words are associated with attributes, hobbies, preferences, or the like is prepared in advance, and the user profile estimation unit 104 refers to the table to obtain the words obtained by the input information analysis unit 102.
  • a method for estimating an attribute, a hobby, a taste, or the like corresponding to (for example, focus information) as a user profile can be given.
  • the calculation method of the focus information and the feature vector is the same as the processing in the focus extraction unit 103.
  • the following processing may be used as a known technique. That is, the user profile estimation unit 104 is known to perform an estimation process using the dependency relationship between the attributes of each profile. According to this known technique, for example, the user profile estimation unit 104 creates a word notation feature indicating the characteristics of a word notation based on words included in a document created by a user to be estimated, and learns an estimated Based on the model, the attribute of the profile attribute of the user to be estimated is estimated by estimating the latent predicate indicating the attribute value of the profile attribute of the user to be estimated, which is likely to be the observed predicate that indicates the word notation feature created. The value can be estimated.
  • the user profile registration unit 105 associates information such as the focus information, feature vector, predicate term structure pair, and TagA extracted by the user profile estimation unit 104 with the user ID in the user profile DB 110 as a user profile. This is the part that is stored together with the registration date.
  • the category judgment unit 106 is a part that judges the category of the focus information extracted by the focus extraction unit 103.
  • the category determination unit 106 includes a category table in which words and categories are associated in advance, and determines a category corresponding to the word described in the focus information. For example, when “ramen” is extracted as the focus information, it is determined that the category of “ramen” is “cuisine / gourmet”. Note that Tag and category in the above user profile are the same information.
  • FIG. 3 is a diagram showing a specific example of the category table. As shown in FIG. 3, one word or plural categories are described in association with one word.
  • the profile information acquisition unit 107 is a part that acquires a user profile corresponding to the focus information determined by the category determination unit 106 from the user profile DB 110. That is, the profile information acquisition unit 107 compares the feature vector of the focus information with the feature vector of the focus information of the user profile, and acquires a user profile whose distance between the vectors is a predetermined distance or less.
  • the profile information acquisition unit 107 is not limited to acquiring based on the feature vector of the focus information.
  • Corresponding profile information may be acquired using Tag information indicating a category of focus information.
  • the profile information acquisition unit 107 acquires one profile information according to the priority order based on the category determined by the category determination unit 106 when there are a plurality of profiles having a vector distance less than a predetermined value. For example, when it is determined that the focus information extracted by the category determination unit 106 belongs to the category related to hobbies / preferences, the profile information acquisition unit 107 has the oldest user profile registration date stored in the user profile DB 110. To get. In addition, it is an example giving priority to the profile with the oldest registration date, and it is not restricted to this. Depending on the category, the profile with the newest registration date may be prioritized.
  • the profile information acquisition unit 107 may not acquire a user profile whose registration date in the user profile DB 110 is earlier than a predetermined date and time, or a user profile after a predetermined date and time. This is because the user profile that is too old or new does not contribute to the improvement of user satisfaction and friendliness.
  • the profile information acquisition unit 107 may determine the registration date range to be acquired based on the category determined by the category determination unit 106. Depending on the category, using an old user profile may not affect user satisfaction, friendliness, and the like.
  • the profile information acquisition unit 107 may determine the user profile to be acquired based on the time zone, time, or season indicated by the registration date in the user profile DB 110. For example, user satisfaction and friendliness can be improved by using a user profile that becomes a registration date in the same time zone as the acquisition date and time of input information.
  • the profile information acquisition unit 107 may switch whether to acquire a user profile according to the time zone, time, or season based on the category determined by the category determination unit 106. Depending on the category, dialogues that are not related to time, season, and season are possible, and there may be no impact on user satisfaction or friendliness.
  • the utterance generation unit 108 is a part that acquires the first utterance sentence corresponding to the focus information of the input information from the utterance DB 111. Furthermore, when the profile information acquisition unit 107 acquires a user profile corresponding to the focus information of the input information, the utterance generation unit 108 generates a second utterance sentence using the user profile, and the first utterance. An utterance sentence is generated by adding it to the sentence.
  • the utterance generation unit 108 acquires, from the utterance DB 111, the first utterance sentence “How about a snack?” Based on the focus information “Tummy” of the input information “That is hungry”. Furthermore, the utterance generation unit 108 acquires the predicate term structure pair “ramen_like” from the user profile acquired from the user profile DB 110 using the feature vector of the focus information “tummy”. The utterance generation unit 108 generates the second utterance sentence “I like ramen” from the predicate term structure pair “Ramen_like”.
  • the utterance generation unit 108 synthesizes the first utterance sentence and the second utterance sentence to generate one utterance sentence. For example, the utterance sentence “I heard you like ramen. How about snacks?” Is generated. It should be noted that “I heard” is a fixed sentence, and when adding a second utterance sentence based on the user profile, “I have heard” is added to the end of the sentence.
  • the utterance generation unit 108 may further add a term indicating the date and time based on the registration date of the user profile. For example, when the registration date of the user profile is one month ago, an utterance sentence “one month ago” may be generated and added before the second utterance sentence.
  • the output unit 109 is a part that outputs the utterance sentence (utterance information) generated by the utterance generation unit 108 to the user terminal 50.
  • the user profile DB 110 is a database that stores user profiles in association with user IDs.
  • FIG. 4 is a diagram showing a specific example of the user profile DB 110.
  • the user profile DB 110 describes a user profile including a user ID, focus information, a feature vector of the focus information, a predicate term structure pair, Tag A, Tag B, and a registration date.
  • the user ID is an ID for identifying the user of the user terminal 50. An ID for identifying the user terminal itself or a user ID may be used.
  • Focus information is information estimated by the user profile estimation unit 104 and is information indicating a topic in the input information.
  • the feature vector of the focus information is information that represents a word as a vector obtained by performing known language processing such as Word2Vector.
  • the predicate term structure pair is information indicating the predicate term structure estimated by the user profile estimation unit 104. Generally, it consists of a subject or object and a predicate. In the example of FIG. 4, it consists of an object and a predicate.
  • Tag A and Tag B are information indicating user attributes, hobbies, preferences, and the like. In the example of FIG. 4, TagA indicates cooking / gourmet, and TagB indicates hobby / preference. Since the user attribute is not limited to one, in the present embodiment, it is assumed that the user attribute consists of A and B. Of course, the number is not limited to two, and may be more.
  • the registration date is information indicating the date and time when the user profile was registered.
  • the user profile estimation unit 104 inputs “ramen / ga / like” as the analysis result of the input information, the user profile estimation unit 104 estimates the attribute (TagA / TagB) based on this.
  • tags of “cooking / gourmet” and “hobby / preference” are estimated based on “ramen” and “like”.
  • it registers with user profile DB110 with the focus information etc. which were extracted by the focus extraction part 103.
  • the user profile DB 110 a plurality of the same user profiles may be registered.
  • the same user profile is registered. Therefore, when there are a plurality of the same user profiles, the user profile DB 110 may manage the number, and the profile information acquisition unit 107 may determine the priority order for acquiring the user profile based on the number.
  • the utterance DB 111 is a database for generating an utterance sentence.
  • the utterance DB 111 includes a generation DB 111a, a second utterance sentence connection DB 111b, and a date and time expression DB 111c.
  • FIG. 5 is a diagram showing a specific example thereof.
  • FIG. 5A is a diagram showing a specific example of the generation DB 111a, and shows a database in which focus information and speech sentences are associated with each other. As shown in FIG. 5A, the focus information and the spoken sentence are associated with each other. Although only one focus information is shown in the figure, generally, a plurality of utterance sentences are associated with one focus information.
  • the utterance generation unit 108 can select an utterance sentence according to the context based on random or conversation history. The utterance sentence selection process according to the context based on the conversation history is performed by a known technique.
  • FIG. 5B is a diagram illustrating a specific example of the second utterance sentence connection DB 111b, and stores a connection sentence inserted when the first utterance sentence and the second utterance sentence are connected. In the present embodiment, this is used because a connection sentence “I heard,” is inserted after the second utterance sentence.
  • FIG. 5C is a diagram showing a specific example of the date and time expression DB 111c, in which the difference between the current date and the registered date is associated with an expression (time concept information) suitable for dialogue.
  • an expression time concept information
  • FIG. 5C when the difference between the current date and time and the registration date is greater than 25 days and less than 35 days, it is converted into the expression “one month ago”.
  • FIG.5 (c) is an illustration and naturally is not restricted to this. Note that the date and time expression DB 111c is not necessary when the date and time information itself is included in the utterance sentence as the time-of-conference concept information.
  • the user profile registration process in the user profile estimation unit 104 and the user profile registration unit 105 described above is independent from the dialogue process in the focus extraction unit 103, the category determination unit 106, the profile information acquisition unit 107, and the utterance generation unit 108. Or done in parallel. For example, when mail or Internet browsing is performed, profile estimation processing and registration processing are performed regardless of the dialogue processing.
  • FIG. 6 is a flowchart showing the operation of the interactive apparatus 100.
  • the input information acquisition unit 101 acquires input information from the user terminal 50, and the input information analysis unit 102 analyzes the input information.
  • the focus extraction unit 103 extracts focus information from the analyzed input information (S101).
  • the focus extraction unit 103 calculates a feature vector of focus information (S102).
  • the category determination unit 106 determines the category / priority criterion of the focus information (S103).
  • the profile information acquisition unit 107 determines whether there is a user profile corresponding to the focus information (S104). For example, the profile information acquisition unit 107 determines the presence / absence of a user profile in the user profile DB 110 based on the feature vector of the focus information.
  • the profile information acquisition unit 107 refers to the user profile DB 110 and acquires one or a plurality of user profiles based on the feature vector of the focus information ( S105).
  • the profile information acquisition unit 107 determines one user profile according to the priority standard determined according to the category of the focus information (S106). Note that category determination is not essential, and therefore, when category determination is not performed, priority criteria determined in advance are followed. For example, priority is given to the profile with the oldest registration date.
  • the utterance generation unit 108 generates an utterance sentence from the first utterance sentence corresponding to the focus information of the input information and the second utterance sentence based on one user profile (S107).
  • the output unit 109 outputs the generated utterance sentence to the user terminal 50 (S108).
  • the utterance generation unit 108 when the user profile corresponding to the focus information is not stored in the user profile DB 110, the utterance generation unit 108 generates the first utterance sentence corresponding to the focus information of the input information as the utterance sentence. (S109). The output unit 109 outputs the generated utterance sentence to the user terminal 50 (S108).
  • an utterance sentence according to the user profile can be generated.
  • FIG. 7 is a diagram illustrating an example of a display screen of the user terminal 50 that is interacting with the interactive apparatus 100 according to the present embodiment.
  • the user of the user terminal 50 inputs the message M1 “I am hungry”.
  • the dialogue apparatus 100 generates a message M2 “I heard you like ramen about a month ago, how about snacks?” And sends it to the user terminal 50.
  • the user terminal 50 displays the message M2.
  • the dialogue apparatus 100 stores a user profile “I like ramen”, and enables dialogue using the user profile.
  • FIG. 8 is a schematic diagram showing the processing.
  • the input information acquisition unit 101 acquires the message M ⁇ b> 1 “I am hungry”. After that, the input information analysis unit 102 performs morphological analysis, and acquires the input information analysis result “ona / ga / suta / na”. The focus extraction unit 103 extracts the focus information “mother” (see S101 in FIG. 6).
  • the focus extraction unit 103 calculates a feature vector v0 of the focus information “Onaka” (see S102 in FIG. 6).
  • the category determination unit 106 determines a category corresponding to the focus information “tummy” and determines a priority criterion for selecting the user profile (see S103 in FIG. 6).
  • the profile information acquisition unit 107 determines whether there is a user profile having the feature vector v within a predetermined distance with respect to the feature vector v0 of the focus information “tummy”. (See S103 in FIG. 6).
  • the profile information acquisition unit 107 acquires one or a plurality of user profiles based on the feature vector v.
  • one user profile according to the priority standard corresponding to the category determined by the category determination unit 106 is acquired. For example, if it is determined that the category is related to hobbies / preferences, the user profile with the oldest registration date is acquired.
  • a user profile with focus information “ramen” and predicate term structure pair “ramen_like” is acquired (see S106 in FIG. 6).
  • the profile information acquisition unit 107 follows the priority criteria (whether the new registration date has priority or the old one has priority) determined according to the category determined by the category determination unit 106.
  • focus information user profile including ramen is determined. Note that although one is determined here, two user profiles may be determined.
  • the utterance generation unit 108 generates a second utterance sentence based on the acquired user profile.
  • the second utterance sentence “I like ramen” is generated using the predicate term structure pair “Ramen_like” in the user profile (see S107 in FIG. 6).
  • the utterance generation unit 108 generates a first utterance sentence based on the focus information “Onaka”.
  • the utterance sentence “How about the snack” corresponding to the focus information “Onaka” is acquired from the generation DB 111a (see S107 in FIG. 6).
  • the utterance generation unit 108 generates an utterance sentence by synthesizing the first utterance sentence and the second utterance sentence.
  • the utterance generation unit 108 adds a connection sentence “I heard,” to make a natural sentence at the time of synthesis.
  • the utterance generation unit 108 generates “I heard that you like ramen, but how about snacks?”.
  • the generation order of the first utterance sentence and the second utterance sentence is not limited to the above.
  • the utterance generation unit 108 adds information related to the date and time based on the current date and time and the registration date and time of the user profile.
  • the utterance generation unit 108 adds a date expression sentence “one month ago” to the utterance sentence based on the registration date and time, “I asked you that you liked ramen a month ago, but how about snacks? ? "Is generated (see S107 in FIG. 6).
  • the profile information acquisition unit 107 has been described as acquiring one user profile, but the present invention is not limited to this.
  • the profile information acquisition unit 107 may acquire a plurality of user profiles. In that case, the profile information acquisition unit 107 may acquire a user profile having a feature vector within a predetermined distance range, or acquire a user profile selected in order from the top based on the feature vector.
  • the utterance generation unit 108 generates a plurality of utterance sentences from a plurality of user profiles (that is, predicate term structure pairs), and synthesizes them appropriately.
  • the second utterance sentence is generated using the predicate term structure pair in the user profile.
  • the present invention is not limited to this, and one or a plurality of profiles may be selected based on other elements included in the user profile, for example, an attribute indicated by TagA or TagB.
  • the utterance generation unit 108 describes the utterance sentence corresponding to the attribute indicated by TagA or TagB in the generation DB 111a, and generates an utterance sentence (second utterance sentence) based on the utterance sentence.
  • An interactive apparatus 100 registers an input information acquisition unit 101 that acquires input information from a user, a focus extraction unit 103 that acquires focus information indicating a focus in the input information, and registers user profile information and the profile information.
  • a plurality of user profiles corresponding to the focus information are acquired from the user profile DB 110 and the user profile DB 110 that stores the date and time information in association with each other, the priority determined based on the date information is obtained from the plurality of user profiles.
  • a profile information acquisition unit 107 that acquires profile information and an utterance generation unit 108 that generates an utterance sentence (utterance information) corresponding to the user profile.
  • generation of an utterance sentence is selected based on the date information on which the user profile was registered. Therefore, the user's satisfaction and friendliness can be improved more effectively.
  • the profile information acquisition unit 107 acquires one or a plurality of user profiles by giving priority to the user profile with the oldest date and time information. Satisfaction and friendliness can be improved by sharing old date and time information. Therefore, the above-described effects can be obtained with a relatively simple process. That is, since it is a simple process, the technical effect of reducing the processing load on a processing unit such as a CPU is also achieved.
  • the dialogue apparatus 100 further includes a category determination unit 106 that determines the category of the focus information in the input information.
  • the profile information acquisition unit 107 changes the priority of the date / time information for acquiring the user profile according to the category, and acquires the user profile according to the priority.
  • This configuration can improve user satisfaction and friendliness. For example, with respect to hobbies / preferences, it is considered that the user's degree of satisfaction and friendliness with respect to the interactive device 100 can be improved by prioritizing old date and time information. On the other hand, in other categories, prioritizing new date and time information can be expected to improve user satisfaction and friendliness.
  • the utterance generation unit 108 generates utterance information including time concept information (including a message such as one month ago or the date and time itself) based on the date information that registered the acquired user profile. For example, the utterance generation unit 108 may generate a message related to the date / time based on the difference between the registration date / time and the current date / time. For example, information indicating a time concept such as “one month ago” is added to the utterance. In addition, it is good also as adding the date and time to an utterance sentence, without producing
  • time concept information including a message such as one month ago or the date and time itself
  • the profile information acquisition unit 107 acquires a user profile based on date information
  • the profile information acquisition unit 107 acquires one user profile based on a predetermined upper limit value or lower limit value of date information.
  • This configuration can eliminate extremely old user profiles.
  • an utterance based on an extremely new user profile for example, a user profile based on input information that is currently input, may be repeated for the user and may not be interesting.
  • the profile information acquisition unit 107 uses the information indicating the time zone, time, or season as the date and time information, and acquires profile information that has the same time zone, time, or season.
  • a more appropriate user profile can be acquired. For example, for night topics, a user profile registered at night may be appropriate. Moreover, the user profile corresponding to a season may be appropriate.
  • each functional block may be realized by one device physically and / or logically coupled, and two or more devices physically and / or logically separated may be directly and / or indirectly. Specifically, it may be realized by a plurality of these devices connected by a hook (for example, wired and / or wireless).
  • the interactive apparatus 100 may function as a computer that performs the processing according to the present embodiment.
  • FIG. 9 is a diagram illustrating an example of a hardware configuration of the interactive apparatus 100 according to the present embodiment.
  • the above-described interactive device 100 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.
  • the term “apparatus” can be read as a circuit, a device, a unit, or the like.
  • the hardware configuration of the interactive device 100 may be configured so as to include one or a plurality of the devices illustrated in the figure, or may be configured not to include some devices.
  • Each function in the interactive apparatus 100 is obtained by reading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, so that the processor 1001 performs an operation and performs communication by the communication apparatus 1004, memory 1002, and storage 1003. This is realized by controlling the reading and / or writing of data.
  • the processor 1001 controls the entire computer by operating an operating system, for example.
  • the processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like.
  • CPU central processing unit
  • the input information analysis unit 102, the focus extraction unit 103, the category determination unit 106, the profile information acquisition unit 107, and the like may be realized by the processor 1001.
  • the processor 1001 reads programs (program codes), software modules, and data from the storage 1003 and / or the communication device 1004 to the memory 1002, and executes various processes according to these.
  • programs program codes
  • software modules software modules
  • data data from the storage 1003 and / or the communication device 1004 to the memory 1002, and executes various processes according to these.
  • the program a program that causes a computer to execute at least a part of the operations described in the above embodiments is used.
  • the focus extraction unit 103 and the like of the interactive apparatus 100 may be realized by a control program stored in the memory 1002 and operated by the processor 1001, and may be realized similarly for other functional blocks.
  • the above-described various processes have been described as being executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001.
  • the processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via a telecommunication line.
  • the memory 1002 is a computer-readable recording medium, and includes, for example, at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. May be.
  • the memory 1002 may be called a register, a cache, a main memory (main storage device), or the like.
  • the memory 1002 can store a program (program code), a software module, and the like that can be executed to implement the wireless communication method according to the embodiment of the present invention.
  • the storage 1003 is a computer-readable recording medium such as an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disk, a Blu-ray). (Registered trademark) disk, smart card, flash memory (for example, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like.
  • the storage 1003 may be referred to as an auxiliary storage device.
  • the storage medium described above may be, for example, a database, server, or other suitable medium including the memory 1002 and / or the storage 1003.
  • the above-described user profile DB 110 and utterance DB 111 may be realized by the storage 1003.
  • the communication device 1004 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as a network device, a network controller, a network card, a communication module, or the like.
  • a network device for example, the input information acquisition unit 101 and the output unit 109 described above may be realized by the communication device 1004.
  • the input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that accepts an input from the outside.
  • the output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside.
  • the input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).
  • each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information.
  • the bus 1007 may be configured with a single bus or may be configured with different buses between apparatuses.
  • the interactive device 100 includes hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). A part or all of each functional block may be realized by the hardware.
  • the processor 1001 may be implemented by at least one of these hardware.
  • notification of information is not limited to the aspect / embodiment described in this specification, and may be performed by other methods.
  • notification of information includes physical layer signaling (for example, DCI (Downlink Control Information), UCI (Uplink Control Information)), upper layer signaling (for example, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling), It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof.
  • the RRC signaling may be called an RRC message, and may be, for example, an RRC connection setup (RRC Connection Setup) message, an RRC connection reconfiguration (RRC ConnectionReconfiguration) message, or the like.
  • Each aspect / embodiment described in this specification includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • SUPER 3G IMT-Advanced
  • 4G 5G
  • FRA Full Radio Access
  • W-CDMA Wideband
  • GSM registered trademark
  • CDMA2000 Code Division Multiple Access 2000
  • UMB User Mobile Broadband
  • IEEE 802.11 Wi-Fi
  • IEEE 802.16 WiMAX
  • IEEE 802.20 UWB (Ultra-WideBand
  • the present invention may be applied to a Bluetooth (registered trademark), a system using another appropriate system, and / or a next generation system extended based on the system.
  • Information etc. can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.
  • the input / output information or the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.
  • the determination may be performed by a value represented by 1 bit (0 or 1), may be performed by a true / false value (Boolean: true or false), or may be performed by comparing numerical values (for example, a predetermined value) Comparison with the value).
  • notification of predetermined information is not limited to explicitly performed, but is performed implicitly (for example, notification of the predetermined information is not performed). Also good.
  • software, instructions, etc. may be transmitted / received via a transmission medium.
  • software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave.
  • wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave.
  • DSL digital subscriber line
  • wireless technology such as infrared, wireless and microwave.
  • system and “network” used in this specification are used interchangeably.
  • information, parameters, and the like described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by other corresponding information.
  • the radio resource may be indicated by an index.
  • User terminals can be obtained by those skilled in the art from subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, mobile terminals, wireless It may also be called terminal, remote terminal, handset, user agent, mobile client, client, or some other appropriate terminology.
  • determining may encompass a wide variety of actions. “Judgment” and “decision” are, for example, judgment, calculation, calculation, processing, derivation, investigating, searching (looking up) (for example, table , Searching in a database or another data structure), considering ascertaining as “determining”, “deciding”, and the like.
  • determination and “determination” include receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (accessing) (e.g., accessing data in a memory) may be considered as "determined” or "determined”.
  • determination and “decision” means that “resolving”, “selecting”, “choosing”, “establishing”, and “comparing” are regarded as “determining” and “deciding”. May be included. In other words, “determination” and “determination” may include considering some operation as “determination” and “determination”.
  • connection means any direct or indirect connection or coupling between two or more elements and It can include the presence of one or more intermediate elements between two “connected” or “coupled” elements.
  • the coupling or connection between the elements may be physical, logical, or a combination thereof.
  • the two elements are radio frequency by using one or more wires, cables and / or printed electrical connections, and as some non-limiting and non-inclusive examples
  • electromagnetic energy such as electromagnetic energy having a wavelength in the region, microwave region, and light (both visible and invisible) region, it can be considered to be “connected” or “coupled” to each other.
  • any reference to that element does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to the first and second elements does not mean that only two elements can be employed there, or that in some way the first element must precede the second element.
  • DESCRIPTION OF SYMBOLS 50 ... User terminal, 100 ... Dialog device, 101 ... Input information acquisition part, 102 ... Input information analysis part, 103 ... Focus extraction part, 104 ... User profile estimation part, 105 ... User profile registration part, 106 ... Category judgment part, 107 ... Profile information acquisition unit, 108 ... Utterance generation unit, 109 ... Output unit, 200 ... Mail server, 300 ... Provider.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

ユーザとの親密度またはユーザの満足度を向上することができる発話を可能にする対話装置を提供する。 ユーザから入力情報を取得する入力情報取得部101と、入力情報における焦点を示す焦点情報を取得する焦点抽出部103と、ユーザのプロフィール情報と当該プロフィール情報を登録した日時情報とを対応付けて記憶するユーザプロフィールDB110と、ユーザプロフィールDB110の焦点情報に対応するユーザプロフィールから、日時情報に基づいて定められた優先度に従ってプロフィール情報を取得するプロフィール情報取得部107と、ユーザプロフィールに対応する発話文(発話情報)を生成する発話生成部108と、を備える。

Description

対話装置
 本発明は、ユーザと対話を行う対話装置に関する。
特許文献1(特開2001-188787号公報)には、会話処理装置についての記載がある。この会話処理装置は、ユーザの趣向に関するプロファイルデータを記憶しておき、このプロファイルデータを用いてユーザと会話することができる。
特開2006-292980号公報
 しかしながら、上記特許文献1の発明では、複数のプロフィールデータがあった場合、どのプロフィールデータを採用して、会話をすべきか決めておらず、適切な応答をすることができない。例えば、直前に獲得したプロフィールばかり使用すると、適切な応答を行うことができず、よってユーザとの親密度の低下を招くことがあり得る。
 そこで、上述の課題を解決するために、本発明は、ユーザとの親密度またはユーザの満足度を向上することができる発話を可能にする対話装置を提供することを目的とする。
 本発明は、ユーザから入力情報を取得する入力情報取得部と、前記入力情報における焦点を示す焦点情報を取得する焦点情報取得部と、前記ユーザのプロフィール情報と当該プロフィール情報を登録した日時情報とを対応付けて記憶するユーザプロフィール記憶部と、前記ユーザプロフィール記憶部に記憶されている前記焦点情報に対応するプロフィール情報から、日時情報に基づいて定められた優先度に従ってプロフィール情報を取得するプロフィール情報取得部と、前記プロフィール情報に対応する発話情報を生成する発話生成部と、を備える。
 この構成によれば、日時情報に応じたプロフィール情報を利用して発話情報を生成することができる。したがって、ユーザの親密度またはユーザの満足度を向上させることができる。
 本発明によると、ユーザの親密度またはユーザの満足度を向上させることができる。
本実施形態の対話装置100を含んだ対話システムのシステム構成図である。 対話装置100の機能構成を示すブロック図である。 カテゴリテーブルの具体例を示す図である。 ユーザプロフィールDB110の具体例を示す図である。 発話DB111の具体例を示す図である。 対話装置100の動作を示すフローチャートである。 本実施形態の対話装置100と対話をしているユーザ端末50の表示画面の例を示す図である。 メッセージM1からメッセージM2が生成される処理についての模式図である。 本実施形態に係る対話装置100のハードウェア構成の一例を示す図である。
 添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
 図1は、本実施形態の対話装置100を含んだ対話システムのシステム構成図である。図1に示されるとおり、この対話システムは、対話装置100、メールサーバ200、およびプロバイダ300を含んで構成されている。対話装置100は、ユーザ端末50との間で対話処理を行う。例えば、対話装置100は、ユーザ端末50から送信された入力情報(テキスト情報)に応じた対話情報を生成し、ユーザ端末50に返信する。対話情報は、入力情報の話題(焦点情報)および/またはユーザ端末50のユーザのユーザプロフィール(プロフィール情報)に基づいた文章情報である。このシステムによって、ユーザ端末50のユーザは、対話装置100と対話を行うことができる。例えば、雑談など、特にコンテンツの情報提供を求めていない会話を行うことができる。なお、ユーザ端末50は、ユーザが操作する携帯端末、スマートフォン、タブレット端末などの情報処理装置である。ユーザは、ユーザ端末50を操作することにより、対話のためのテキストを入力情報として入力する。
 対話装置100は、ユーザ端末50から送信された入力情報に基づいて、当該ユーザのユーザプロフィールを抽出して、記憶しておき、このユーザプロフィールを利用して対話情報を生成する。
 なお、ユーザプロフィールは、対話装置100がユーザ端末50との間でなされた対話に基づいて生成されるが、これに限るものではない。ユーザプロフィールは、メールサーバ200またはプロバイダ300が、ユーザ端末50とメール通信により得られた情報(メール本文など)、またはインターネット接続を行うことにより得られた情報(検索キーなど)に基づいて生成されてもよい。
 その場合、対話装置100は、メールサーバ200およびプロバイダ300と通信可能に構成されており、ユーザIDをキーにしてユーザごとの情報を取得し、ユーザプロフィールを生成する。
 また、対話装置100は、ユーザ端末50とネットワークを介して通信可能に構成されているが、これに限るものではない。対話装置100は、ユーザ端末50に内蔵されており、ユーザは、対話装置100に直接入力情報等を入力してもよい。
 つぎに、この対話装置100の詳細な機能構成について説明する。図2は、対話装置100の機能構成を示すブロック図である。図2に示されるとおり、対話装置100は、入力情報取得部101、入力情報解析部102、焦点抽出部103(焦点情報取得部)、ユーザプロフィール推定部104,ユーザプロフィール登録部105,カテゴリ判断部106、プロフィール情報取得部107、発話生成部108、出力部109、ユーザプロフィールDB110(ユーザプロフィール記憶部)、および発話DB111を含んで構成されている。以下、各構成要件について説明する。
 入力情報取得部101は、ユーザ端末50から送信された入力情報を、直接またはネットワークを介して取得する部分である。
 入力情報解析部102は、入力情報取得部101が取得した入力情報を解析する部分である。具体的には、入力情報解析部102は、形態素解析を行うことで、入力情報から一または複数の単語、助詞、および動詞などの言語で意味を持つ最小単位を抽出する。
 焦点抽出部103は、入力情報解析部102により解析されて得られた情報(最小単位の情報)、そのほかユーザが入力した情報に基づいて、ユーザ発話(入力情報)の話題の少なくとも一部を表す焦点情報を抽出する部分である。焦点情報は、例えば、ユーザからの入力情報において最も話題の中心となっている単語である。入力情報からの焦点情報の抽出には、種々の周知の技術を適用することができ、例えば、ディープラーニング、SVM等の機械学習の手法を用いることができる。
 一例として、以下の公知の技術を使用してもよい。焦点抽出部103は、入力情報から入力情報解析部102(形態素解析)により抽出された単語を焦点情報の候補として抽出するとともに、ユーザからの入力情報におけるその焦点情報の候補の前後に位置する単語または文字、およびその素性(特徴)を抽出する。焦点抽出部103は、焦点情報の候補と、その前後に位置する単語(文字を含む)の素性に基づいて、スコアを算出し、そのスコアに基づいて焦点情報の候補から焦点情報を決定する。
 さらに、焦点抽出部103は、焦点情報の特徴ベクトルを算出する。焦点情報の特徴ベクトルは、焦点情報で表される単語の意味を示すベクトルである。例えばWord2Vectorなど公知の技術によって、単語をベクトル表現することができる。
 ユーザプロフィール推定部104は、ユーザ端末50が送信した入力情報からユーザプロフィールを推定する部分である。例えば、入力情報から、その入力情報の焦点情報(話題)、特徴ベクトル、述語項構造ペア、TagA、TagBなどを含むユーザプロフィールを推定する。述語項構造ペアは、動詞に例示されるような述語と、その述語の主語及び目的語となるような項とのペアである。TagAおよびTagBは、述語項構造ペアにおけるカテゴリを示す情報である。入力情報に含まれている単語に基づいてユーザプロフィールは推定可能である。
 最も簡単な処理方法としては、以下の処理が考えられる。ユーザプロフィール推定部104は、対話中に入力された入力情報から焦点情報を抽出するとともに、その入力情報から述語項構造ペアを抽出する。例えば、「ラーメンが好き」という入力情報から、「ラーメン_好き」という述語項構造ペアを抽出することができる。述語項構造は、公知の技術により解析可能な情報である。
 また、事前に単語と、属性、趣味、または趣向などとを対応付けたテーブルを用意しておき、ユーザプロフィール推定部104は、上記テーブルを参照して、入力情報解析部102により得られた単語(例えば焦点情報)に対応する属性、趣味、趣向などをユーザプロフィールとして推定する方法が挙げられる。
 焦点情報および特徴ベクトルの算出方法については上記焦点抽出部103における処理と同じである。
 また、一例として、公知の技術として、以下の処理を利用してもよい。すなわち、ユーザプロフィール推定部104は、各プロフィールの属性間の依存関係を利用した推定処理が知られている。この公知の技術によると、例えば、ユーザプロフィール推定部104は、推定対象のユーザによって作成された文書に含まれる単語に基づいて、単語表記の特徴を示す単語表記素性を作成し、学習された推定モデルに基づいて、作成された単語表記素性を示す観測述語に対して尤もらしい、推定対象のユーザのプロフィール属性の属性値を示す潜在述語を推定することにより、推定対象のユーザのプロフィール属性の属性値を推定する、ことができる。
 ユーザプロフィール登録部105は、ユーザプロフィール推定部104により抽出された焦点情報、特徴ベクトル、述語項構造ペア、およびTagAなどの情報を、ユーザプロフィールとして、ユーザIDと対応付けてユーザプロフィールDB110に、その登録日時とともに記憶する部分である。
 カテゴリ判断部106は、焦点抽出部103により抽出された焦点情報のカテゴリを判断する部分である。カテゴリ判断部106は、予め単語とカテゴリとを対応付けたカテゴリテーブルを備えており、焦点情報に記述さている単語に対応するカテゴリを判断する。例えば、焦点情報として、“ラーメン”が抽出された場合には、“ラーメン”のカテゴリは“料理・グルメ”であると判断する。なお、上記のユーザプロフィールにおけるTagとカテゴリとは、同じ情報である。
 図3は、そのカテゴリテーブルの具体例を示す図である。図3に示すとおり、一の単語に一または複数のカテゴリを対応付けて記述している。
 プロフィール情報取得部107は、カテゴリ判断部106により判断された焦点情報に対応したユーザプロフィールを、ユーザプロフィールDB110から取得する部分である。すなわち、プロフィール情報取得部107は、焦点情報の特徴ベクトルと、ユーザプロフィールの焦点情報の特徴ベクトルとを比較し、ベクトル間の距離が所定距離以下であるユーザプロフィールを取得する。
 なお、プロフィール情報取得部107は、焦点情報の特徴ベクトルに基づいて取得することに限るものではない。焦点情報のカテゴリを示すTag情報を用いて、対応するプロフィール情報を取得してもよい。
 プロフィール情報取得部107は、ベクトル間距離が所定より以下のプロフィールが複数ある場合には、カテゴリ判断部106により判断されたカテゴリに基づいた優先順位に従って、一のプロフィール情報を取得する。例えば、プロフィール情報取得部107は、カテゴリ判断部106により抽出した焦点情報が趣味・嗜好に関するカテゴリに属すると判断されると、ユーザプロフィールDB110に記憶されているユーザプロフィールの登録日が最も古いユーザプロフィールを取得する。なお、登録日が最も古いプロフィールを優先させること例示であり、これに限るものではない。カテゴリによって登録日が最も新しいプロフィールを優先させてもよい。
 また、プロフィール情報取得部107は、ユーザプロフィールDB110における登録日が、所定の日時より前のユーザプロフィール、または所定の日時より後のユーザプロフィールを取得しなくてもよい。あまりにも古い、または新しいユーザプロフィールはユーザの満足度・親しみやすさ向上には寄与しないためである。
 なお、プロフィール情報取得部107は、カテゴリ判断部106により判断されたカテゴリに基づいて、取得対象となる上記登録日の範囲を決めてもよい。カテゴリによっては、古いユーザプロフィールを利用しても、ユーザの満足度・親しみやすさなどには影響がない場合があり得る。
 また、プロフィール情報取得部107は、ユーザプロフィールDB110における登録日が示す時間帯、時期、または季節に基づいて、取得対象となるユーザプロフィールを決定してもよい。例えば、入力情報の取得日時の時間帯と同じ時間帯に登録日となるユーザプロフィールを利用することで、ユーザの満足度・親しみやすさを向上させることができる。
 また、プロフィール情報取得部107は、カテゴリ判断部106により判断されたカテゴリに基づいて、上記時間帯、時期、または季節に応じたユーザプロフィールを取得するか否かを切替えてもよい。カテゴリによっては、時間帯、時期、季節に関連がない対話が可能であり、ユーザの満足度・親しみやすさなどには影響がない場合があり得る。
 発話生成部108は、入力情報の焦点情報に対応する第1発話文を発話DB111から取得する部分である。さらに、発話生成部108は、プロフィール情報取得部107により、入力情報の焦点情報に対応するユーザプロフィールが取得された場合には、そのユーザプロフィールを用いた第2発話文を生成し、第1発話文に付加することで、発話文を生成する。
 例えば、発話生成部108は、「おなかがすいたなあ」という入力情報の焦点情報「おなか」に基づいて、「おやつはどうですか?」という第1発話文を発話DB111から取得する。さらに発話生成部108は、ユーザプロフィールDB110から焦点情報「おなか」の特徴ベクトルを用いて取得されたユーザプロフィールから、述語項構造ペア「ラーメン_好き」を取得する。発話生成部108は、述語項構造ペア「ラーメン_好き」から第2発話文「ラーメンが好き」を生成する。
 発話生成部108は、第1発話文と第2発話文とを合成して、一つの発話文を生成する。例えば、発話文「ラーメンが好きと伺いました。おやつにどうですか」を生成する。なお、“伺いました”は定型でもっている文章であって、ユーザプロフィールに基づいた第2発話文を付加する場合には、語尾に“伺いました”を付加したものとする。
 さらに、発話生成部108は、ユーザプロフィールの登録日に基づいて、日時を示す用語をさらに付加してもよい。例えば、ユーザプロフィールの登録日が1ヶ月前である場合には、「1ヶ月前に」という発話文を生成して、第2発話文の前に付加してもよい。
 出力部109は、発話生成部108により生成された発話文(発話情報)をユーザ端末50に出力する部分である。
 ユーザプロフィールDB110は、ユーザIDに対応付けて、ユーザプロフィールを記憶するデータベースである。図4は、そのユーザプロフィールDB110の具体例を示す図である。図4に示されるとおり、ユーザプロフィールDB110は、ユーザID、焦点情報、当該焦点情報の特徴ベクトル、述語項構造ペア、TagA、TagB、および登録日を含むユーザプロフィールを対応付けて記述している。ユーザIDは、ユーザ端末50のユーザを識別するためのIDである。ユーザ端末自体を識別するためのIDでもよいし、ユーザのIDでもよい。
 焦点情報は、ユーザプロフィール推定部104により推定された情報であり、入力情報における話題を示す情報である。
 焦点情報の特徴ベクトルは、Word2Vectorなど公知の言語処理を行うことに得られたより単語をベクトル表現した情報である。
 述語項構造ペアは、ユーザプロフィール推定部104により推定された述語項構造を示す情報である。一般的に、主語または目的語と述語とからなる。図4の例では、目的語と述語とからなる。
 TagAおよびTagBは、ユーザの属性、趣味、趣向等を示す情報である。図4の例では、TagAは料理・グルメを示し、TagBは趣味・嗜好を示している。ユーザの属性は一つに限られないものであることから、本実施形態では、A,Bの二つからなるものとしている。なお、当然に二つに限るものではなく、それ以上であってもよい。
 登録日は、ユーザプロフィールが登録された日時を示す情報である。
 具体的な入力情報を用いてユーザプロフィールの登録について説明する。ユーザプロフィール推定部104は、入力情報の解析結果として「ラーメン/が/好き」を入力すると、これに基づいて属性(TagA/TagB)を推定する。ここでは、「ラーメン」および「好き」に基づいて、「料理・グルメ」「趣味・嗜好」のTagが推定される。そして、焦点抽出部103により抽出された焦点情報などとともにユーザプロフィールDB110に登録される。
 ユーザプロフィールDB110は、同じユーザプロフィールが複数登録されている場合がある。同じ入力情報が入力された場合には、同じユーザプロフィールが登録される。したがって、複数の同じユーザプロフィールがある場合、ユーザプロフィールDB110は、その個数を管理しておき、プロフィール情報取得部107は、その個数に基づいてユーザプロフィールの取得に対する優先順位を決めてもよい。
 発話DB111は、発話文を生成するためのデータベースである。この発話DB111は、生成用DB111a、第2発話文接続用DB111b、および日時表現用DB111cを含んでいる。図5は、その具体例を示す図である。まず、図5(a)は、生成用DB111aの具体例を示す図であり、焦点情報と発話文とを対応付けたデータベースを示す。図5(a)に示されるように、焦点情報と、発話文とが対応付けられている。図においては、一の焦点情報のみ示しているが、一般的には、一の焦点情報に対して、複数の発話文を対応付けている。発話生成部108は、ランダムまたは対話履歴に基づいて文脈に従った発話文を選択することができる。なお、対話履歴に基づいて文脈に従った発話文の選択処理は、公知の技術により行われる。
 図5(b)は、第2発話文接続用DB111bの具体例を示す図であり、第1発話文と第2発話文とを接続する際に挿入される接続文を記憶している。本実施形態おいては、第2発話文の後ろに、「、と伺いましたが、」という接続文が挿入されるために用いられる。
 図5(c)は、日時表現用DB111cの具体例を示す図であり、現在日時と登録日との差と、対話に適した表現(時間概念情報)とが対応付けられている。図5(c)においては、現在日時と登録日との差が、25日より多く、35日未満である場合に、「1ヶ月前に」という表現に変換される。図5(c)は、例示であり、当然にこれに限るものではない。なお、時下院概念情報として、日時そのものの情報を発話文に入れる場合には、日時表現用DB111cは不要となる。
 上述のユーザプロフィール推定部104およびユーザプロフィール登録部105におけるユーザプロフィールの登録処理は、焦点抽出部103、カテゴリ判断部106、プロフィール情報取得部107、および発話生成部108における対話処理とは、独立にまたは平行して行われる。例えば、メール、インターネット閲覧等をしている場合には、対話処理とは関係なくプロフィール推定処理および登録処理が行われる。
 このように構成された対話装置100の動作について説明する。図6は、対話装置100の動作を示すフローチャートである。
 入力情報取得部101は、ユーザ端末50から入力情報を取得し、入力情報解析部102は、入力情報を解析する。焦点抽出部103は、解析した入力情報から焦点情報を抽出する(S101)。焦点抽出部103は、焦点情報の特徴ベクトルを算出する(S102)。カテゴリ判断部106は、焦点情報のカテゴリ・優先基準を判断する(S103)。
 プロフィール情報取得部107は、焦点情報に対応するユーザプロフィールがあるか否かを判断する(S104)。例えば、プロフィール情報取得部107は、焦点情報の特徴ベクトルに基づいて、ユーザプロフィールDB110におけるユーザプロフィールの有無を判断する。
 プロフィール情報取得部107は、焦点情報に対応するユーザプロフィールがあると判断する場合には、ユーザプロフィールDB110を参照して、焦点情報の特徴ベクトルに基づいて、一または複数のユーザプロフィールを取得する(S105)。
 プロフィール情報取得部107は、焦点情報のカテゴリに応じて定められた優先基準に従って、一のユーザプロフィールを決定する(S106)。なお、カテゴリの判断は必須ではないため、カテゴリ判断を行わない場合には、事前に決められた優先基準に従うこととする。例えば、登録日が一番古いプロフィールを優先するなどである。
 発話生成部108は、入力情報の焦点情報に対応する第1発話文と、一のユーザプロフィールに基づいた第2発話文とから発話文を生成する(S107)。
 出力部109は、生成された発話文をユーザ端末50に出力する(S108)。
 一方、S102において、焦点情報に対応するユーザプロフィールが、ユーザプロフィールDB110に記憶されていない場合には、発話生成部108は、入力情報の焦点情報に対応する第1発話文を、発話文として生成する(S109)。出力部109は、生成された発話文をユーザ端末50に出力する(S108)。
 以上の処理により、ユーザプロフィールに従った発話文を生成することができる。
 つぎに、その対話の具体例について説明する。図7は、本実施形態の対話装置100と対話をしているユーザ端末50の表示画面の例を示す図である。図7に示されるとおり、ユーザ端末50のユーザは、メッセージM1「おなかがすいたなあ」を入力する。それに対して、対話装置100は、メッセージM2「一ヶ月ぐらい前に、ラーメンが好きと伺いましたが、おやつにどうですか?」を生成し、ユーザ端末50に送信する。ユーザ端末50は、そのメッセージM2を表示する。
 対話装置100は、「ラーメンが好き」というユーザプロフィールを記憶しており、それを利用した対話を可能にする。
 このメッセージM1からメッセージM2が生成される処理について模式図を用いて説明する。図8は、その処理を示す模式図である。
 図8に示されるとおり、入力情報取得部101は、メッセージM1「おなかがすいたなあ」を取得する。その後、入力情報解析部102は、形態素解析を行って、入力情報解析結果「おなか/が/すいた/なあ」を取得する。焦点抽出部103は、焦点情報「おなか」を抽出する(図6 S101参照)。
 そして、焦点抽出部103は、焦点情報「おなか」の特徴ベクトルv0を算出する(図6 S102参照)。
 カテゴリ判断部106は、焦点情報「おなか」に対応するカテゴリを判断し、そのユーザプロフィールを選択するための優先基準を決定する(図6 S103参照)。
 プロフィール情報取得部107は、ユーザプロフィールDB110からユーザプロフィールを取得する際、焦点情報「おなか」の特徴ベクトルv0に対して、所定距離内にある特徴ベクトルvを有するユーザプロフィールがあるか否かを判断する(図6 S103参照)。
 そして、プロフィール情報取得部107は、特徴ベクトルvに基づいた一または複数のユーザプロフィールを取得する。ここで、カテゴリ判断部106により判断されたカテゴリに対応する優先基準に従った一のユーザプロフィールを取得する。例えば、カテゴリが趣味・嗜好に関するものであると判断されると、登録日が最も古いユーザプロフィールを取得する。ここでは、焦点情報「ラーメン」、述語項構造ペア「ラーメン_好き」とあるユーザプロフィールが取得される(図6 S106参照)。
 図4を参照して説明すると、特徴ベクトルv0の所定距離にある特徴ベクトルとして、特徴ベクトルv1(焦点情報:ラーメン)、v2(焦点情報:おにぎり)があるとする。
 プロフィール情報取得部107は、この二つのうち、カテゴリ判断部106により判断されたカテゴリに応じて定められた優先基準(登録日が新しいものを優先するのか、古いものを優先するのか)にしたがって、一のユーザプロフィールを決定する。ここでは、焦点情報:ラーメンを含んだユーザプロフィールを決定する。なお、ここでは1つに決定しているが、2つのユーザプロフィールを決定してもよい。
 発話生成部108は、取得したユーザプロフィールに基づいた第2発話文を生成する。ここではユーザプロフィールにおける述語項構造ペア「ラーメン_好き」を用いて、第2発話文「ラーメンが好き」を生成する(図6 S107参照)。
 発話生成部108は、焦点情報「おなか」に基づいて、第1発話文を生成する。ここでは、焦点情報「おなか」に対応する発話文「おやつにどうですか」を、生成用DB111aから取得する(図6 S107参照)。
 そして、発話生成部108は、第1発話文と第2発話文とを合成して発話文を生成する。発話生成部108は、合成に際して、自然の文章にするために、接続文「、と伺いましたが、」を付加する。発話生成部108は、「ラーメンが好き、と伺いましたが、おやつにどうですか?」を生成する。なお、第1発話文、第2発話文の生成順序は上記に限るものではない。
 さらに、発話生成部108は、現在日時と、ユーザプロフィールの登録日時とに基づいて、日時に関する情報を付加する。ここでは、発話生成部108は、登録日時に基づいて日時表現文「1ヶ月前に」を、発話文に付加し、「1ヶ月前に、ラーメンが好き、と伺いましたが、おやつにどうですか?」を生成する(図6 S107参照)。
 上記の例では、プロフィール情報取得部107は、一のユーザプロフィールを取得することを例に説明したが、これに限るものではない。プロフィール情報取得部107は、複数のユーザプロフィールを取得してもよい。その場合、プロフィール情報取得部107は、所定の距離範囲にある特徴ベクトルを有するユーザプロフィールを取得するか、特徴ベクトルに基づいて上位から順に選択したユーザプロフィールを取得する、ことなどが考えられる。
 発話生成部108は、複数のユーザプロフィール(すなわち、述語項構造ペア)から複数の発話文を生成し、それを適宜合成する。
 また、上述の説明では、ユーザプロフィールのうち述語項構造ペアを用いて第2発話文を生成した。これに限るものではなく、ユーザプロフィールに含まれている他の要素、例えばTagAまたはTagBで示される属性に基づいて一または複数のプロフィールを選択してもよい。この場合、発話生成部108は、生成用DB111aは、TagAまたはTagBで示される属性に対応する発話文を記述しておき、それに基づいて発話文(第2発話文)を生成する。
 つぎに、本実施形態の対話装置100の作用効果について説明する。本実施形態の対話装置100は、ユーザから入力情報を取得する入力情報取得部101と、入力情報における焦点を示す焦点情報を取得する焦点抽出部103と、ユーザのプロフィール情報と当該プロフィール情報を登録した日時情報とを対応付けて記憶するユーザプロフィールDB110と、ユーザプロフィールDB110から焦点情報に対応するユーザプロフィールを複数取得した場合、当該複数のユーザプロフィールから、日時情報に基づいて定められた優先度に従ってプロフィール情報を取得するプロフィール情報取得部107と、ユーザプロフィールに対応する発話文(発話情報)を生成する発話生成部108と、を備える。
 この構成により、ユーザプロフィールに従った発話文を生成することができ、ユーザの満足度・親しみやすさを向上させることができる。さらに、本実施形態においては、ユーザプロフィールが登録された日時情報に基づいて、発話文の生成に利用されるユーザプロフィールが選択される。したがって、ユーザの満足度・親しみやすさを、より効果的に向上させることができる。
 例えば、プロフィール情報取得部107は、日時情報が最も古いユーザプロフィールを優先して、一または複数のユーザプロフィールを取得する。日時情報が古いものを共有することで満足度・親しみやすさを向上させることができる。したがって、比較的簡易な処理で上述の効果を得ることができる。すなわち、簡易な処理であるため、CPUなどの処理部における処理負荷を軽減するという技術的効果をも併せて奏する。
 さらに、本実施形態の対話装置100は、入力情報における焦点情報のカテゴリを判断するカテゴリ判断部106をさらに備える。プロフィール情報取得部107は、カテゴリに応じて、ユーザプロフィールを取得する日時情報の優先度を変えて、当該優先度に従ってユーザプロフィールを取得する。
 この構成により、ユーザの満足度・親しみやすさを向上させることができる。例えば、趣味・嗜好に関するものは、古い日時情報を優先することで、ユーザの対話装置100に対する満足度・親しみやすさを向上させることができると、考えられている。一方で、それ以外のカテゴリでは、新しい日時情報を優先することが、ユーザの満足度・親しみやすさを向上させることが期待できると考えられる。
 また、対話装置100において、発話生成部108は、取得したユーザプロフィールを登録した日時情報に基づいた時間概念情報(1ヶ月前などのメッセージまたは日時そのものを含む)を含んだ発話情報を生成する。例えば、発話生成部108は、登録日時と現在日時との差に基づいた日時に関するメッセージを生成してもよい。例えば、「1ヶ月前」などの時間概念を示す情報を、発話文に追加する。なお、メッセージを生成することなく、その日時を発話文に追加することとしてもよい。
 この構成により、時間を明示した発話を行うことができ、ユーザは、過去を共有している感覚が強まる。したがって、ユーザの満足度・親しみやすさを向上させることができる。
 また、対話装置100において、プロフィール情報取得部107は、日時情報に基づいてユーザプロフィールを取得する際、事前に定められた日時情報の上限値または下限値に基づいて、一のユーザプロフィールを取得する。
 この構成によると、極端に古いユーザプロフィールを排除することができる。また、極端に新しいユーザプロフィール、例えば、現に入力している入力情報に基づいたユーザプロフィールに基づいた発話はユーザにとって対話の繰り返しとなり、面白みがない場合がある。
 また、対話装置100において、プロフィール情報取得部107は、日時情報として、時間帯、時期または季節を示す情報を用い、当該時間帯、時期または季節が同じプロフィール情報を取得する。
 この構成によると、より適切なユーザプロフィールを取得することができる。例えば、夜の話題については、夜に登録されたユーザプロフィールが適切な場合がある。また、季節に対応したユーザプロフィールが妥当な場合がある。
 上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に (例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
 例えば、本発明の一実施の形態における対話装置100などは、本実施形態の処理を行うコンピュータとして機能してもよい。図9は、本実施形態に係る対話装置100のハードウェア構成の一例を示す図である。上述の対話装置100は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
 なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。対話装置100のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
 対話装置100における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
 プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、入力情報解析部102、焦点抽出部103、カテゴリ判断部106、プロフィール情報取得部107などは、プロセッサ1001で実現されてもよい。
 また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、対話装置100の焦点抽出部103等は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
 メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。上述のユーザプロフィールDB110、発話DB111はストレージ1003により実現されてもよい。
 通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、上述の入力情報取得部101、出力部109などは、通信装置1004で実現されてもよい。
 入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
 また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
 また、対話装置100は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
 以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。
 情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC ConnectionReconfiguration)メッセージなどであってもよい。
 本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
 本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。
 入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
 本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
 なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
 本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。
 また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。
 ユーザ端末は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。
 本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。
 「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。
 本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。
 本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。
50…ユーザ端末、100…対話装置、101…入力情報取得部、102…入力情報解析部、103…焦点抽出部、104…ユーザプロフィール推定部、105…ユーザプロフィール登録部、106…カテゴリ判断部、107…プロフィール情報取得部、108…発話生成部、109…出力部、200…メールサーバ、300…プロバイダ。
 

 

Claims (5)

  1.  ユーザから入力情報を取得する入力情報取得部と、
     前記入力情報における焦点を示す焦点情報を取得する焦点情報取得部と、
     前記ユーザのプロフィール情報と当該プロフィール情報を登録した日時情報とを対応付けて記憶するユーザプロフィール記憶部と、
     前記ユーザプロフィール記憶部に記憶されている前記焦点情報に対応するプロフィール情報から、日時情報に基づいて定められた優先度に従ってプロフィール情報を取得するプロフィール情報取得部と、
     前記プロフィール情報に対応する発話情報を生成する発話生成部と、
    を備える対話装置。
  2.  前記入力情報における前記焦点情報のカテゴリを判断するカテゴリ判断部をさらに備え、
     前記プロフィール情報取得部は、前記カテゴリに応じて、プロフィール情報を取得する日時情報の優先度を変えて、当該優先度に従ってプロフィール情報を取得する、
    請求項1に記載の対話装置。
  3.  前記発話生成部は、前記取得したプロフィール情報を登録した日時情報に基づいた時間概念情報を含んだ発話情報を生成する、請求項1または2に記載の対話装置。
  4.  前記プロフィール情報取得部は、日時情報に基づいてプロフィール情報を取得する際、事前に定められた日時情報の上限値または下限値に基づいて、プロフィール情報を取得する、請求項1から3のいずれか一項に記載の対話装置。
  5.  前記プロフィール情報取得部は、日時情報として、時間帯、時期または季節を示す情報を用い、入力情報を取得した日時と同じ時間帯、時期または季節のプロフィール情報を取得する、請求項1から4のいずれか一項に記載の対話装置。
PCT/JP2019/017734 2018-06-08 2019-04-25 対話装置 Ceased WO2019235100A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020523565A JP6944594B2 (ja) 2018-06-08 2019-04-25 対話装置
US17/044,099 US11604831B2 (en) 2018-06-08 2019-04-25 Interactive device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-110386 2018-06-08
JP2018110386 2018-06-08

Publications (1)

Publication Number Publication Date
WO2019235100A1 true WO2019235100A1 (ja) 2019-12-12

Family

ID=68769993

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017734 Ceased WO2019235100A1 (ja) 2018-06-08 2019-04-25 対話装置

Country Status (3)

Country Link
US (1) US11604831B2 (ja)
JP (1) JP6944594B2 (ja)
WO (1) WO2019235100A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190098110A (ko) * 2019-08-02 2019-08-21 엘지전자 주식회사 지능형 프레젠테이션 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211610A (ja) * 2016-05-27 2017-11-30 シャープ株式会社 出力制御装置、電子機器、出力制御装置の制御方法、および出力制御装置の制御プログラム
JP2018014091A (ja) * 2017-06-20 2018-01-25 Gatebox株式会社 画像表示装置、話題選択方法、話題選択プログラム

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188787A (ja) 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
US10489449B2 (en) * 2002-05-23 2019-11-26 Gula Consulting Limited Liability Company Computer accepting voice input and/or generating audible output
JP5111735B2 (ja) 2005-04-11 2013-01-09 株式会社リコー 現像装置、プロセスカートリッジ、及び、画像形成装置
US7620549B2 (en) * 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US9858925B2 (en) * 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9542435B2 (en) * 2010-03-26 2017-01-10 Rakuten, Inc. Search system, search method, search program and storage medium for providing a stabilized number of output search results
US11270699B2 (en) * 2011-04-22 2022-03-08 Emerging Automotive, Llc Methods and vehicles for capturing emotion of a human driver and customizing vehicle response
US9779114B2 (en) * 2011-10-07 2017-10-03 Henk B. Rogers Media geotagging
JP2014106882A (ja) * 2012-11-29 2014-06-09 Toshiba Corp 情報処理装置及び表示制御方法
US9271111B2 (en) * 2012-12-14 2016-02-23 Amazon Technologies, Inc. Response endpoint selection
US20140171133A1 (en) * 2012-12-18 2014-06-19 Google Inc. Query response
US10437350B2 (en) * 2013-06-28 2019-10-08 Lenovo (Singapore) Pte. Ltd. Stylus shorthand
JP6379534B2 (ja) * 2014-03-11 2018-08-29 株式会社リコー 情報処理システム、クライアント装置、及び情報処理方法
WO2016016752A1 (en) * 2014-07-27 2016-02-04 Yogesh Chunilal Rathod User to user live micro-channels for posting and viewing contextual live contents in real-time
US10817672B2 (en) * 2014-10-01 2020-10-27 Nuance Communications, Inc. Natural language understanding (NLU) processing based on user-specified interests
US11212584B2 (en) * 2014-10-10 2021-12-28 ThinkAnalytics Content recommendation system
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
US10769189B2 (en) * 2015-11-13 2020-09-08 Microsoft Technology Licensing, Llc Computer speech recognition and semantic understanding from activity patterns
US20170193349A1 (en) * 2015-12-30 2017-07-06 Microsoft Technology Licensing, Llc Categorizationing and prioritization of managing tasks
US20170228240A1 (en) * 2016-02-05 2017-08-10 Microsoft Technology Licensing, Llc Dynamic reactive contextual policies for personal digital assistants
US10193850B2 (en) * 2016-03-30 2019-01-29 Notion Ai, Inc. Discovering questions, directives, and requests from, and prioritizing replies to, a preferred message sender method and apparatus
JP7063269B2 (ja) * 2016-08-29 2022-05-09 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
US10623364B2 (en) * 2016-09-21 2020-04-14 Microsoft Technology Licensing, Llc Notifications of action items in messages
US10742642B2 (en) * 2016-12-07 2020-08-11 International Business Machines Corporation User authentication based on predictive applications
JP6810757B2 (ja) * 2016-12-27 2021-01-06 シャープ株式会社 応答装置、応答装置の制御方法、および制御プログラム
US10924376B2 (en) * 2016-12-30 2021-02-16 Google Llc Selective sensor polling
JP6454916B2 (ja) * 2017-03-28 2019-01-23 本田技研工業株式会社 音声処理装置、音声処理方法及びプログラム
US10614122B2 (en) * 2017-06-09 2020-04-07 Google Llc Balance modifications of audio-based computer program output using a placeholder field based on content
US20180357998A1 (en) * 2017-06-13 2018-12-13 Intel IP Corporation Wake-on-voice keyword detection with integrated language identification
US20190027147A1 (en) * 2017-07-18 2019-01-24 Microsoft Technology Licensing, Llc Automatic integration of image capture and recognition in a voice-based query to understand intent
US11322141B2 (en) * 2017-08-17 2022-05-03 Sony Corporation Information processing device and information processing method
US10372800B2 (en) * 2017-11-09 2019-08-06 International Business Machines Corporation Cognitive slide management method and system
US11663182B2 (en) * 2017-11-21 2023-05-30 Maria Emma Artificial intelligence platform with improved conversational ability and personality development
US11200241B2 (en) * 2017-11-22 2021-12-14 International Business Machines Corporation Search query enhancement with context analysis
US20210065708A1 (en) * 2018-02-08 2021-03-04 Sony Corporation Information processing apparatus, information processing system, information processing method, and program
WO2019182586A1 (en) * 2018-03-21 2019-09-26 Google Llc Data transfer in secure processing environments
US10680993B2 (en) * 2018-03-30 2020-06-09 Facebook, Inc. Sonic social network
EP3580751B8 (en) * 2018-04-16 2021-02-24 Google LLC Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface
US10679615B2 (en) * 2018-04-16 2020-06-09 Google Llc Adaptive interface in a voice-based networked system
CN110998725B (zh) * 2018-04-19 2024-04-12 微软技术许可有限责任公司 在对话中生成响应
US11307880B2 (en) * 2018-04-20 2022-04-19 Meta Platforms, Inc. Assisting users with personalized and contextual communication content
US11086741B2 (en) * 2018-05-07 2021-08-10 Google Llc Immersive web-based simulator for digital assistant-based applications
US11210718B1 (en) * 2018-06-07 2021-12-28 Amazon Technologies, Inc. Dynamically modifying user interfaces according to predicted user preference

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211610A (ja) * 2016-05-27 2017-11-30 シャープ株式会社 出力制御装置、電子機器、出力制御装置の制御方法、および出力制御装置の制御プログラム
JP2018014091A (ja) * 2017-06-20 2018-01-25 Gatebox株式会社 画像表示装置、話題選択方法、話題選択プログラム

Also Published As

Publication number Publication date
US20210103619A1 (en) 2021-04-08
JP6944594B2 (ja) 2021-10-06
US11604831B2 (en) 2023-03-14
JPWO2019235100A1 (ja) 2021-03-11

Similar Documents

Publication Publication Date Title
CN110334347B (zh) 基于自然语言识别的信息处理方法、相关设备及存储介质
US11586689B2 (en) Electronic apparatus and controlling method thereof
JP7166350B2 (ja) 対話装置
US10783885B2 (en) Image display device, method for driving the same, and computer readable recording medium
CN106104427B (zh) 输入的感知内容的重新格式化
US12260186B2 (en) Method of generating text, method of training model, electronic device, and medium
US12424216B2 (en) Initiating conversation monitoring system action based on conversational content
CN108701127A (zh) 电子设备及其操作方法
WO2019193796A1 (ja) 対話サーバ
JP7054731B2 (ja) 対話システム
JP7043593B2 (ja) 対話サーバ
JP7016405B2 (ja) 対話サーバ
WO2019235100A1 (ja) 対話装置
WO2019216054A1 (ja) 対話サーバ
WO2019220791A1 (ja) 対話装置
WO2018203510A1 (ja) 質問推定装置
JP6960049B2 (ja) 対話装置
WO2019216053A1 (ja) 対話装置
JP2022025917A (ja) 対話装置
WO2019187668A1 (ja) 文章マッチングシステム
CN113407815B (zh) 生成场景主题的方法和装置
JPWO2019159559A1 (ja) 対話システム
WO2025243528A1 (ja) 装置及び方法
WO2025150160A1 (ja) 装置および方法
CN120633893A (zh) 领域特定语言应答方法、相关装置和介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19814868

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020523565

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19814868

Country of ref document: EP

Kind code of ref document: A1