[go: up one dir, main page]

WO2019220791A1 - 対話装置 - Google Patents

対話装置 Download PDF

Info

Publication number
WO2019220791A1
WO2019220791A1 PCT/JP2019/014088 JP2019014088W WO2019220791A1 WO 2019220791 A1 WO2019220791 A1 WO 2019220791A1 JP 2019014088 W JP2019014088 W JP 2019014088W WO 2019220791 A1 WO2019220791 A1 WO 2019220791A1
Authority
WO
WIPO (PCT)
Prior art keywords
concealment
utterance
level
user
secret information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2019/014088
Other languages
English (en)
French (fr)
Inventor
田中 剛
公亮 角野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2020519502A priority Critical patent/JP7033195B2/ja
Publication of WO2019220791A1 publication Critical patent/WO2019220791A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities

Definitions

  • One aspect of the present invention relates to a dialogue apparatus.
  • Patent Document 1 when an instruction to delete information used for a predetermined process is received, the information is deleted and an identifier related to the predetermined process using the information to be deleted is specified.
  • a dialog history management device is described that deletes the content of a voice related to a response associated with an identified identifier from the dialog history storage unit.
  • Patent Document 1 does not execute the deletion process unless a deletion instruction is accepted.
  • secret information that is preferably not recorded from the beginning may be present in the utterance texts constituting the dialog. Therefore, it is desired to ensure the security of the confidential information that appears in the dialogue.
  • An interactive apparatus includes an acquisition unit that acquires an utterance sentence that constitutes an automatic dialogue executed with a user, and at least a part of the utterance sentence that is not yet recorded in a log.
  • a concealing unit that executes concealment processing for concealing secret information on an utterance sentence, and a recording unit that records an utterance sentence in which at least a part of secret information is concealed in a log.
  • the security of the secret information that appears in the dialogue can be more reliably ensured.
  • the interactive device is a computer that executes an automatic dialogue with a user.
  • a user is a person who uses an interactive device.
  • An automatic dialogue is a conversation exchange between a user and a computer (this computer is generally referred to as a “bot”), and in this automatic dialogue, the computer automatically speaks in response to the utterance from the user.
  • An utterance is a single episode uttered by a user or a computer.
  • the user's utterance is also referred to as “user utterance”
  • the computer's utterance is also referred to as “system utterance”.
  • the usage purpose of the interactive device is not limited.
  • the interactive device may be used in a FAQ (Frequently Asked Questions) system that answers a user's question, or may be used in a chat system that performs an arbitrary story that is not limited to FAQ.
  • the interactive device may be incorporated in a virtual assistant function that performs an arbitrary task based on a voice operation.
  • the interactive device may be a part of a client-server type system or a single device. In the present embodiment, it is assumed that the interactive device is a computer that functions as a server.
  • FIG. 1 is a diagram illustrating an example of a functional configuration of the interactive apparatus 10 according to the embodiment.
  • the interactive device 10 can be connected to at least one user terminal 90 via a communication network.
  • the configuration of the communication network is not limited at all, and may be configured using, for example, at least one of the Internet and an intranet.
  • the user terminal 90 is a computer (client terminal) operated by a user.
  • the user terminal 90 has a function of transmitting an utterance (user utterance) input by the user to the dialog device 10 and a function of outputting an utterance (system utterance) received from the dialog device 10.
  • the type of the user terminal 90 is not limited, and may be, for example, a stationary computer or device or a portable computer or device.
  • Specific examples of the user terminal 90 include, but are not limited to, a smartphone, a tablet terminal, a wearable terminal, a personal computer, a smart speaker, a smart TV, and a smart home appliance.
  • the dialogue apparatus 10 records the utterance text constituting the automatic dialogue executed with the user terminal 90 in the log 40.
  • the utterance sentence is a sentence indicating the utterance of the user or the bot, and can be expressed by a character string.
  • a log is a permanent record of the history of spoken sentences.
  • the log 40 is realized by a logical file of an arbitrary format, and is stored in an arbitrary storage (storage device).
  • One of the features of the dialogue apparatus 10 is a method for recording an utterance sentence in a log. Hereinafter, the characteristics will be described in detail.
  • the dialogue apparatus 10 includes, as functional elements, a front function 20 that comprehensively controls automatic dialogue and one or more bot functions 30 that output system utterances related to a specific topic.
  • the front function 20 determines a bot function 30 for processing the user utterance received from the user terminal 90, and transfers the user utterance to the bot function 30. Thereafter, the front function 20 transmits the system utterance output from the bot function 30 to the user terminal 90 as a response.
  • the front function 20 records the user utterance and system utterance in the log 40.
  • Each bot function 30 refers to a scenario that is a rule of a dialog (a rule that defines what kind of system utterance is output when what kind of user utterance is accepted).
  • the bot function 30 determines a system utterance corresponding to the user utterance based on the scenario, and outputs the determined system utterance to the front function 20.
  • the front function 20 includes an acquisition unit 21, a concealment unit 22, and a recording unit 23.
  • the acquisition unit 21 is a functional element that acquires an utterance sentence constituting an automatic dialogue executed with a user.
  • the acquisition unit 21 acquires an utterance sentence indicating a user utterance or a system utterance.
  • the concealing unit 22 is a functional element that executes concealment processing for concealing at least a part of secret information on the utterance sentence in a state where the utterance sentence is not yet recorded in the log 40.
  • Confidential information is information that is desirably not notified to a third party (at least a person different from the user). What information is confidential information may be arbitrarily determined.
  • the confidential information may include at least a part of personal information or may include at least a part of confidential company information.
  • Concealment is a process for making it impossible or difficult to identify original information by a third party.
  • the recording unit 23 is a functional element that records in the log 40 an utterance sentence in which at least a part of secret information is concealed.
  • FIGS. 2 and 3 are sequence diagrams illustrating an example of the operation of the interactive apparatus 10.
  • FIG. 4 is a diagram showing some examples of the log 40.
  • the front function 20 and the bot function 30 of the interactive apparatus 10 are individually shown, and one or more bot functions 30 are simply shown in one block.
  • step S11 the user terminal 90 transmits an automatic dialogue start request to the dialogue device 10.
  • the dialog device 10 receives and processes the start request, so that the user can perform an automatic dialog using the user terminal 90.
  • the start request is a data signal including an utterance attribute.
  • the utterance attribute is information indicating a property or characteristic related to the user utterance, and can be used in an automatic dialogue.
  • the utterance attribute is provided from the user terminal 90 to the dialogue apparatus 10 in the form included in the start request or together with the user utterance.
  • the specific content of the speech attribute is not limited.
  • the speech attributes include a user attribute indicating the property or characteristic of the user who intends to use the automatic dialogue and a terminal attribute indicating the property or characteristic of the user terminal 90.
  • the type and number of data items indicating user attributes are not limited.
  • the user attribute may be one selected from a name, gender, age, and address, or may be a combination of two or more items arbitrarily selected from the four items.
  • the user attribute may include one or more other data items different from the four items.
  • the type and number of data items indicating terminal attributes are not limited at all.
  • the terminal attribute may be one selected from the terminal name, the operating system name, and the operation mode, or may be a combination of two or more items arbitrarily selected from the three items.
  • the terminal attribute may include one or more data items different from the three items.
  • the acquisition unit 21 receives the start request.
  • the concealment unit 22 determines the concealment level based on the speech attribute of the start request.
  • the concealment level is an index indicating at least one of a method for concealing secret information (concealment method) and a data item of secret information to be concealed.
  • the concealment method may be deletion of at least part of secret information.
  • the concealment level is a deletion level.
  • the hidden secret information is excluded from the character string to be recorded in the log 40 and is not recorded in the log 40 from the beginning.
  • the concealment method may be a process of replacing at least a part of secret information with one or more concept words.
  • the concealment level is a replacement level.
  • a concept word is a phrase that abstracts the original information. Therefore, in the case of the replacement level, the secret information to be concealed is recorded in the log 40 after being replaced with another word that is more ambiguous.
  • the concept word may be a phrase indicating the category of the original information or a variable name corresponding to the original information.
  • the concept word may be an ambiguous expression that gives no clue to the original information. For example, if the surname “Tanaka” is concealed at the substitution level, the character string “Tanaka” is a notional word “% userInfo.surname%”, “surname”, “name”, or “% variable_1%”. May be substituted.
  • the replacement level may be set in multiple stages. This means that a plurality of types of abstraction levels (abstraction levels) of certain secret information are prepared. Two types of replacement levels may be prepared, or three or more types of replacement levels may be prepared.
  • the concealment level in this case includes a first replacement level that replaces at least a part of secret information with the first concept word, and at least a part of the secret information with an abstraction level higher than that of the first concept word. And a second substitution level for substitution with a lower second concept word.
  • the first replacement level and the second replacement level are prepared in advance, and an example is shown in which two surnames “Tanaka” and “Suzuki” are concealed by the two types of replacement levels.
  • both of the two character strings “Tanaka” and “Suzuki” may be replaced with the first concept word “% userInfo.surname%”.
  • the character string “Tanaka” is replaced with the second conceptual word “% userInfo.surname1%”
  • the character string “Suzuki” is replaced with the second conceptual word “% userInfo.surname2%”. May be.
  • the first replacement level is a process of replacing two surnames in an indistinguishable form
  • the second replacement level is a process of replacing two surnames in a distinguishable form. Therefore, the second concept word is less abstract than the first concept word.
  • the concealment level may be selectable from a plurality of replacement levels, may be selectable from a deletion level and one replacement level, or may be a deletion level. And a plurality of substitution levels.
  • the type of secret information that should be concealed may be set arbitrarily.
  • the concealment level may be set so as to conceal only one type of secret information, or the concealment level may be set so as to conceal two or more types of secret information.
  • the concealment level may be set so as to conceal only a part or all of the assumed secret information.
  • the concealment level may be set such that one or more data items selected from the name, age, gender, and location are concealed. In any case, the concealment level is set so as to conceal at least a part of the secret information.
  • the concealment level may indicate both the concealment method and the type of secret information to be concealed, or only one of them.
  • the concealment level may be set for each individual user, or may be common to all users. Alternatively, the concealment level may be set for each individual speech attribute, for example, for each age group of the user.
  • the concealment level of the speech sentence and the concealment level of the speech attribute may be the same or different from each other. In any case, the concealment level can be flexibly set in various ways.
  • the dialogue apparatus 10 stores information related to the concealment level in advance so that the concealment unit 22 can determine the concealment level.
  • stored is not limited.
  • the concealment level may be represented by any one of a setting file, a database, a mapping table, an algorithm, a mathematical formula, and a threshold, or may be represented by a combination of two or more arbitrarily selected from these methods. May be.
  • the concealment level can be set in various ways.
  • the concealment unit 22 determines one of one or more concealment levels prepared in advance based on the speech attribute included in the start request.
  • the concealment unit 22 executes concealment processing for the start request based on the determined concealment level.
  • the concealing unit 22 conceals the secret information (for example, at least a part of the user attributes) specified by the concealment level in the character string indicating the start request to be recorded in the log 40 using the specified concealment method. To do. For example, if the determined concealment level is the deletion level, the concealment unit 22 deletes the designated secret information from the character string. If the determined concealment level is the replacement level, the concealment unit 22 replaces the designated secret information in the character string with a concept word.
  • the method for specifying the secret information to be concealed from the character string to be processed is not limited.
  • the concealment unit 22 may specify the secret information using at least one method selected from character string matching, machine learning, anaphora analysis, and specific expression extraction (entity linking).
  • the concealment unit 22 specifies secret information to be concealed by character string matching, and conceals the secret information. You may process based on a level.
  • step S14 the recording unit 23 records the start request subjected to the concealment process in the log 40. Since the secret information to be concealed is already concealed (for example, deleted or replaced) at this point, it is not written in the log 40 from the beginning.
  • step S15 an automatic dialogue is executed between the user terminal 90 and the dialogue device 10 in response to the start request.
  • step S ⁇ b> 15 the front function 20 executes a process for starting an automatic dialogue, and thereafter, a user utterance and a system utterance are transmitted between the user terminal 90 and the dialogue device 10. The user can acquire or transmit desired information in this automatic dialogue.
  • FIG. 3 shows an example of recording of utterance data in the log during the automatic dialogue (in other words, in step S15).
  • the user terminal 90 transmits user utterance data to the dialogue apparatus 10.
  • the user utterance data is data including an utterance sentence representing the user utterance and an utterance attribute.
  • the acquisition method of the user utterance (uttered text) in the user terminal 90 is not limited.
  • the user terminal 90 may acquire a user utterance input by voice (that is, a user utterance represented by voice data), or a user utterance input by a character string (that is, a user utterance represented by text data). May be obtained.
  • the user terminal 90 may automatically generate a user utterance in the form of voice data or text data based on a user instruction.
  • the utterance attribute may be the same as that included in the start request, or may be different from at least a part of what is included in the start request.
  • the utterance attribute is data associated with the user utterance (utterance sentence).
  • the user terminal 90 generates user utterance data including the acquired user utterance and utterance attribute, and transmits the user utterance data.
  • the front function 20 receives the user utterance data.
  • step S152 the front function 20 determines the bot function 30 for processing the user utterance data, and transfers the user utterance data to the corresponding bot function 30.
  • step S153 the concealment unit 22 determines the concealment level based on the utterance attribute of the user utterance data.
  • the concealing unit 22 determines the concealment level as in step S12.
  • step S154 the concealment unit 22 executes concealment processing on the user utterance data based on the determined concealment level.
  • the concealment unit 22 executes concealment processing as in step S13.
  • the utterance text of the user utterance can be freely described. Therefore, when identifying the secret information to be concealed from the utterance text, the concealment unit 22 uses at least one method selected from character string matching, machine learning, anaphora analysis, and specific expression extraction (entity linking).
  • the secret information may be specified from the utterance text.
  • the concealment unit 22 may specify secret information to be concealed in the speech attribute by character string matching.
  • step S155 the recording unit 23 records the concealed user utterance data in the log 40. Similar to step S14, the user utterance data is recorded in the log 40 in such a manner that secret information to be concealed does not appear as it is.
  • the dialogue apparatus 10 conceals the place name when recording the user utterance (uttered text) “Tell me the weather in Minato-ku Akasaka and Yokosuka City” in the log 40, and includes the utterance attribute (clientData) The user attribute (userInfo) is hidden.
  • clientData the utterance attribute
  • userInfo The user attribute (userInfo) is hidden.
  • “Minato-ku Akasaka” is assumed to be the user's work place
  • “Yokosuka City” is assumed to be the user's residence.
  • deletion level, the first replacement level, and the second replacement level processing for replacing with a second concept word having a lower abstraction level than the first concept word
  • the deletion level, the first replacement level, and the second replacement level processing for replacing with a second concept word having a lower abstraction level than the first concept word
  • FIG. 4 shows data described by applying AIML (Artificial Intelligence Markup Language), but the method and rules for describing the speech data are not limited at all.
  • AIML Artificial Intelligence Markup Language
  • the concealment unit 22 When the concealment unit 22 selects the deletion level as the concealment level, the concealment unit 22 deletes these two place names from the utterance text. Therefore, the recording unit 23 records the character string “Tell me about the weather” in the log 40. Further, the concealment unit 22 deletes the name “tanaka” and the age “28” constituting the user attribute.
  • the concealment unit 22 When the concealment unit 22 selects the first replacement level as the concealment level, the concealment unit 22 replaces these two place names with a common character string. For example, the concealment unit 22 uses the variable name “% userInfo.place%” corresponding to the place name as the first concept word, and replaces both “Minato-ku Akasaka” and “Yokosuka City” with this variable name. Further, the concealment unit 22 deletes the name “tanaka” and the age “28” constituting the user attribute. As described above, the concealment level may be different between the utterance text and the utterance attribute.
  • the concealment unit 22 When the concealment unit 22 selects the second replacement level as the concealment level, the concealment unit 22 replaces the two place names with different character strings. For example, the concealment unit 22 replaces “Minato-ku Akasaka” with the variable name “% userInfo.workplace%”, which is the second concept word corresponding to the workplace. Further, the concealment unit 22 replaces “Yokosuka City” with the variable name “% userInfo.home%” which is the second concept word corresponding to the place of residence. Further, the concealment unit 22 deletes the name “tanaka” and the age “28” constituting the user attribute.
  • the method of recording the utterance text in the log is different among the three examples.
  • the concealment level is the deletion level
  • the secret information that is the object of concealment is completely deleted from the utterance text, so that no clue regarding the place name is recorded in the log 40. Therefore, even if a third party other than the user (for example, the administrator of the dialogue apparatus 10) reads the log 40, it cannot be specified what weather the user has told me about. For example, the “Tell me the weather with” field can also contain a time such as “Today” or “Tomorrow”.
  • the concealment level is the first concealment level
  • the first concept word “% userInfo.place%” is described in the portion corresponding to the secret information.
  • the concealment level is the second concealment level
  • second concept words “% userInfo.workplace%” and “% userInfo.home%” are described on the log 40. Therefore, the third party can guess that the user has heard the weather at two places and that the place is related to the work place and the place of residence, but cannot know the specific place. Therefore, in the example of FIG. 4, the abstract level of the utterance sentence recorded in the log 40 is the highest in the deletion level, the lowest in the second replacement level, and the deletion level in the first replacement level. And the second replacement level.
  • the recording method of the speech attribute in the log is the same in the three examples.
  • the concealment unit 22 may replace at least a part of secret information in the speech attribute with a concept word.
  • the bot function 30 outputs system utterance data to the front function 20 in response to the user utterance.
  • the bot function 30 receives user utterance data from the front function 20 and refers to a scenario based on the user utterance and utterance attributes included in the data, thereby presuming that the bot function 30 is appropriate as a response to the user utterance. Determine the utterance. Then, the bot function 30 outputs system utterance data including the determined system utterance to the front function 20.
  • the system utterance data is data including an utterance sentence representing the system utterance.
  • the method of expressing the system utterance is not limited. For example, the system utterance can be expressed by voice or text.
  • step S157 the front function 20 transmits the system utterance data to the user terminal 90.
  • the front function 20 may transmit the system utterance data after designating the output format of the system utterance (that is, after shaping the system utterance).
  • the user terminal 90 receives and outputs the system utterance data, so that the user can recognize the reply of the bot to the user utterance.
  • step S158 the concealment unit 22 determines the concealment level of the system utterance. Similar to step S153, the concealment unit 22 may determine the concealment level based on the speech attribute included in the user speech data.
  • step S159 the concealment unit 22 executes concealment processing on the system utterance data based on the determined concealment level.
  • the concealment unit 22 may specify secret information to be concealed based on the variable. For example, if the system utterance output to the user terminal 90 is “Minato-ku Akasaka and Yokosuka City are clear”, the system utterance is the variable “% userInfo.workplace%” corresponding to “Minato-ku Akasaka”. The variable “% userInfo.home%” corresponding to “Yokosuka City” may be included. In this case, the concealment unit 22 can determine to conceal these two place names based on the variable. Alternatively, the concealment unit 22 may specify the secret information by the same process as in step S154.
  • step S160 the recording unit 23 records the concealed system utterance data in the log 40. Similar to step S155, the system utterance data is recorded in the log 40 in such a manner that secret information to be concealed does not appear as it is.
  • FIG. 4 shows processes similar to steps S151 and S152 as steps S161 and S162.
  • User utterance data is recorded in the log 40 in accordance with step S161.
  • system utterance data is generated and transmitted to the user terminal 90 in accordance with step S162, and the system utterance data is recorded in the log 40.
  • the secret information to be concealed is reliably concealed by the cooperation of the acquisition unit 21, the concealment unit 22, and the recording unit 23, the utterance sentence and the utterance attribute are recorded in the log 40 for the first time. This process is completely different from the process of deleting the secret information once recorded on the log 40 later.
  • the dialogue apparatus 10 may execute the concealment process for the utterance sentence without performing the concealment process for the utterance attribute. That is, it is not essential to conceal the speech attribute.
  • each functional block may be realized by one device physically and / or logically coupled, and two or more devices physically and / or logically separated may be directly and / or indirectly. (For example, wired and / or wireless) and may be realized by the plurality of devices.
  • the dialogue apparatus 10 may function as a computer that performs the processing according to the present embodiment.
  • FIG. 5 is a diagram illustrating an example of a hardware configuration of the computer 100 that functions as the interactive apparatus 10.
  • the computer 100 may physically include a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.
  • the term “apparatus” can be read as a circuit, a device, a unit, or the like.
  • the hardware configuration of the interactive device 10 may be configured to include one or a plurality of each device illustrated in the figure, or may be configured not to include some devices.
  • Each function in the interactive apparatus 10 is performed by causing the processor 1001 to perform computation by reading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, and performing communication by the communication device 1004, the memory 1002, and the storage 1003. This is realized by controlling the reading and / or writing of data.
  • the processor 1001 controls the entire computer by operating an operating system, for example.
  • the processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like.
  • CPU central processing unit
  • the interactive device 10 may be realized by the processor 1001.
  • the processor 1001 reads a program (program code), software module, and data from the storage 1003 and / or the communication device 1004 to the memory 1002, and executes various processes according to these.
  • a program program code
  • the program a program that causes a computer to execute at least a part of the operations described in the above embodiments is used.
  • at least a part of the functional elements of the interactive apparatus 10 may be realized by a control program stored in the memory 1002 and operated by the processor 1001, and may be realized similarly for other functional blocks.
  • the above-described various processes have been described as being executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001.
  • the processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via a telecommunication line.
  • the memory 1002 is a computer-readable recording medium and includes, for example, at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. May be.
  • the memory 1002 may be called a register, a cache, a main memory (main storage device), or the like.
  • the memory 1002 can store a program (program code), a software module, and the like that can be executed to implement the wireless communication method according to the embodiment of the present invention.
  • the storage 1003 is a computer-readable recording medium, such as an optical disk such as a CDROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disk, Blu-ray (registered). (Trademark) disk), smart card, flash memory (for example, card, stick, key drive), floppy disk, magnetic strip, etc.
  • the storage 1003 may be referred to as an auxiliary storage device.
  • the storage medium described above may be, for example, a table including a memory 1002 and / or a storage 1003, a server, or other suitable medium.
  • the communication device 1004 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as a network device, a network controller, a network card, a communication module, or the like.
  • a network device for performing communication between computers via a wired and / or wireless network
  • a network controller for controlling network access
  • a network card for controlling communication between computers via a wired and / or wireless network
  • a communication module or the like.
  • at least some functional elements of the interactive device 10 may be realized by the communication device 1004.
  • the input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that accepts an input from the outside.
  • the output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. Note that the input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).
  • each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information.
  • the bus 1007 may be configured with a single bus or may be configured with different buses between apparatuses.
  • the computer 100 is configured to include hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). Some or all of the functional blocks may be realized by the hardware. For example, the processor 1001 may be implemented by at least one of these hardware.
  • DSP digital signal processor
  • ASIC application specific integrated circuit
  • PLD programmable logic device
  • FPGA field programmable gate array
  • the interactive apparatus includes an acquisition unit that acquires an utterance sentence that constitutes an automatic dialogue executed with a user, and a state in which the utterance sentence is not yet recorded in the log.
  • a concealing unit that executes concealment processing for concealing at least a part of secret information on an utterance sentence
  • a recording unit that records an utterance sentence in which at least a part of secret information is concealed in a log.
  • the security of the confidential information appearing in the dialogue can be ensured more reliably.
  • the amount of hardware resources used by the interactive device for example, processor load and memory consumption (Amount) can be suppressed.
  • the concealment unit may execute the concealment process based on at least one concealment level selected from a plurality of concealment levels determined in advance.
  • the concealment process can be executed flexibly as necessary. In other words, the abstraction level of the utterance sentence recorded in the log can be changed as necessary.
  • the plurality of concealment levels may include at least a deletion level indicating deletion of at least some secret information and a replacement level replacing at least some secret information with concept words. In this case, it is possible to select whether the information to be concealed is completely deleted or replaced with another phrase.
  • the plurality of concealment levels includes a first replacement level that replaces at least a part of secret information with the first concept word, and at least a part of the secret information in comparison with the first concept word. It may include at least a second replacement level for replacement with a second concept word having a low level of abstraction.
  • the acquisition unit further acquires an utterance attribute associated with the utterance sentence
  • the concealment unit further performs concealment processing on the utterance attribute
  • the recording unit includes at least a part of the utterance attribute.
  • An utterance attribute in which secret information is concealed may be further recorded in a log.
  • notification of information is not limited to the aspect and embodiment described in this specification, and may be performed by other methods.
  • notification of information includes physical layer signaling (for example, DCI (Downlink Control Information), UCI (Uplink Control Information)), upper layer signaling (for example, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling), It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block))), other signals, or a combination thereof.
  • the RRC signaling may be called an RRC message, and may be, for example, an RRC connection setup message, an RRC connection reconfiguration message, or the like.
  • Each aspect / embodiment described in this specification includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • SUPER 3G IMT-Advanced
  • 4G 5G
  • FRA Full Radio Access
  • W-CDMA Wideband
  • GSM registered trademark
  • CDMA2000 Code Division Multiple Access 2000
  • UMB User Mobile Broadband
  • IEEE 802.11 Wi-Fi
  • IEEE 802.16 WiMAX
  • IEEE 802.20 UWB (Ultra-Wideband)
  • Bluetooth registered trademark
  • systems using other appropriate systems and / or next-generation systems extended based on these systems.
  • Information etc. can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.
  • the input / output information or the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.
  • the determination may be performed by a value represented by 1 bit (0 or 1), may be performed by a true / false value (Boolean: true or false), or may be performed by comparing numerical values (for example, a predetermined value) Comparison with the value).
  • notification of predetermined information is not limited to explicitly performed, but is performed implicitly (for example, notification of the predetermined information is not performed). Also good.
  • software, instructions, etc. may be transmitted / received via a transmission medium.
  • software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave.
  • wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave.
  • DSL digital subscriber line
  • wireless technology such as infrared, wireless and microwave.
  • system and “network” used in this specification are used interchangeably.
  • information, parameters, and the like described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by other corresponding information.
  • the radio resource may be indicated by an index.
  • User terminals and mobile communication terminals are known by those skilled in the art from subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, It may also be called mobile terminal, wireless terminal, remote terminal, handset, user agent, mobile client, client, or some other appropriate terminology.
  • determining may encompass a wide variety of actions. “Judgment” and “determination” are, for example, judgment, calculation, calculation, processing, derivation, investigating, looking up (eg, table) , Searching in a table or another data structure), ascertaining what has been ascertaining, and so on. In addition, “determination” and “determination” are reception (for example, receiving information), transmission (for example, transmitting information), input (input), output (output), and access. (Accessing) (eg, accessing data in a memory) may be considered as “determined” or “determined”.
  • determination and “determination” means that “resolving”, “selecting”, “choosing”, “establishing”, and “comparing” are regarded as “determining” and “deciding”. May be included. In other words, “determination” and “determination” may include considering some operation as “determination” and “determination”.
  • connection means any direct or indirect connection or coupling between two or more elements and It can include the presence of one or more intermediate elements between two “connected” or “coupled” elements.
  • the coupling or connection between the elements may be physical, logical, or a combination thereof.
  • the two elements are radio frequency by using one or more wires, cables and / or printed electrical connections, as well as some non-limiting and non-inclusive examples.
  • electromagnetic energy such as electromagnetic energy having wavelengths in the region, the microwave region and the light (both visible and invisible) region can be considered “connected” or “coupled” to each other.
  • the phrase “based on” does not mean “based only on”, unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
  • any reference to the element does not generally limit the quantity or order of the elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to the first and second elements does not mean that only two elements can be employed there, or that in some way the first element must precede the second element.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

一実施形態に係る対話装置は、ユーザとの間で実行される自動対話を構成する発話文章を取得する取得部と、発話文章がまだログに記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を発話文章に対して実行する隠蔽部と、少なくとも一部の秘密情報が隠蔽された発話文章をログに記録する記録部とを備える。

Description

対話装置
 本発明の一側面は対話装置に関する。
 ユーザとの間で実行される自動対話の記録を管理する仕組みが知られている。例えば、特許文献1には、所定の処理に用いられた情報を削除する指示を受け付けると、該情報を削除するとともに、削除される該情報を用いた所定の処理に係る識別子を特定し、少なくとも特定した識別子に対応付けられた応答に係る音声の内容を対話履歴記憶部から削除する対話履歴管理装置が記載されている。
特開2015-169768号公報
 特許文献1に記載の装置では、削除指示を受け付けない限り削除処理を実行しない。しかし、対話を構成する発話文章の中には、当初から記録しない方が好ましい秘密情報が存在し得る。そこで、対話の中で現れた秘密情報のセキュリティをより確実に確保することが望まれている。
 本発明の一側面に係る対話装置は、ユーザとの間で実行される自動対話を構成する発話文章を取得する取得部と、発話文章がまだログに記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を発話文章に対して実行する隠蔽部と、少なくとも一部の秘密情報が隠蔽された発話文章をログに記録する記録部とを備える。
 このような側面においては、発話文章中の秘密情報の少なくとも一部が最初からログに記録されないので、対話の中で現れた秘密情報のセキュリティをより確実に確保することができる。
 本発明の一側面によれば、対話の中で現れた秘密情報のセキュリティをより確実に確保することができる。
実施形態に係る対話装置の機能構成の一例を示す図である。 実施形態に係る対話装置の動作の一例を示すシーケンス図である。 実施形態に係る対話装置の動作の一例を示すシーケンス図である。 ログのいくつかの例を示す図である。 実施形態に係る対話装置に用いられるコンピュータのハードウェア構成の一例を示す図である。
 以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。
 対話装置は、ユーザとの間で自動対話を実行するコンピュータである。ユーザとは対話装置を利用する人である。自動対話とはユーザとコンピュータ(このコンピュータは一般に「ボット」ともいわれる。)との間の会話のやり取りであり、この自動対話ではコンピュータはユーザからの発話に応答して自動的に発話する。発話とはユーザまたはコンピュータが発する一回分の話である。以下では、ユーザの発話を「ユーザ発話」ともいい、コンピュータの発話を「システム発話」ともいう。
 対話装置の利用目的は何ら限定されない。例えば、対話装置はユーザの質問に回答するFAQ(Frequently Asked Questions)システムで用いられてもよいし、FAQに限られない任意の話を行う雑談システムで用いられてもよい。あるいは、対話装置は、音声操作に基づいて任意のタスクを実行するバーチャルアシスタント機能に組み込まれてもよい。
 対話装置はクライアント-サーバ型システムの一部であってもよいし、単体の装置であってもよい。本実施形態では、対話装置はサーバとして機能するコンピュータであるとする。図1は、実施形態に係る対話装置10の機能構成の一例を示す図である。対話装置10は通信ネットワークを介して少なくとも一つのユーザ端末90と接続することができる。通信ネットワークの構成は何ら限定されず、例えばインターネットおよびイントラネットの少なくとも一方を用いて構成されてもよい。
 ユーザ端末90はユーザにより操作されるコンピュータ(クライアント端末)である。ユーザ端末90は、ユーザにより入力された発話(ユーザ発話)を対話装置10に送信する機能と、対話装置10から受信した発話(システム発話)を出力する機能とを備える。ユーザ端末90の種類は限定されず、例えば、据置型のコンピュータまたは装置であってもよいし、携帯型のコンピュータまたは装置であってもよい。ユーザ端末90の具体的な例として、スマートフォン、タブレット端末、ウェアラブル端末、パーソナルコンピュータ、スマートスピーカ、スマートテレビ、およびスマート家電が挙げられるが、これらに限定されない。
 対話装置10はユーザ端末90との間で実行された自動対話を構成する発話文章をログ40に記録する。発話文章とはユーザまたはボットの発話を示す文章であり、文字列で表現することができる。ログとは発話文章の履歴の永続的な記録である。ログ40は任意の形式の論理ファイルにより実現され、任意のストレージ(記憶装置)に保存される。対話装置10の特徴の一つは、発話文章のログへの記録方法にある。以下では、その特徴について特に詳しく説明する。
 図1に示すように、対話装置10は機能要素として、自動対話を統括的に制御するフロント機能20と、特定の話題に関するシステム発話を出力する1以上のボット機能30とを備える。フロント機能20は、ユーザ端末90から受信したユーザ発話を処理させるボット機能30を決定し、そのボット機能30にユーザ発話を転送する。その後、フロント機能20は、そのボット機能30から出力されたシステム発話をユーザ端末90に応答として送信する。また、フロント機能20はそのユーザ発話およびシステム発話をログ40に記録する。それぞれのボット機能30は、対話のルール(どのようなユーザ発話を受け付けた場合にどのようなシステム発話を出力するかを規定したルール)であるシナリオを参照する。ボット機能30は、フロント機能20からユーザ発話を受け付けると、そのユーザ発話に対応するシステム発話をそのシナリオに基づいて決定し、決定したシステム発話をフロント機能20に出力する。
 本実施形態では、フロント機能20は取得部21、隠蔽部22、および記録部23を備える。取得部21は、ユーザとの間で実行される自動対話を構成する発話文章を取得する機能要素である。取得部21は、ユーザ発話またはシステム発話を示す発話文章を取得する。隠蔽部22は、その発話文章がまだログ40に記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を発話文章に対して実行する機能要素である。秘密情報とは第三者(少なくともユーザとは異なる者)に知らせないことが望ましい情報である。どのような情報を秘密情報とするかは任意に定められてよい。例えば、秘密情報は個人情報の少なくとも一部を含んでもよいし、企業の機密情報の少なくとも一部を含んでもよい。隠蔽とは、第三者による元の情報の特定を不可能にまたは困難にするための処理である。記録部23は、少なくとも一部の秘密情報が隠蔽された発話文章をログ40に記録する機能要素である。
 図2~図4を参照しながら対話装置10の動作を説明する。図2および図3は、対話装置10の動作の一例を示すシーケンス図である。図4はログ40のいくつかの例を示す図である。理解を容易にするために、図2および図3では、対話装置10のフロント機能20およびボット機能30を個々に示すと共に、1以上のボット機能30を一つのブロックで簡易に示す。
 ステップS11では、ユーザ端末90が自動対話の開始要求を対話装置10に送信する。対話装置10がこの開始要求を受信および処理することで、ユーザはユーザ端末90を用いて自動対話を行うことができる。
 本実施形態では、その開始要求は発話属性を含むデータ信号である。発話属性とはユーザ発話に関連する性質または特徴を示す情報であり、自動対話で用いられ得る。本実施形態では、発話属性は開始要求に含まれたかたちで、またはユーザ発話と共に、ユーザ端末90から対話装置10に提供される。発話属性の具体的な内容は限定されない。本実施形態では、発話属性は、自動対話を利用しようとするユーザの性質または特徴を示すユーザ属性と、ユーザ端末90の性質または特徴を示す端末属性とを含むものとする。ユーザ属性を示すデータ項目の種類および個数は何ら限定されない。例えば、ユーザ属性は名前、性別、年齢、および住所から選択される一つであってもよいし、該4項目から任意に選択される2以上の項目の組合せであってもよい。あるいは、ユーザ属性は該4項目とは異なる他の1以上のデータ項目を含んでもよい。端末属性を示すデータ項目の種類および個数も何ら限定されない。例えば、端末属性は端末名、オペレーティングシステム名、および作動モードから選択される一つであってもよいし、該3項目から任意に選択される2以上の項目の組合せであってもよい。あるいは、端末属性は該3項目とは異なる他の1以上のデータ項目を含んでもよい。いずれにしても、対話装置10では取得部21がその開始要求を受信する。
 ステップS12では、隠蔽部22がその開始要求の発話属性に基づいて隠蔽レベルを決定する。隠蔽レベルとは、秘密情報を隠蔽する方法(隠蔽方法)と、隠蔽すべき秘密情報のデータ項目との少なくとも一方を示す指標である。
 隠蔽方法は、少なくとも一部の秘密情報の削除であってもよく、この場合には、隠蔽レベルは削除レベルである。削除レベルの場合には、隠蔽される秘密情報は、ログ40に記録されようとする文字列から除外されるので、ログ40には最初から記録されない。
 あるいは、隠蔽方法は、少なくとも一部の秘密情報を1以上の概念語に置換する処理であってもよく、この場合には、隠蔽レベルは置換レベルである。概念語とは元の情報を抽象化した語句である。したがって、置換レベルの場合には、隠蔽される秘密情報は、より曖昧な別の言葉に置き換えられた上でログ40に記録される。概念語は、元の情報のカテゴリを示す語句であってもよいし、元の情報に対応する変数名であってもよい。あるいは、概念語は元の情報の手掛かりを全く与えないような曖昧な表現であってもよい。例えば、「田中」という姓が置換レベルで隠蔽される場合には、その文字列「田中」は「%userInfo.surname%」、「surname」、「name」、または「%variable_1%」という概念語に置換されてもよい。
 置換レベルは複数段階で設定されてもよい。これは、或る秘密情報の抽象化の度合い(抽象度)が複数種類用意されることを意味する。2種類の置換レベルが用意されてもよいし3種類以上の置換レベルが用意されてもよい。いずれにしても、この場合の隠蔽レベルは、少なくとも一部の秘密情報を第1概念語に置換する第1置換レベルと、少なくとも一部の秘密情報を、該第1概念語よりも抽象度が低い第2概念語に置換する第2置換レベルとを含んでもよい。
 第1置換レベルおよび第2置換レベルが予め用意されており、「田中」および「鈴木」という二つの姓をその2種類の置換レベルで隠蔽する例を示す。例えば、第1置換レベルでは、「田中」および「鈴木」という二つの文字列の双方が「%userInfo.surname%」という第1概念語に置き換えられてもよい。一方、第2置換レベルでは、文字列「田中」は「%userInfo.surname1%」という第2概念語に置き換えられ、文字列「鈴木」は「%userInfo.surname2%」という第2概念語に置き換えられてもよい。この例では、第1置換レベルは二つの姓を区別できないかたちで置換する処理であるのに対して、第2置換レベルは二つの姓を区別するかたちで置換する処理である。したがって、第2概念語は第1概念語よりも抽象度が低い。
 隠蔽方法は一つのみ用意されてもよいし、2以上の隠蔽方法が用意されてもよい。複数の隠蔽方法が用意される場合には、隠蔽レベルは、複数の置換レベルから選択可能であってもよいし、削除レベルと一つの置換レベルとから選択可能であってもよいし、削除レベルと複数の置換レベルとから選択可能であってもよい。
 隠蔽すべき秘密情報の種類は任意に設定されてよい。例えば、一種類の秘密情報のみを隠蔽するように隠蔽レベルが設定されてもよいし、2種類以上の秘密情報を隠蔽するように隠蔽レベルが設定されてもよい。あるいは、想定される秘密情報の一部のみまたはすべてを隠蔽するように隠蔽レベルが設定されてもよい。より具体的な例として、名前、年齢、性別、および場所から選択される一または複数のデータ項目が隠蔽されるように隠蔽レベルが設定されてもよい。いずれにしても、隠蔽レベルは、少なくとも一部の秘密情報を隠蔽するように設定される。
 隠蔽レベルは隠蔽方法と隠蔽すべき秘密情報の種類との双方を示してもよいし、どちらか一方のみを示してもよい。隠蔽レベルは個々のユーザ毎に設定されてもよいし、すべてのユーザに共通であってもよい。あるいは、隠蔽レベルは個々の発話属性毎に設定されてもよく、例えば、ユーザの年齢層毎に設定されてもよい。発話文章の隠蔽レベルと発話属性の隠蔽レベルとは同じでもよいし互いに異なってもよい。いずれにしても、隠蔽レベルは様々な態様で柔軟に設定され得る。
 対話装置10は、隠蔽部22が隠蔽レベルを決定できるように、隠蔽レベルに関する情報を予め記憶する。記憶される隠蔽レベルの記述方法は限定されない。例えば、隠蔽レベルは設定ファイル、データベース、マッピングテーブル、アルゴリズム、数式、および閾値のうちのいずれかの手法で表されてもよいし、これらの手法から任意に選択される2以上の組合せで表されてもよい。このように、隠蔽レベルは様々な手法で設定され得る。いずれにしても、隠蔽部22は開始要求に含まれる発話属性に基づいて、予め用意された1以上の隠蔽レベルのうちの一つを決定する。
 ステップS13では、隠蔽部22が、決定した隠蔽レベルに基づいて、開始要求に対する隠蔽処理を実行する。隠蔽部22は、ログ40に記録しようとする、開始要求を示す文字列のうち、その隠蔽レベルで指定された秘密情報(例えば、ユーザ属性の少なくとも一部)を、指定された隠蔽方法で隠蔽する。例えば、決定した隠蔽レベルが削除レベルであれば、隠蔽部22は指定された秘密情報を該文字列から削除する。決定した隠蔽レベルが置換レベルであれば、隠蔽部22は該文字列内の指定された秘密情報を概念語に置換する。
 隠蔽しようとする秘密情報を処理対象の文字列から特定する方法は限定されない。例えば、隠蔽部22はその秘密情報を、文字列マッチング、機械学習、照応解析、および固有表現抽出(エンティティリンキング)から選択される少なくとも一つの手法を用いて特定してもよい。開始要求を処理する場合には、発話属性は予め定められた規則で開始要求に記述されるので、隠蔽部22は、隠蔽しようとする秘密情報を文字列マッチングにより特定し、その秘密情報を隠蔽レベルに基づいて処理してもよい。
 ステップS14では、記録部23が、隠蔽処理された開始要求をログ40に記録する。隠蔽されるべき秘密情報は、この時点で既に隠蔽(例えば削除または置換)されているので、ログ40には当初から書き込まれない。
 ステップS15では、開始要求を契機として、ユーザ端末90と対話装置10との間で自動対話が実行される。ステップS15では、フロント機能20は自動対話を開始するための処理を実行し、その後、ユーザ端末90と対話装置10との間でユーザ発話およびシステム発話が伝送される。ユーザはこの自動対話において所望の情報を取得したり発信したりすることができる。
 図3は、その自動対話中の(言い換えると、ステップS15における)発話データのログへの記録の一例を示す。ステップS151では、ユーザ端末90がユーザ発話データを対話装置10に送信する。ユーザ発話データは、ユーザ発話を表す発話文章と発話属性とを含むデータである。
 ユーザ端末90におけるユーザ発話(発話文章)の取得方法は限定されない。例えば、ユーザ端末90は音声入力されたユーザ発話(すなわち音声データで表されるユーザ発話)を取得してもよいし、文字列で入力されたユーザ発話(すなわちテキストデータで表されるユーザ発話)を取得してもよい。あるいは、ユーザ端末90はユーザの指示に基づいて自動的にユーザ発話を音声データまたはテキストデータの形式で生成してもよい。発話属性は、開始要求に含まれるものと同じでもよいし、開始要求に含まれるものの少なくとも一部と異なってもよい。いずれにしても、発話属性はユーザ発話(発話文章)と関連付けられたデータである。ユーザ端末90は取得したユーザ発話と発話属性とを含むユーザ発話データを生成して、このユーザ発話データを送信する。対話装置10ではフロント機能20がそのユーザ発話データを受信する。
 ステップS152では、フロント機能20がそのユーザ発話データを処理させるボット機能30を決定し、該当するボット機能30にそのユーザ発話データを転送する。
 ステップS153では、隠蔽部22がそのユーザ発話データの発話属性に基づいて隠蔽レベルを決定する。隠蔽部22はステップS12と同様に隠蔽レベルを決定する。
 ステップS154では、隠蔽部22が、決定した隠蔽レベルに基づいて、ユーザ発話データに対する隠蔽処理を実行する。隠蔽部22はステップS13と同様に隠蔽処理を実行する。ユーザ発話の発話文章は自由に記述され得る。したがって、隠蔽しようとする秘密情報を発話文章から特定する際には、隠蔽部22は文字列マッチング、機械学習、照応解析、および固有表現抽出(エンティティリンキング)から選択される少なくとも一つの手法を用いてその秘密情報を発話文章から特定してもよい。これに対して、発話属性は予め定められた規則でユーザ発話データに記述されるので、隠蔽部22は、発話属性内の隠蔽しようとする秘密情報を文字列マッチングにより特定してもよい。
 ステップS155では、記録部23が、隠蔽処理されたユーザ発話データをログ40に記録する。ステップS14と同様に、そのユーザ発話データは、隠蔽されるべき秘密情報がそのまま現れない態様でログ40に記録される。
 発話データがどのようにログ40に記録されるかは隠蔽レベルに応じて変わる。図4を参照しながら、その隠蔽レベルとログ40との関係について説明する。図4の例では、対話装置10は「港区赤坂と横須賀市の天気を教えて」というユーザ発話(発話文章)をログ40に記録する際に地名を隠蔽するとともに、発話属性(clientData)内のユーザ属性(userInfo)を隠蔽する。この例では、「港区赤坂」はユーザの勤務地であるとし、「横須賀市」はユーザの居住地であるとする。また、発話文章の隠蔽レベルとして削除レベル、第1置換レベル、および第2置換レベル(第1概念語よりも抽象度が低い第2概念語に置換する処理)を例示する。なお、図4の例はAIML(Artificial Intelligence Markup Language)を応用して記述されたデータを示すが、発話データを記述するための方法および規則は何ら限定されない。
 隠蔽部22が隠蔽レベルとして削除レベルを選択した場合には、隠蔽部22はそれら二つの地名をその発話文章から削除する。したがって、記録部23は「 と の天気を教えて」という文字列をログ40に記録する。また、隠蔽部22はユーザ属性を構成する名前「tanaka」および年齢「28」を削除する。
 隠蔽部22が隠蔽レベルとして第1置換レベルを選択した場合には、隠蔽部22はそれら二つの地名を共通の文字列で置換する。例えば、隠蔽部22は地名に相当する変数名「%userInfo.place%」を第1概念語として用い、「港区赤坂」および「横須賀市」の双方をこの変数名で置換する。また、隠蔽部22はユーザ属性を構成する名前「tanaka」および年齢「28」を削除する。上述したように、発話文章と発話属性との間で隠蔽レベルが異なってもよい。
 隠蔽部22が隠蔽レベルとして第2置換レベルを選択した場合には、隠蔽部22はそれら二つの地名を、相異なる文字列で置換する。例えば、隠蔽部22は勤務地に相当する第2概念語である変数名「%userInfo.workplace%」で「港区赤坂」を置換する。また、隠蔽部22は居住地に相当する第2概念語である変数名「%userInfo.home%」で「横須賀市」を置換する。また、隠蔽部22はユーザ属性を構成する名前「tanaka」および年齢「28」を削除する。
 図4では、発話文章のログへの記録方法が三つの例の間で異なる。隠蔽レベルが削除レベルである場合には、隠蔽の対象である秘密情報が発話文章から完全に削除されるので、ログ40には地名に関する手掛かりが記録されない。したがって、ユーザ以外の第三者(例えば対話装置10の管理者)がログ40を読んでも、ユーザが何の天気を教えてと話したかを特定できない。例えば、「 と の天気を教えて」の空欄には、「今日」「明日」などのような時期も入り得る。一方、隠蔽レベルが第1隠蔽レベルである場合には、ログ40上では、秘密情報に相当する部分に「%userInfo.place%」という第1概念語が記述される。したがって、第三者は、ユーザが何かしらの場所の天気を聞いたことは推測できるが、それが具体的にどの場所であるかを知ることはできない。隠蔽レベルが第2隠蔽レベルである場合には、ログ40上では、「%userInfo.workplace%」および「%userInfo.home%」という第2概念語が記述される。したがって、第三者はユーザが2ヵ所の天気を聞いたことと、その場所が勤務地および居住地に関することとを推測できるが、具体的な場所を知ることはできない。したがって、図4の例では、ログ40に記録される発話文章の抽象度は、削除レベルの場合にいちばん高く、第2置換レベルの場合にいちばん低く、第1置換レベルの場合には、削除レベルと第2置換レベルとの間の水準であるといえる。
 図4では、発話属性のログへの記録方法が三つの例で同じである。もちろん、隠蔽部22は、発話属性中の少なくとも一部の秘密情報を概念語に置換してもよい。
 図3に戻り、ステップS156では、ボット機能30がユーザ発話に応答してシステム発話データをフロント機能20に出力する。ボット機能30は、フロント機能20からユーザ発話データを受け付け、そのデータに含まれるユーザ発話および発話属性に基づいてシナリオを参照することで、該ユーザ発話への応答として適切であると推定されるシステム発話を決定する。そして、ボット機能30はその決定したシステム発話を含むシステム発話データをフロント機能20に出力する。システム発話データは、システム発話を表す発話文章を含むデータである。ユーザ発話と同様にシステム発話の表現方法も限定されず、例えば、システム発話は音声またはテキストで表現され得る。
 ステップS157では、フロント機能20がそのシステム発話データをユーザ端末90に送信する。フロント機能20はシステム発話の出力形式を指定した上で(すなわち、システム発話を整形した上で)システム発話データを送信してもよい。ユーザ端末90はそのシステム発話データを受信および出力し、これにより、ユーザはユーザ発話に対するボットの返事を認識できる。
 ステップS158では、隠蔽部22がシステム発話の隠蔽レベルを決定する。ステップS153と同様に、隠蔽部22は、ユーザ発話データに含まれていた発話属性に基づいて隠蔽レベルを決定してもよい。
 ステップS159では、隠蔽部22が、決定した隠蔽レベルに基づいて、システム発話データに対する隠蔽処理を実行する。システム発話が変数を含む場合には、隠蔽部22は、隠蔽しようとする秘密情報をその変数に基づいて特定してもよい。例えば、ユーザ端末90に出力されるシステム発話が「港区赤坂も横須賀市も晴です。」であれば、このシステム発話は、「港区赤坂」に対応する変数「%userInfo.workplace%」と「横須賀市」に対応する変数「%userInfo.home%」とを含み得る。この場合には、隠蔽部22はその変数に基づいて、これら二つの地名を隠蔽すると決定することができる。あるいは、隠蔽部22はその秘密情報をステップS154と同様の処理により特定してもよい。
 ステップS160では、記録部23が、隠蔽処理されたシステム発話データをログ40に記録する。ステップS155と同様に、そのシステム発話データは、隠蔽されるべき秘密情報がそのまま現れない態様でログ40に記録される。
 その後、ユーザ端末90と対話装置10との間で更なる発話のやり取りが実行され得る。したがって、ステップS151~S160の処理は繰り返し実行され得る。図4は、ステップS151およびS152と同様の処理をステップS161およびS162として示す。ステップS161に応じてユーザ発話データがログ40に記録される。また、ステップS162に応じてシステム発話データが生成されてユーザ端末90に送信され、そのシステム発話データがログ40に記録される。
 このように、取得部21、隠蔽部22、および記録部23の協働により、隠蔽すべき秘密情報が確実に隠蔽された後に、発話文章および発話属性が初めてログ40に記録される。この処理は、いったんログ40上に記録された秘密情報を後から削除する処理とは全く異なる。
 なお、対話装置10は、発話属性に対する隠蔽処理を行うことなく、発話文章に対する隠蔽処理を実行してもよい。すなわち、発話属性の隠蔽は必須ではない。
 上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成要素)は、ハードウェアおよび/またはソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的および/または論理的に結合した一つの装置により実現されてもよいし、物理的および/または論理的に分離した2つ以上の装置を直接的および/または間接的に(例えば、有線および/または無線)で接続し、これら複数の装置により実現されてもよい。
 例えば、本発明の一実施の形態における対話装置10は、本実施形態の処理を行うコンピュータとして機能してもよい。図5は、対話装置10として機能するコンピュータ100のハードウェア構成の一例を示す図である。コンピュータ100は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含んでもよい。
 なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。対話装置10のハードウェア構成は、図に示した各装置を一つまたは複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
 対話装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002およびストレージ1003におけるデータの読み出しおよび/または書き込みを制御することで実現される。
 プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、対話装置10の少なくとも一部の機能要素はプロセッサ1001で実現されてもよい。
 また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003および/または通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、対話装置10の少なくとも一部の機能要素は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、一つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時または逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
 メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも一つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CDROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも一つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002および/またはストレージ1003を含むテーブル、サーバその他の適切な媒体であってもよい。
 通信装置1004は、有線および/または無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、対話装置10の少なくとも一部の機能要素は通信装置1004で実現されてもよい。
 入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005および出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
 また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
 また、コンピュータ100は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部または全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも一つで実装されてもよい。
 以上説明したように、本発明の一側面に係る対話装置は、ユーザとの間で実行される自動対話を構成する発話文章を取得する取得部と、発話文章がまだログに記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を発話文章に対して実行する隠蔽部と、少なくとも一部の秘密情報が隠蔽された発話文章をログに記録する記録部とを備える。
 このような側面においては、発話文章中の秘密情報の少なくとも一部が最初からログに記録されないので、対話の中で現れた秘密情報のセキュリティをより確実に確保することができる。加えて、いったん記録したログに対して秘密情報の少なくとも一部を後から隠蔽する処理を実行する処理が不要になるので、対話装置のハードウェア資源の使用量(例えば、プロセッサの負荷およびメモリ消費量)を抑制することができる。
 他の側面に係る対話装置では、隠蔽部が、予め定められた複数の隠蔽レベルから選択された少なくとも一つの隠蔽レベルに基づいて隠蔽処理を実行してもよい。このように複数の隠蔽レベルを選択肢として用意することで、隠蔽処理を必要に応じて柔軟に実行することができる。言い換えると、ログに記録される発話文章の抽象度を必要に応じて変更することができる。
 他の側面に係る対話装置では、複数の隠蔽レベルが、少なくとも一部の秘密情報の削除を示す削除レベルと、少なくとも一部の秘密情報を概念語に置換する置換レベルとを少なくとも含んでもよい。この場合には、隠蔽しようとする情報を完全に消すかまたは他の語句に置き換えるかを選択することができる。
 他の側面に係る対話装置では、複数の隠蔽レベルが、少なくとも一部の秘密情報を第1概念語に置換する第1置換レベルと、少なくとも一部の秘密情報を、該第1概念語よりも抽象度が低い第2概念語に置換する第2置換レベルとを少なくとも含んでもよい。このように複数種類の置換方法を用意することで、ログに記録される発話文章の抽象度を必要に応じて変更することができる。
 他の側面に係る対話装置では、取得部が、発話文章と関連付けられた発話属性をさらに取得し、隠蔽部が、隠蔽処理をさらに発話属性に対して実行し、記録部が、少なくとも一部の秘密情報が隠蔽された発話属性をさらにログに記録してもよい。発話文章に加えて発話属性に対しても隠蔽処理を実行することで、秘密情報のセキュリティをより確実に確保することができる。
 以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。
 情報の通知は、本明細書で説明した態様および実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号またはこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。
 本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-Wideband)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステムおよび/またはこれらに基づいて拡張された次世代システムに適用されてもよい。
 本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。
 入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペアおよびデジタル加入者回線(DSL)などの有線技術および/または赤外線、無線およびマイクロ波などの無線技術を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、これらの有線技術および/または無線技術は、伝送媒体の定義内に含まれる。
 本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、またはこれらの任意の組み合わせによって表されてもよい。
 なお、本明細書で説明した用語および/または本明細書の理解に必要な用語については、同一のまたは類似する意味を有する用語と置き換えてもよい。
 本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。
 また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。
 上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)および情報要素(例えば、TPCなど)は、あらゆる好適な名称によって識別できるので、これらの様々なチャネルおよび情報要素に割り当てている様々な名称は、いかなる点においても限定的なものではない。
 ユーザ端末および移動通信端末は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。
 本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、テーブルまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。
 「接続された(connected)」、「結合された(coupled)」という用語、またはこれらのあらゆる変形は、2またはそれ以上の要素間の直接的または間接的なあらゆる接続または結合を意味し、互いに「接続」または「結合」された2つの要素間に1またはそれ以上の中間要素が存在することを含むことができる。要素間の結合または接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1またはそれ以上の電線、ケーブルおよび/またはプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」または「結合」されると考えることができる。
 本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。
 本明細書において、文脈または技術的に明らかに一つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。
 10…対話装置、20…フロント機能、21…取得部、22…隠蔽部、23…記録部、30…ボット機能、90…ユーザ端末、40…ログ。

Claims (5)

  1.  ユーザとの間で実行される自動対話を構成する発話文章を取得する取得部と、
     前記発話文章がまだログに記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を前記発話文章に対して実行する隠蔽部と、
     前記少なくとも一部の秘密情報が隠蔽された前記発話文章を前記ログに記録する記録部と
    を備える対話装置。
  2.  前記隠蔽部が、予め定められた複数の隠蔽レベルから選択された少なくとも一つの隠蔽レベルに基づいて前記隠蔽処理を実行する、
    請求項1に記載の対話装置。
  3.  前記複数の隠蔽レベルが、前記少なくとも一部の秘密情報の削除を示す削除レベルと、前記少なくとも一部の秘密情報を概念語に置換する置換レベルとを少なくとも含む、
    請求項2に記載の対話装置。
  4.  前記複数の隠蔽レベルが、前記少なくとも一部の秘密情報を第1概念語に置換する第1置換レベルと、前記少なくとも一部の秘密情報を、該第1概念語よりも抽象度が低い第2概念語に置換する第2置換レベルとを少なくとも含む、
    請求項2または3に記載の対話装置。
  5.  前記取得部が、前記発話文章と関連付けられた発話属性をさらに取得し、
     前記隠蔽部が、前記隠蔽処理をさらに前記発話属性に対して実行し、
     前記記録部が、少なくとも一部の秘密情報が隠蔽された前記発話属性をさらに前記ログに記録する、
    請求項1~4のいずれか一項に記載の対話装置。
PCT/JP2019/014088 2018-05-14 2019-03-29 対話装置 Ceased WO2019220791A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020519502A JP7033195B2 (ja) 2018-05-14 2019-03-29 対話装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-092832 2018-05-14
JP2018092832 2018-05-14

Publications (1)

Publication Number Publication Date
WO2019220791A1 true WO2019220791A1 (ja) 2019-11-21

Family

ID=68540111

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/014088 Ceased WO2019220791A1 (ja) 2018-05-14 2019-03-29 対話装置

Country Status (2)

Country Link
JP (1) JP7033195B2 (ja)
WO (1) WO2019220791A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022044387A (ja) * 2020-09-07 2022-03-17 株式会社日立製作所 音声情報加工システム及び音声情報加工方法
JP7730203B1 (ja) * 2024-07-05 2025-08-27 株式会社Aces 抽象化システム、抽象化方法及び抽象化プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127148A (ja) * 2004-10-28 2006-05-18 Fujitsu Ltd 音声自動対話システムにおける情報処理方法
JP2007249770A (ja) * 2006-03-17 2007-09-27 Nec Corp 個人情報隠蔽サービスシステム
JP2010079235A (ja) * 2008-09-28 2010-04-08 Avaya Inc 個人(オーディ)情報を含まないメディア・ストリームを保存する方法
WO2011142327A1 (ja) * 2010-05-10 2011-11-17 日本電気株式会社 情報処理装置、制御方法及びプログラム
WO2016136208A1 (ja) * 2015-02-27 2016-09-01 パナソニックIpマネジメント株式会社 音声対話装置、音声対話システム、および、音声対話装置の制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5018541B2 (ja) * 2008-02-19 2012-09-05 富士ゼロックス株式会社 情報処理装置および履歴情報管理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127148A (ja) * 2004-10-28 2006-05-18 Fujitsu Ltd 音声自動対話システムにおける情報処理方法
JP2007249770A (ja) * 2006-03-17 2007-09-27 Nec Corp 個人情報隠蔽サービスシステム
JP2010079235A (ja) * 2008-09-28 2010-04-08 Avaya Inc 個人(オーディ)情報を含まないメディア・ストリームを保存する方法
WO2011142327A1 (ja) * 2010-05-10 2011-11-17 日本電気株式会社 情報処理装置、制御方法及びプログラム
WO2016136208A1 (ja) * 2015-02-27 2016-09-01 パナソニックIpマネジメント株式会社 音声対話装置、音声対話システム、および、音声対話装置の制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022044387A (ja) * 2020-09-07 2022-03-17 株式会社日立製作所 音声情報加工システム及び音声情報加工方法
JP7388997B2 (ja) 2020-09-07 2023-11-29 株式会社日立製作所 音声情報加工システム及び音声情報加工方法
JP7730203B1 (ja) * 2024-07-05 2025-08-27 株式会社Aces 抽象化システム、抽象化方法及び抽象化プログラム

Also Published As

Publication number Publication date
JPWO2019220791A1 (ja) 2021-02-12
JP7033195B2 (ja) 2022-03-09

Similar Documents

Publication Publication Date Title
JP7166350B2 (ja) 対話装置
US11868734B2 (en) Dialogue system
WO2019193796A1 (ja) 対話サーバ
JP7033195B2 (ja) 対話装置
JP7043593B2 (ja) 対話サーバ
JP7016405B2 (ja) 対話サーバ
US11663420B2 (en) Dialogue system
JP6745402B2 (ja) 質問推定装置
WO2019216054A1 (ja) 対話サーバ
WO2020235136A1 (ja) 対話システム
JP6960049B2 (ja) 対話装置
US11604831B2 (en) Interactive device
JP7112487B2 (ja) 対話装置
JP6895580B2 (ja) 対話システム
JP2022025917A (ja) 対話装置
JP7429193B2 (ja) 対話装置及び対話プログラム
JP7093844B2 (ja) 対話システム
JP2019179394A (ja) 情報提示システム
WO2025243473A1 (ja) 装置及び方法
WO2024241734A1 (ja) 文脈文決定システム、機械翻訳装置および学習装置
WO2026009320A1 (ja) 装置および方法
WO2025234102A1 (ja) 情報出力装置および情報出力方法
WO2025224892A1 (ja) 装置および方法
WO2025210904A1 (ja) 変換装置および変換方法
WO2022070792A1 (ja) パラメータ設定システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19803222

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020519502

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19803222

Country of ref document: EP

Kind code of ref document: A1