WO2018052170A1 - Emoticon information processing method and system - Google Patents
Emoticon information processing method and system Download PDFInfo
- Publication number
- WO2018052170A1 WO2018052170A1 PCT/KR2017/001092 KR2017001092W WO2018052170A1 WO 2018052170 A1 WO2018052170 A1 WO 2018052170A1 KR 2017001092 W KR2017001092 W KR 2017001092W WO 2018052170 A1 WO2018052170 A1 WO 2018052170A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- condition
- emoticon
- user
- expression
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G06Q10/40—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Definitions
- the present invention relates to a method and a system for processing emoticon information.
- the present invention claims the benefits of Korean Patent Application Nos. 10-2016-0117973 and 10-2016-0117978 and 10-2016-0117986 filed on September 13, 2016, the contents of which are incorporated herein in its entirety. do.
- An object of the present invention is to provide an emoticon information processing method and system for providing an emoticon desired by a user based on an expression item such as an image and a text.
- Another object of the present invention is to provide an emoticon information processing method and system for providing an emoticon in consideration of an expression condition such as a user's emotion and situation.
- Still another object of the present invention is to provide a method and system for processing emoticon information for changing an emoticon according to a predetermined condition.
- An information processing method of an emoticon comprises: setting a character, a personality setting step of setting a personality of the character, and an emoticon including the character with the set character It may include the step of displaying.
- the character's personality may include a reaction style of the character.
- the character has at least one or more personalities.
- the personality setting step may include setting a standard personality of the character.
- the basic personality may correspond one by one to the character or one-to-one correspondence with an opponent registered by a user.
- the personality setting step may further include setting a personal personality of the character.
- the step of setting the personal personality may include a teaching step and a learning step.
- the teaching may include matching an expression item including an action corresponding to the character to an expression condition.
- the presentation material may include at least one of a text material and an image material.
- the action may include at least one of dialogue, facial expression, action, and pose.
- the expression condition may include at least one of a sensing condition, a relation condition, an emotion condition, an action condition, a dialogue condition, and a situation condition. It may include.
- the detection condition may include at least one of information about a geographic environment, information about a weather environment, and information about a temporal environment.
- the relationship condition may include information about a relationship between a user and a partner registered by the user.
- the emotional condition may include information on the emotional state of the user.
- the learning step may include extracting a learning item by analyzing a dialogue between the user and the opponent, and information on the relationship between the user and the opponent based on the extracted learning material, and the user with respect to the opponent. Obtaining at least one of information about the emotion of the.
- the learning material may include at least one of contents of a conversation between a user and a partner, a conversation environment between the user and the partner, a conversation amount between the user and the partner, and a number of conversations.
- the method may further include recommending at least one emoticon.
- a method of processing emoticon information including: setting a character, and displaying a teaching template including at least one expression item corresponding to the set character on a screen. And displaying at least one of the expression materials selected by the user and matching the expression condition to an expression condition to set the personality of the character.
- an information processing method of an emoticon may include: setting a character corresponding to a host user; an expression item including an action corresponding to the character Setting at least one of the at least one emoticon including the character in relation to the expression material when an event corresponding to the expression item occurs in a conversation input to the messenger dialog. It may include a display step to display on the screen.
- the displaying step when an event corresponding to the expression item occurs in the conversation input to the messenger chat window, at least one emoticon related to the expression material is recommended to the user.
- the emoticon selected by the user among at least one recommended emoticon may be displayed on the messenger chat window.
- the action may include at least one of an expression, an action, and a pose.
- the presentation material may include at least one of an image material and a text material.
- the image material may include an object that is the subject of the action and words corresponding to the object.
- the event may correspond to the case where at least one of the host user or a guest user corresponding to the host user inputs contents corresponding to the dialogue in the messenger chat window.
- the character action may recommend or automatically select at least one or more emoticons corresponding to the action of the object to the host user.
- the image material may include a first object and a second object, which are subjects of the action.
- the event may correspond to a case where a guest user corresponding to the host user inputs an emoticon corresponding to any one of a first object and a second object into the messenger chat window.
- At least one emoticon corresponding to the other of the first object and the second object may be recommended and automatically selected to the host user.
- the text material may include a description portion describing an action of an object that is the subject of the action, and a dialogue portion corresponding to words of the object.
- the event may correspond to the case where at least one of the host user or a guest user corresponding to the host user inputs contents corresponding to the dialogue part in the messenger chat window.
- At least one emoticon whose action of the character corresponds to the description part may be recommended and automatically selected to the host user.
- the text material may include a first description portion describing an action of a first object and a second description portion describing an action of a second object corresponding to the first object. have.
- the event may correspond to a case where a guest user corresponding to the host user inputs an emoticon corresponding to one of the first and second description parts into the messenger chat window.
- At least one emoticon corresponding to the other of the first description part and the second description part may be recommended and automatically selected to the host user.
- the information processing method of the emoticon is to determine an expression condition related to the activated messenger chat window when the messenger chat window is activated, and to display the expression condition in the conversation input to the messenger chat window. If an event corresponding to a matching expression item occurs, the method may include a recommendation step of recommending at least one emoticon related to the expression material.
- the method may further include setting a character corresponding to the emoticon.
- the user participating in the messenger chat window may include a host user, which is a terminal user on which the messenger chat window is displayed, and at least one guest user, and the event is a conversation input by the host user. And a conversation input by the guest user.
- At least one emoticon related to the expression material may be recommended and automatically selected to the host in response to the event.
- the expression material may include an action of an object, and the action may include at least one of dialogue, facial expression, action, and pose.
- the presentation material may include at least one of a text material and an image material.
- the expression condition may include a sensing condition, a relation condition, an emotion condition, an action condition, a pose condition, a facial condition, and a metabolic condition. It may include at least one of a Words Condition and a Situation Condition.
- the detection condition may include at least one of information about a geographic environment, information about a weather environment, and information about a temporal environment.
- the relationship condition may include information on a relationship between a host user, which is a terminal user on which the messenger chat window is displayed, and a guest user who participates in the messenger chat window.
- the emotion condition may include information on an emotion state of a host user who is a terminal user on which the messenger chat window is displayed.
- At least some of the expression conditions may be set by a host user who is a terminal user who displays the messenger chat window.
- At least some of the expression conditions may be extracted based on a conversation input to the messenger conversation window.
- the information processing method and system of the emoticon according to the present invention has an effect of providing the emoticon desired by the user more effectively.
- 1 to 6 are diagrams for explaining the emoticon.
- FIG 7 to 11 are views for explaining the configuration of the emoticon information processing system according to the present invention.
- 46 to 74 are views for explaining the emoticon information processing method using the expression material and the expression conditions.
- first and second may be used to describe various components, but the components may not be limited by the terms. The terms may be used only for the purpose of distinguishing one component from another component.
- first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
- embodiments of the present invention may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs).
- ASICs application specific integrated circuits
- DSPs digital signal processors
- DSPDs digital signal processing devices
- PLDs programmable logic devices
- FPGAs field programmable gate arrays
- controllers controllers
- micro-controllers micro-controllers
- microprocessors microprocessors
- microprocessors may be implemented using at least one of the electrical unit for performing a function.
- embodiments such as a procedure or a function in the present invention may be implemented with a separate software module for performing at least one function or operation.
- 'A and / or B' may be interpreted as 'at least one of A and B'.
- 1 to 6 are diagrams for explaining the emoticon. Hereinafter, the description of the above-described parts may be omitted.
- An emoticon is a compound word of an emotion and an icon representing emotion.
- the emoticon may include a predetermined character.
- the character may include not only people, animals, and objects but also punctuation symbols and special characters. In the following description, it is assumed that the character is a person, an animal, or an object for convenience of explanation.
- the character may take a certain action.
- the action may include at least one of an action, a pose, and an expression.
- the emoticon of FIG. 1 and the emoticon of FIG. 2 may each include a 'hodol' as a character and have different behaviors and / or poses. That is, the emoticon of FIG. 3 and the emoticon of FIG. 4 may be distinguished as behaviors and / or poses, while including the same 'idol' character.
- the emoticon of FIG. 3 and the emoticon of FIG. 4 may include a 'hodol' character (hodol) wearing different clothes and / or props.
- the same character may be distinguished by different emoticons when wearing (having) different clothes and / or props.
- the emoticon of FIG. 5 and the emoticon of FIG. 6 may include the same character having different expressions.
- the emoticon information processing system for processing the information on the emoticon will be described below with reference to FIGS. 7 to 11.
- FIG 7 to 11 are views for explaining the configuration of the emoticon information processing system according to the present invention.
- the emoticon information processing system 1 may include an emoticon server 10, a communication server 20, and a user terminal 30.
- the emoticon server 10 may process information about an emoticon.
- the emoticon server 10 may perform setting and transmission and reception of emoticons.
- the emoticon server 10 may provide information about the emoticon to the user terminal 30, and recommend and provide a predetermined emoticon to the user terminal 30 in response to the information set in the user terminal 30. Can be.
- the emoticon server 10 may communicate with the communication server 20 and provide information about the emoticon to the communication server 20.
- the user terminals 30 may communicate with each other through the communication server 20.
- the user terminal 30 may communicate with the emoticon server 10 and / or the communication server 20, and executes a messenger program and may be applied to any one that can use an emoticon through the messenger program.
- the user terminal 30 may be a mobile communication terminal such as a smart phone or a PC such as a laptop or a desktop.
- the communication server 20 may manage communication between the user terminals 30 and communication between the user terminal 30 and the emoticon server 10.
- the emoticon server 10 and the communication server 20 can be merged.
- the emoticon server 10 may be included in the communication server 20.
- the emoticon information processing system 1 of FIG. 7 may be more clearly described below.
- the components shown in FIG. 7 are not essential, it is also possible to implement the emoticon information processing system 1 having more or fewer components.
- An emoticon server 10 that processes information on emoticons will be described in more detail below with reference to FIG. 8.
- the emoticon server 10 includes a character unit 100, a personality unit 200, a recommendation unit 300, a user information unit 400, a change unit 500, a storage unit 600, and a control unit 700. ) May be included.
- the character unit 100 may set a character.
- the character unit 100 may process and manage information on various characters, and provide the same to the user terminal 30.
- the character unit 100 may set (select) a character according to a request of the user terminal 30.
- the character unit 100 may control and manage an action (at least one of an action, a pose, and an expression) of the character.
- the personality unit 200 may set the personality of the character.
- the personality unit 200 may process and manage information on the personality.
- the personality unit 200 may give a character a predetermined personality and manage information about the personality.
- the character's personality may include a reaction style of the character.
- the character's personality may refer to a response style such that the character takes an action or changes in some way in response to a predetermined condition.
- the emoticon in the present invention may be described as a combination of a character and a personality. That is, the emoticon may include a character to which a personality is given.
- One character may include at least one personality.
- one character can have a plurality of personalities. It may be possible for a given character to have a different personality depending on the opponent. For example, a personality corresponding to a character's lover, a personality corresponding to a parent, a personality corresponding to a friend, and a personality corresponding to a boss may be different.
- This personality can be set directly by the user of the user terminal 30.
- the personality may be set by the emoticon server 10.
- the personality part 200 may include a basic personality part 200A and a personal personality part 200B. This will be described in detail later with reference to FIGS. 9 to 10.
- the recommender 300 may recommend a predetermined emoticon to the user.
- the recommendation unit 300 may analyze the similarity between the expression material and the emoticon set by the user.
- the user information unit 400 may store and manage information about a user of the user terminal 30, that is, a host user.
- the user information unit 400 may store and manage information on a guest user corresponding to the host user.
- information about the guest user may be set and stored in the terminal 30 of the host user.
- the user information unit 400 analyzes the conversation between the host user and the guest user and provides information on the relationship between the host user and the guest user. It is possible to infer and obtain information about the guest user.
- the host user H and the guest user G may be distinguished from the viewpoint of the user terminal 30.
- the first user may be a host user and the second user may be a guest user from the perspective of the first terminal.
- the second user may be a host user and the first user may be a guest user.
- the changer 500 may set and manage the change of the emoticon. Such a change unit 500 will be described in detail later with reference to FIG. 11.
- the storage unit 600 may store various information, programs, data, etc. used in the emoticon server 10.
- the controller 700 may control overall functions and operations of the emoticon server 10.
- FIG. 8 The components shown in FIG. 8 are not essential, so it is also possible to implement an emoticon server 10 with more or fewer components.
- FIG. 9 attached to the personality unit 200B of the personality unit 200 in more detail as follows.
- the personality personality 200B may include a teaching part 210 and a learning part 220.
- the teaching unit 210 may give a character a predetermined character through a teaching process.
- the learning unit 220 may give a character a predetermined character through a learning process.
- the teaching unit 210 may include a teaching teaching unit 211, an expression material unit 212, a conditional unit 213, and a matching part 214.
- the teaching textbook 211 may set (select) a teaching material and manage information on the teaching text.
- the expression material unit 212 may select an expression material included in the teaching textbook and manage information about the expression item.
- the teaching material includes at least one expression material, and may include at least one of cartoons, novels, essays, chatting, and photographs.
- the expression material may correspond to a portion of the teaching manual that includes at least one of dialogue, facial expression, behavior, and pose.
- the expression material may include an action corresponding to the set character.
- the presentation material may also be viewed as including the action of the object.
- the presentation material may include at least one of an image material and a text material.
- the image material may be image type material
- the text material may be text type material.
- the image material may include at least one object that is the subject of the action.
- the text material may include a portion (description portion) that describes the action of at least one object that is the subject of the action.
- the cartoon 'slam dunk' may correspond to the teaching material
- a cartoon cut or a page included in the cartoon 'slam dunk' may correspond to the presentation material.
- the conditional unit 213 may set an expression condition and manage information on the expression condition.
- the expression condition may include information about various conditions corresponding to the emoticon.
- the condition part 213 may include a detection condition part 213a, a relationship condition part 213b, an emotion condition part 213c, a situation condition part 213d, a metabolic condition part 213e, and an action condition part 213f.
- the sensing conditioner 213a may set and / or manage a sensing condition among the expression conditions.
- the detection condition may include at least one of information about a geographical environment, information about a weather environment, and information about a temporal environment.
- the detection condition unit 213a may include a sensing device such as a clock, a GPS, a thermometer, and a hygrometer.
- the detection condition unit 213a may access the Internet through a communication network to obtain information about the geographical environment (latitude, case, country, administrative area, etc.), weather information, and temporal environment information. have.
- the relationship condition unit 213b may set and / or manage a relationship condition.
- the relationship condition may include information about the relationship between the user and the partner registered by the user.
- the emotion condition unit 213c may set and / or manage an emotion condition.
- the emotional condition may include information about the emotional state of the user.
- Emotional conditions can correspond to one character one by one.
- various emotion conditions may be set for one character. For example, it may be possible to set emotions for parents, feelings for friends, feelings for the boss, and feelings for lovers.
- the situation condition unit 213d may set and / or manage a situation condition.
- the situation condition may include a condition for a temporal situation.
- the situation condition may include a condition for the first waiting time, a condition for the second waiting time, and / or a condition for the third waiting time.
- the first waiting time may mean a time from a time when a sender sends a message to a time when a receiver checks a message.
- the first waiting time may be referred to as confirmation waiting time.
- the second waiting time may mean a time from when the receiver checks the message to when the answer message is sent to the sender.
- the second waiting time may be referred to as a response waiting time.
- the second waiting time may be set when the sender sends a message to the recipient to answer.
- the third waiting time may mean a time from when the sender sends the message to the time when the receiver sends the response message.
- the third waiting time may be referred to as total waiting time.
- the metabolic condition unit 213e may set and / or manage words conditions.
- the metabolic condition may refer to a condition for words that correspond to an object.
- the action conditioner 213f may set and / or manage an action condition.
- the action condition may mean a condition for an action of a predetermined object.
- the action condition may include at least one of an action condition for an action of the object, a pose condition for a pose of the object, and a facial condition for an expression of the object.
- metabolic conditions and action conditions may be collectively referred to as display conditions.
- the presentation condition may be viewed as including a display condition.
- the matching unit 214 may match the expression material and the expression condition.
- the learning unit 220 may include a learning material unit 221, an information obtaining unit 222, and an information applying unit 223.
- the learning material unit 221 may extract a learning item by analyzing a conversation between the user and the partner, that is, a conversation between the host user and the guest user, and manage the learning item.
- the information acquirer 222 may analyze the learning material to obtain relationship information and / or condition information. For example, the information acquisition unit 222 may provide information about the relationship between the user and the partner (the relationship between the host user and the guest user) based on the learning material extracted by the learning material unit 221, and the user's emotion about the opponent ( At least one of information on the emotion of the host user with respect to the guest user may be obtained.
- the information applying unit 223 may apply the information obtained by the information obtaining unit 222.
- the personality unit 220B of FIG. 9 may be more clearly understood through the following description.
- the condition unit 213 of the personal personality unit 220B may further include a shopping information condition unit, a payment information condition unit, and a game use condition unit.
- the shopping information conditional unit may manage information such as whether the price search information is used in a specific (designated) site.
- the payment information condition unit may manage information such as various cards and coupons held and payment usage history.
- the game usage condition unit may manage game information or the like that is installed or executed on the terminal. Knowing game information, it is easy to extract the emoticon and increase sales.
- the recommendation unit 300 includes an expression condition analyzer 310, an expression material determiner 320, a conversation analyzer 330, an event detector 340, a recommended emoticon extractor 350, and information. It may include a providing unit 360.
- the conversation analyzer 330 may analyze a conversation between a host user and a guest user input in the messenger chat window.
- the expression condition analyzer 310 may analyze the expression condition corresponding to the messenger chat window.
- the event detector 340 may determine whether an event occurs in a conversation input in the messenger chat window.
- the event may correspond to satisfying a condition of recommending, providing, and using a predetermined emoticon.
- An event may correspond to a presentation material or a presentation condition.
- the expression material determiner 320 may determine and detect the expression material corresponding to the expression condition analyzed by the expression condition analyzer 310.
- the recommended emoticon extractor 350 may extract an emoticon to be recommended to the user.
- the information provider 360 may recommend and provide an emoticon extracted by the recommended emoticon extractor 350 to a user (host user).
- the components shown in FIG. 10 are not essential, it is also possible to implement the recommendation unit 300 with more or fewer components.
- the change unit 500 will be described below in more detail with reference to FIG. 11.
- the changer 500 may include a change conditional unit 510 and an emoticon changer 520.
- the change condition unit 510 may determine whether a condition for changing an emoticon is satisfied, and obtain and manage information about the emoticon.
- the emoticon changing unit 520 may change the emoticon displayed on the messenger chat window according to the information acquired by the change condition unit 510.
- the change condition part 510 may include a relationship condition part 511, a weather condition part 512, a time condition part 513, an emotion condition part 514, a location condition part 515, a metabolic condition part 516, and an action condition part 517. Can be.
- the relationship condition unit 511 may set a relationship condition for changing an emoticon and manage information on the condition. In addition, the relationship condition unit 511 may determine whether a relationship condition for changing an emoticon is satisfied.
- the weather conditioner 512 may set weather conditions for changing the emoticon and manage information on the weather conditions. In addition, the weather conditioner 512 may determine whether weather conditions for changing the emoticon are satisfied.
- the time condition unit 513 may set a time condition for changing an emoticon and manage information on the time condition. In addition, the time conditioner 513 may determine whether the time condition for changing the emoticon is satisfied.
- the emotion condition unit 514 may set an emotion condition for changing an emoticon and manage information on the emotion condition. In addition, the emotion condition unit 514 may determine whether an emotion condition for changing the emoticon is satisfied.
- the location conditioner 515 may set a location condition for changing an emoticon and manage information on the location condition. In addition, the location conditioner 515 may determine whether a location condition for changing the emoticon is satisfied.
- the metabolic condition unit 516 may set metabolic conditions for changing an emoticon and manage information on the metabolic condition. In addition, the metabolic condition unit 516 may determine whether the metabolic condition for changing the emoticon is satisfied.
- the action conditioner 517 may set an action condition for changing an emoticon and manage information on the action condition. In addition, the action conditioner 517 may determine whether an action condition for changing an emoticon is satisfied.
- FIGS. 12 to 45 are diagrams for explaining an emoticon information processing method using an expression material. Hereinafter, the description of the above-described parts may be omitted.
- a character may first be set (S100).
- a character template including at least one character may be displayed on the screen of the user terminal (S110).
- a template including 'Hodly', 'Canggu', 'Peach', 'Pucca', 'Frodo' and 'Neo' may be displayed on the screen.
- the selected character may be set as his character.
- the expression material may be set (S200).
- At least one expression material may be extracted (S210), and at least one of the extracted expression materials may be selected (S220).
- a predetermined cut expression material
- a predetermined cartoon teaching material
- an object may correspond to a character.
- a predetermined picture may be set as the expression material.
- 16 to 18 may correspond to a case in which the expression material includes an object and a corresponding dialogue.
- the object is a character
- the object may correspond to an object (buddha).
- the expression material does not include the dialogue and may include an action of at least one object.
- the presentation material is an image material.
- the presentation material includes a text material without an object. This will be described below.
- the template of FIG. 20 may be referred to as a teaching template.
- the expression material when the expression material is set, it is determined whether the set expression material is an image material (S230), and if the expression material is not an image material, it is determined whether the expression material is a text material. It may be determined whether or not (S240).
- step S240 when the presentation material is not the text material, another preset function (Default) may be performed (S250). For example, it can be determined that the expression material cannot be discriminated.
- Default another preset function
- step S240 when the presentation material is a text material will be described in FIG.
- step S230 when the expression material is an image material, an object included in the image material may be extracted and analyzed (S231).
- the action of the extracted object may be analyzed (S232), and at least one emoticon corresponding to the expression material may be extracted based on the analysis result (S233).
- the information on the action of the extracted object may be compared with a plurality of previously stored emoticons to extract at least one emoticon that is at least a certain level similar to the action of the extracted object.
- the display condition may be set based on the information about the action of the object extracted in the previous step. There is (S237).
- the display condition set in this way may be referred to as an action condition.
- the metabolism may be analyzed (S235).
- the information on the analyzed conversation may be matched with the extracted emoticon (S236).
- the display condition may be set based on the information on the metabolism (S237).
- the display conditions set in this way can be referred to as metabolic conditions.
- the image is set as the expression material as shown in FIG. 22 may correspond to a case in which the expression material includes an object and a dialogue corresponding to the object.
- the action of the object of the expression material of FIG. 22 may be analyzed, and the analyzed action information may be compared with at least one emoticon to extract at least one emoticon having a predetermined level or more.
- FIG. 23 An example of an emoticon that is at least a certain level similar to an action of an object included in the expression material of FIG. 22 is posted in FIG. 23.
- the expression material of FIG. 22 includes the phrase 'best', and the content corresponding to the metabolism can be set as the metabolic condition.
- the metabolic condition is a trigger for recommending / displaying emoticons.
- the user recommends at least one emoticon related to the expression material to the user, and the user selects one of the recommended emoticons. It can be displayed in a dialog.
- the host user may recommend at least one emoticon whose action corresponds to that of the object.
- 'the best' may correspond to the dialogue related to the object included in the expression material.
- the guest user may input the dialogue corresponding to the metabolic condition into the messenger dialog.
- the emoticon server 10 may include at least one emoticon corresponding to 'best' which is an ambassador input by the guest user G on the screen of the terminal 30 of the host user H. Can be recommended.
- Information on at least one emoticon recommended by the emoticon server 10 to the host user H may not be shown to the guest user G.
- the emoticon server 10 recommends a plurality of emoticons to the host user H
- the emoticon server 10 hosts a single emoticon when information on preferences is accumulated through a plurality of recommendation processes. It can be recommended to the user H.
- the emoticon server 10 may not automatically recommend at least one emoticon to the host user, but may automatically input the emoticon of the recommendation object into the messenger chat window. In this case, it can be said that emoticons are used according to artificial intelligence.
- the emoticon selected in the messenger chat window may be displayed in response to the host user.
- the user selects the expression material in which the preferred action is depicted, and may automatically recommend an emoticon corresponding to the expression material when a predetermined condition (display condition) is satisfied.
- the user can easily recommend and select a desired emoticon in a specific situation only by selecting a preferred expression material.
- the metabolism such as 'it was one of the best', 'it seems to be the best', 'it was the best', etc. as the metabolism is the same as the metabolic condition. Can be handled.
- the guest user G recommends at least one emoticon corresponding to the expression material to the host user H when the guest user G inputs contents corresponding to the metabolic condition in the messenger chat window.
- the present invention may not be limited thereto.
- an event for recommending or displaying an emoticon may correspond to a case in which at least one of the host user H and the guest user G inputs contents corresponding to the dialogue condition in the messenger chat window.
- the action condition can be set as the display condition.
- the action of the first object OB1 and the action of the second object OB2 may be analyzed separately.
- At least one emoticon that is similar to the action of the first object OB1 by a predetermined level or more may be extracted as shown in FIG. 30.
- At least one emoticon that is similar to the action of the second object OB2 by a predetermined level or more may be extracted as shown in FIG. 31.
- At least one emoticon corresponding to the first object OB1 or at least one emoticon corresponding to the second object OB2 is provided to the user. I can recommend it.
- a guest user inputs / displays an emoticon corresponding to the first object OB1 during a conversation between the host user H and the guest user G.
- the event may correspond to the case where the guest user G inputs an emoticon corresponding to one of the first object OB1 and the second object OB2 into the messenger chat window.
- the emoticon server 10 provides the host user with at least a second object OB2 corresponding to the emoticon. You can recommend one emoticon.
- the emoticon selected by the host user may be input / displayed in the messenger chat window.
- the emoticon server 10 may provide the host user H with at least one corresponding to the first object OB1. It may be possible to recommend one emoticon.
- the expression material is a text material
- the text material may be analyzed (S241).
- the description part may be extracted from the text material based on the analysis result, and the description part may be analyzed (S242).
- the description portion may be referred to as a portion that describes the action of the object that is the subject of the action.
- At least one emoticon corresponding to the depicted portion may be extracted based on the analysis result of the depicted portion (S243).
- the display condition may be set based on the information about the extracted description part (S247). .
- the display condition may include an action condition corresponding to the depiction portion.
- the metabolic part when the metabolic part is present in the text material as a result of the determination in step S244, the metabolic part may be extracted and the contents of the extracted metabolic part may be analyzed (S245).
- the information analyzed by the metabolic part may be matched to the emoticon (S246).
- the display condition may be set based on the information on the metabolic part (S247).
- the display condition may include metabolic conditions corresponding to the metabolic portion.
- the metabolic and descriptive parts described above can be extracted by parsing the text material.
- a text material such as the case of FIG. 36 is set as the expression material.
- the emoticon server 10 may extract an object from the text material, that is, the first object (OB1, I) and the second object (OB2, he).
- the emoticon server 10 may extract a metabolic part corresponding to the object (here, the first object OB1).
- the metabolism part may be 'play a song'.
- the emoticon server 10 may extract a description portion corresponding to the object (here, the second object OB2).
- the depiction part AC wears sunglasses and tambourine in one hand. Then I picked up the microphone with my other hand and started singing along with the rhythm. '
- the emoticon server 10 may set the dialogue part 'sing a song' as a metabolic condition. Metabolic conditions can be seen to be extracted from the metabolism.
- the emoticon server 10 may extract at least one emoticon corresponding to the action of the object depicted in the description part.
- the emoticon server 10 may recommend the extracted at least one emoticon to the host user H.
- the event may correspond to the case where at least one of the host user H or the guest user G inputs contents corresponding to the dialogue part, that is, contents corresponding to the dialogue condition in the messenger chat window.
- the user when the guest user G inputs contents corresponding to the dialogue part, the user recommends at least one emoticon corresponding to the description part to the host user H as shown in FIG. 37, and messengers the emoticon selected by the user. You can type in the dialog.
- the emoticon server 10 may extract an object from the text material, that is, the first object OB1 and the female, and the second object OB2 and the male.
- the emoticon server 10 may extract the first description part AC1 corresponding to the first object OB1, and extract the second description part AC2 corresponding to the second object OB2.
- the first depiction part AC1 states that the woman starts to run with her hair flying. The woman opened her arms and signaled the man to follow him. '
- the second description part AC2 may be, 'laughing and began chasing a woman.'
- the emoticon server 10 extracts at least one emoticon corresponding to the action of the first object OB1 of the first depiction part AC1 as shown in FIG. 40, and extracts at least one emoticon of the second depiction part AC2 as shown in FIG. 41. At least one emoticon corresponding to the action of the second object OB2 may be extracted.
- At least the first object OB1 corresponds to at least an event.
- At least one emoticon corresponding to one emoticon or the second object OB2 may be recommended to the user.
- a guest user inputs / displays an emoticon corresponding to the first object OB1 during a conversation between the host user H and the guest user G.
- the event may correspond to the case where the guest user G inputs an emoticon corresponding to one of the first description part AC1 and the second description part AC2 into the messenger chat window.
- the emoticon server 10 recommends at least one emoticon corresponding to the second object OB2 to the host user.
- a user-selected emoticon may be input in a messenger chat window.
- the first emoticon corresponding to the first description part AC1 input by the guest user G and the second emoticon corresponding to the second description part AC2 input by the host user H are correlated with each other.
- the first emoticon and the second emoticon may be displayed interactively in the messenger chat window.
- the first emoticon and the second emoticon may be associated and displayed so that the second emoticon of the host user H follows the first emoticon of the guest user G.
- the emoticon server 10 determines the display condition (the metabolic condition and / or the action condition) by analyzing the expression material has been described, but the present invention may not be limited thereto.
- the user can manually set the display conditions. This will be described below with reference to FIGS. 44 and 45.
- the display condition may be set after the step of selecting the expression material (S220) (S1100).
- the expression material for example, the image material may be matched to correspond to the metabolic conditions.
- At least one emoticon with a display condition, for example, a metabolic condition.
- the emoticon server 10 may determine that a metabolic condition occurs in a conversation between the host user H and the guest user G, and recommend at least one emoticon according to the determination result.
- the action condition may be set in advance.
- the emoticon may be recommended using the expression material.
- 46 to 74 are views for explaining the emoticon information processing method using the expression material and the expression conditions.
- the description of the above-described parts may be omitted.
- the contents of the expression material mentioned below correspond to the contents described above, a detailed description of the expression material may be omitted.
- a personality may be set corresponding to the character (S700).
- the emoticon may include a character whose character is set.
- emoticons in the present invention can be described as a combination of character and personality.
- An emoticon including a character to which a personality is assigned may be referred to as an emoticon to which intelligence is given.
- the setting of the personality may include at least one of setting a standard personality of the character (S710) and setting a personal personality of the character (S720).
- the personality setting step (S700) it is possible to include a step of setting a basic personality (S710) and a step of setting a personal personality (S720), or includes setting a basic personality. It may be possible not to.
- the basic personality may correspond to one character one by one, as in the case of FIG. 47.
- This basic personality can be automatically set by the emoticon server 10 when the character is generated.
- the character's personality may correspond to the character's reaction style. Considering this, setting the basic personality of a character can be said to set the basic reaction style for each character.
- the guest user G when the guest user G is a friend or a junior, as shown in FIG. 48, when the guest user G inputs 'hello' in the messenger chat window, the dialogue input by the guest user G is input.
- the character's basic personality can be set.
- the guest user G When the guest user G is a sign or a boss, the guest user G inputs a 'hello' message in a messenger chat window as shown in FIG. 49. Corresponding polite emoticons can be entered in the messenger chat window to set the basic personality of the character.
- the type of the basic personality may be set differently according to the opponent (guest user G) in response to a predetermined character (hodol).
- the basic personality type for the parent in response to a predetermined character may be politeness.
- the basic personality type for siblings and friends is 'no sense' in response to the 'hodol' character
- the basic personality type for the coworkers may be set to 'formal attire'.
- the basic personality of the character may correspond one-to-one with an opponent registered by the user (host user H).
- the expression material may be set (S200) and the expression condition may be set (S731).
- the order of setting the expression material (S200) and setting the expression condition (S731) may be reversed.
- a teaching template including at least one expression material may be displayed on the screen.
- the personality of the character may be set by matching at least one expression material selected by the user in the teaching template to an expression condition.
- the expression condition may include at least one of a relationship condition, an emotion condition, a detection condition, a situation condition, an action condition, and a metabolic condition.
- At least some of the expression conditions may be set by the user of the terminal 30, that is, the host user H, on which the messenger chat window is displayed.
- At least some of the expression conditions may be extracted / determined based on the dialogue input in the messenger dialogue.
- the emoticon server 10 may match the expression material to at least one expression condition.
- an image material which is an expression material, can be matched with a relationship condition, an emotion condition, and a metabolic condition among expression conditions.
- the expression material includes an object that takes a predetermined action, but there is no dialogue corresponding to the object, the expression material may include a metabolism.
- the emoticon server 10 may be able to determine the metabolic condition by analyzing the metabolism included in the expression material.
- the emoticon server 10 may determine an action condition by analyzing an action of an object included in the expression material. As it has been described in detail above, redundant descriptions may be omitted.
- the expression material may match at least one expression condition.
- different expression materials may be matched to the same expression conditions.
- the teaching template may include a plurality of teaching materials.
- each teaching textbook may include at least one expression material (Cut1-Cut7).
- the first expression condition is matched to the first expression material Cut1, the third expression material Cut3, and the fourth expression material Cut4, and the second expression condition is the second expression material Cut2 and the seventh expression. May be matched to material Cut7.
- the expression condition may be analyzed after the personality setting step S700 (S800).
- the expression condition corresponding to the messenger chat window may be analyzed.
- the messenger chat window is opened (S810).
- the expression condition corresponding to the messenger chat window is determined.
- Information can be analyzed / determined.
- information about the relationship between the host user H and the guest user G may be determined by analyzing the information of the host user H and the guest user G participating in the opened messenger chat window (S820). ). That is, the information about the relationship condition can be determined.
- the emoticon server 10 may determine at least one of detection information corresponding to the messenger chat window, for example, location information, weather information, and time information (S821).
- the emoticon server 10 may receive the information detected by the GPS, the temperature sensor, etc. mounted on the terminal 30 of the host user (H) from the terminal 30 of the host user (H). Alternatively, the emoticon server 10 may obtain weather information, location information, time information, and the like through the Internet.
- Information about the emotional state of the host user H with respect to the guest user G may be preset by the host user H.
- the emoticon server 10 may determine an action condition corresponding to the opened messenger chat window (S823).
- the host user H may preset a desired action condition.
- the emoticon server 10 may analyze the expression material set by the host user H to determine an action condition, and store information on the determined action condition.
- the emoticon server 10 may determine the metabolic condition corresponding to the opened messenger chat window (S824).
- the host user H may preset a desired metabolic condition.
- the emoticon server 10 may analyze the expression material set by the host user H to determine metabolic conditions, and store information on the determined metabolic conditions.
- the emoticon server 10 may determine a situation condition corresponding to the opened messenger chat window (S825).
- the emoticon server 10 may include a condition for a temporal situation by analyzing information about an input time of a dialogue input by a guest user G and / or a host user H input in a messenger chat window.
- the situation condition may include a condition for a first waiting time, a condition for a second waiting time, and / or a condition for a third waiting time.
- the first, second, and third waiting times have been described above.
- a plurality of expression conditions may be collectively determined (S830).
- the conversation between the guest user G and the host user H may be analyzed in the messenger chat window to determine the occurrence of the event (S900).
- first expression material E1 including the action for light greeting is matched with the relation condition (secondary) and the metabolic condition (hello) among the expression conditions.
- the emoticon server 10 when a messenger chat window is opened in which the host user H and the guest user G participate, the emoticon server 10 relates to the host user H and the guest user G participating in the messenger chat window. Can be identified.
- the emoticon server 10 may determine that the metabolic condition is set to 'hello' when the relationship condition is a junior.
- the emoticon server 10 may confirm / determine that the relation condition and the metabolic condition described above match the first expression material E1.
- the event corresponding to the expression material matching the expression condition occurs when the host user H participates in the instant message conversation with the guest user G having a junior relationship.
- the emoticon server 10 may extract at least one emoticon corresponding to the first expression material E1.
- the event may correspond to a case where the host user H and / or the guest user G inputs a content corresponding to the "Hello" which is a metabolic condition in the messenger chat window.
- the host user H has posted in FIG. 59 an example of at least one emoticon corresponding to the first expression material E1.
- the emoticon server 10 when the host user H and / or the guest user G inputs a content corresponding to the "hello" which is a metabolic condition into the messenger chat window, the emoticon server 10 generates the first expression material E1. At least one emoticon extracted in correspondence with) may be provided to the host user H for recommendation.
- the selected emoticon may be input to the messenger chat window corresponding to the host user H.
- the emoticon server 10 analyzes a messenger chat window in which the host user H and the guest user G participate, and information about the host user H and the guest user G and the relationship (customer) and the dialogue condition. ('Hello') information can be determined.
- the emoticon server 10 may confirm / determine that the relation condition and the metabolic condition described above match the second expression material E2.
- the host user (H) and / or the guest user (G) are the metabolic conditions during the conversation between the host user (H) and the guest user (G) with whom the relationship is a customer.
- the emoticon server 10 may recommend at least one emoticon corresponding to the second expression material E2 to the host user H.
- the host user H has posted in FIG. 60 an example of at least one emoticon corresponding to the second expression material E2.
- the emoticon server 10 when the host user H and / or the guest user G inputs a content corresponding to the "Hello" which is the metabolic condition into the messenger chat window, the emoticon server 10 generates the second expression material E2. At least one emoticon extracted in correspondence with) may be provided to the host user H for recommendation.
- the selected emoticon may be input to the messenger chat window corresponding to the host user H.
- the relationship condition and the metabolic condition have been described with respect to the expression condition, at least one of the detection condition, the emotion condition, the action condition, and the situation condition may be matched with the first expression material E1.
- the image material (E) including the bowing action is selected as the relation condition (lover), metabolic condition (good morning), time condition (06: 00-10: 00), and position among the expression conditions.
- the relation condition latitude
- metabolic condition good morning
- time condition 06: 00-10: 00
- position among the expression conditions Suppose you match a condition (South Korea), a weather condition (sunny), and an emotional condition (joy).
- the emoticon server 10 when a messenger chat window is opened in which the host user H and the guest user G participate, the emoticon server 10 has a relationship (host) with the host user H and the guest user G participating in the messenger chat window. Can be identified.
- the emoticon server 10 may determine that the metabolic condition is 'good' when the relationship condition is a lover, and may determine that the emotional condition is set to 'joy' when the relationship condition is a lover.
- the emoticon server 10 may determine a weather condition, a location condition, and a time condition corresponding to the terminal 30 of the host user H from the Internet network or the terminal 30 of the host user H.
- the emoticon server 10 may extract at least one emoticon corresponding to the expression material E as shown in FIG. 66. .
- the emoticon server 10 may provide the extracted emoticon to the host user H to recommend the emoticon.
- the emoticon server 10 may determine a user corresponding to the initiated messenger chat window, that is, a host user H and a guest user G (S721).
- the emoticon server 10 may analyze the conversation between the host user H and the guest user G (S722).
- the emoticon server 10 may extract a learning item from the conversation between the host user H and the guest user G (S723).
- the learning material includes the conversation contents between the host user (H) and the guest user (G), the conversation environment between the host user (H) and the guest user (G), the amount of conversation between the host user (H) and the guest user (G), and It may include at least one of the number of conversations.
- the learning material may include a history of use of emoticons of the host user H and the guest user G.
- the emoticon server 10 analyzes the extracted learning material and based on the analyzed information, information (relational conditions) and / or the host user H and the guest about the relationship between the host user H and the guest user G. Information (emotion condition) regarding the emotion for the user G may be obtained (S724).
- the application method of the emoticon may vary according to the changing emotional state of the host user H.
- the third image material E3 including the bowing action is selected as the relation condition (lover), metabolic condition (good morning), and time condition (06: 00-10: 00). , Location conditions (South Korea), weather conditions (sunny) and emotion conditions (joy).
- the fourth image material E4 including the action of posing the devil poses among the expression conditions, the relation conditions (lovers), the metabolic conditions (hi), the time conditions (06: 00-10: 00), It can be matched with location conditions (South Korea), weather conditions (sunny) and emotion conditions (anger).
- the host user H may exchange a conversation with the guest user G, which is a lover.
- the emoticon server 10 may analyze the conversation of FIG. 70, and may determine that the emotional state of the guest user G, a lover of the host user H, is “anger” based on the analyzed information.
- the emotional state of the host user H with respect to the guest user G may be changed according to the information learned in the learning step S720.
- At least one emoticon (see FIG. 71) corresponding to the fourth image material E4 as described with reference to FIG. 69 may be recommended to the host user H.
- the learning step (S720) based on the result of analyzing the conversation between the host user (H) and the guest user (G) to determine the information (relationship condition) of the relationship between the host user (H) and the guest user (G) It is possible to update the relationship condition by applying the determined information.
- Factors affecting the relationship between the host user H and the guest user G include, as shown in FIG. 72, the conversation volume, the number of conversations, the contents of the conversation, and the chat environment of the host user H and the guest user G. It may be at least one of.
- the intimacy between the host user H and the guest user G may increase.
- the intimacy between the host user H and the guest user G may increase.
- the host user (H) and the guest user (G) when the time of the conversation occurs in the evening time, dawn time, or when the host user (H) and the guest user (G) when the conversation occurs on the holiday of the host user ( Intimacy between H) and guest user G may increase.
- the relationship condition between the host user H and the guest user G can be set based on the information on the intimacy of the host user H and the guest user G determined in this way.
- the emoticon server 10 determines that the relationship between the user 1 and the host user (H) is a workmate, not a friend, and as shown in FIG. You can change it.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Operations Research (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
본 발명은 이모티콘 정보 처리 방법 및 시스템에 관한 것이다.The present invention relates to a method and a system for processing emoticon information.
본 발명은 2016년 09월 13일 출원된 한국특허출원 제10-2016-0117973호와 제10-2016-0117978호 및 제10-2016-0117986호의 이익을 주장하며, 그 내용 전부는 본 명세서에 포함된다.The present invention claims the benefits of Korean Patent Application Nos. 10-2016-0117973 and 10-2016-0117978 and 10-2016-0117986 filed on September 13, 2016, the contents of which are incorporated herein in its entirety. do.
최근에 스마트 폰 환경의 다자간 채팅 어플리케이션에서 사용자들은 자신의 감정을 효과적으로 전달하기 위해 이모티콘(Emoticon)을 사용하고 있다.Recently, in a multi-party chat application in a smartphone environment, users are using emoticons to effectively convey their emotions.
사용자들의 이모티콘 수요가 늘면서 카카오톡, 라인과 같은 메신저 앱은 다양한 종류의 이모티콘을 사용자들에게 제공하고 있다.As users' demand for emoticons increases, messenger apps such as KakaoTalk and Line provide various kinds of emoticons to users.
그러나, 종래에는 사용자가 이모티콘을 사용하기 위해서는 사용하고자 하는 이모티콘을 직접 검색해야 하기 때문에 불편하다.However, in the related art, in order to use the emoticon, it is inconvenient because the user must directly search for the emoticon to use.
이러한 불편함을 줄이기 위해 메신저 앱에서 이모티콘을 추천하는 기술이 제안되었으나, 기존의 기술은 사용자의 감정, 의도 등을 고려할 수 없었으며, 사용자의 상태 및 상황을 만족시키지 못한다는 문제점이 있다.In order to reduce the inconvenience, a technique for recommending an emoticon in a messenger app has been proposed, but the existing technology cannot consider the emotions and intentions of the user, and does not satisfy the user's state and situation.
본 발명은 이미지(Image) 및 텍스트(Text) 등과 같은 표현 재료(Expression Item)를 근거로 하여 사용자가 원하는 이모티콘을 제공하는 이모티콘 정보 처리 방법 및 시스템을 제공하는데 그 목적이 있다.An object of the present invention is to provide an emoticon information processing method and system for providing an emoticon desired by a user based on an expression item such as an image and a text.
본 발명의 다른 목적은 사용자의 감정, 상황 등의 표현 조건(Expression Condition)을 고려하여 이모티콘을 제공하는 이모티콘 정보 처리 방법 및 시스템을 제공하는데 있다.Another object of the present invention is to provide an emoticon information processing method and system for providing an emoticon in consideration of an expression condition such as a user's emotion and situation.
본 발명의 또 다른 목적은 가르침(Teaching) 및 학습(Learning) 과정을 통해 이모티콘에 소정의 성격(Personality)을 부여하는 이모티콘 정보 처리 방법 및 시스템을 제공하는데 있다.It is still another object of the present invention to provide a method and system for processing emoticon information for imparting a certain personality to an emoticon through a teaching and learning process.
본 발명의 또 다른 목적은 소정 조건에 따라 이모티콘을 변경하는 이모티콘 정보 처리 방법 및 시스템을 제공하는데 있다.Still another object of the present invention is to provide a method and system for processing emoticon information for changing an emoticon according to a predetermined condition.
본 발명의 일실시예에 따른 이모티콘의 정보 처리 방법은 캐릭터(Character)를 설정하는 단계, 상기 캐릭터의 성격(Personality)을 설정하는 성격설정단계 및 상기 성격이 설정된 상기 캐릭터를 포함하는 이모티콘(Emoticon)을 표시하는 단계를 포함할 수 있다.An information processing method of an emoticon according to an embodiment of the present invention comprises: setting a character, a personality setting step of setting a personality of the character, and an emoticon including the character with the set character It may include the step of displaying.
또한, 상기 캐릭터의 성격은 상기 캐릭터의 반응 스타일(Reaction Style)을 포함할 수 있다.In addition, the character's personality may include a reaction style of the character.
또한, 상기 캐릭터는 적어도 하나 또는 이상의 성격을 갖는 것이 가능하다.It is also possible that the character has at least one or more personalities.
또한, 상기 성격설정단계는 상기 캐릭터의 기본 성격(Standard Personality)을 설정하는 단계를 포함할 수 있다.The personality setting step may include setting a standard personality of the character.
또한, 상기 기본 성격은 하나의 상기 캐릭터에 하나씩 대응되거나, 사용자가 등록한 상대와 일대일 대응될 수 있다.In addition, the basic personality may correspond one by one to the character or one-to-one correspondence with an opponent registered by a user.
또한, 상기 성격설정단계는 상기 캐릭터의 개인 성격(Private Personality)을 설정하는 단계를 더 포함할 수 있다.In addition, the personality setting step may further include setting a personal personality of the character.
또한, 상기 개인 성격(Private Personality)을 설정하는 단계는 가르침 단계(Teaching) 및 학습 단계(Learning)를 포함할 수 있다.In addition, the step of setting the personal personality may include a teaching step and a learning step.
또한, 상기 가르침 단계는 상기 캐릭터에 대응한 액션(Action)을 포함하는 표현 재료(Expression Item)를 표현 조건(Expression Condition)에 매칭(Matching)시키는 단계를 포함할 수 있다.The teaching may include matching an expression item including an action corresponding to the character to an expression condition.
또한, 상기 표현 재료는 텍스트 재료(Text Material) 및 이미지 재료(Image Material) 중 적어도 하나를 포함할 수 있다.In addition, the presentation material may include at least one of a text material and an image material.
또한, 상기 액션은 대사, 표정, 행동 및 포즈(Pose) 중 적어도 하나를 포함할 수 있다.In addition, the action may include at least one of dialogue, facial expression, action, and pose.
또한, 상기 표현 조건은 감지 조건(Sensing Condition), 관계 조건(Relation Condition), 감정 조건(Emotion Condition), 액션 조건(Action Condition), 대사 조건(Words Condition) 및 상황 조건(Situation Condition) 중 적어도 하나를 포함할 수 있다.The expression condition may include at least one of a sensing condition, a relation condition, an emotion condition, an action condition, a dialogue condition, and a situation condition. It may include.
또한, 상기 감지 조건은 지리적 환경에 대한 정보, 날씨 환경에 대한 정보 및 시간적 환경에 대한 정보 중 적어도 하나를 포함할 수 있다.In addition, the detection condition may include at least one of information about a geographic environment, information about a weather environment, and information about a temporal environment.
또한, 상기 관계 조건은 사용자와 상기 사용자가 등록한 상대와의 관계에 대한 정보를 포함할 수 있다.The relationship condition may include information about a relationship between a user and a partner registered by the user.
또한, 상기 감정 조건은 사용자의 감정 상태에 대한 정보를 포함할 수 있다.In addition, the emotional condition may include information on the emotional state of the user.
또한, 상기 학습 단계는 사용자와 상대의 대화를 분석하여 학습 재료(Learning Item)를 추출하는 단계 및 상기 추출한 학습 재료를 근거로 하여 상기 사용자와 상기 상대의 관계에 대한 정보 및 상기 상대에 대한 상기 사용자의 감정에 대한 정보 중 적어도 하나를 획득하는 단계를 포함할 수 있다.The learning step may include extracting a learning item by analyzing a dialogue between the user and the opponent, and information on the relationship between the user and the opponent based on the extracted learning material, and the user with respect to the opponent. Obtaining at least one of information about the emotion of the.
또한, 상기 학습 재료는 사용자와 상대의 대화 내용, 상기 사용자와 상기 상대의 대화 환경, 상기 사용자와 상기 상대의 대화 분량 및 대화 횟수 중 적어도 하나를 포함할 수 있다.The learning material may include at least one of contents of a conversation between a user and a partner, a conversation environment between the user and the partner, a conversation amount between the user and the partner, and a number of conversations.
또한, 적어도 하나의 상기 이모티콘을 추천하는 단계를 더 포함할 수 있다.The method may further include recommending at least one emoticon.
본 발명의 다른 실시예에 따른 이모티콘 정보 처리 방법은 캐릭터(Character)를 설정하는 단계, 설정한 상기 캐릭터에 대응하여 적어도 하나의 표현 재료(Expression Item)를 포함하는 가르침 템플릿(Teaching Template)을 화면에 표시하는 단계 및 사용자에 의해 선택된 적어도 하나의 상기 표현 재료를 표현 조건(Expression Condition)에 매칭(Matching)시켜 상기 캐릭터의 성격(Personality)을 설정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of processing emoticon information, the method including: setting a character, and displaying a teaching template including at least one expression item corresponding to the set character on a screen. And displaying at least one of the expression materials selected by the user and matching the expression condition to an expression condition to set the personality of the character.
본 발명의 또 다른 실시예에 따른 이모티콘의 정보 처리 방법은 호스트(Host) 사용자에 대응하는 캐릭터(Character)를 설정하는 단계, 상기 캐릭터에 대응한 액션(Action)을 포함하는 표현 재료(Expression Item)를 설정하는 단계 및 메신저 대화창에 입력되는 대화에서 상기 표현 재료(Expression Item)에 대응되는 이벤트(Event)가 발생하는 경우, 상기 표현 재료에 관련하여 상기 캐릭터를 포함하는 적어도 하나의 이모티콘(Emoticon)을 화면에 표시하는 표시단계를 포함할 수 있다.According to another embodiment of the present invention, an information processing method of an emoticon may include: setting a character corresponding to a host user; an expression item including an action corresponding to the character Setting at least one of the at least one emoticon including the character in relation to the expression material when an event corresponding to the expression item occurs in a conversation input to the messenger dialog. It may include a display step to display on the screen.
또한, 상기 표시단계에서는 상기 메신저 대화창에 입력되는 대화에서 상기 표현 재료(Expression Item)에 대응되는 이벤트(Event)가 발생하는 경우, 상기 표현 재료에 관련된 적어도 하나의 이모티콘(Emoticon)을 사용자에게 추천하고, 추천한 적어도 하나의 상기 이모티콘 중 상기 사용자가 선택한 이모티콘을 상기 메신저 대화창에 표시할 수 있다.In addition, in the displaying step, when an event corresponding to the expression item occurs in the conversation input to the messenger chat window, at least one emoticon related to the expression material is recommended to the user. The emoticon selected by the user among at least one recommended emoticon may be displayed on the messenger chat window.
또한, 상기 액션은 표정, 행동 및 포즈(Pose) 중 적어도 하나를 포함할 수 있다.In addition, the action may include at least one of an expression, an action, and a pose.
또한, 상기 표현 재료는 이미지 재료(Image Material) 및 텍스트 재료(Text Material) 중 적어도 하나를 포함할 수 있다.In addition, the presentation material may include at least one of an image material and a text material.
또한, 상기 이미지 재료는 상기 액션의 주체인 객체(Object)와 상기 객체에 대응하는 대사(Words)를 포함할 수 있다.In addition, the image material may include an object that is the subject of the action and words corresponding to the object.
또한, 상기 이벤트는 상기 호스트 사용자 또는 상기 호스트 사용자에 대응하는 게스트(Guest) 사용자 중 적어도 하나가 상기 메신저 대화창에 상기 대사에 대응하는 내용을 입력하는 경우에 대응될 수 있다.The event may correspond to the case where at least one of the host user or a guest user corresponding to the host user inputs contents corresponding to the dialogue in the messenger chat window.
또한, 상기 이벤트가 발생하는 경우, 상기 캐릭터의 액션이 상기 객체의 액션에 대응되는 적어도 하나 또는 이상의 이모티콘을 상기 호스트 사용자에게 추천할 수도 있고 자동 선택될 수도 있다.In addition, when the event occurs, the character action may recommend or automatically select at least one or more emoticons corresponding to the action of the object to the host user.
또한, 상기 이미지 재료는 상기 액션의 주체인 제 1 객체(First Object)와 제 2 객체(Second Object)를 포함할 수 있다.In addition, the image material may include a first object and a second object, which are subjects of the action.
또한, 상기 이벤트는 상기 호스트 사용자에 대응하는 게스트(Guest) 사용자가 제 1 객체 및 제 2 객체 중 어느 하나에 대응하는 이모티콘을 상기 메신저 대화창에 입력하는 경우에 대응될 수 있다.The event may correspond to a case where a guest user corresponding to the host user inputs an emoticon corresponding to any one of a first object and a second object into the messenger chat window.
또한, 상기 이벤트가 발생하는 경우, 상기 제 1 객체 및 상기 제 2 객체 중 나머지 하나에 대응되는 적어도 하나의 이모티콘을 상기 호스트 사용자에게 추천 및 자동선택될 수 있다.In addition, when the event occurs, at least one emoticon corresponding to the other of the first object and the second object may be recommended and automatically selected to the host user.
또한, 상기 텍스트 재료는 상기 액션의 주체인 객체(Object)의 액션을 묘사하는 묘사부분과 상기 객체의 대사(Words)에 대응하는 대사부분을 포함할 수 있다.In addition, the text material may include a description portion describing an action of an object that is the subject of the action, and a dialogue portion corresponding to words of the object.
또한, 상기 이벤트는 상기 호스트 사용자 또는 상기 호스트 사용자에 대응하는 게스트(Guest) 사용자 중 적어도 하나가 상기 메신저 대화창에 상기 대사부분에 대응하는 내용을 입력하는 경우에 대응될 수 있다.The event may correspond to the case where at least one of the host user or a guest user corresponding to the host user inputs contents corresponding to the dialogue part in the messenger chat window.
또한, 상기 이벤트가 발생하는 경우, 상기 캐릭터의 액션이 상기 묘사부분에 대응되는 적어도 하나의 이모티콘을 상기 호스트 사용자에게 추천 및 자동선택될 수 있다.In addition, when the event occurs, at least one emoticon whose action of the character corresponds to the description part may be recommended and automatically selected to the host user.
또한, 상기 텍스트 재료는 제 1 객체(First Object)의 액션을 묘사하는 제 1 묘사부분과 상기 제 1 객체에 대응하는 제 2 객체(Second Object)의 액션을 묘사하는 제 2 묘사부분을 포함할 수 있다.In addition, the text material may include a first description portion describing an action of a first object and a second description portion describing an action of a second object corresponding to the first object. have.
또한, 상기 이벤트는 상기 호스트 사용자에 대응하는 게스트(Guest) 사용자가 상기 제 1 묘사부분 및 상기 제 2 묘사부분 중 어느 하나에 대응하는 이모티콘을 상기 메신저 대화창에 입력하는 경우에 대응될 수 있다.The event may correspond to a case where a guest user corresponding to the host user inputs an emoticon corresponding to one of the first and second description parts into the messenger chat window.
또한, 상기 이벤트가 발생하는 경우, 상기 제 1 묘사부분 및 상기 제 2 묘사부분 중 나머지 하나에 대응되는 적어도 하나의 이모티콘을 상기 호스트 사용자에게 추천 및 자동선택될 수 있다.In addition, when the event occurs, at least one emoticon corresponding to the other of the first description part and the second description part may be recommended and automatically selected to the host user.
본 발명의 또 다른 실시예에 따른 이모티콘의 정보 처리 방법은 메신저 대화창이 활성화되면, 활성화된 메신저 대화창에 관련된 표현 조건(Expression Condition)을 파악하는 단계 및 상기 메신저 대화창에 입력되는 대화에서 상기 표현 조건에 매칭(Matching)된 표현 재료(Expression Item)에 대응되는 이벤트(Event)가 발생하면, 상기 표현 재료에 관련된 적어도 하나의 이모티콘(Emoticon)을 추천하는 추천단계를 포함할 수 있다.The information processing method of the emoticon according to another embodiment of the present invention is to determine an expression condition related to the activated messenger chat window when the messenger chat window is activated, and to display the expression condition in the conversation input to the messenger chat window. If an event corresponding to a matching expression item occurs, the method may include a recommendation step of recommending at least one emoticon related to the expression material.
또한, 상기 이모티콘에 대응되는 캐릭터(Character)를 설정하는 단계를 더 포함할 수 있다.The method may further include setting a character corresponding to the emoticon.
또한, 상기 메신저 대화창에 참여하는 사용자는 상기 메신저 대화창이 표시되는 단말기(Terminal) 사용자인 호스트(Host) 사용자와 적어도 하나의 게스트(Guest) 사용자를 포함하고, 상기 이벤트는 상기 호스트 사용자가 입력한 대화 및 상기 게스트 사용자가 입력한 대화 중 적어도 하나에서 발생할 수 있다.The user participating in the messenger chat window may include a host user, which is a terminal user on which the messenger chat window is displayed, and at least one guest user, and the event is a conversation input by the host user. And a conversation input by the guest user.
또한, 상기 추천단계에서는 상기 이벤트에 대응하여 상기 표현 재료에 관련된 적어도 하나의 이모티콘을 상기 호스트에게 추천 및 자동선택될 수 있다.In addition, in the recommendation step, at least one emoticon related to the expression material may be recommended and automatically selected to the host in response to the event.
또한, 상기 표현 재료는 객체(Object)의 액션(Action)을 포함하고, 상기 액션은 대사, 표정, 행동 및 포즈(Pose) 중 적어도 하나를 포함할 수 있다.In addition, the expression material may include an action of an object, and the action may include at least one of dialogue, facial expression, action, and pose.
또한, 상기 표현 재료는 텍스트 재료(Text Material) 및 이미지 재료(Image Material) 중 적어도 하나를 포함할 수 있다.In addition, the presentation material may include at least one of a text material and an image material.
또한, 상기 표현 조건은 감지 조건(Sensing Condition), 관계 조건(Relation Condition), 감정 조건(Emotion Condition), 행동 조건(Action Condition), 포즈 조건(Pose Condition), 표정 조건(Face Condition), 대사 조건(Words Condition) 및 상황 조건(Situation Condition) 중 적어도 하나를 포함할 수 있다.The expression condition may include a sensing condition, a relation condition, an emotion condition, an action condition, a pose condition, a facial condition, and a metabolic condition. It may include at least one of a Words Condition and a Situation Condition.
또한, 상기 감지 조건은 지리적 환경에 대한 정보, 날씨 환경에 대한 정보 및 시간적 환경에 대한 정보 중 적어도 하나를 포함할 수 있다.In addition, the detection condition may include at least one of information about a geographic environment, information about a weather environment, and information about a temporal environment.
또한, 상기 관계조건은 상기 메신저 대화창이 표시되는 단말기(Terminal) 사용자인 호스트(Host) 사용자와 상기 메신저 대화창에 참여하는 게스트(Guest) 사용자와의 관계에 대한 정보를 포함할 수 있다.The relationship condition may include information on a relationship between a host user, which is a terminal user on which the messenger chat window is displayed, and a guest user who participates in the messenger chat window.
또한, 상기 감정 조건은 상기 메신저 대화창이 표시되는 단말기(Terminal) 사용자인 호스트(Host) 사용자의 감정 상태에 대한 정보를 포함할 수 있다.The emotion condition may include information on an emotion state of a host user who is a terminal user on which the messenger chat window is displayed.
또한, 상기 표현 조건 중 적어도 일부는 상기 메신저 대화창이 표시되는 단말기(Terminal) 사용자인 호스트(Host) 사용자가 설정할 수 있다.In addition, at least some of the expression conditions may be set by a host user who is a terminal user who displays the messenger chat window.
또한, 상기 표현 조건 중 적어도 일부는 상기 메신저 대화창에 입력되는 대화를 근거로 하여 추출될 수 있다.In addition, at least some of the expression conditions may be extracted based on a conversation input to the messenger conversation window.
본 발명에 따른 이모티콘의 정보 처리 방법 및 시스템은 사용자가 원하는 이모티콘을 보다 효과적으로 제공할 수 있는 효과가 있다.The information processing method and system of the emoticon according to the present invention has an effect of providing the emoticon desired by the user more effectively.
도 1 내지 도 6은 이모티콘에 대해 설명하기 위한 도면이다.1 to 6 are diagrams for explaining the emoticon.
도 7 내지 도 11은 본 발명에 따른 이모티콘 정보 처리 시스템의 구성에 대해 설명하기 위한 도면이다.7 to 11 are views for explaining the configuration of the emoticon information processing system according to the present invention.
도 12 내지 도 45는 표현 재료를 이용한 이모티콘 정보 처리 방법에 대해 설명하기 위한 도면이다.12 to 45 are diagrams for explaining the emoticon information processing method using the expression material.
도 46 내지 도 74는 표현 재료와 표현 조건을 이용한 이모티콘 정보 처리 방법에 대해 설명하기 위한 도면이다.46 to 74 are views for explaining the emoticon information processing method using the expression material and the expression conditions.
이하, 첨부된 도면을 참조하여 본 발명에 따른 이모티콘 정보 처리 방법 및 시스템에 대해 상세히 설명한다.Hereinafter, a method and a system for processing emoticon information according to the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. It is not intended to limit the invention to the specific embodiments, it can be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.
본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. The terms may be used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The term and / or may include a combination of a plurality of related items or any item of a plurality of related items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to that other component, but other components may be present in between. Can be understood. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it may be understood that there is no other component in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions may include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and one or more other features. It may be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, parts, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries may be interpreted to have meanings consistent with the meanings in the context of the related art, and shall be interpreted in ideal or excessively formal meanings unless expressly defined in the present application. It may not be.
아울러, 이하의 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the following embodiments are provided to more fully describe those skilled in the art, and the shape and size of elements in the drawings may be exaggerated for clarity.
이하에서 설명되는 다양한 실시예들은 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described below can be implemented in a recording medium readable by a computer or similar device using software, hardware or a combination thereof.
하드웨어적인 구현에 의하면, 본 발명의 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다.According to a hardware implementation, embodiments of the present invention may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). (processors), controllers (controllers), micro-controllers (micro-controllers), microprocessors (microprocessors), may be implemented using at least one of the electrical unit for performing a function.
한편, 소프트웨어적인 구현에 의하면, 본 발명에서 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다.On the other hand, according to the software implementation, embodiments such as a procedure or a function in the present invention may be implemented with a separate software module for performing at least one function or operation.
이하에서 'A 및/또는 B'는 'A 및 B 중 적어도 하나'로 해석될 수 있다.Hereinafter, 'A and / or B' may be interpreted as 'at least one of A and B'.
본 발명에서 사용되는 이모티콘에 대해 도 1 내지 도 6을 참조하여 설명한다.An emoticon used in the present invention will be described with reference to FIGS. 1 to 6.
도 1 내지 도 6은 이모티콘에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 설명한 부분에 대한 설명은 생략될 수 있다.1 to 6 are diagrams for explaining the emoticon. Hereinafter, the description of the above-described parts may be omitted.
이모티콘(Emoticon)은 감정을 뜻하는 이모션(emotion)과 아이콘(icon)의 합성어라고 할 수 있다.An emoticon is a compound word of an emotion and an icon representing emotion.
본 발명에서 이모티콘은 소정의 캐릭터(Character)를 포함할 수 있다. 여기서, 캐릭터는 사람, 동물, 물건 뿐 아니라 문장기호, 특수문자를 포함하는 것이 가능할 수 있다. 이하에서는 설명의 편의를 위해 캐릭터가 사람, 동물 또는 물건인 경우로 가정하여 설명하기로 한다.In the present invention, the emoticon may include a predetermined character. Here, the character may include not only people, animals, and objects but also punctuation symbols and special characters. In the following description, it is assumed that the character is a person, an animal, or an object for convenience of explanation.
이모티콘에서 캐릭터는 소정의 액션(Action)을 취할 수 있다. 여기서, 액션은 행동, 포즈 및 표정 중 적어도 하나를 포함할 수 있다.In the emoticon, the character may take a certain action. Here, the action may include at least one of an action, a pose, and an expression.
예를 들어, 도 1 및 도 2의 경우와 같이, 도 1의 이모티콘과 도 2의 이모티콘은 각각 캐릭터로서 '호돌이'를 포함하고, 행동 및/또는 포즈가 서로 다를 수 있다. 즉, 도 3의 이모티콘과 도 4의 이모티콘은 동일한 '호돌이' 캐릭터를 포함하면서도, 행동 및/또는 포즈로서 구분될 수 있다.For example, as in the case of FIG. 1 and FIG. 2, the emoticon of FIG. 1 and the emoticon of FIG. 2 may each include a 'hodol' as a character and have different behaviors and / or poses. That is, the emoticon of FIG. 3 and the emoticon of FIG. 4 may be distinguished as behaviors and / or poses, while including the same 'idol' character.
또는, 도 3 및 도 4의 경우와 같이, 도 3의 이모티콘과 도 4의 이모티콘은 서로 다른 의상 및/또는 소품을 착용(소지)한 '호돌이' 캐릭터(호돌이)를 포함할 수 있다.Alternatively, as in the case of FIGS. 3 and 4, the emoticon of FIG. 3 and the emoticon of FIG. 4 may include a 'hodol' character (hodol) wearing different clothes and / or props.
이처럼, 동일한 캐릭터라고 하더라도 서로 다른 의상 및/또는 소품을 착용(소지)하는 경우에는 서로 다른 이모티콘으로 구별될 수 있다.As such, the same character may be distinguished by different emoticons when wearing (having) different clothes and / or props.
또는, 도 5 및 도 6의 경우와 같이, 도 5의 이모티콘과 도 6의 이모티콘은 서로 다른 표정을 갖는 동일한 캐릭터를 포함할 수 있다.Alternatively, as in the case of FIGS. 5 and 6, the emoticon of FIG. 5 and the emoticon of FIG. 6 may include the same character having different expressions.
이처럼, 동일한 캐릭터라고 하더라도 서로 다른 표정을 갖는 경우에는 서로 다른 이모티콘으로 구별될 수 있다.As such, even if the same character has a different expression can be distinguished by different emoticons.
이러한 이모티콘에 대한 정보를 처리하는 이모티콘 정보 처리 시스템에 대해 첨부된 도 7 내지 도 11을 참조하여 이하에서 설명하기로 한다.The emoticon information processing system for processing the information on the emoticon will be described below with reference to FIGS. 7 to 11.
도 7 내지 도 11은 본 발명에 따른 이모티콘 정보 처리 시스템의 구성에 대해 설명하기 위한 도면이다.7 to 11 are views for explaining the configuration of the emoticon information processing system according to the present invention.
도 7을 살펴보면, 본 발명에 따른 이모티콘 정보 처리 시스템(1)은 이모티콘 서버(10), 통신 서버(20) 및 사용자 단말기(30)를 포함할 수 있다.Referring to FIG. 7, the emoticon
이모티콘 서버(10)는 이모티콘에 대한 정보를 처리할 수 있다. 다르게 표현하면, 이모티콘 서버(10)는 이모티콘의 설정 및 송수신을 수행할 수 있다. 예를 들면, 이모티콘 서버(10)는 사용자 단말기(30)로 이모티콘에 대한 정보를 제공하고, 사용자 단말기(30)에서 설정한 정보에 대응하여 사용자 단말기(30)로 소정의 이모티콘을 추천 및 제공할 수 있다.The
아울러, 이모티콘 서버(10)는 통신 서버(20)와 통신하고, 이모티콘에 대한 정보를 통신 서버(20)로 제공할 수 있다.In addition, the
사용자 단말기(30)들은 통신 서버(20)를 통해 서로 통신을 할 수 있다.The
본 발명에서 사용자 단말기(30)는 이모티콘 서버(10) 및/또는 통신 서버(20)와 통신을 할 수 있으며, 메신저 프로그램을 실행하고, 메신저 프로그램을 통해 이모티콘을 사용할 수 있는 것이라면 어떠한 것이라도 적용될 수 있다. 예를 들면, 사용자 단말기(30)는 스마트 폰(Smart Phone) 등과 같은 이동통신 단말기 또는 랩탑(Laptop), 데스크탑(Desktop) 등의 PC일 수 있다.In the present invention, the
통신 서버(20)는 사용자 단말기(30)들간의 통신, 사용자 단말기(30)와 이모티콘 서버(10)와의 통신을 관리할 수 있다.The
본 발명에서 이모티콘 서버(10)와 통신 서버(20)는 병합되는 것이 가능하다. 예를 들면, 이모티콘 서버(10)는 통신 서버(20)에 포함되는 것이 가능하다.In the present invention, the
도 7의 이모티콘 정보 처리 시스템(1)은 이하에서 통해 보다 명확히 설명될 수 있다.The emoticon
도 7에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이모티콘 정보 처리 시스템(1)을 구현하는 것도 가능하다.Since the components shown in FIG. 7 are not essential, it is also possible to implement the emoticon
이모티콘에 대한 정보를 처리하는 이모티콘 서버(10)에 대해 도 8을 참조하여 이하에서 보다 상세히 설명한다.An
도 8을 살펴보면, 이모티콘 서버(10)는 캐릭터부(100), 성격부(200), 추천부(300), 사용자 정보부(400), 변경부(500), 저장부(600) 및 제어부(700)를 포함할 수 있다.Referring to FIG. 8, the
캐릭터부(100)는 캐릭터(Character)를 설정할 수 있다. 아울러, 캐릭터부(100)는 다양한 캐릭터에 대한 정보를 처리 및 관리하고, 이를 사용자 단말기(30)로 제공할 수 있다.The
또한, 캐릭터부(100)는 사용자 단말기(30)의 요청에 따라 캐릭터를 설정(선택)하는 것이 가능하다.In addition, the
또한, 캐릭터부(100)는 캐릭터의 액션(행동, 포즈 및 표정 중 적어도 하나)을 제어 및 관리할 수 있다.Also, the
성격부(200)는 캐릭터의 성격(Personality)을 설정할 수 있다. 아울러, 성격부(200)는 성격에 대한 정보를 처리 및 관리할 수 있다. 예를 들면, 성격부(200)는 캐릭터에 소정의 성격을 부여하고, 부여한 성격에 대한 정보를 관리할 수 있다.The
여기서, 캐릭터의 성격은 캐릭터의 반응 스타일(Reaction Style)을 포함할 수 있다. 다르게 표현하면, 캐릭터의 성격은 캐릭터가 소정의 조건에 대응하여 어떠한 방식으로 액션을 취하거나, 변경되거나 하는 등의 반응 스타일을 의미할 수 있다.Here, the character's personality may include a reaction style of the character. In other words, the character's personality may refer to a response style such that the character takes an action or changes in some way in response to a predetermined condition.
소정의 캐릭터가 취하는 액션을 반응(Reaction)의 일종으로 간주하면, 본 발명에서 이모티콘은 캐릭터와 성격의 조합으로 설명할 수 있을 것이다. 즉, 이모티콘은 성격이 부여된 캐릭터를 포함할 수 있다.If an action taken by a certain character is regarded as a kind of reaction, the emoticon in the present invention may be described as a combination of a character and a personality. That is, the emoticon may include a character to which a personality is given.
하나의 캐릭터는 적어도 하나의 성격을 포함할 수 있다. 예를 들면, 하나의 캐릭터는 단일 성격(Single Personality)을 갖는 것이 가능하다.One character may include at least one personality. For example, it is possible for one character to have a single personality.
또는, 하나의 캐릭터는 복수의 성격을 갖는 것이 가능하다. 소정의 캐릭터는 상대에 따라 다른 성격을 갖는 것이 가능할 수 있다. 예를 들면, 캐릭터의 애인에 대응하는 성격, 부모에 대응하는 성격, 친구에 대응하는 성격, 직장상사에 대응하는 성격은 다를 수 있다.Alternatively, one character can have a plurality of personalities. It may be possible for a given character to have a different personality depending on the opponent. For example, a personality corresponding to a character's lover, a personality corresponding to a parent, a personality corresponding to a friend, and a personality corresponding to a boss may be different.
이러한 성격은 사용자 단말기(30)의 사용자가 직접 설정하는 것이 가능하다.This personality can be set directly by the user of the
또는, 성격은 이모티콘 서버(10)에 의해 설정될 수 있다.Alternatively, the personality may be set by the
성격에 대해서는 이하에서 보다 명확히 설명될 수 있을 것이다.The nature will be described more clearly below.
성격부(200)는 기본성격부(200A)와 개인성격부(200B)를 포함할 수 있다. 이에 대해서는 이하의 도 9 내지 도 10에서 상세히 설명하기로 한다.The
추천부(300)는 사용자에게 소정의 이모티콘을 추천할 수 있다. 이를 위해, 추천부(300)는 사용자가 설정한 표현 재료(Expression Item)와 이모티콘의 유사도를 분석할 수 있다.The
이모티콘의 추천 방법에 대해서는 이하에서 보다 상세히 설명하기로 한다.The recommendation method of the emoticon will be described in more detail below.
사용자 정보부(400)는 사용자 단말기(30)의 사용자, 즉 호스트(Host) 사용자에 대한 정보를 저장하고 관리할 수 있다.The
아울러, 사용자 정보부(400)는 호스트 사용자에 대응하는 게스트(Guest) 사용자에 대한 정보를 저장하고 관리할 수 있다. 여기서, 게스트 사용자에 대한 정보는 호스트 사용자의 단말기(30)에 설정 및 저장될 수 있다.In addition, the
만약, 게스트 사용자에 대한 정보가 호스트 사용자의 단말기(30)에 저장되어 있지 않은 경우에는, 사용자 정보부(400)는 호스트 사용자와 게스트 사용자의 대화를 분석하여 호스트 사용자와 게스트 사용자의 관계에 대한 정보 및 게스트 사용자에 대한 정보를 유추하여 획득하는 것이 가능하다.If the information on the guest user is not stored in the
여기서, 호스트 사용자(H)와 게스트 사용자(G)는 사용자 단말기(30)의 관점에서 구분될 수 있다. 예를 들어, 소정의 제 1 단말기의 제 1 사용자가 제 2 단말기의 제 2 사용자를 메신저 대화창에 초대하는 경우를 가정하여 보자. 이러한 경우, 제 1 단말기의 입장에서는 제 1 사용자가 호스트 사용자이고, 제 2 사용자는 게스트 사용자일 수 있다. 반면에, 제 2 단말기의 입장에서는 제 2 사용자가 호스트 사용자이고, 제 1 사용자는 게스트 사용자일 수 있다.Here, the host user H and the guest user G may be distinguished from the viewpoint of the
변경부(500)는 이모티콘의 변화를 설정하고 관리할 수 있다. 이러한 변경부(500)에 대해서는 이하의 도 11에서 상세히 설명하기로 한다.The
저장부(600)는 이모티콘 서버(10)에서 사용되는 다양한 정보, 프로그램, 데이터 등을 저장할 수 있다.The
제어부(700)는 이모티콘 서버(10)의 전반적인 기능 및 동작을 제어할 수 있다.The
도 8에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이모티콘 서버(10)를 구현하는 것도 가능하다.The components shown in FIG. 8 are not essential, so it is also possible to implement an
성격부(200)의 개인성격부(200B)에 대해 첨부된 도 9를 참조하여 보다 상세히 살펴보면 아래와 같다.Referring to FIG. 9 attached to the
도 9를 살펴보면, 개인성격부(200B)는 가르침부(Teaching Part, 210)와 학습부(Learning, 220)를 포함할 수 있다.Referring to FIG. 9, the
가르침부(210)는 가르침 과정을 통해 캐릭터에 소정의 성격을 부여할 수 있다.The
아울러, 학습부(220)는 학습 과정을 통해 캐릭터에 소정의 성격을 부여할 수 있다.In addition, the
가르침부(210)는 가르침 교재부(211), 표현 재료부(212), 조건부(213) 및 매칭부(Matching Part, 214)를 포함할 수 있다.The
가르침 교재부(211)는 가르침 교재(Teaching Material)를 설정(선택)하고, 가르침 교재에 대한 정보를 관리할 수 있다.The
표현 재료부(212)는 가르침 교재에 포함된 표현 재료(Expression Item)를 선택하고, 이에 대한 정보를 관리할 수 있다.The
여기서, 가르침 교재는 적어도 하나의 표현 재료를 포함하는 것으로, 만화, 소설, 수필, 대화내용(Chatting) 및 사진 중 적어도 하나를 포함할 수 있다.Here, the teaching material includes at least one expression material, and may include at least one of cartoons, novels, essays, chatting, and photographs.
표현 재료는 가르침 교재에서 대사, 표정, 행동 및 포즈(Pose) 중 적어도 하나를 포함하는 부분에 대응될 수 있다.The expression material may correspond to a portion of the teaching manual that includes at least one of dialogue, facial expression, behavior, and pose.
여기서, 대사, 표정 및 포즈 중 적어도 하나를 액션(Action)이라고 할 수 있다. 이를 고려하면, 표현 재료는 설정된 캐릭터에 대응하는 액션(Action)을 포함할 수 있다.Here, at least one of dialogue, facial expression, and pose may be referred to as an action. In consideration of this, the expression material may include an action corresponding to the set character.
또는, 액션은 소정의 객체(Object)가 수행하는 것을 고려하면, 표현 재료는 객체의 액션을 포함하는 것으로도 볼 수 있다.Alternatively, considering that an action is performed by a given object, the presentation material may also be viewed as including the action of the object.
이러한 표현 재료는 이미지 재료(Image Material) 및 텍스트 재료(Text Material) 중 적어도 하나를 포함할 수 있다. 여기서, 이미지 재료는 이미지 타입의 자료이고, 텍스트 재료는 텍스트 타입의 자료일 수 있다.The presentation material may include at least one of an image material and a text material. Here, the image material may be image type material, and the text material may be text type material.
이미지 재료는 액션의 주체인 적어도 하나의 객체(Object)를 포함할 수 있다.The image material may include at least one object that is the subject of the action.
텍스트 재료는 액션의 주체인 적어도 하나의 객체의 액션을 묘사하는 부분(묘사부분)을 포함할 수 있다.The text material may include a portion (description portion) that describes the action of at least one object that is the subject of the action.
예를 들어, 만화 '슬램덩크'가 가르침 재료에 대응될 수 있고, 만화 '슬램덩크'에 포함된 소정의 만화컷(Cartoon Cut) 혹은 소정의 페이지가 표현 재료에 대응될 수 있다.For example, the cartoon 'slam dunk' may correspond to the teaching material, and a cartoon cut or a page included in the cartoon 'slam dunk' may correspond to the presentation material.
조건부(213)는 표현 조건(Expression Condition)을 설정하고, 이에 대한 정보를 관리할 수 있다.The
표현 조건은 이모티콘에 대응하는 다양한 조건에 대한 정보를 포함할 수 있다.The expression condition may include information about various conditions corresponding to the emoticon.
이러한 조건부(213)는 감지조건부(213a), 관계조건부(213b), 감정조건부(213c), 상황조건부(213d), 대사조건부(213e) 및 액션조건부(213f)를 포함할 수 있다.The
감지조건부(213a)는 표현 조건 중 감지 조건(Sensing Condition)을 설정 및/또는 관리할 수 있다.The
감지조건은 지리적 환경에 대한 정보, 날씨 환경에 대한 정보 및 시간적 환경에 대한 정보 중 적어도 하나를 포함할 수 있다.The detection condition may include at least one of information about a geographical environment, information about a weather environment, and information about a temporal environment.
이를 위해, 감지조건부(213a)는 시계, GPS, 온도계, 습도계 등의 센싱장치를 포함할 수 있다. 또는, 감지조건부(213a)는 통신망을 통해 인터넷에 접속하여 지리적 환경에 대한 정보(위도, 경우, 국가, 행정구역 등에 대한 정보), 날씨 환경에 대한 정보, 시간적 환경에 대한 정보 등을 획득할 수 있다.To this end, the
관계조건부(213b)는 관계조건(Relation Condition)을 설정 및/또는 관리할 수 있다.The
여기서, 관계 조건은 사용자와 사용자가 등록한 상대와의 관계에 대한 정보를 포함할 수 있다.Here, the relationship condition may include information about the relationship between the user and the partner registered by the user.
감정조건부(213c)는 감정조건(Emotion Condition)을 설정 및/또는 관리하는 것이 가능하다.The
여기서, 감정 조건은 사용자의 감정 상태에 대한 정보를 포함할 수 있다.Here, the emotional condition may include information about the emotional state of the user.
감정조건은 하나의 캐릭터에 하나씩 대응되는 것이 가능하다.Emotional conditions can correspond to one character one by one.
또는, 하나의 캐릭터에 다양한 감정조건이 설정되는 것이 가능하다. 예를 들면, 부모에 대한 감정, 친구에 대한 감정, 직장상사에 대한 감정, 애인에 대한 감정은 각각 별도로 설정되는 것이 가능할 수 있다.Alternatively, various emotion conditions may be set for one character. For example, it may be possible to set emotions for parents, feelings for friends, feelings for the boss, and feelings for lovers.
상황조건부(213d)는 상황조건(Situation Condition)을 설정 및/또는 관리할 수 있다.The
여기서, 상황조건(Situation Condition)은 시간적 상황에 대한 조건을 포함할 수 있다. 예를 들면, 상황조건은 제 1 대기시간에 대한 조건, 제 2 대기시간에 대한 조건 및/또는 제 3 대기시간에 대한 조건을 포함할 수 있다.Here, the situation condition may include a condition for a temporal situation. For example, the situation condition may include a condition for the first waiting time, a condition for the second waiting time, and / or a condition for the third waiting time.
제 1 대기시간은 발신자(Sender)가 메지시를 발송하는 시점부터 수신자(Receiver)가 메시지를 확인하는 시점까지의 시간을 의미할 수 있다. 제 1 대기시간은 확인대기시간이라 할 수 있다.The first waiting time may mean a time from a time when a sender sends a message to a time when a receiver checks a message. The first waiting time may be referred to as confirmation waiting time.
제 2 대기시간은 수신자가 메시지를 확인한 시점부터 발신자로 답변 메시지를 전송하는 시점까지의 시간을 의미할 수 있다. 제 2 대기시간은 답변대기시간이라 할 수 있다.The second waiting time may mean a time from when the receiver checks the message to when the answer message is sent to the sender. The second waiting time may be referred to as a response waiting time.
제 2 대기시간은 발신자가 수신자에게 답변을 원하는 메시지를 발송하는 경우에 설정될 수 있다.The second waiting time may be set when the sender sends a message to the recipient to answer.
제 3 대기시간은 발신자가 메지시를 발송하는 시점부터 수신자가 답변메시지를 전송하는 시점까지의 시간을 의미할 수 있다. 제 3 대기시간은 총대기시간이라 할 수 있다.The third waiting time may mean a time from when the sender sends the message to the time when the receiver sends the response message. The third waiting time may be referred to as total waiting time.
대사조건부(213e)는 대사 조건(Words Condition)을 설정 및/또는 관리할 수 있다.The
대사 조건은 객체에 대응하는 대사(Words)에 대한 조건을 의미할 수 있다.The metabolic condition may refer to a condition for words that correspond to an object.
액션조건부(213f)는 액션 조건(Action Condition)을 설정 및/또는 관리할 수 있다.The
액션 조건은 소정의 객체의 액션에 대한 조건을 의미할 수 있다.The action condition may mean a condition for an action of a predetermined object.
액션 조건은 객체의 행동에 대한 행동 조건(Action Condition), 객체의 포즈에 대한 포즈 조건(Pose Condition) 및 객체의 표정 대한 표정 조건(Face Condition) 중 적어도 하나를 포함할 수 있다.The action condition may include at least one of an action condition for an action of the object, a pose condition for a pose of the object, and a facial condition for an expression of the object.
이하에서는 설명의 편의를 위해 대사 조건과 액션 조건을 통칭하여 디스플레이 조건이라고 할 수 있다. 다른 관점에서 보면, 표현 조건은 디스플레이 조건을 포함하는 것으로 볼 수 있다.Hereinafter, for convenience of explanation, metabolic conditions and action conditions may be collectively referred to as display conditions. In other respects, the presentation condition may be viewed as including a display condition.
매칭부(214)는 표현 재료와 표현 조건을 매칭시킬 수 있다.The
학습부(220)는 학습 재료부(221), 정보 획득부(222) 및 정보 적용부(223)를 포함할 수 있다.The
학습 재료부(221)는 사용자와 상대의 대화, 즉 호스트 사용자와 게스트 사용자의 대화를 분석하여 학습 재료(Learning Item)를 추출하고, 이를 관리할 수 있다.The learning
정보 획득부(222)는 학습 재료를 분석하여 관계정보 및/또는 조건정보를 획득할 수 있다. 예를 들면, 정보 획득부(222)는 학습 재료부(221)가 추출한 학습 재료를 근거로 하여 사용자와 상대의 관계(호스트 사용자와 게스트 사용자의 관계)에 대한 정보 및 상대에 대한 사용자의 감정(게스트 사용자에 대한 호스트 사용자의 감정)에 대한 정보 중 적어도 하나를 획득할 수 있다.The
정보 적용부(223)는 정보 획득부(222)가 획득한 정보를 적용할 수 있다.The
도 9의 개인성격부(220B)는 이하의 설명을 통해 보다 명확히 될 수 있다.The personality unit 220B of FIG. 9 may be more clearly understood through the following description.
도 9에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이모티콘 서버(10)를 구현하는 것도 가능하다. 예를 들어, 도 9에는 도시하지 않았지만, 개인성격부(220B)의 조건부(213)는 쇼핑정보조건부, 결재정보조건부, 및 게임사용조건부를 추가로 포함할 수도 있다. 쇼핑정보조건부는 가격 검색 정보를 특정(지정)사이트에서 사용 했는지의 정보 등을 관리할 수 있다. 결재정보조건부는 보유하고 있는 각종 카드 및 쿠폰과 결재 사용 내역 등의 정보를 관리할 수 있다. 게임사용조건부는 단말기에 깔리거나 실행된 게임정보 등을 관리할 수 있다. 게임정보를 알면 해당 이모티콘을 추출하고 매출 올리기가 쉽다.The components shown in FIG. 9 are not essential, so it is also possible to implement the
추천부(300)에 대해 첨부된 도 10을 참조하여 보다 상세히 살펴보면 아래와 같다.Referring to FIG. 10 with respect to the
도 10을 살펴보면, 추천부(300)는 표현 조건 분석부(310), 표현 재료 판단부(320), 대화 분석부(330), 이벤트 감지부(340), 추천 이모티콘 추출부(350) 및 정보 제공부(360)를 포함할 수 있다.Referring to FIG. 10, the
대화 분석부(330)는 메신저 대화창에 입력되는 호스트 사용자와 게스트 사용자의 대화를 분석할 수 있다.The conversation analyzer 330 may analyze a conversation between a host user and a guest user input in the messenger chat window.
표현 조건 분석부(310)는 메신저 대화창이 실행되면, 메신저 대화창에 대응되는 표현 조건을 분석할 수 있다.When the messenger chat window is executed, the
이벤트 감지부(340)는 메신저 대화창에 입력되는 대화에서 이벤트(Event)가 발생하는지의 여부를 판단할 수 있다. 여기서, 이벤트는 소정의 이모티콘을 추천, 제공, 사용하는 조건을 만족하는 것에 대응될 수 있다.The
이벤트는 표현 재료에 대응되거나 표현 조건에 대응될 수 있다.An event may correspond to a presentation material or a presentation condition.
표현 재료 판단부(320)는 표현 조건 분석부(310)가 분석한 표현 조건에 대응하는 표현 재료를 판단하고 검출할 수 있다.The
추천 이모티콘 추출부(350)는 사용자에게 추천할 이모티콘을 추출할 수 있다.The recommended
정보 제공부(360)는 추천 이모티콘 추출부(350)가 추출한 이모티콘을 사용자(호스트 사용자)에게 추천, 제공할 수 있다.The
도 10에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 추천부(300)를 구현하는 것도 가능하다.Since the components shown in FIG. 10 are not essential, it is also possible to implement the
변경부(500)에 대해 첨부된 도 11을 참조하여 보다 상세히 살펴보면 아래와 같다.The
도 11을 살펴보면, 변경부(500)는 변경 조건부(510) 및 이모티콘 변경부(520)를 포함할 수 있다.11, the
변경 조건부(510)는 이모티콘을 변경할 조건이 충족되는지를 판단하고, 이에 대한 정보를 획득 및 관리할 수 있다.The
이모티콘 변경부(520)는 변경 조건부(510)가 획득한 정보에 따라 메신저 대화창에 표시된 이모티콘을 변경할 수 있다.The
변경 조건부(510)는 관계조건부(511), 날씨조건부(512), 시간조건부(513), 감정조건부(514), 위치조건부(515), 대사조건부(516) 및 액션 조건부(517)를 포함할 수 있다.The
관계조건부(511)는 이모티콘을 변경하기 위한 관계조건을 설정하고, 이에 대한 정보를 관리할 수 있다. 아울러, 관계조건부(511)는 이모티콘을 변경하기 위한 관계조건이 만족되는지를 판단할 수 있다.The
날씨조건부(512)는 이모티콘을 변경하기 위한 날씨조건을 설정하고, 이에 대한 정보를 관리할 수 있다. 아울러, 날씨조건부(512)는 이모티콘을 변경하기 위한 날씨조건이 만족되는지를 판단할 수 있다.The
시간조건부(513)는 이모티콘을 변경하기 위한 시간조건을 설정하고, 이에 대한 정보를 관리할 수 있다. 아울러, 시간조건부(513)는 이모티콘을 변경하기 위한 시간조건이 만족되는지를 판단할 수 있다.The
감정조건부(514)는 이모티콘을 변경하기 위한 감정조건을 설정하고, 이에 대한 정보를 관리할 수 있다. 아울러, 감정조건부(514)는 이모티콘을 변경하기 위한 감정조건이 만족되는지를 판단할 수 있다.The
위치조건부(515)는 이모티콘을 변경하기 위한 위치조건을 설정하고, 이에 대한 정보를 관리할 수 있다. 아울러, 위치조건부(515)는 이모티콘을 변경하기 위한 위치조건이 만족되는지를 판단할 수 있다.The
대사조건부(516)는 이모티콘을 변경하기 위한 대사조건을 설정하고, 이에 대한 정보를 관리할 수 있다. 아울러, 대사조건부(516)는 이모티콘을 변경하기 위한 대사조건이 만족되는지를 판단할 수 있다.The
액션조건부(517)는 이모티콘을 변경하기 위한 액션조건을 설정하고, 이에 대한 정보를 관리할 수 있다. 아울러, 액션조건부(517)는 이모티콘을 변경하기 위한 액션조건이 만족되는지를 판단할 수 있다.The
도 11에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 변경부(500)를 구현하는 것도 가능하다.Since the components shown in FIG. 11 are not essential, it is also possible to implement the
이하에서는 첨부된 도면을 참조하여 이모티콘 정보 처리 방법에 대해 설명하기로 한다.Hereinafter, a method of processing emoticon information will be described with reference to the accompanying drawings.
도 12 내지 도 45는 표현 재료를 이용한 이모티콘 정보 처리 방법을 설명하기 위한 도면이다. 이하에서는 이상에서 설명한 부분에 대한 설명은 생략될 수 있다.12 to 45 are diagrams for explaining an emoticon information processing method using an expression material. Hereinafter, the description of the above-described parts may be omitted.
도 12와 같이, 이모티콘 정보 처리 방법에서는 먼저 캐릭터를 설정할 수 있다(S100).As shown in FIG. 12, in the emoticon information processing method, a character may first be set (S100).
캐릭터를 설정하는 단계(S100)에서는 적어도 하나의 캐릭터를 포함하는 캐릭터 템플릿(Character Template)을 사용자 단말기의 화면에 표시할 수 있다(S110).In the setting of the character (S100), a character template including at least one character may be displayed on the screen of the user terminal (S110).
예를 들면, 도 13의 경우와 같이, 캐릭터로서 '호돌이', '짱구', '복숭아', '뿌까', '프로도' 및 '네오'를 포함하는 템플릿을 화면에 표시할 수 있다.For example, as in the case of FIG. 13, a template including 'Hodly', 'Canggu', 'Peach', 'Pucca', 'Frodo' and 'Neo' may be displayed on the screen.
이후, 사용자가 캐릭터 템플릿에서 원하는 캐릭터를 선택(S120)하면, 선택한 캐릭터를 자신의 캐릭터로 설정할 수 있다.Thereafter, when the user selects a desired character from the character template (S120), the selected character may be set as his character.
이후, 표현 재료를 설정할 수 있다(S200).Thereafter, the expression material may be set (S200).
표현 재료를 설정하는 단계(S200)에서는 적어도 하나의 표현 재료를 추출하고(S210), 이후 추출한 표현 재료 중 적어도 하나를 선택(S220)할 수 있다.In setting the expression material (S200), at least one expression material may be extracted (S210), and at least one of the extracted expression materials may be selected (S220).
예를 들면, 도 14 및 도 15의 경우와 같이, 소정의 만화(가르침 교재)로부터 소정의 컷(표현 재료)을 추출할 수 있다.For example, as in the case of Figs. 14 and 15, a predetermined cut (expression material) can be extracted from a predetermined cartoon (teaching material).
도 14 및 도 15는 표현재료가 객체와 그에 대응하는 대사를 포함하는 경우에 해당될 수 있다. 도 14 및 도 15에서 객체는 등장인물에 대응될 수 있다.14 and 15 may correspond to a case in which the expression material includes an object and a corresponding dialogue. In FIG. 14 and FIG. 15, an object may correspond to a character.
또는, 도 16 내지 도 18의 경우와 같이, 소정의 사진이 표현 재료로서 설정될 수 있다.Alternatively, as in the case of Figs. 16 to 18, a predetermined picture may be set as the expression material.
도 16 내지 도 18의 경우에도 표현 재료가 객체와 그에 대응하는 대사를 포함하는 경우에 해당될 수 있다. 도 16 및 도 18에서 객체는 등장인물이고, 도 17에서 객체는 물건(불상)에 대응될 수 있다.16 to 18 may correspond to a case in which the expression material includes an object and a corresponding dialogue. In FIG. 16 and FIG. 18, the object is a character, and in FIG. 17, the object may correspond to an object (buddha).
또는, 도 19의 경우와 같이, 표현 재료는 대사는 포함하지 않으며, 적어도 하나의 객체의 액션을 포함하는 것이 가능하다.Alternatively, as in the case of FIG. 19, the expression material does not include the dialogue and may include an action of at least one object.
도 14 내지 도 19의 경우는 표현 재료가 이미지 재료(Image Material)인 경우에 해당될 수 있다.14 to 19 may correspond to a case in which the presentation material is an image material.
이와는 다르게, 표현 재료는 객체가 포함되지 않은 텍스트 재료(Text Material)을 포함하는 경우도 가능할 수 있다. 이에 대해서는 이하에서 설명하기로 한다.Alternatively, it may be possible that the presentation material includes a text material without an object. This will be described below.
표현 재료를 설정하는 단계(S200)에는, 도 20의 경우와 같이, 적어도 하나의 표현 재료를 포함하는 템플릿을 화면에 표시하고, 표시한 템플릿에서 적어도 하나의 표현 재료를 선택하는 것이 가능하다.In setting the expression material (S200), as in the case of FIG. 20, it is possible to display a template including at least one expression material on a screen and select at least one expression material from the displayed template.
도 20의 템플릿을 가르침 템플릿(Teaching Template)이라고 할 수 있다.The template of FIG. 20 may be referred to as a teaching template.
표현 재료를 설정하면, 설정한 표현 재료를 분석하여 액션 조건과 대사 조건을 포함하는 디스플레이 조건을 판별하는 것이 가능하다. 이에 대해, 도 21을 참조하여 살펴보면 아래와 같다.By setting the expression material, it is possible to analyze the set expression material and determine display conditions including action conditions and metabolic conditions. This will be described below with reference to FIG. 21.
도 21을 살펴보면, 표현 재료를 설정하면, 설정한 표현 재료가 이미지 재료(Image Material)인지의 여부를 판단(S230)하고, 판단결과 표현 재료가 이미지 재료가 아닌 경우에는 표현 재료가 텍스트 재료인지의 여부를 판단할 수 있다(S240).Referring to FIG. 21, when the expression material is set, it is determined whether the set expression material is an image material (S230), and if the expression material is not an image material, it is determined whether the expression material is a text material. It may be determined whether or not (S240).
제 S240 단계에서 판단결과, 표현 재료가 텍스트 재료가 아닌 경우에는 미리 설정된 다른 기능(Default)을 수행할 수 있다(S250). 예를 들면, 표현 재료의 판별이 불가능하다고 판단할 수 있다.As a result of the determination in step S240, when the presentation material is not the text material, another preset function (Default) may be performed (S250). For example, it can be determined that the expression material cannot be discriminated.
한편, 제 S240 단계에서 판단결과, 표현 재료가 텍스트 재료인 경우는 이하의 도 35에서 설명하기로 한다.On the other hand, as a result of the determination in step S240, when the presentation material is a text material will be described in FIG.
제 S230 단계에서 판단결과, 표현 재료가 이미지 재료인 경우에는 이미지 재료에 포함된 객체를 추출하고, 이를 분석할 수 있다(S231).As a result of the determination in step S230, when the expression material is an image material, an object included in the image material may be extracted and analyzed (S231).
이후, 추출한 객체의 액션을 분석(S232)하고, 분석 결과를 바탕으로 표현 재료에 대응하는 적어도 하나의 이모티콘을 추출할 수 있다(S233).Thereafter, the action of the extracted object may be analyzed (S232), and at least one emoticon corresponding to the expression material may be extracted based on the analysis result (S233).
예를 들면, 추출한 객체의 액션에 대한 정보를 미리 저장된 복수의 이모티콘과 비교하여 추출한 객체의 액션과 일정 수준 이상 유사한 적어도 하나의 이모티콘을 추출할 수 있다.For example, the information on the action of the extracted object may be compared with a plurality of previously stored emoticons to extract at least one emoticon that is at least a certain level similar to the action of the extracted object.
이후, 표현 재료에 대사가 포함되어 있는지의 여부를 판단(S234)하고, 판단결과 표현 재료에 대사가 포함되어 있지 않은 경우에는 이전 단계에서 추출한 객체의 액션에 대한 정보를 바탕으로 디스플레이 조건을 설정할 수 있다(S237). 이러한 방법으로 설정된 디스플레이 조건을 액션 조건이라고 할 수 있다.Subsequently, it is determined whether or not the expression material includes the dialogue (S234). When the determination result does not include the dialogue, the display condition may be set based on the information about the action of the object extracted in the previous step. There is (S237). The display condition set in this way may be referred to as an action condition.
반면에, 제 S234 단계에서 판단결과, 표현 재료에 대사가 포함되어 있는 경우에는 대사를 분석할 수 있다(S235).On the other hand, if the metabolism is included in the expression material as a result of the determination in step S234, the metabolism may be analyzed (S235).
이후, 분석한 대화에 대한 정보를 추출한 이모티콘과 매칭(Matching)시킬 수 있다(S236).Thereafter, the information on the analyzed conversation may be matched with the extracted emoticon (S236).
이후, 대사에 대한 정보를 바탕으로 디스플레이 조건을 설정할 수 있다(S237). 이러한 방법으로 설정된 디스플레이 조건을 대사 조건이라고 할 수 있다.Thereafter, the display condition may be set based on the information on the metabolism (S237). The display conditions set in this way can be referred to as metabolic conditions.
예를 들어, 도 22와 같이, 이미지를 표현 재료로 설정한 경우를 가정하여 보자. 도 22는 표현 재료가 객체와 객체에 대응하는 대사를 함께 포함하는 경우에 해당될 수 있다.For example, assume that the image is set as the expression material as shown in FIG. 22 may correspond to a case in which the expression material includes an object and a dialogue corresponding to the object.
이러한 경우, 도 22의 표현 재료의 객체의 액션을 분석하고, 분석한 액션 정보를 적어도 하나의 이모티콘과 비교하여 유사도가 일정 수준 이상인 적어도 하나의 이모티콘을 추출할 수 있다.In this case, the action of the object of the expression material of FIG. 22 may be analyzed, and the analyzed action information may be compared with at least one emoticon to extract at least one emoticon having a predetermined level or more.
도 22의 표현 재료에 포함된 객체의 액션과 일정 수준 이상 유사한 이모티콘의 일례가 도 23에 게시되어 있다.An example of an emoticon that is at least a certain level similar to an action of an object included in the expression material of FIG. 22 is posted in FIG. 23.
도 22의 표현 재료에는 '최고에요'라는 대사가 포함되어 있고, 이러한 대사에 대응하는 내용을 대사 조건으로 설정할 수 있다. 대사조건은 이모티콘을 추천/표시하기 위한 방아쇠라고 할 수 있다.The expression material of FIG. 22 includes the phrase 'best', and the content corresponding to the metabolism can be set as the metabolic condition. The metabolic condition is a trigger for recommending / displaying emoticons.
이후, 메신저 대화창에 입력되는 대화에서 표현 재료에 대응되는 이벤트가 발생하는 경우, 표현 재료에 관련된 적어도 하나의 이모티콘(Emoticon)을 사용자에게 추천하고, 추천한 적어도 하나의 이모티콘 중 사용자가 선택한 이모티콘을 메신저 대화창에 표시할 수 있다.Subsequently, when an event corresponding to the expression material occurs in a conversation input in the messenger dialog window, the user recommends at least one emoticon related to the expression material to the user, and the user selects one of the recommended emoticons. It can be displayed in a dialog.
다르게 표현하면, 이벤트가 발생하는 경우, 캐릭터의 액션이 객체의 액션에 대응되는 적어도 하나의 이모티콘을 호스트 사용자(H)에게 추천할 수 있다.In other words, when an event occurs, the host user may recommend at least one emoticon whose action corresponds to that of the object.
예를 들어, 도 24의 경우와 같이, 호스트 사용자(H)와 게스트 사용자(G)가 대화 과정에서 게스트 사용자가 '최고에요'를 입력하는 경우를 가정하여 보자.For example, as in the case of FIG. 24, assume that a guest user inputs 'best' during a conversation between the host user H and the guest user G.
여기서, '최고에요'는 표현 재료에 포함된 객체에 관련한 대사에 대응할 수 있다.Here, 'the best' may correspond to the dialogue related to the object included in the expression material.
다르게 표현하면, 게스트 사용자가 대사 조건에 대응하는 내용의 대사를 메신저 대화창에 입력할 수 있다.In other words, the guest user may input the dialogue corresponding to the metabolic condition into the messenger dialog.
이러한 경우, 도 25의 경우와 같이, 이모티콘 서버(10)는 호스트 사용자(H)의 단말기(30)의 화면에 게스트 사용자(G)가 입력한 대사인 '최고에요'에 대응하는 적어도 하나의 이모티콘을 추천할 수 있다.In this case, as in the case of FIG. 25, the
이모티콘 서버(10)가 호스트 사용자(H)에게 추천하는 적어도 하나의 이모티콘에 대한 정보를 게스트 사용자(G)에게는 보여지지 않을 수 있다.Information on at least one emoticon recommended by the
여기서는, 이모티콘 서버(10)가 복수의 이모티콘을 호스트 사용자(H)에게 추천하는 경우를 설명하고 있지만, 추천 과정을 다수 거치면서 선호도에 대한 정보가 축적되면 이모티콘 서버(10)는 하나의 이모티콘을 호스트 사용자(H)에게 추천할 수 있다.Although the
또는, 이모티콘 서버(10)는 호스트 사용자에게 적어도 하나의 이모티콘을 추천하지 않고, 추천 대상의 이모티콘을 자동으로 메신저 대화창에 입력하는 것도 가능할 수 있다. 이러한 경우는 인공지능에 따라 이모티콘이 사용되는 경우라고도 볼 수 있다.Alternatively, the
여기서, 사용자가 원하는 이모티콘을 선택하면, 도 26의 경우와 같이, 호스트 사용자에 대응하여 메신저 대화창에 선택된 이모티콘이 표시될 수 있다.Here, when the user selects a desired emoticon, as shown in FIG. 26, the emoticon selected in the messenger chat window may be displayed in response to the host user.
이와 같이, 사용자(호스트 사용자)는 선호하는 액션이 묘사되어 있는 표현 재료를 선택하고, 소정 조건(디스플레이 조건)이 만족되는 경우에 표현 재료에 대응하는 이모티콘을 자동으로 추천받을 수 있다.In this manner, the user (host user) selects the expression material in which the preferred action is depicted, and may automatically recommend an emoticon corresponding to the expression material when a predetermined condition (display condition) is satisfied.
이러한 경우, 사용자는 선호하는 표현 재료를 선택하는 것만으로 특정 상황에서 원하는 이모티콘을 용이하게 추천받아 선택하는 것이 가능하다.In this case, the user can easily recommend and select a desired emoticon in a specific situation only by selecting a preferred expression material.
아울러, 게스트 사용자(G)가 입력하는 대사에 대응하여 소정의 이모티콘을 자동으로 추천할 수 있어서 다양한 이모티콘을 보다 용이하게 사용할 수 있다.In addition, it is possible to automatically recommend a predetermined emoticon in response to the dialogue input by the guest user G, so that various emoticons can be used more easily.
한편, 대사 조건과 동일하지 않지만 일정 수준 이상 유사한 내용의 대사가 메신저 대화창에 입력되는 경우에도 표현 재료에 대응하는 이모티콘을 추천하고 표시하는 것이 가능할 수 있다.On the other hand, it may be possible to recommend and display an emoticon corresponding to the expression material even when the dialogue is inputted in the messenger chat window that is not the same as the metabolic condition but is similar to a certain level or more.
예를 들어, 도 27의 경우와 같이, 대사조건이 '최고에요'인 경우에, 유사대사로서 '최고 중 하나였어', '최고 인 것 같아', '따봉이었어' 등과 같은 대사도 대사 조건과 동일하게 취급될 수 있다.For example, as in the case of FIG. 27, when the metabolic condition is 'best', the metabolism such as 'it was one of the best', 'it seems to be the best', 'it was the best', etc. as the metabolism is the same as the metabolic condition. Can be handled.
유사대사는 다양하게 변경되거나 설정될 수 있다.Similar metabolism can be changed or set in various ways.
유사대사는 메신저 입력창에 입력되는 대사의 내용의 문맥에 따라 설정되는 것이 가능하다.Similar metabolism can be set according to the context of the content of the dialogue input in the messenger input window.
한편, 앞선 도 24 내지 도 26에서는 게스트 사용자(G)가 메신저 대화창에 대사조건에 대응하는 내용을 입력하는 경우에 호스트 사용자(H)에게 표현 재료에 대응하는 적어도 하나의 이모티콘을 추천하는 경우를 설명하였지만, 본 발명은 이에 한정되지 않을 수 있다.24 to 26, the case where the guest user G recommends at least one emoticon corresponding to the expression material to the host user H when the guest user G inputs contents corresponding to the metabolic condition in the messenger chat window will be described. However, the present invention may not be limited thereto.
자세하게는, 이모티콘을 추천하거나 표시하는 이벤트는 호스트 사용자(H) 또는 게스트 사용자(G) 중 적어도 하나가 메신저 대화창에 대사조건에 대응하는 내용을 입력하는 경우에 대응될 수 있다.In detail, an event for recommending or displaying an emoticon may correspond to a case in which at least one of the host user H and the guest user G inputs contents corresponding to the dialogue condition in the messenger chat window.
예를 들면, 도 28의 경우와 같이, 호스트 사용자(H)가 메신저 대화창에 대사조건에 대응하는 내용('최고에요')을 입력하는 경우에 호스트 사용자(H)에게 표현 재료에 대응하는 적어도 하나의 이모티콘을 추천하는 것이 가능하다.For example, as in the case of FIG. 28, at least one corresponding to the presentation material to the host user H when the host user H inputs contents ('highest') corresponding to the metabolic condition in the messenger dialog window. It is possible to recommend emoticons.
한편, 표현 재료에 대사가 포함되지 않는 경우는 디스플레이 조건으로 액션 조건을 설정하는 것이 가능하다.On the other hand, when metabolism is not included in the expression material, the action condition can be set as the display condition.
예를 들어, 도 29와 같이, 액션의 주체인 제 1 객체(OB1)와 제 2 객체(OB2)가 대사 없이 소정의 액션을 취하는 표현 재료를 가정하여 보자.For example, as shown in FIG. 29, assume an expression material in which the first object OB1 and the second object OB2, which are the subjects of the action, take a predetermined action without dialogue.
이러한 경우, 제 1 객체(OB1)의 액션과 제 2 객체(OB2)의 액션을 각각 별도로 분석할 수 있다.In this case, the action of the first object OB1 and the action of the second object OB2 may be analyzed separately.
제 1 객체(OB1)의 액션을 분석한 결과를 바탕으로 도 30과 같이 제 1 객체(OB1)의 액션과 일정 수준 이상 유사한 적어도 하나의 이모티콘을 추출할 수 있다.Based on a result of analyzing the action of the first object OB1, at least one emoticon that is similar to the action of the first object OB1 by a predetermined level or more may be extracted as shown in FIG. 30.
아울러, 제 2 객체(OB2)의 액션을 분석한 결과를 바탕으로 도 31과 같이 제 2 객체(OB2)의 액션과 일정 수준 이상 유사한 적어도 하나의 이모티콘을 추출할 수 있다.In addition, based on a result of analyzing the action of the second object OB2, at least one emoticon that is similar to the action of the second object OB2 by a predetermined level or more may be extracted as shown in FIG. 31.
이후, 메신저 대화창에 입력되는 대화에서 표현 재료에 대응되는 이벤트가 발생하는 경우, 제 1 객체(OB1)에 대응되는 적어도 하나의 이모티콘 또는 제 2 객체(OB2)에 대응되는 적어도 하나의 이모티콘을 사용자에게 추천할 수 있다.Subsequently, when an event corresponding to the expression material occurs in a conversation input in the messenger chat window, at least one emoticon corresponding to the first object OB1 or at least one emoticon corresponding to the second object OB2 is provided to the user. I can recommend it.
예를 들어, 도 32의 경우와 같이, 호스트 사용자(H)와 게스트 사용자(G)가 대화 과정에서 게스트 사용자가 제 1 객체(OB1)에 대응하는 이모티콘을 입력/표시하는 경우를 가정하여 보자. 여기서, 이벤트는 게스트 사용자(G)가 제 1 객체(OB1) 및 제 2 객체(OB2) 중 어느 하나에 대응하는 이모티콘을 메신저 대화창에 입력하는 경우에 대응될 수 있다.For example, as in the case of FIG. 32, assume that a guest user inputs / displays an emoticon corresponding to the first object OB1 during a conversation between the host user H and the guest user G. FIG. Here, the event may correspond to the case where the guest user G inputs an emoticon corresponding to one of the first object OB1 and the second object OB2 into the messenger chat window.
이처럼, 게스트 사용자(G)가 제 1 객체(OB1)에 대응하는 이모티콘을 입력하는 경우에는, 도 33의 경우와 같이, 이모티콘 서버(10)는 호스트 사용자에게 제 2 객체(OB2)에 대응하는 적어도 하나의 이모티콘을 추천할 수 있다.As such, when the guest user G inputs an emoticon corresponding to the first object OB1, as in the case of FIG. 33, the
이후, 도 34의 경우와 같이 호스트 사용자가 선택하는 이모티콘을 메신저 대화창에 입력/표시할 수 있다.Thereafter, as in the case of FIG. 34, the emoticon selected by the host user may be input / displayed in the messenger chat window.
만약, 게스트 사용자(G)가 메신저 입력창에 제 2 객체(OB2)에 대응하는 이모티콘을 입력하는 경우에는, 이모티콘 서버(10)는 호스트 사용자(H)에게 제 1 객체(OB1)에 대응하는 적어도 하나의 이모티콘을 추천하는 것이 가능할 수 있다.If the guest user G inputs an emoticon corresponding to the second object OB2 in the messenger input window, the
한편, 표현 재료가 이미지 재료가 아닌 텍스트 재료인 경우에도 소정의 이모티콘을 추천하는 것이 가능할 수 있다. 이에 대해, 첨부된 도 35 내지 도 43을 참조하여 살펴보면 아래와 같다.On the other hand, it may be possible to recommend a certain emoticon even if the presentation material is a text material rather than an image material. This will be described below with reference to FIGS. 35 to 43.
도 35를 살펴보면, 도 21에서 설명한 제 S240 단계에서 판단결과, 표현 재료가 텍스트 재료인 경우에는 텍스트 재료를 분석할 수 있다(S241).Referring to FIG. 35, when it is determined in operation S240 described with reference to FIG. 21, if the expression material is a text material, the text material may be analyzed (S241).
이후, 분석한 결과를 바탕으로 텍스트 재료에서 묘사 부분을 추출하고, 묘사 부분을 분석할 수 있다(S242). 여기서, 묘사부분은 액션의 주체인 객체의 액션을 묘사하는 부분이라고 할 수 있다.Thereafter, the description part may be extracted from the text material based on the analysis result, and the description part may be analyzed (S242). Here, the description portion may be referred to as a portion that describes the action of the object that is the subject of the action.
이후, 묘사 부분의 분석 결과를 바탕으로 묘사 부분에 대응하는 적어도 하나의 이모티콘을 추출할 수 있다(S243).Thereafter, at least one emoticon corresponding to the depicted portion may be extracted based on the analysis result of the depicted portion (S243).
이후, 텍스트 재료에서 대사부분이 존재하는지의 여부를 판단(S244)하고, 판단결과 텍스트 재료에 대사부분이 존재하지 않는 경우에는 추출한 묘사부분에 대한 정보를 바탕으로 디스플레이 조건을 설정할 수 있다(S247). 이러한 경우, 디스플레이 조건은 묘사부분에 대응되는 액션조건을 포함할 수 있다.Subsequently, it is determined whether or not the metabolic part exists in the text material (S244). When the metabolic part does not exist in the text material as a result of the determination, the display condition may be set based on the information about the extracted description part (S247). . In this case, the display condition may include an action condition corresponding to the depiction portion.
한편, 제 S244 단계에서 판단결과, 텍스트 재료에 대사부분이 존재하는 경우에는 대사부분을 추출하고, 추출한 대사부분의 내용을 분석할 수 있다(S245).On the other hand, when the metabolic part is present in the text material as a result of the determination in step S244, the metabolic part may be extracted and the contents of the extracted metabolic part may be analyzed (S245).
이후, 대사부분을 분석한 정보를 이모티콘에 매칭시킬 수 있다(S246).Thereafter, the information analyzed by the metabolic part may be matched to the emoticon (S246).
이후, 대사부분에 대한 정보를 바탕으로 디스플레이 조건을 설정할 수 있다(S247). 여기서, 디스플레이 조건은 대사부분에 대응하는 대사조건을 포함할 수 있다.Thereafter, the display condition may be set based on the information on the metabolic part (S247). Here, the display condition may include metabolic conditions corresponding to the metabolic portion.
이상에서 설명한 대사부분과 묘사부분은 텍스트 재료의 구문분석을 통해 추출될 수 있다.The metabolic and descriptive parts described above can be extracted by parsing the text material.
예를 들면, 도 36의 경우와 같은 텍스트 재료를 표현 재료로 설정한 경우를 가정하여 보자.For example, assume that a text material such as the case of FIG. 36 is set as the expression material.
이러한 경우, 이모티콘 서버(10)는 텍스트 재료에서 객체, 즉 제 1 객체(OB1, 내가)와 제 2 객체(OB2, 그는)를 추출할 수 있다.In this case, the
이후, 이모티콘 서버(10)는 객체(여기서는 제 1 객체(OB1))에 대응하는 대사부분을 추출할 수 있다. 도 36에서 대사부분은 '노래 한곡 해봐'일 수 있다.Thereafter, the
아울러, 이모티콘 서버(10)는 객체(여기서는 제 2 객체(OB2))에 대응하는 묘사부분을 추출할 수 있다.In addition, the
도 36에서 묘사부분(AC)은 '선글라스를 쓰고, 한손에는 탬버린을 들었다. 그리고 다른 한손으로 마이크를 집어 들고, 율동과 함께 노래를 부르기 시작했다'일 수 있다.In FIG. 36, the depiction part AC wears sunglasses and tambourine in one hand. Then I picked up the microphone with my other hand and started singing along with the rhythm. '
이러한 경우, 이모티콘 서버(10)는 대사부분인 '노래 한곡 해봐'를 대사조건으로 설정할 수 있다. 대사조건은 대사부분에서 추출되는 것으로 볼 수 있다.In this case, the
아울러, 이모티콘 서버(10)는, 도 37의 경우와 같이, 묘사부분에 묘사된 객체의 액션에 대응하는 적어도 하나의 이모티콘을 추출할 수 있다.In addition, as in the case of FIG. 37, the
이러한 상황에서, 메신저 대화창에 입력되는 대화에서 표현 재료에 대응되는 이벤트가 발생하는 경우, 이모티콘 서버(10)는 추출한 적어도 하나의 이모티콘을 호스트 사용자(H)에게 추천할 수 있다.In this situation, when an event corresponding to the expression material occurs in the conversation input to the messenger chat window, the
예를 들어, 도 38의 경우와 같이, 호스트 사용자(H)와 게스트 사용자(G)의 대화 과정에서 게스트 사용자(G)가 대사부분에서 추출된 대사조건에 대응되는 내용('노래 한곡 해봐')을 입력하는 경우를 가정하여 보자.For example, as shown in FIG. 38, the content corresponding to the metabolic conditions extracted from the metabolic part of the guest user G during the conversation between the host user H and the guest user G ('play a song') Let's assume that you type
여기서, 이벤트는 호스트 사용자(H) 또는 게스트 사용자(G) 중 적어도 하나가 메신저 대화창에 대사부분에 대응하는 내용, 즉 대사조건에 대응하는 내용을 입력하는 경우에 대응될 수 있다.Here, the event may correspond to the case where at least one of the host user H or the guest user G inputs contents corresponding to the dialogue part, that is, contents corresponding to the dialogue condition in the messenger chat window.
이처럼, 게스트 사용자(G)가 대사부분에 대응하는 내용을 입력하는 경우에는, 도 37과 같이 묘사부부에 대응되는 적어도 하나의 이모티콘을 호스트 사용자(H)에게 추천하고, 사용자에 의해 선택된 이모티콘을 메신저 대화창에 입력할 수 있다.As described above, when the guest user G inputs contents corresponding to the dialogue part, the user recommends at least one emoticon corresponding to the description part to the host user H as shown in FIG. 37, and messengers the emoticon selected by the user. You can type in the dialog.
한편, 텍스트 재료에 묘사부분은 포함되지만 대사부분이 포함되지 않는 경우에도 묘사부분에 대응하여 소정의 이모티콘을 추천하는 것이 가능할 수 있다.On the other hand, even if the description material is included in the text material but does not include the metabolic part, it may be possible to recommend a predetermined emoticon corresponding to the description part.
예를 들면, 도 39의 경우와 같은 텍스트 재료를 표현 재료로 설정한 경우를 가정하여 보자.For example, suppose that a text material such as the case of FIG. 39 is set as the expression material.
이러한 경우, 이모티콘 서버(10)는 텍스트 재료에서 객체, 즉 제 1 객체(OB1, 여자)와 제 2 객체(OB2, 남자)를 추출할 수 있다.In this case, the
이후, 이모티콘 서버(10)는 제 1 객체(OB1)에 대응하는 제 1 묘사부분(AC1)을 추출하고, 제 2 객체(OB2)에 대응하는 제 2 묘사부분(AC2)을 추출할 수 있다.Thereafter, the
도 39에서 제 1 묘사부분(AC1)은 '여자는 머리를 휘날리며 달리기 시작했다. 여자는 팔을 벌리며 남자에게 쫓아오라는 듯한 신호를 보냈다'일 수 있다. 아울러, 제 2 묘사부분(AC2)은 '웃으며 여자를 뒤쫓기 시작했다'일 수 있다.In FIG. 39, the first depiction part AC1 states that the woman starts to run with her hair flying. The woman opened her arms and signaled the man to follow him. ' In addition, the second description part AC2 may be, 'laughing and began chasing a woman.'
이모티콘 서버(10)는, 도 40과 같이 제 1 묘사부분(AC1)의 제 1 객체(OB1)의 액션에 대응하는 적어도 하나의 이모티콘을 추출하고, 도 41과 같이 제 2 묘사부분(AC2)의 제 2 객체(OB2)의 액션에 대응하는 적어도 하나의 이모티콘을 추출할 수 있다.The
이후, 도 42의 경우와 같이, 메신저 대화창에 입력되는 대화에서 제 1 묘사부분(AC1) 또는 제 2 묘사부분(AC2)에 대응되는 이벤트가 발생하는 경우, 제 1 객체(OB1)에 대응되는 적어도 하나의 이모티콘 또는 제 2 객체(OB2)에 대응되는 적어도 하나의 이모티콘을 사용자에게 추천할 수 있다.Subsequently, as in the case of FIG. 42, when an event corresponding to the first portrayal part AC1 or the second portrayal part AC2 occurs in a conversation input to the messenger chat window, at least the first object OB1 corresponds to at least an event. At least one emoticon corresponding to one emoticon or the second object OB2 may be recommended to the user.
예를 들어, 도 42의 경우와 같이, 호스트 사용자(H)와 게스트 사용자(G)가 대화 과정에서 게스트 사용자가 제 1 객체(OB1)에 대응하는 이모티콘을 입력/표시하는 경우를 가정하여 보자. 여기서, 이벤트는 게스트 사용자(G)가 제 1 묘사부분(AC1) 및 제 2 묘사부분(AC2) 중 어느 하나에 대응하는 이모티콘을 메신저 대화창에 입력하는 경우에 대응될 수 있다.For example, as in the case of FIG. 42, assume that a guest user inputs / displays an emoticon corresponding to the first object OB1 during a conversation between the host user H and the guest user G. Here, the event may correspond to the case where the guest user G inputs an emoticon corresponding to one of the first description part AC1 and the second description part AC2 into the messenger chat window.
이처럼, 게스트 사용자(G)가 제 1 객체(OB1)에 대응하는 이모티콘을 입력하는 경우에는, 이모티콘 서버(10)는 호스트 사용자에게 제 2 객체(OB2)에 대응하는 적어도 하나의 이모티콘을 추천하고, 추천한 이모티콘 중에서 사용자가 선택한 이모티콘을 메신저 대화창에 입력할 수 있다.As such, when the guest user G inputs an emoticon corresponding to the first object OB1, the
한편, 게스트 사용자(G)가 입력한 제 1 묘사부분(AC1)에 대응하는 제 1 이모티콘과 호스트 사용자(H)가 입력한 제 2 묘사부분(AC2)에 대응하는 제 2 이모티콘이 상호 연관이 있는 액션을 취하는 경우에, 도 43의 경우와 같이, 메신저 대화창에서 제 1 이모티콘과 제 2 이모티콘을 상호적(Interactive)으로 표시할 수 있다.Meanwhile, the first emoticon corresponding to the first description part AC1 input by the guest user G and the second emoticon corresponding to the second description part AC2 input by the host user H are correlated with each other. In the case of taking an action, as in the case of FIG. 43, the first emoticon and the second emoticon may be displayed interactively in the messenger chat window.
도 43에서 호스트 사용자(H)의 제 2 이모티콘이 게스트 사용자(G)의 제 1 이모티콘을 뒤쫓도록 제 1 이모티콘과 제 2 이모티콘을 연관시켜 표시할 수 있다.In FIG. 43, the first emoticon and the second emoticon may be associated and displayed so that the second emoticon of the host user H follows the first emoticon of the guest user G.
한편, 이상에서는 이모티콘 서버(10)가 표현 재료를 분석하여 디스플레이 조건(대사조건 및/또는 액션조건)을 판별하는 경우를 설명하였지만, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 본 발명에서는 사용자가 디스플레이 조건을 직접(Manually) 설정하는 것이 가능하다. 이에 대해, 도 44 및 도 45를 참조하여 살펴보면 아래와 같다.In the above description, the case where the
도 44를 살펴보면, 표현 재료를 설정하는 단계(S200)는 표현 재료를 선택하는 단계(S220) 이후에 디스플레이 조건을 설정할 수 있다(S1100).Referring to FIG. 44, in the setting of the expression material (S200), the display condition may be set after the step of selecting the expression material (S220) (S1100).
예를 들면, 도 45의 경우와 같이, 디스플레이 조건 중 대사조건으로 '최고에요', '하이파이브', '나잡아봐라' 등으로 설정하는 것이 가능하다.For example, as in the case of FIG. 45, it is possible to set 'highest', 'high five', 'take me out', or the like as the metabolic condition among the display conditions.
아울러, 대사조건에 대응하여 표현 재료, 예컨대 이미지 재료를 매칭시킬 수 있다.In addition, the expression material, for example, the image material may be matched to correspond to the metabolic conditions.
또는, 적어도 하나의 이모티콘을 디스플레이 조건, 예컨대 대사조건에 매칭시키는 것이 가능하다.Alternatively, it is possible to match at least one emoticon with a display condition, for example, a metabolic condition.
이러한 경우에는, 이모티콘 서버(10)는 호스트 사용자(H)와 게스트 사용자(G)의 대화에서 대사조건이 발생하는 것을 판단하고, 판단결과에 따라 적어도 하나의 이모티콘을 추천할 수 있다.In this case, the
여기서는, 디스플레이 조건 중 대사조건을 미리 설정하는 경우에 대해 설명하고 있지만, 액션 조건을 미리 설정하는 것도 가능할 수 있다.Here, although the case where the metabolic condition is set in advance among the display conditions has been described, the action condition may be set in advance.
이처럼 디스플레이 조건을 미리 설정하는 경우에는 표현 재료에 하나의 객체의 액션에 대한 정보만이 포함되어 있는 경우에도 해당 표현 재료를 이용하여 이모티콘의 추천이 가능할 수 있다.As described above, when the display condition is set in advance, even when only the information on the action of one object is included in the expression material, the emoticon may be recommended using the expression material.
한편, 이상에서 설명한 표현 재료를 다양한 조건(표현 조건)에 매칭시켜 보다 적응적으로 다양한 이모티콘을 사용하는 것이 가능할 수 있다. 이에 대해, 첨부된 도 46 내지 도 74를 참조하여 살펴보면 아래와 같다.On the other hand, it may be possible to use a variety of emoticons more adaptively by matching the expression material described above to a variety of conditions (expression conditions). This will be described below with reference to FIGS. 46 to 74.
도 46 내지 도 74는 표현 재료와 표현 조건을 이용한 이모티콘 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다. 예를 들면, 이하에서 언급하는 표현 재료의 내용은 앞서 설명한 내용에 대응됨으로 표현 재료에 대한 상세한 설명은 생략될 수 있다.46 to 74 are views for explaining the emoticon information processing method using the expression material and the expression conditions. Hereinafter, the description of the above-described parts may be omitted. For example, since the contents of the expression material mentioned below correspond to the contents described above, a detailed description of the expression material may be omitted.
도 46을 살펴보면, 본 발명에 따른 이모티콘 정보 처리 방법은 캐릭터를 설정(S100)한 이후에, 캐릭터에 대응하여 성격(Personality)을 설정할 수 있다(S700).Referring to FIG. 46, in the emoticon information processing method according to the present invention, after setting a character (S100), a personality may be set corresponding to the character (S700).
이모티콘은 성격이 설정된 캐릭터를 포함할 수 있다. 다르게 표현하면, 본 발명에서 이모티콘은 캐릭터와 성격의 조합으로 설명될 수 있다.The emoticon may include a character whose character is set. In other words, emoticons in the present invention can be described as a combination of character and personality.
성격이 할당된 캐릭터를 포함하는 이모티콘은 지능(Intelligence)이 부여된 이모티콘이라고 할 수 있다.An emoticon including a character to which a personality is assigned may be referred to as an emoticon to which intelligence is given.
성격을 설정하는 단계(S700)는 캐릭터의 기본 성격(Standard Personality)을 설정하는 단계(S710) 및 캐릭터의 개인 성격(Private Personality)을 설정하는 단계(S720) 중 적어도 하나를 포함할 수 있다.The setting of the personality (S700) may include at least one of setting a standard personality of the character (S710) and setting a personal personality of the character (S720).
예를 들면, 본 발명에서는 성격설정단계(S700)에서는 기본성격을 설정하는 단계(S710)와 개인성격을 설정하는 단계(S720)를 함께 포함하는 것이 가능하고, 또는 기본성격을 설정하는 단계를 포함하지 않는 것아 가능할 수 있다.For example, in the present invention, in the personality setting step (S700), it is possible to include a step of setting a basic personality (S710) and a step of setting a personal personality (S720), or includes setting a basic personality. It may be possible not to.
기본성격은, 도 47의 경우와 같이, 하나의 캐릭터에 하나씩 대응될 수 있다. 이러한 기본성격은 이모티콘 서버(10)가 캐릭터 생성 시에 자동으로 설정하는 것이 가능하다.The basic personality may correspond to one character one by one, as in the case of FIG. 47. This basic personality can be automatically set by the
캐릭터의 성격은 캐릭터의 반응 스타일(Reaction Style)에 대응될 수 있다. 이를 고려하면, 캐릭터의 기본성격을 설정한다는 것은 기본적인 반응 스타일을 캐릭터마다 설정하는 것이라고 할 수 있다.The character's personality may correspond to the character's reaction style. Considering this, setting the basic personality of a character can be said to set the basic reaction style for each character.
예를 들면, 게스트 사용자(G)가 친구 또는 후배인 경우에는, 도 48의 경우와 같이, 메신저 대화창에 게스트 사용자(G)가 '안녕하세요'를 입력하는 경우, 게스트 사용자(G)가 입력한 대사에 대응하여 가벼운 손 인사를 하는 이모티콘을 메신저 대화창에 입력하는 것으로 캐릭터의 기본성격을 설정할 수 있다.For example, when the guest user G is a friend or a junior, as shown in FIG. 48, when the guest user G inputs 'hello' in the messenger chat window, the dialogue input by the guest user G is input. In response to the light hand greeting emoticon by inputting a messenger chat window, the character's basic personality can be set.
또한, 게스트 사용자(G)가 부호 또는 직장상사인 경우에는, 도 49의 경우와 같이, 메신저 대화창에 게스트 사용자(G)가 '안녕하세요'를 입력하는 경우, 게스트 사용자(G)가 입력한 대사에 대응하여 공손한 인사를 하는 이모티콘을 메신저 대화창에 입력하는 것으로 캐릭터의 기본성격을 설정할 수 있다.When the guest user G is a sign or a boss, the guest user G inputs a 'hello' message in a messenger chat window as shown in FIG. 49. Corresponding polite emoticons can be entered in the messenger chat window to set the basic personality of the character.
도 50을 살펴보면, 소정의 캐릭터(호돌이)에 대응하여 상대(게스트 사용자(G))에 따라 기본성격의 타입을 다르게 설정할 수 있다. 예를 들면, 소정의 캐릭터에 대응하여 부모에 대한 기본성격 타입은 '공손함'일 수 있다. 이를 해석하면, '호돌이' 캐릭터는 게스트 사용자(G)가 부모인 경우에 공손한 타입으로 반응을 한다는 것을 알 수 있다.Referring to FIG. 50, the type of the basic personality may be set differently according to the opponent (guest user G) in response to a predetermined character (hodol). For example, the basic personality type for the parent in response to a predetermined character may be politeness. When interpreting this, it can be seen that the 'Hodly' character reacts in a polite type when the guest user G is a parent.
또한, '호돌이' 캐릭터에 대응하여 형제자매 및 친구에 대한 기본성격 타입은 '격의없음'이고, 직장동료에 대한 기본성격 타입은 '격식차림'이라고 설정할 수 있다.In addition, the basic personality type for siblings and friends is 'no sense' in response to the 'hodol' character, and the basic personality type for the coworkers may be set to 'formal attire'.
이처럼, 캐릭터의 기본성격은 사용자(호스트 사용자(H))가 등록한 상대와 일대일 대응되는 것이 가능할 수 있다.As such, the basic personality of the character may correspond one-to-one with an opponent registered by the user (host user H).
또는, 호스트 사용자가 상대(게스트 사용자)를 카테고리 별로 저장하는 경우에 카테고리별로 캐릭터의 기본성격을 설정하는 것이 가능할 수 있다.Alternatively, when the host user stores the opponent (guest user) for each category, it may be possible to set the basic personality of the character for each category.
개인성격 설정단계(S730)에서는, 도 51의 경우와 같이, 표현 재료를 설정(S200)하고, 표현 조건을 설정할 수 있다(S731). 표현 재료를 설정하는 단계(S200)와 표현 조건을 설정하는 단계(S731)의 순서는 뒤바뀌는 것이 가능할 수 있다.In the personality personality setting step S730, as in the case of FIG. 51, the expression material may be set (S200) and the expression condition may be set (S731). The order of setting the expression material (S200) and setting the expression condition (S731) may be reversed.
이후, 표현 재료와 표현 조건을 매칭(Matching) 시킬 수 있다(S732).Thereafter, the expression material and the expression condition may be matched (S732).
표현 재료를 설정하는 단계(S200)에서는 앞선 도 20에서 설명한 바와 같이 적어도 하나의 표현 재료를 포함하는 가르침 템플릿(Teaching Template)을 화면에 표시하는 것이 가능하다.In the setting of the expression material (S200), as described above with reference to FIG. 20, a teaching template including at least one expression material may be displayed on the screen.
아울러, 매칭 단계(S732)에서는 가르침 템플릿에서 사용자가 선택한 적어도 하나의 표현 재료를 표현 조건(Expression Condition)에 매칭시켜 캐릭터의 성격(Personality)을 설정할 수 있다.In addition, in the matching step S732, the personality of the character may be set by matching at least one expression material selected by the user in the teaching template to an expression condition.
표현 조건은, 도 52의 경우와 같이, 관계조건, 감정조건, 감지조건, 상황조건, 액션조건 및 대사조건 중 적어도 하나를 포함할 수 있다.As in the case of FIG. 52, the expression condition may include at least one of a relationship condition, an emotion condition, a detection condition, a situation condition, an action condition, and a metabolic condition.
여기서, 표현 조건 중 적어도 일부는 메신저 대화창이 표시되는 단말기(30)의 사용자, 즉 호스트 사용자(H)가 설정하는 것이 가능하다.Here, at least some of the expression conditions may be set by the user of the terminal 30, that is, the host user H, on which the messenger chat window is displayed.
또는, 표현 조건 중 적어도 일부는 메신저 대화창에 입력되는 대화를 근거로 하여 추출/판별되는 것이 가능하다.Alternatively, at least some of the expression conditions may be extracted / determined based on the dialogue input in the messenger dialogue.
관계조건, 감정조건, 감지조건, 상황조건, 액션조건 및 대사조건에 대해서는 앞서 상세히 설명하였기에 중복되는 설명은 생략될 수 있다.Since the relationship condition, the emotion condition, the detection condition, the situation condition, the action condition, and the metabolic condition have been described in detail above, redundant descriptions may be omitted.
이모티콘 서버(10)는 표현 재료를 적어도 하나의 표현 조건에 매칭시킬 수 있다. 예를 들면, 도 53의 경우와 같이, 표현 재료인 이미지 재료(사진)를 표현조건 중 관계조건, 감정조건 및 대사조건에 매칭시킬 수 있다.The
도 53의 내용을 해석하면, 부모, 직장동료 및 기타 사용자(게스트 사용자(G))와 메신저 대화창을 통해 대화를 하는 경우, 모든 감정 상태에서, 게스트 사용자(G) 및/또는 호스트 사용자(H)가 '안녕하세요'라는 대사를 입력하는 경우에, 도 54와 같이, 이미지 재료에 대응하는 적어도 하나의 이모티콘을 호스트 사용자(H)에게 추천할 수 있다.53, in the case of a conversation through a messenger dialog with a parent, a coworker, and other users (guest user G), the guest user G and / or the host user H in all emotional states. Inputs a dialogue saying 'hello', at least one emoticon corresponding to the image material may be recommended to the host user H as shown in FIG.
표현 재료(이미지 재료)에 대응하는 적어도 하나의 이모티콘을 추천하는 방법은 앞서 상세히 설명한 바 있다.The method of recommending at least one emoticon corresponding to the expression material (image material) has been described in detail above.
여기서는, 표현 재료에 소정의 액션을 취하는 객체가 포함되어 있으나, 객체애 대응하는 대사가 없는 경우를 설명하고 있으나, 표현 재료에 대사가 포함되는 경우도 가능할 수 있다.Here, although the expression material includes an object that takes a predetermined action, but there is no dialogue corresponding to the object, the expression material may include a metabolism.
아울러, 이모티콘 서버(10)는 표현 재료에 포함된 대사를 분석하여 대사 조건을 판별하는 것도 가능할 수 있다. 또는, 이모티콘 서버(10)는 표현 재료에 포함된 객체의 액션을 분석하여 액션 조건을 판별하는 것도 가능할 수 있다. 이에 대해서는, 앞서 상세히 설명한 바 있으므로 중복되는 설명은 생략될 수 있다.In addition, the
표현 재료는 적어도 하나의 표현 조건에 매칭될 수 있다. 아울러, 서로 다른 표현 재료는 동일한 표현 조건에 매칭되는 것도 가능할 수 있다.The expression material may match at least one expression condition. In addition, different expression materials may be matched to the same expression conditions.
예를 들면, 도 55의 경우와 같이, 가르침 템플릿은 복수의 가르침 교재를 포함할 수 있다.For example, as in the case of FIG. 55, the teaching template may include a plurality of teaching materials.
아울러, 각각의 가르침 교재는 적어도 하나의 표현 재료(Cut1-Cut7)를 포함할 수 있다.In addition, each teaching textbook may include at least one expression material (Cut1-Cut7).
여기서, 제 1 표현 조건은 제 1 표현 재료(Cut1), 제 3 표현 재료(Cut3), 제 4 표현 재료(Cut4)에 매칭되고, 제 2 표현 조건은 제 2 표현 재료(Cut2) 및 제 7 표현 재료(Cut7)에 매칭될 수 있다.Here, the first expression condition is matched to the first expression material Cut1, the third expression material Cut3, and the fourth expression material Cut4, and the second expression condition is the second expression material Cut2 and the seventh expression. May be matched to material Cut7.
도 46에서, 성격설정 단계(S700) 이후에 표현 조건을 분석할 수 있다(S800).In FIG. 46, the expression condition may be analyzed after the personality setting step S700 (S800).
표현 조건 분석단계(S800)에서는 메신저 대화창에 대응하는 표현 조건을 분석할 수 있다.In the expression condition analyzing step S800, the expression condition corresponding to the messenger chat window may be analyzed.
예를 들면, 도 56의 경우와 같이, 성격설정 단계(S700) 이후에 메신저 대화창이 열리는지의 여부를 판단(S810)하고, 판단결과에 메신저 대화창이 열리는 경우에는 메신저 대화창에 대응하는 표현 조건에 대한 정보를 분석/판별할 수 있다.For example, as in the case of FIG. 56, after the personality setting step S700, it is determined whether the messenger chat window is opened (S810). When the messenger chat window is opened based on the determination result, the expression condition corresponding to the messenger chat window is determined. Information can be analyzed / determined.
예를 들면, 개설된 메신저 대화창에 참여하는 호스트 사용자(H)와 게스트 사용자(G)의 정보를 분석하여 호스트 사용자(H)와 게스트 사용자(G)의 관계에 대한 정보를 판별할 수 있다(S820). 즉, 관계조건에 대한 정보를 판별할 수 있다.For example, information about the relationship between the host user H and the guest user G may be determined by analyzing the information of the host user H and the guest user G participating in the opened messenger chat window (S820). ). That is, the information about the relationship condition can be determined.
또는, 이모티콘 서버(10)는 메신저 대화창에 대응하는 감지정보, 예컨대 위치정보, 날씨정보 및 시간정보 중 적어도 하나를 판별(S821)할 수 있다.Alternatively, the
이를 위해, 이모티콘 서버(10)는 호스트 사용자(H)의 단말기(30)에 장착된 GPS, 온도센서 등이 감지한 정보를 호스트 사용자(H)의 단말기(30)로부터 수신할 수 있다. 또는, 이모티콘 서버(10)는 인터넷 망을 통해 날씨정보, 위치 정보, 시간 정보 등을 획득하는 것이 가능하다.To this end, the
또는, 메신저 대화창에 참여하는 호스트 사용자(H)와 게스트 사용자(G)의 정보를 분석하여, 게스트 사용자(G)에 대한 호스트 사용자(H)의 감정상태, 즉 감정조건에 대한 정보를 판별할 수 있다(S822).Alternatively, by analyzing the information of the host user (H) and the guest user (G) participating in the messenger chat window, it is possible to determine the emotional state of the host user (H), that is, the emotional condition for the guest user (G) There is (S822).
게스트 사용자(G)에 대한 호스트 사용자(H)의 감정상태에 대한 정보는 호스트 사용자(H)가 미리 설정할 수 있다.Information about the emotional state of the host user H with respect to the guest user G may be preset by the host user H.
또는, 이모티콘 서버(10)는 개설된 메신저 대화창에 대응하는 액션조건을 판별할 수 있다(S823).Alternatively, the
예를 들어, 호스트 사용자(H)가 원하는 액션조건을 미리 설정할 수 있다.For example, the host user H may preset a desired action condition.
또는, 이모티콘 서버(10)는 호스트 사용자(H)가 설정한 표현 재료를 분석하여 액션조건을 판별하고, 판별한 액션조건에 대한 정보를 저장하는 것이 가능하다.Alternatively, the
또는, 이모티콘 서버(10)는 개설된 메신저 대화창에 대응하는 대사조건을 판별할 수 있다(S824).Alternatively, the
예를 들어, 호스트 사용자(H)가 원하는 대사조건을 미리 설정할 수 있다.For example, the host user H may preset a desired metabolic condition.
또는, 이모티콘 서버(10)는 호스트 사용자(H)가 설정한 표현 재료를 분석하여 대사조건을 판별하고, 판별한 대사조건에 대한 정보를 저장하는 것이 가능하다.Alternatively, the
또는, 이모티콘 서버(10)는 개설된 메신저 대화창에 대응하는 상황조건을 판별할 수 있다(S825).Alternatively, the
예를 들면, 이모티콘 서버(10)는 메신저 대화창에 입력되는 게스트 사용자(G) 및/또는 호스트 사용자(H)가 입력한 대사의 입력 시점에 대한 정보를 분석하여 시간적 상황에 대한 조건을 포함할 수 있다. 여기서, 상황조건은 제 1 대기시간에 대한 조건, 제 2 대기시간에 대한 조건 및/또는 제 3 대기시간에 대한 조건을 포함할 수 있다. 제 1, 2, 3 대기시간에 대해서는 앞서 설명한 바 있다.For example, the
각각의 표현 조건을 판별한 이후에 복수의 표현 조건을 종합하여 판단할 수 있다(S830).After determining each expression condition, a plurality of expression conditions may be collectively determined (S830).
이후, 메신저 대화창에서 게스트 사용자(G)와 호스트 사용자(H)의 대화를 분석하여 이벤트의 발생을 판별(S900)할 수 있다.Thereafter, the conversation between the guest user G and the host user H may be analyzed in the messenger chat window to determine the occurrence of the event (S900).
도 57과 같이, 가벼운 인사에 대한 액션을 포함하는 이미지 재료(제 1 표현 재료(E1))를 표현조건 중 관계조건(후배) 및 대사조건(안녕하세요)에 매칭시키는 경우를 가정하여 보자.As shown in FIG. 57, assume that the image material (first expression material E1) including the action for light greeting is matched with the relation condition (secondary) and the metabolic condition (hello) among the expression conditions.
이러한 경우, 호스트 사용자(H)와 게스트 사용자(G)가 참여하는 메신저 대화창이 개설되면, 이모티콘 서버(10)는 메신저 대화창에 참여하는 호스트 사용자(H)와 게스트 사용자(G)와 관계(후배)를 파악할 수 있다.In this case, when a messenger chat window is opened in which the host user H and the guest user G participate, the
이모티콘 서버(10)는 관계조건이 후배인 경우에 대사 조건이 '안녕하세요'가 설정된 것을 판별할 수 있다.The
아울러, 이모티콘 서버(10)는 위에서 설명한 관계조건과 대사조건이 제 1 표현 재료(E1)에 매칭된 것을 확인/판별할 수 있다.In addition, the
위의 내용을 정리하면, 호스트 사용자(H)가 관계가 후배인 게스트 사용자(G)와 메신저 대화창에 참여하여 대화를 하는 과정에서 표현 조건에 매칭된 표현 재료에 대응되는 이벤트(Event)가 발생하는 경우에, 이모티콘 서버(10)는 제 1 표현 재료(E1)에 대응하는 적어도 하나의 이모티콘을 추출할 수 있다.In summary, the event corresponding to the expression material matching the expression condition occurs when the host user H participates in the instant message conversation with the guest user G having a junior relationship. In this case, the
여기서, 이벤트는 호스트 사용자(H) 및/또는 게스트 사용자(G)가 대사조건인 '안녕하세요'에 대응하는 내용을 메신저 대화창에 입력하는 경우에 대응될 수 있다.In this case, the event may correspond to a case where the host user H and / or the guest user G inputs a content corresponding to the "Hello" which is a metabolic condition in the messenger chat window.
호스트 사용자(H)에게 제 1 표현 재료(E1)에 대응하는 적어도 하나의 이모티콘의 일례에 대해 도 59에 게시하였다.The host user H has posted in FIG. 59 an example of at least one emoticon corresponding to the first expression material E1.
도 61의 경우와 같이, 호스트 사용자(H) 및/또는 게스트 사용자(G)가 대사조건인 '안녕하세요'에 대응하는 내용을 메신저 대화창에 입력하면, 이모티콘 서버(10)는 제 1 표현 재료(E1)에 대응하여 추출한 적어도 하나의 이모티콘을 호스트 사용자(H)에게 제공하여 추천할 수 있다.As in the case of FIG. 61, when the host user H and / or the guest user G inputs a content corresponding to the "hello" which is a metabolic condition into the messenger chat window, the
이후, 호스트 사용자(H)가 적어도 하나의 이모티콘을 선택하면, 도 62의 경우와 같이, 선택한 이모티콘을 호스트 사용자(H)에 대응하여 메신저 대화창에 입력될 수 있다.Thereafter, when the host user H selects at least one emoticon, as shown in FIG. 62, the selected emoticon may be input to the messenger chat window corresponding to the host user H.
도 58과 같이, 공손한 인사에 대한 액션을 포함하는 이미지 재료(제 2 표현 재료(E2))를 표현조건 중 관계조건(고객) 및 대사조건(안녕하세요)에 매칭시키는 경우를 가정하여 보자.As shown in FIG. 58, assume that the image material (second expression material E2) including the polite greeting action is matched with the relation condition (customer) and the metabolic condition (hello) among the expression conditions.
이러한 경우, 이모티콘 서버(10)는 호스트 사용자(H)와 게스트 사용자(G)가 참여하는 메신저 대화창을 분석하여 호스트 사용자(H)와 게스트 사용자(G)와 관계(고객)에 대한 정보, 대사 조건('안녕하세요')에 대한 정보를 판별할 수 있다.In this case, the
아울러, 이모티콘 서버(10)는 위에서 설명한 관계조건과 대사조건이 제 2 표현 재료(E2)에 매칭된 것을 확인/판별할 수 있다.In addition, the
위의 내용을 정리하면, 호스트 사용자(H)가 관계가 고객인 게스트 사용자(G)와 메신저 대화창에 참여하여 대화를 하는 과정에서 호스트 사용자(H) 및/또는 게스트 사용자(G)가 대사조건인 '안녕하세요'에 대응하는 내용을 메신저 대화창에 입력하는 경우에, 이모티콘 서버(10)는 제 2 표현 재료(E2)에 대응하는 적어도 하나의 이모티콘을 호스트 사용자(H)에게 추천할 수 있다.In summary, the host user (H) and / or the guest user (G) are the metabolic conditions during the conversation between the host user (H) and the guest user (G) with whom the relationship is a customer. When inputting a content corresponding to "hello" into the messenger chat window, the
호스트 사용자(H)에게 제 2 표현 재료(E2)에 대응하는 적어도 하나의 이모티콘의 일례에 대해 도 60에 게시하였다.The host user H has posted in FIG. 60 an example of at least one emoticon corresponding to the second expression material E2.
도 63의 경우와 같이, 호스트 사용자(H) 및/또는 게스트 사용자(G)가 대사조건인 '안녕하세요'에 대응하는 내용을 메신저 대화창에 입력하면, 이모티콘 서버(10)는 제 2 표현 재료(E2)에 대응하여 추출한 적어도 하나의 이모티콘을 호스트 사용자(H)에게 제공하여 추천할 수 있다.As in the case of FIG. 63, when the host user H and / or the guest user G inputs a content corresponding to the "Hello" which is the metabolic condition into the messenger chat window, the
이후, 호스트 사용자(H)가 적어도 하나의 이모티콘을 선택하면, 도 64의 경우와 같이, 선택한 이모티콘을 호스트 사용자(H)에 대응하여 메신저 대화창에 입력될 수 있다.Thereafter, when the host user H selects at least one emoticon, as shown in FIG. 64, the selected emoticon may be input to the messenger chat window corresponding to the host user H.
위에서는, 표현 조건에 대해 관계조건, 대사조건을 설명하였지만, 감지조건, 감정조건, 액션조건 및 상황조건 중 적어도 하나가 제 1 표현 재료(E1)에 매칭되는 것도 가능할 수 있다.Although the relationship condition and the metabolic condition have been described with respect to the expression condition, at least one of the detection condition, the emotion condition, the action condition, and the situation condition may be matched with the first expression material E1.
예를 들면, 도 65와 같이, 절을 하는 액션을 포함하는 이미지 재료(E)를 표현조건 중 관계조건(연인), 대사조건(안녕), 시간조건(06:00-10:00), 위치조건(대한민국), 날씨조건(맑음) 및 감정조건(기쁨)에 매칭시키는 경우를 가정하여 보자.For example, as shown in Fig. 65, the image material (E) including the bowing action is selected as the relation condition (lover), metabolic condition (good morning), time condition (06: 00-10: 00), and position among the expression conditions. Suppose you match a condition (South Korea), a weather condition (sunny), and an emotional condition (joy).
이러한 경우, 호스트 사용자(H)와 게스트 사용자(G)가 참여하는 메신저 대화창이 개설되면, 이모티콘 서버(10)는 메신저 대화창에 참여하는 호스트 사용자(H)와 게스트 사용자(G)와 관계(연인)를 파악할 수 있다.In this case, when a messenger chat window is opened in which the host user H and the guest user G participate, the
이모티콘 서버(10)는 관계조건이 연인인 경우에 대사 조건이 '안녕'이 설정된 것을 판별할 수 있으며, 관계조건이 연인인 경우에 감정조건이 '기쁨'으로 설정되어 있는 것을 판별할 수 있다.The
아울러, 이모티콘 서버(10)는 인터넷 망 또는 호스트 사용자(H)의 단말기(30)로부터 호스트 사용자(H)의 단말기(30)에 대응하는 날씨조건, 위치조건 및 시간조건을 판별할 수 있다.In addition, the
도 65의 내용을 정리하면, 호스트 사용자(H)의 단말기(30)에 대응하는 위치가 대한민국이고, 현재 날씨가 맑음이고, 시간이 06:00-10:00이고, 게스트 사용자(G)에 대한 호스트 사용자(H)의 감정상태가 기쁨인 상태에서, 호스트 사용자(H)가 관계가 연인인 게스트 사용자(G)와 메신저 대화창에 참여하여 대화를 하는 과정에서 호스트 사용자(H) 및/또는 게스트 사용자(G)가 대사조건인 '안녕'에 대응하는 내용을 메신저 대화창에 입력하는 경우에, 이모티콘 서버(10)는 도 66과 같이 표현 재료(E)에 대응하는 적어도 하나의 이모티콘을 추출할 수 있다.65, the location corresponding to the
아울러, 이모티콘 서버(10)는 추출한 이모티콘을 호스트 사용자(H)에게 제공하여 추천할 수 있다.In addition, the
이처럼, 원하는 표현 조건을 표현 재료에 매칭시키는 경우, 이모티콘의 추천에 대한 만족도를 향상시킬 수 있다.As such, when the desired expression condition is matched with the expression material, satisfaction with recommendation of the emoticon can be improved.
이하에서는 학습단계(S740)에 대해 설명하기로 한다.Hereinafter, the learning step (S740) will be described.
도 67을 살펴보면, 학습단계(S740)에서는 이모티콘 서버(10)는 개시된 메신저 대화창에 대응하는 사용자, 즉 호스트 사용자(H)와 게스트 사용자(G)를 판별할 수 있다(S721).Referring to FIG. 67, in the learning step S740, the
이후, 이모티콘 서버(10)는 호스트 사용자(H)와 게스트 사용자(G)의 대화를 분석할 수 있다(S722).Thereafter, the
이후, 이모티콘 서버(10)는 호스트 사용자(H)와 게스트 사용자(G)의 대화에서 학습재료(Learning Item)를 추출할 수 있다(S723).Thereafter, the
여기서, 학습재료는 호스트 사용자(H)와 게스트 사용자(G)의 대화 내용, 호스트 사용자(H)와 게스트 사용자(G)의 대화 환경, 호스트 사용자(H)와 게스트 사용자(G)의 대화 분량 및 대화 횟수 중 적어도 하나를 포함할 수 있다.Here, the learning material includes the conversation contents between the host user (H) and the guest user (G), the conversation environment between the host user (H) and the guest user (G), the amount of conversation between the host user (H) and the guest user (G), and It may include at least one of the number of conversations.
또는, 학습재료는 호스트 사용자(H)와 게스트 사용자(G)의 이모티콘의 사용 이력 등을 포함할 수 있다.Alternatively, the learning material may include a history of use of emoticons of the host user H and the guest user G.
이모티콘 서버(10)는 추출한 학습재료를 분석하고, 분석한 정보를 근거로 하여 호스트 사용자(H)와 게스트 사용자(G)의 관계에 대한 정보(관계조건) 및/또는 호스트 사용자(H)와 게스트 사용자(G)에 대한 감정에 대한 정보(감정조건)를 획득할 수 있다(S724).The
이후, 획득한 관계에 대한 정보 및/또는 감정에 대한 정보를 적용할 수 있다(S725).Thereafter, information on the acquired relationship and / or information on emotion may be applied (S725).
이처럼, 학습단계(S720)에서는 호스트 사용자(H)와 게스트 사용자(G)의 대화를 분석하여 호스트 사용자(H)의 게스트 사용자(G)에 대한 감정상태의 변화를 분석하여 확인할 수 있다.In this way, in the learning step (S720) by analyzing the conversation between the host user (H) and the guest user (G) can be confirmed by analyzing the change in the emotional state of the guest user (G) of the host user (H).
이러한 경우, 호스트 사용자(H)의 변화하는 감정상태에 따라 이모티콘의 적용 방식이 달라질 수 있다.In this case, the application method of the emoticon may vary according to the changing emotional state of the host user H.
예를 들어, 도 68과 같이, 절을 하는 액션을 포함하는 제 3 이미지 재료(E3)를 표현조건 중 관계조건(연인), 대사조건(안녕), 시간조건(06:00-10:00), 위치조건(대한민국), 날씨조건(맑음) 및 감정조건(기쁨)에 매칭시킬 수 있다.For example, as shown in Fig. 68, the third image material E3 including the bowing action is selected as the relation condition (lover), metabolic condition (good morning), and time condition (06: 00-10: 00). , Location conditions (South Korea), weather conditions (sunny) and emotion conditions (joy).
또한, 도 69와 같이, 악마 포즈를 취하는 액션을 포함하는 제 4 이미지 재료(E4)를 표현조건 중 관계조건(연인), 대사조건(안녕), 시간조건(06:00-10:00), 위치조건(대한민국), 날씨조건(맑음) 및 감정조건(분노)에 매칭시킬 수 있다.In addition, as shown in Fig. 69, the fourth image material E4 including the action of posing the devil poses among the expression conditions, the relation conditions (lovers), the metabolic conditions (hi), the time conditions (06: 00-10: 00), It can be matched with location conditions (South Korea), weather conditions (sunny) and emotion conditions (anger).
도 68 및 도 69의 표현 조건을 비교하면 감정조건이 '기쁨'에서 '분노'로 변경된 것을 확인할 수 있다. 아울러, 감정조건이 변경됨으로써 표현 조건에 매칭되는 표현 재료가 제 3 이미지 재료(E3)에서 제 4 이미지 재료(E4)로 변경된 것을 확인할 수 있다.Comparing the expression conditions of FIG. 68 and FIG. 69, it can be seen that the emotional condition is changed from 'joy' to 'anger'. In addition, it may be confirmed that the expression material matching the expression condition is changed from the third image material E3 to the fourth image material E4 by changing the emotional condition.
호스트 사용자(H)의 연인인 게스트 사용자(G)에 대한 감정상태(감정조건)가 '기쁨'으로 설정된 상태를 가정하자.Assume that the emotional state (emotion condition) for the guest user G, a lover of the host user H, is set to 'joy'.
이러한 조건하에서 도 70과 같이 호스트 사용자(H)가 연인인 게스트 사용자(G)와 대화를 주고받을 수 있다.Under these conditions, as shown in FIG. 70, the host user H may exchange a conversation with the guest user G, which is a lover.
이모티콘 서버(10)는 도 70의 대화를 분석하고, 분석한 정보를 바탕으로 호스트 사용자(H)의 연인인 게스트 사용자(G)에 대한 감정상태가 '분노'임을 확인할 수 있다.The
이처럼, 학습단계(S720)에서 학습된 정보에 따라 호스트 사용자(H)의 게스트 사용자(G)에 대한 감정상태가 변경될 수 있다.As such, the emotional state of the host user H with respect to the guest user G may be changed according to the information learned in the learning step S720.
호스트 사용자(H)의 연인인 게스트 사용자(G)에 대한 감정상태가 '기쁨'에서 '분노'로 변경된 상태에서, 도 70의 경우와 같이, 연인인 게스트 사용자(G)가 대사조건인 '안녕'에 대응하는 내용을 메신저 대화창에 입력하는 경우에는 도 69에서 설명한 바와 같은 제 4 이미지 재료(E4)에 대응하는 적어도 하나의 이모티콘(도 71 참조)을 호스트 사용자(H)에게 추천할 수 있다.In the state where the emotional state of the guest user G, a lover of the host user H, is changed from 'joy' to 'anger', as in the case of FIG. When inputting a content corresponding to 'to the messenger chat window, at least one emoticon (see FIG. 71) corresponding to the fourth image material E4 as described with reference to FIG. 69 may be recommended to the host user H.
한편, 학습단계(S720)에서는 호스트 사용자(H)와 게스트 사용자(G)의 대화를 분석한 결과를 바탕으로 호스트 사용자(H)와 게스트 사용자(G)의 관계에 대한 정보(관계조건)를 판별하고, 판별한 정보를 적용하여 관계조건을 업데이트하는 것이 가능하다.On the other hand, in the learning step (S720), based on the result of analyzing the conversation between the host user (H) and the guest user (G) to determine the information (relationship condition) of the relationship between the host user (H) and the guest user (G) It is possible to update the relationship condition by applying the determined information.
호스트 사용자(H)와 게스트 사용자(G)의 관계에 영향을 미치는 요인은, 도 72의 경우와 같이, 호스트 사용자(H)와 게스트 사용자(G)의 대화분량, 대화횟수, 대화내용 및 대화환경 중 적어도 하나일 수 있다.Factors affecting the relationship between the host user H and the guest user G include, as shown in FIG. 72, the conversation volume, the number of conversations, the contents of the conversation, and the chat environment of the host user H and the guest user G. It may be at least one of.
예를 들어, 대화분량 및 대화횟수가 많을수록 호스트 사용자(H)와 게스트 사용자(G)의 친밀도가 상승할 수 있다.For example, as the amount of conversations and the number of conversations increases, the intimacy between the host user H and the guest user G may increase.
또한, 대화내용을 분석한 결과 대화내용에 편안한 표현이 주로 사용되는 경우 호스트 사용자(H)와 게스트 사용자(G)의 친밀도가 상승할 수 있다.In addition, as a result of analyzing the conversation, when the comfortable expression is mainly used in the conversation, the intimacy between the host user H and the guest user G may increase.
또한, 호스트 사용자(H)와 게스트 사용자(G)의 대화가 발생하는 시간대가 저녁시간대, 새벽시간대 이거나, 호스트 사용자(H)와 게스트 사용자(G)의 대화가 휴일에 발생하는 경우에 호스트 사용자(H)와 게스트 사용자(G)의 친밀도가 상승할 수 있다.In addition, the host user (H) and the guest user (G) when the time of the conversation occurs in the evening time, dawn time, or when the host user (H) and the guest user (G) when the conversation occurs on the holiday of the host user ( Intimacy between H) and guest user G may increase.
이러한 방법으로 판별한 호스트 사용자(H)와 게스트 사용자(G)의 친밀도에 대한 정보를 근거로 하여 호스트 사용자(H)와 게스트 사용자(G)의 관계조건을 설정할 수 있다.The relationship condition between the host user H and the guest user G can be set based on the information on the intimacy of the host user H and the guest user G determined in this way.
예를 들어, 친구로 설정되어 있는 사용자 1과 호스트 사용자(H)의 대화가 도 73과 같이 주로 존댓말로 이루어지는 경우를 가정하여 보자.For example, suppose that a conversation between
이러한 경우, 이모티콘 서버(10)는 사용자 1과 호스트 사용자(H)의 관계가 친구가 아닌 직장동료인 것으로 파악하고, 도 74와 같이 사용자 1과 호스트 사용자(H)의 관계를 친구에서 직장동료로 변경할 수 있다.In this case, the
이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, the technical configuration of the present invention described above can be understood by those skilled in the art that the present invention can be implemented in other specific forms without changing the technical spirit or essential features of the present invention.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the exemplary embodiments described above are to be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the appended claims rather than the foregoing detailed description, and the meaning and scope of the claims are as follows. And all changes or modifications derived from the equivalent concept should be interpreted as being included in the scope of the present invention.
Claims (18)
Applications Claiming Priority (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160117978A KR20180029641A (en) | 2016-09-13 | 2016-09-13 | Processing Method and System for Emoticon Information |
| KR1020160117986A KR20180029645A (en) | 2016-09-13 | 2016-09-13 | Processing Method and System for Emoticon Information |
| KR10-2016-0117986 | 2016-09-13 | ||
| KR1020160117973A KR20180029639A (en) | 2016-09-13 | 2016-09-13 | Processing Method and System for Emoticon Information |
| KR10-2016-0117973 | 2016-09-13 | ||
| KR10-2016-0117978 | 2016-09-13 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018052170A1 true WO2018052170A1 (en) | 2018-03-22 |
Family
ID=61619568
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2017/001092 Ceased WO2018052170A1 (en) | 2016-09-13 | 2017-02-02 | Emoticon information processing method and system |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2018052170A1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112989077A (en) * | 2021-03-10 | 2021-06-18 | 维沃移动通信有限公司 | Method and device for managing expression objects |
| WO2022171063A1 (en) * | 2021-02-10 | 2022-08-18 | 北京字节跳动网络技术有限公司 | Dynamic expression display method and apparatus, electronic device, and computer readable storage medium |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100520426B1 (en) * | 2003-05-02 | 2005-10-28 | 에스케이 텔레콤주식회사 | The method for teaching a chatting avatar |
| KR100537024B1 (en) * | 2003-06-14 | 2005-12-16 | 에스케이 텔레콤주식회사 | Method for offering content in relation to selected character |
| KR20050120389A (en) * | 2004-06-18 | 2005-12-22 | (주)엔플러스엠닷컴 | Multi-chatting system between user and character in the client and its method |
| KR20090075397A (en) * | 2008-01-04 | 2009-07-08 | 문춘호 | How to send and receive communication messages including emoticons |
| US20140088954A1 (en) * | 2012-09-27 | 2014-03-27 | Research In Motion Limited | Apparatus and method pertaining to automatically-suggested emoticons |
| KR20160031619A (en) * | 2014-09-12 | 2016-03-23 | 삼성전자주식회사 | Method for making emoticon and electronic device implementing the same |
-
2017
- 2017-02-02 WO PCT/KR2017/001092 patent/WO2018052170A1/en not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100520426B1 (en) * | 2003-05-02 | 2005-10-28 | 에스케이 텔레콤주식회사 | The method for teaching a chatting avatar |
| KR100537024B1 (en) * | 2003-06-14 | 2005-12-16 | 에스케이 텔레콤주식회사 | Method for offering content in relation to selected character |
| KR20050120389A (en) * | 2004-06-18 | 2005-12-22 | (주)엔플러스엠닷컴 | Multi-chatting system between user and character in the client and its method |
| KR20090075397A (en) * | 2008-01-04 | 2009-07-08 | 문춘호 | How to send and receive communication messages including emoticons |
| US20140088954A1 (en) * | 2012-09-27 | 2014-03-27 | Research In Motion Limited | Apparatus and method pertaining to automatically-suggested emoticons |
| KR20160031619A (en) * | 2014-09-12 | 2016-03-23 | 삼성전자주식회사 | Method for making emoticon and electronic device implementing the same |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022171063A1 (en) * | 2021-02-10 | 2022-08-18 | 北京字节跳动网络技术有限公司 | Dynamic expression display method and apparatus, electronic device, and computer readable storage medium |
| CN112989077A (en) * | 2021-03-10 | 2021-06-18 | 维沃移动通信有限公司 | Method and device for managing expression objects |
| CN112989077B (en) * | 2021-03-10 | 2023-09-22 | 维沃移动通信有限公司 | Method and device for managing expression objects |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2016018004A1 (en) | Method, apparatus, and system for providing translated content | |
| WO2021071115A1 (en) | Electronic device for processing user utterance and method of operating same | |
| WO2016167481A1 (en) | Method and apparatus for recommending reply message | |
| WO2018117685A1 (en) | System and method of providing to-do list of user | |
| WO2020017849A1 (en) | Electronic device and method for providing artificial intelligence services based on pre-gathered conversations | |
| WO2016024740A1 (en) | Cloud system and method of displaying, by cloud system, content | |
| WO2016024741A1 (en) | Cloud system and method of displaying, by cloud system, content | |
| WO2021029627A1 (en) | Server that supports speech recognition of device, and operation method of the server | |
| WO2016048102A1 (en) | Image display method performed by device including switchable mirror and the device | |
| WO2010013899A2 (en) | Method of providing communication function for communication group, and mobile communication terminal and presence server for the same | |
| WO2020076014A1 (en) | Electronic apparatus and method for controlling the electronic apparatus | |
| EP3198376A1 (en) | Image display method performed by device including switchable mirror and the device | |
| EP3552163A1 (en) | System and method of providing to-do list of user | |
| WO2015142016A1 (en) | Method for controlling content playback and content playback apparatus for executing same | |
| EP3283942A1 (en) | Method and apparatus for recommending reply message | |
| WO2014061872A1 (en) | Recording medium for messenger control method, and apparatus and system therefor | |
| WO2016182368A1 (en) | Method and device for providing content | |
| WO2020209693A1 (en) | Electronic device for updating artificial intelligence model, server, and operation method therefor | |
| WO2014163283A1 (en) | Message service method, and apparatus, system, and recording medium for recording program for same | |
| WO2014021567A1 (en) | Method for providing message service, and device and system therefor | |
| WO2020017827A1 (en) | Electronic device and control method for electronic device | |
| WO2020032564A1 (en) | Electronic device and method for providing one or more items in response to user speech | |
| WO2020076089A1 (en) | Electronic device processing user utterance and control method thereof | |
| WO2019203421A1 (en) | Display device and display device control method | |
| WO2022075609A1 (en) | Electronic apparatus for responding to question using multi chat-bot and control method thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17851048 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17851048 Country of ref document: EP Kind code of ref document: A1 |