[go: up one dir, main page]

WO2025110708A2 - 질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법 - Google Patents

질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법 Download PDF

Info

Publication number
WO2025110708A2
WO2025110708A2 PCT/KR2024/018378 KR2024018378W WO2025110708A2 WO 2025110708 A2 WO2025110708 A2 WO 2025110708A2 KR 2024018378 W KR2024018378 W KR 2024018378W WO 2025110708 A2 WO2025110708 A2 WO 2025110708A2
Authority
WO
WIPO (PCT)
Prior art keywords
question
user
database
classification
questioner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2024/018378
Other languages
English (en)
French (fr)
Other versions
WO2025110708A3 (ko
Inventor
배영근
황선민
강주희
한진수
우태영
오영광
송민상
우동연
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bimatrix Co Ltd
Original Assignee
Bimatrix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020240160051A external-priority patent/KR102814588B1/ko
Priority claimed from KR1020240160050A external-priority patent/KR20250076395A/ko
Application filed by Bimatrix Co Ltd filed Critical Bimatrix Co Ltd
Priority to JP2025513449A priority Critical patent/JP2026502033A/ja
Publication of WO2025110708A2 publication Critical patent/WO2025110708A2/ko
Publication of WO2025110708A3 publication Critical patent/WO2025110708A3/ko
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns

Definitions

  • the present disclosure relates to the field of natural language processing (NLP), and more particularly, to a device, system and method for providing a question-based data service that optimizes a database query process through question classification, user profiling, and optimized database query generation using a large-scale language model (LLM).
  • NLP natural language processing
  • LLM large-scale language model
  • the present disclosure provides a device, system and method for providing a question-based data service that provides a data service using a group of questioners, extracts metadata from a vector database to provide personalized responses, and guarantees efficient data retrieval.
  • Patent Document 1 Korean Patent Publication No. 10-2094934 discloses a natural language question answering system and method that analyzes sentences or paragraphs of an unstructured document, classifies and indexes the document according to meaning, and provides a response to a query.
  • Patent Document 1 Republic of Korea Patent Publication No. 10-2094934
  • Patent Document 2 Republic of Korea Patent Publication No. 10-1987915
  • the present disclosure has been made in response to the aforementioned background technology, and provides a device, a system and a method for providing a question-based data service.
  • the database comparison system and method by question classification and questioner classification of the present disclosure are to develop a transformation matrix system for realizing user-tailored data search. Through this, it provides higher accuracy and efficiency for user queries, and improves database query performance through automation and optimization of the system. In particular, the system aims to automatically generate optimal database queries tailored to different contexts and needs of each user.
  • Another object of the present invention is to provide a device for providing a data service using a group of questioners and a method therefor.
  • a database comparison device by question classification and questioner classification comprises: a processor; and a memory storing at least one command executed by the processor; wherein the at least one command may be configured to cause the processor to perform: a question reception and interpretation step of receiving a question written by a user in natural language and converting the same into a form understandable by a machine; a natural language processing step of analyzing the question to determine its meaning and extracting keywords or context within the question and converting the same into a form capable of querying a database; and a database query generation step of generating a database query based on the extracted keywords and the analyzed context and returning a result from the database.
  • a database comparison system by question classification and questioner classification may include a question reception and classification module that receives and analyzes a natural language question input by a user and classifies the type of the question; a user profiling and questioner classification module that generates a user-tailored query based on a user's profile and past interaction records; a metadata search and large-scale language model linking module that searches a vector database for metadata matching the question after the question has been classified; a database comparison and generation module that automatically generates an optimized database query based on the meta-language generated from the large-scale language model linking module; and a data processing and output module that transmits the generated database query to a database to search for a result, and provides a response by converting the data processed through the data processing module into a format suitable for the user.
  • the question reception and classification module determines whether the question corresponds to a data retrieval, calculation request, or report generation task, and can identify the appropriate question type based on the user's intent and requirements.
  • the user profiling and query classification module can generate optimized queries for each user by analyzing information about what data the user has previously requested and how the data has been processed.
  • the metadata search and large-scale language model linking module inputs the searched metadata into a large-scale language model (LLM) and converts it into a meta-language, and the large-scale language model (LLM) can then generate an appropriate response to the question based on this.
  • LLM large-scale language model
  • the database comparison and generation module can automatically generate optimized database queries based on a meta language generated from a large-scale language model (LLM), optimize database queries by considering the user's profile, authority, past queries, and interaction history, and generate an improved database that provides improved performance and accuracy through comparative analysis with the user's previous queries.
  • LLM large-scale language model
  • a method for comparing databases by question classification and questioner classification may include a question reception and interpretation step of receiving a question written by a user in natural language and converting the same into a form understandable by a machine; a natural language processing step of analyzing the question to determine its meaning, extracting keywords or context within the question, and converting the same into a form that can be queried against a database; and a database query generation step of generating a database query based on the extracted keywords and analyzed context and returning a result from the database.
  • a method for comparing databases by question classification and questioner classification is performed by a computing device including at least one processor, and may include a question reception and interpretation step of receiving a question written by a user in natural language and converting the same into a form understandable by a machine; a natural language processing step of analyzing the question to determine its meaning, extracting keywords or context within the question, and converting the same into a form that can be queried against a database; and a database query generation step of generating a database query based on the extracted keywords and the analyzed context and returning a result from the database.
  • the above method may further include a result providing step in which the final result based on the metadata is delivered to the user in real time in a streaming manner.
  • a computer program stored in a computer-readable storage medium is a computer program stored in a computer-readable storage medium, wherein the computer program, when executed by one or more processors, performs a database comparison method by question classification and questioner classification, wherein the method may include a question reception and interpretation step of receiving a question written by a user in natural language and converting the same into a form understandable by a machine; a natural language processing step of analyzing the question to determine its meaning, extracting keywords or context within the question, and converting the same into a form capable of querying a database; and a database query generation step of generating a database query based on the extracted keywords and the analyzed context and returning a result from the database.
  • a method for providing a data service comprises the steps of: when a user question written in natural language is received from a user device according to a user input, a natural language processing unit extracts keyword information from the user question; a DB analysis unit searches a database for a plurality of items including tables, columns, and data of search targets based on the user's entity information and the keyword information to create a search target list, and calculates a search similarity score between the keyword information and the plurality of items of the search target list; an execution unit provides the search target list to the user device and receives item information indicating an item selected by the user from the search target list from the user device; a step by the execution unit generates a query using a natural language processing model (NLP) based on the item selected by the user and executes the generated query; a step by the questioner group processing unit identifies a questioner group to which the user question belongs based on the entity information, the search similarity score, the item information, and the time required for the user to
  • NLP natural language processing
  • the method further includes, prior to the step of extracting the keyword information, a step of allowing the questioner group processing unit to mutually map and store the entity information, the search similarity score, the item information, and the required time information corresponding to the plurality of user questions whenever a user question written in natural language is received from a plurality of user devices, a step of allowing the questioner group processing unit to generate a plurality of questioner vectors by mapping the entity information, the search similarity score, the item information, and the required time information corresponding to the plurality of user questions to a predetermined vector space, and a step of generating a plurality of questioner groups by performing clustering on the plurality of questioner vectors using a clustering algorithm.
  • the step of identifying the above questioner group includes a step in which the questioner group processing unit generates a questioner vector of the user question by mapping the entity information, the search similarity score, the item information, and the required time information corresponding to the user question to a predetermined vector space, and a step in which the questioner group processing unit identifies the questioner group to which the user question belongs based on the distance between the clustering center of a plurality of questioner groups and the questioner vector of the user question in the vector space.
  • the method further includes, after the step of providing to the user device, a step of the feedback processing unit receiving feedback information, which is information on the user's preference or dislike for each of the plurality of similar questions in the customized question list, from the user device, and a step of the feedback processing unit retraining a natural language processing model (NLP) using the feedback information from the user device.
  • feedback information which is information on the user's preference or dislike for each of the plurality of similar questions in the customized question list
  • the step of executing the generated query includes a step in which the execution unit inputs the keyword information, the entity information, and the item information into a natural language processing model (NLP), a step in which the execution unit derives a JSON question script corresponding to the keyword information, the entity information, and the item information from the natural language processing model (NLP), a step in which the execution unit generates a query based on the JSON question script, and a step in which the execution unit executes the generated query.
  • NLP natural language processing model
  • a device for providing a data service includes: a natural language processing unit for extracting keyword information from a user question received in natural language according to a user input from a user device; a DB analysis unit for searching a plurality of items including tables, columns and data of search targets in a database based on entity information of the user and the keyword information to create a search target list, and calculating a search similarity score between the keyword information and the plurality of items of the search target list; an execution unit for providing the search target list to the user device and receiving item information representing an item selected by the user from the search target list from the user device, generating a query using a natural language processing model (NLP) based on the item selected by the user, and executing the generated query; a questioner group processing unit for identifying a questioner group to which the user question belongs based on the entity information, the search similarity score, the item information and the time required for the user to select an item from the search target list; and a matching unit for deriving a customized
  • the present disclosure has been devised in response to the aforementioned background technology, and the database comparison system and method by question classification and questioner classification of the present disclosure provide the following effects in that they classify questions and questioners based on natural language questions, and thereby generate and compare optimized database queries, thereby enabling accurate and efficient data retrieval from a database.
  • the database comparison system and method by question classification and questioner classification of the present disclosure provide personalized responses by generating SQL queries tailored to the needs of each user through user profiling. This allows users to quickly obtain only the data they need.
  • the database comparison system and method by question classification and questioner classification of the present disclosure compares meta-language-based SQL queries generated through LLM and vector databases with previous queries and analyzes them, thereby continuously improving performance and enabling faster and more accurate data retrieval.
  • the database comparison system and method by question classification and questioner classification of the present disclosure can effectively process complex natural language questions and provide highly accurate query generation even for questions including polysemy or complex contexts.
  • the database comparison system and method by question classification and questioner classification of the present disclosure minimize unnecessary data searches through optimized SQL queries, shorten database processing time, and increase the efficiency of the entire system.
  • the database comparison system and method by question classification and questioner classification of the present disclosure provide the effect of maximizing database query processing performance and greatly improving user experience.
  • query accuracy and user convenience can be maximized by providing recommended questions according to questioner groups.
  • FIG. 1 is a block diagram illustrating a computing device according to one embodiment of the present disclosure.
  • FIG. 2 is a block diagram illustrating the configuration of a database comparison system by question classification and questioner classification according to an embodiment of the present disclosure.
  • Figure 3 is a configuration diagram of a database comparison system by question classification and questioner classification of the present disclosure.
  • FIG. 4 is a schematic diagram illustrating an example of the operation of a database comparison system by question classification and questioner classification of the present disclosure.
  • FIG. 5 is a flowchart illustrating information processing of a database comparison system by question classification and questioner classification of the present disclosure.
  • Figure 6 is a flowchart illustrating a database comparison method by question classification and questioner classification of the present disclosure.
  • FIG. 7 illustrates a general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
  • FIG. 8 is a diagram for explaining the configuration of a system for providing data services according to an embodiment of the present disclosure.
  • FIG. 9 is a drawing for explaining the configuration of a device for providing a data service according to an embodiment of the present disclosure.
  • FIG. 10 is a drawing for explaining a detailed configuration of a device for providing a data service according to an embodiment of the present disclosure.
  • FIG. 11 is a flowchart illustrating a method of collecting data for forming a group of questioners in a data provision service according to an embodiment of the present disclosure.
  • FIG. 12 is a flowchart illustrating a method for generating multiple groups of questioners in a data provision service according to an embodiment of the present disclosure.
  • FIG. 13 is a flowchart illustrating a method for providing a data service using a group of questioners according to an embodiment of the present disclosure.
  • FIG. 14 is an example diagram of a hardware system for implementing a device for providing a data service using a group of questioners according to one embodiment of the present disclosure.
  • a component may be, but is not limited to, a procedure running on a processor, a processor, an object, a thread of execution, a program, and/or a computer.
  • an application running on a computing device and the computing device may both be components.
  • One or more components may reside within a processor and/or a thread of execution.
  • a component may be localized within a single computer.
  • a component may be distributed between two or more computers.
  • such components may execute from various computer-readable media having various data structures stored therein.
  • the components may communicate via local and/or remote processes, for example, by a signal comprising one or more data packets (e.g., data from one component interacting with another component in a local system, a distributed system, and/or data transmitted via a network such as the Internet to another system via the signal).
  • a signal comprising one or more data packets (e.g., data from one component interacting with another component in a local system, a distributed system, and/or data transmitted via a network such as the Internet to another system via the signal).
  • FIGS. 1 to 7 describe a database comparison system and method by question classification and questioner classification of the present disclosure.
  • FIG. 1 is a block diagram illustrating a computing device according to one embodiment of the present disclosure.
  • the configuration of the computing device (100) illustrated in FIG. 1 is only a simplified example.
  • the computing device (100) may include other configurations for performing the computing environment of the computing device (100), and only some of the disclosed configurations may configure the computing device (100).
  • a computing device (100) may include a processor (110), a memory (130), and a network unit (150).
  • the processor (110) may typically include all kinds of devices capable of processing operations and data of the computing device (100).
  • it may mean a data processing device built into hardware, which has a physically structured circuit to perform a function expressed by a code or command included in a program.
  • a data processing device built into hardware a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), and the like may be encompassed, but the scope of the present invention is not limited thereto.
  • the above processor (110) may be composed of one or more cores and may include a central processing unit (CPU) of a computing device. In addition, it may further include a processor for data analysis and deep learning, such as a general purpose graphics processing unit (GPGPU) and a tensor processing unit (TPU).
  • CPU central processing unit
  • GPU general purpose graphics processing unit
  • TPU tensor processing unit
  • the memory (130) can store any form of information generated or determined by the processor (110) and any form of information received by the network unit (150).
  • the memory (130) may include at least one type of storage medium among a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, an SD or XD memory, etc.), a Random Access Memory (RAM), a Static Random Access Memory (SRAM), a Read-Only Memory (ROM), an Electrically Erasable Programmable Read-Only Memory (EEPROM), a Programmable Read-Only Memory (PROM), a magnetic memory, a magnetic disk, and an optical disk.
  • the computing device (100) may also operate in relation to web storage that performs the storage function of the memory (130) on the internet.
  • the description of the memory described above is merely an example, and the present disclosure is not limited thereto.
  • the network unit (150) can use various wired communication systems such as a public switched telephone network (PSTN), xDSL (x Digital Subscriber Line), RADSL (Rate Adaptive DSL), MDSL (Multi Rate DSL), VDSL (Very High Speed DSL), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and a local area network (LAN).
  • PSTN public switched telephone network
  • xDSL x Digital Subscriber Line
  • RADSL Rasterive DSL
  • MDSL Multi Rate DSL
  • VDSL Very High Speed DSL
  • UADSL Universal Asymmetric DSL
  • HDSL High Bit Rate DSL
  • LAN local area network
  • the network unit (150) presented in this specification can use various wireless communication systems such as CDMA (Code Division Multi Access), TDMA (Time Division Multi Access), FDMA (Frequency Division Multi Access), OFDMA (Orthogonal Frequency Division Multi Access), SC-FDMA (Single Carrier-FDMA) and other systems.
  • CDMA Code Division Multi Access
  • TDMA Time Division Multi Access
  • FDMA Frequency Division Multi Access
  • OFDMA Orthogonal Frequency Division Multi Access
  • SC-FDMA Single Carrier-FDMA
  • the network unit (150) may be configured regardless of the communication mode, such as wired or wireless, and may be configured with various communication networks, such as a local area network (LAN), a personal area network (PAN), and a wide area network (WAN).
  • the network may be the well-known World Wide Web (WWW), and may also utilize a wireless transmission technology used for short-distance communication, such as infrared (IrDA: Infrared Data Association) or Bluetooth.
  • IrDA Infrared Data Association
  • the database may be controlled by at least one relational database management system (RDBMS) among ORACLE, PostgreSQL, MySQL, Database (SQL) Server (MS-Database (SQL)), and Database (SQL)ite.
  • RDBMS relational database management system
  • the database may be one in which data input and output are performed by database statements.
  • the application of the present specification may include a separate statement execution module.
  • the statement execution module may generate a customized statement that conforms to the syntax according to the type of the database when the database statement performs input/output of data for the database management system (RDBMS).
  • RDBMS database management system
  • a user can conveniently generate, confirm, and control a statement through an abstracted formula provided in a user interface (UI) provided by the application regardless of the type of database.
  • UI user interface
  • the application may be associated with a database (SQL) statement that performs one or more of the operations of Create, Read, Update, Delete (CRUD).
  • database (SQL) statement may be a signal associated with one of the commands of Insert, Update, or Delete, and the signal may be a name or an abbreviation of the database (SQL) statement that may be entered or displayed in a cell of a spreadsheet.
  • the display may appear as in Table 1 below.
  • the user input information may be for setting columns related to syntax generation or specifying record conditions. For example, it may be possible to enable SQL syntax to be executed even when the column order between the original data and the output data is changed or the column names are different.
  • the user input information may display a comment on the output data.
  • FIG. 2 is a block diagram of a database comparison system by question classification and questioner classification of the present disclosure.
  • the database comparison system by question classification and questioner classification of the present disclosure may be composed of a question reception and classification module (10), a user profiling and questioner classification module (20), a metadata search and large-scale language model linking module (30), a database comparison and generation module (40), and a data processing and output module (50).
  • the question reception and classification module (10) receives and analyzes a natural language question input by a user, and classifies the type of the question. It determines whether the question corresponds to various tasks such as data retrieval, calculation request, or report generation, and identifies an appropriate question type based on the user's intention and requirements.
  • the transformation matrix (G-MATRIX) system receives a user's natural language question, analyzes it, and classifies the type of the question.
  • the question classification is based on the user's intention and request, and identifies which task the question corresponds to among data retrieval, calculation request, and report generation.
  • the user profiling and questioner classification module (20) is a module that generates a user-tailored query based on the profile of the questioner (user) and past interaction history. It analyzes information such as what data the user previously requested and how the data was processed to generate an optimized query for each user.
  • the transformation matrix (G-MATRIX) system classifies appropriate questions by utilizing not only the user's questions but also the user's profile and past interaction history. Through this, it generates a user-tailored query based on information such as what data the user previously requested and how the data was processed.
  • the metadata search and large-scale language model linking module (30) searches for metadata that matches the question in the vector database after the question is classified.
  • the searched metadata is input to the large-scale language model (LLM), which converts it into a meta language and enables the generation of a response that matches the question.
  • the transformation matrix (G-MATRIX) system searches for metadata that matches the question in the vector database after the question is classified.
  • the searched metadata is input to the LLM, which converts it into a meta language, and the large-scale language model (LLM) generates a response that matches the question based on this.
  • the SQL comparison and generation module (40) automatically generates optimized database (SQL) queries based on a meta language generated from a large-scale language model (LLM).
  • the query is optimized by considering the user's profile, authority, past queries, and interaction history, and a database (SQL) with improved performance is generated by comparing it to previous queries.
  • the Transformation Matrix (G-MATRIX) system generates optimal database (SQL) queries based on meta-language answers generated from a large-scale language model (LLM). At this time, the Transformation Matrix (G-MATRIX) optimizes database (SQL) queries by reflecting the user's profile, authority, and past interactions. It is possible to generate database (SQL) queries that provide better performance and accuracy through comparative analysis with the user's previous queries.
  • the data processing and output module (50) transmits the generated database (SQL) query to the database to retrieve the result, and provides the processed data in a format suitable for the user by converting it. Through personalized responses, the user can obtain the data he or she needs accurately and quickly.
  • the conversion matrix (G-MATRIX) system transmits the generated database (SQL) query to the database to retrieve the result, and then provides the response in a format suitable for the user through the data processing module. Through this, the user can effectively obtain personalized results.
  • the database comparison system by question classification and questioner classification of the present disclosure belongs to the fields of Natural Language Processing (NLP), Large Language Model (LLM), database query optimization, and metadata processing using vector database.
  • NLP Natural Language Processing
  • LLM Large Language Model
  • database query optimization database query optimization
  • metadata processing using vector database.
  • the database comparison system by question classification and questioner classification of the present disclosure focuses on technologies related to user-tailored question processing and database (SQL) query generation and optimization, and provides a system that analyzes the past interactions and authority of the questioner using a user profile and a vector database, and converts natural language questions into optimal SQL by utilizing metadata.
  • the database comparison system by question classification and questioner classification of the present disclosure maximizes the efficiency of database search and result return by more accurately interpreting natural language questions and automatically generating an optimized database (SQL) query that meets the user's needs.
  • Figure 3 is a configuration diagram of a database comparison system by question classification and questioner classification of the present disclosure.
  • the database comparison system by question classification and questioner classification of the present disclosure may be a data service system based on natural language processing (NLP) technology that can process natural language queries using meta-language, generate and optimize a database (SQL), and derive suitable results from the database.
  • NLP natural language processing
  • SQL database
  • the database comparison system by question classification and questioner classification of the present disclosure may be a system that converts a user's query into a meta-language and processes it when the user queries in natural language.
  • the meta-language analyzes the user's query, automatically generates and executes an appropriate SQL query, and provides the resulting data back to the user in natural language.
  • the system may include morphological analysis and similar query management functions to process natural language queries.
  • the database comparison system by question classification and questioner classification of the present disclosure may be composed of a user (USER), a transformation matrix (G-MATRIX), a natural language processing module (NLP), and an optimal database generation unit (i-META).
  • a user USER
  • G-MATRIX transformation matrix
  • NLP natural language processing module
  • i-META optimal database generation unit
  • a user enters a query into the system in natural language.
  • Transformation Matrix converts natural language into a meta-language and transmits the query content.
  • the Natural Language Processing module receives a meta-language query, analyzes the natural language query, and provides a meta-language answer accordingly.
  • the Natural Language Processing module may be a conversational AI service based on GPT, such as Chat GPT.
  • the optimal database generation unit receives meta language commands, generates an optimal SQL query, prepares a query result answer from the resulting data set, and sends the result answer to the user (USER).
  • the database comparison system by question classification and questioner classification of the present disclosure when a user inputs a query in natural language, the system extracts main nouns and verbs through morphological analysis and goes through a similar word processing process.
  • the extracted information is converted into a meta-language, and an SQL query is automatically generated based on the same.
  • the generated SQL query is executed in a database to derive a result, and this result is then converted into natural language through the meta-language and provided to the user.
  • the meta-language plays an important role in the process of query transmission, command transmission, and result reception, and the user finally receives the result processed in natural language.
  • the database comparison system by question classification and questioner classification of the present disclosure may include a function for managing similar queries, and may detect queries similar to previously used queries and process data more efficiently based on the queries.
  • query performance is improved and the response time of the system is shortened by utilizing database (SQL) optimization and data caching technology.
  • SQL database
  • a user can easily obtain desired information without directly writing a database (SQL).
  • SQL database
  • a system can be provided that allows a user to easily look up data without having to write an SQL query, thereby improving data accessibility and making it easy for non-experts to use.
  • FIG. 4 is a schematic diagram illustrating an example of the operation of a database comparison system by question classification and questioner classification of the present disclosure.
  • the database comparison system by question classification and questioner classification of the present disclosure is a system that analyzes a user's query expressed in natural language, generates an SQL query based on the query to retrieve data from a database, and provides the result in a form that the user can understand.
  • This system is mainly used for data retrieval such as sales management in a specific business division such as the electric power business division of a company.
  • the database comparison system by question classification and questioner classification of the present disclosure may include the following components.
  • the user queries the sales status of a specific business division in natural language. For example, "Please tell me how much was sold this year” or "What are the sales of the electric division in 2023?"
  • Transformation Matrix is a module that analyzes the user's natural language queries and generates SQL queries. For example, it processes queries for "Sales of S Company's Electric Power Division from 2023.1.1 to today.”
  • the optimal database generation unit converts natural language queries into meta language and optimizes the database (SQL) based on this meta language.
  • the natural language processing module analyzes the user's natural language queries, extracts necessary data, and converts it into meta-language.
  • the database comparison system by question classification and questioner classification of the present disclosure can operate as follows.
  • the NLP module analyzes the query and extracts important time periods and departments.
  • the G-MATRIX module generates a specific SQL query called “Sales of S Corporation Electric Business Division from 2023.1.1 to today” based on the analyzed data.
  • the generated SQL query is passed to the database and executed through the optimal database generation unit (i-META).
  • the execution results are organized in a data format such as Table A and provided to the user in the form of Template B.
  • the database comparison system by question classification and questioner classification of the present disclosure can efficiently manage sales data of a specific business division, such as the electric power division of a company, by using a natural language processing (NLP) algorithm, and provide a data service that converts a user's natural language query into a database (SQL) and extracts related information from the database.
  • NLP natural language processing
  • SQL database
  • the database comparison system by question classification and questioner classification of the present disclosure can provide an automated system that allows a user to request data in natural language and analyzes the data and converts it into an accurate SQL query.
  • the database comparison system by question classification and questioner classification of the present disclosure may include a module optimized for generating SQL queries and retrieving data for a specific department or period.
  • the result data of the database comparison system by question classification and questioner classification of the present disclosure can be provided in a user-customizable manner and can also generate visual reports through templates.
  • the database comparison system by question classification and questioner classification of the present disclosure can operate as follows.
  • a user inputs a natural language query such as "Show me the sales of the electric power division this year”
  • the system converts the query into "Sales of the electric power division of company S from 2023.1.1 to today,” and then executes an SQL query to derive a result.
  • the result is provided in the form of Table A, and is output to the user as visualized data using Template B.
  • the database comparison system by question classification and questioner classification of the present disclosure provides a convenient system that allows users to search for necessary data through natural language queries without having to understand a complex query language such as SQL, thereby allowing non-experts to easily access data, thereby efficiently managing sales and creating reports.
  • FIG. 5 is a flowchart illustrating information processing of a database comparison system by question classification and questioner classification of the present disclosure.
  • a database comparison system by question classification and questioner classification may be a data service system that analyzes a user's natural language query by combining natural language processing (NLP) technology and a large-scale language model (LLM) and provides an optimal response based on metadata.
  • NLP natural language processing
  • LLM large-scale language model
  • the database comparison system by question classification and questioner classification of the present disclosure can generate an SQL query by utilizing learned metadata and provide the result in real time.
  • the database comparison system by question classification and questioner classification of the present disclosure may be a system that receives a user's natural language query, learns metadata through a large-scale language model, and automatically generates an SQL query based on the metadata to retrieve data from a database.
  • the metadata is managed in an embedded vector store, and the system provides a response in real time through continuous query processing and a cache function.
  • the database comparison system by question classification and questioner classification of the present disclosure may be composed of a user, a result platform (AUD7 Platform), a transformation matrix (G-MATRIX), an optimal database generation unit (i-META), and an LLM (large-scale language model).
  • AUD7 Platform a result platform
  • G-MATRIX transformation matrix
  • i-META optimal database generation unit
  • LLM large-scale language model
  • the result platform passes the user's natural language query to the transformation matrix (G-MATRIX) and returns the result back to the user.
  • Transformation Matrix processes users' natural language queries to generate metadata and uses a large-scale language model (LLM) to transform natural language queries into embedded vector forms.
  • LLM large-scale language model
  • a large-scale language model converts a user's natural language query into metadata and passes the metadata to the optimal database generation unit (i-META), so that the optimal database generation unit (i-META) can use the learned data in the process of generating and optimizing SQL queries.
  • the optimal database generation unit configures templates based on metadata generated from the transformation matrix (G-MATRIX) and optimizes SQL queries.
  • Figure 6 is a flowchart illustrating a database comparison method by question classification and questioner classification of the present disclosure.
  • the database comparison method by question classification and questioner classification of the present disclosure may be composed of a question receiving and interpretation step (S1000), a natural language processing (NLP) step (S2000), and a database query generation step (S3000).
  • S1000 question receiving and interpretation step
  • NLP natural language processing
  • S3000 database query generation step
  • the question reception and interpretation step (S1000) receives a question written by a user in natural language and converts it into a form that the machine can understand.
  • NLP stage analyzes the question to understand its meaning, extracts keywords and context within the question, and converts it into a form that can be queried against the database.
  • the database query generation step (S3000) generates a database query based on the extracted keywords and analyzed context and returns results from the database.
  • the database comparison method by question classification and questioner classification of the present disclosure when a user inputs a query such as "What is the sales of the electric power division in 2023?", the system analyzes the query in the embedded vector store and generates meta information.
  • the transformation matrix (G-MATRIX) executes an SQL query based on the generated meta information, and the optimal database generation unit (i-META) provides the user with an optimized template. The result is responded to in real time in a streaming manner.
  • the database comparison method by question classification and questioner classification of the present disclosure can store meta information learned through a large-scale language model (LLM) in a vector store and provide an accurate response to a query based on the meta information.
  • LLM large-scale language model
  • the database comparison method by question classification and questioner classification of the present disclosure can provide a quick response by utilizing cache data related to a query, and ensure accuracy by checking the cached data in real time.
  • the database comparison method by question classification and questioner classification of the present disclosure can efficiently process data by considering the correlation with previous queries when a user continuously inputs queries. It can automatically generate SQL queries based on meta information, optimize them, and execute them in a database.
  • This method of comparing databases by question classification and questioner classification of the present disclosure can significantly shorten the data search and analysis process by processing natural language queries using a large-scale language model (LLM) and metadata and providing accurate data in real time, and can maximize efficiency through a cache function and a continuous query processing function.
  • LLM large-scale language model
  • FIG. 7 illustrates a general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
  • the computer program when executed by one or more processors, may cause the user to perform an action for authorization.
  • a data structure can refer to the organization, management, and storage of data that enables efficient access and modification of data.
  • a data structure can refer to the organization of data to solve a specific problem (e.g., data retrieval in the shortest time, data storage, data modification).
  • a data structure can also be defined as a physical or logical relationship between data elements designed to support a specific data processing function.
  • a logical relationship between data elements can include a connection relationship between user-defined data elements.
  • a physical relationship between data elements can include an actual relationship between data elements that are physically stored in a computer-readable storage medium (e.g., a persistent storage device).
  • a data structure can specifically include a set of data, a relationship between data, and a function or command that can be applied to the data.
  • An effectively designed data structure enables a computing device to perform operations while using minimal resources of the computing device. Specifically, a computing device can increase the efficiency of operations, reading, inserting, deleting, comparing, exchanging, and searching through an effectively designed data structure.
  • Data structures can be divided into linear data structures and nonlinear data structures depending on the form of the data structure.
  • a linear data structure can be a structure in which only one data is connected after another.
  • Linear data structures can include lists, stacks, queues, and deques.
  • a list can mean a series of data sets that have an internal order.
  • a list can include a linked list.
  • a linked list can be a data structure in which data is connected in a way that each data has a pointer and is connected in a single line. In a linked list, a pointer can include information on the connection to the next or previous data.
  • a linked list can be expressed as a singly linked list, a doubly linked list, or a circular linked list depending on its form.
  • a stack can be a data listing structure that allows limited access to data.
  • a stack can be a linear data structure in which data can be processed (e.g., inserted or deleted) only at one end of the data structure.
  • Data stored in a stack can be a data structure in which the later it enters, the sooner it comes out (LIFO - Last in First Out).
  • a queue is a data list structure that allows limited access to data, and unlike a stack, it can be a data structure in which data stored later comes out later (FIFO - First in First Out).
  • a deck can be a data structure that can process data at both ends of the data structure.
  • a nonlinear data structure can be a structure in which multiple data are connected behind one data.
  • a nonlinear data structure can include a graph data structure.
  • a graph data structure can be defined by vertices and edges, and an edge can include a line connecting two different vertices.
  • a graph data structure can include a tree data structure.
  • a tree data structure can be a data structure in which there is only one path connecting two different vertices among multiple vertices included in the tree. In other words, it can be a data structure that does not form a loop in a graph data structure.
  • the data structure may include data input to the neural network.
  • the data structure including the data input to the neural network may be stored in a computer-readable medium.
  • the data input to the neural network may include training data input during the neural network training process and/or input data input to the neural network after training is completed.
  • the data input to the neural network may include data that has undergone preprocessing and/or data that is the target of preprocessing.
  • the preprocessing may include a data processing process for inputting data to the neural network.
  • the data structure may include data that is the target of preprocessing and data generated by the preprocessing.
  • the above-described data structure is merely an example, and the present disclosure is not limited thereto.
  • the data structure may include weights of the neural network.
  • weights and parameters may be used with the same meaning.
  • the data structure including the weights of the neural network may be stored in a computer-readable medium.
  • the neural network may include a plurality of weights.
  • the weights may be variable and may be variable by a user or an algorithm so that the neural network may perform a desired function. For example, when one or more input nodes are interconnected to one output node by respective links, the output node may determine a data value output from the output node based on values input to the input nodes connected to the output node and weights set for links corresponding to each of the input nodes.
  • the above-described data structure is only an example, and the present disclosure is not limited thereto.
  • program modules include routines, programs, components, data structures, and the like that perform particular tasks or implement particular abstract data types.
  • program modules include routines, programs, components, data structures, and the like that perform particular tasks or implement particular abstract data types.
  • program modules include routines, programs, components, data structures, and the like that perform particular tasks or implement particular abstract data types.
  • Computers typically include a variety of computer-readable media. Any media that can be accessed by a computer can be a computer-readable media, and such computer-readable media includes both volatile and nonvolatile media, transitory and non-transitory media, removable and non-removable media.
  • computer-readable media can include computer-readable storage media and computer-readable transmission media.
  • Computer-readable storage media includes both volatile and nonvolatile media, transitory and non-transitory media, removable and non-removable media implemented in any method or technology for storing information such as computer-readable instructions, data structures, program modules or other data.
  • Computer-readable storage media includes, but is not limited to, RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disks (DVD) or other optical disk storage, magnetic cassettes, magnetic tape, magnetic disk storage or other magnetic storage devices, or any other medium that can be accessed by a computer and used to store the desired information.
  • Computer-readable transmission media typically includes any information delivery media that embodies computer-readable instructions, data structures, program modules, or other data in a modulated data signal, such as a carrier wave or other transport mechanism.
  • modulated data signal means a signal that has one or more of its characteristics set or changed so as to encode information in the signal.
  • computer-readable transmission media includes wired media, such as a wired network or direct-wired connection, and wireless media, such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.
  • An exemplary environment (1100) implementing various aspects of the present disclosure is illustrated, including a computer (1102) including a processing unit (1104), a system memory (1106), and a system bus (1108).
  • the system bus (1108) couples system components, including but not limited to the system memory (1106), to the processing unit (1104).
  • the processing unit (1104) may be any of a variety of commercially available processors. Dual processors and other multiprocessor architectures may also be utilized as the processing unit (1104).
  • the system bus (1108) may be any of several types of bus structures that may additionally be interconnected to a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures.
  • the system memory (1106) includes read-only memory (ROM) (1110) and random access memory (RAM) (1112).
  • ROM read-only memory
  • RAM random access memory
  • a basic input/output system (BIOS) is stored in nonvolatile memory (1110), such as ROM, EPROM, EEPROM, and the BIOS contains basic routines that help transfer information between components within the computer (1102), such as during start-up.
  • the RAM (1112) may also include high-speed RAM, such as static RAM, for caching data.
  • the computer (1102) also includes an internal hard disk drive (HDD) (1114) (e.g., EIDE, SATA)—which may also be configured for external use within a suitable chassis (not shown), a magnetic floppy disk drive (FDD) (1116) (e.g., for reading from or writing to a removable diskette (1118)), and an optical disk drive (1120) (e.g., for reading from or writing to a CD-ROM disk (1122) or other high capacity optical media such as a DVD).
  • the hard disk drive (1114), the magnetic disk drive (1116), and the optical disk drive (1120) may be connected to the system bus (1108) by a hard disk drive interface (1124), a magnetic disk drive interface (1126), and an optical drive interface (1128), respectively.
  • An interface (1124) for implementing an external drive includes at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.
  • drives and their associated computer-readable media provide nonvolatile storage of data, data structures, computer-executable instructions, and the like.
  • the drives and media correspond to storing any data in a suitable digital format. While the description of computer-readable media above has referred to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will appreciate that other types of media readable by a computer, such as zip drives, magnetic cassettes, flash memory cards, cartridges, and the like, may also be used in the exemplary operating environment, and that any such media may contain computer-executable instructions for performing the methods of the present disclosure.
  • a number of program modules including an operating system (1130), one or more application programs (1132), other program modules (1134), and program data (1136), may be stored in the drive and RAM (1112). All or portions of the operating system, applications, modules, and/or data may also be cached in RAM (1112). It will be appreciated that the present disclosure may be implemented in a variety of commercially available operating systems or combinations of operating systems.
  • a user may enter commands and information into the computer (1102) via one or more wired/wireless input devices, such as a keyboard (1138) and a pointing device such as a mouse (1140).
  • Other input devices may include a microphone, an IR remote control, a joystick, a game pad, a stylus pen, a touch screen, and the like.
  • These and other input devices are often connected to the processing unit (1104) via an input device interface (1142) that is coupled to the system bus (1108), but may be connected by other interfaces such as a parallel port, an IEEE 1394 serial port, a game port, a USB port, an IR interface, and the like.
  • user input in the present disclosure may mean any form of user input related to a user's request performed within a user interface (or within a web page).
  • the user input may include a user input of moving a pointer object.
  • the user input may include a user input of selecting a particular object on the user interface.
  • the user input may be made for an object (e.g., a module, a tab, etc.) by touching or clicking on the object.
  • a new object may be displayed on the user interface or the web page in response to the input, or the properties of the object may be changed and displayed.
  • user input may include information such as language, letters, numbers, and symbols entered by various input means.
  • User input is not limited to the examples described above, and various forms of user actions are possible, such as mouse cursor control, mouse wheel scroll, keyboard arrow keys, mouse clicks, and touch.
  • a monitor (1144) or other type of display device is also connected to the system bus (1108) via an interface, such as a video adapter (1146).
  • the computer typically includes other peripheral output devices (not shown) such as speakers, a printer, and the like.
  • the monitor (1144) or other type of display device may include at least one of a liquid crystal display (LCD), a thin film transistor-liquidcrystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, a 3D display, and an e-ink display.
  • the display unit then outputs (displays) data processed by the processor (110).
  • the computer (1102) may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) (1148), via wired and/or wireless communications.
  • the remote computer(s) (1148) may be a workstation, a computing device computer, a router, a personal computer, a portable computer, a microprocessor-based entertainment device, a peer device, or other conventional network node, and typically include many or all of the components described for the computer (1102), but for simplicity, only the memory storage device (1150) is shown.
  • the logical connections shown include wired/wireless connections to a local area network (LAN) (1152) and/or a larger network, such as a wide area network (WAN) (1154).
  • LAN and WAN networking environments are common in offices and companies, facilitating enterprise-wide computer networks, such as intranets, all of which can be connected to computer networks worldwide, such as the Internet.
  • the computer (1102) When used in a LAN networking environment, the computer (1102) is connected to the local network (1152) via a wired and/or wireless communications network interface or adapter (1156).
  • the adapter (1156) may facilitate wired or wireless communications to the LAN (1152), which may also include a wireless access point installed therein for communicating with the wireless adapter (1156).
  • the computer (1102) When used in a WAN networking environment, the computer (1102) may include a modem (1158), be connected to a communications computing device on the WAN (1154), or have other means for establishing communications over the WAN (1154), such as via the Internet.
  • the modem (1158) which may be internal or external and wired or wireless, is connected to the system bus (1108) via a serial port interface (1142).
  • program modules described for the computer (1102) or portions thereof may be stored in a remote memory/storage device (1150). It will be appreciated that the network connections depicted are exemplary and other means of establishing a communications link between the computers may be used.
  • the computer (1102) is configured to communicate with any wireless device or object that is configured and operates in wireless communication, such as a printer, a scanner, a desktop and/or portable computer, a portable data assistant (PDA), a communication satellite, any equipment or location associated with a wireless detectable tag, and a telephone.
  • wireless communication such as a printer, a scanner, a desktop and/or portable computer, a portable data assistant (PDA), a communication satellite, any equipment or location associated with a wireless detectable tag, and a telephone.
  • PDA portable data assistant
  • the communication may be a predefined structure as in a conventional network, or may simply be an ad hoc communication between at least two devices.
  • Wi-Fi Wireless Fidelity
  • Wi-Fi Wireless Fidelity
  • Wi-Fi is a wireless technology that allows devices, such as computers, to send and receive data indoors and outdoors, anywhere within the coverage area of a base station, just like cell phones.
  • Wi-Fi networks use a wireless technology called IEEE 802.11 (a, b, g, etc.) to provide secure, reliable, and high-speed wireless connections.
  • Wi-Fi can be used to connect computers to each other, to the Internet, and to wired networks (using IEEE 802.3 or Ethernet).
  • Wi-Fi networks can operate in the unlicensed 2.4 and 5 GHz radio bands, at data rates of, for example, 11 Mbps (802.11a) or 54 Mbps (802.11b), or in products that include both bands (dual band).
  • the computer (1102) may be implemented as a user terminal. Accordingly, the method according to one embodiment of the present disclosure may be borrowed without limitation for a terminal as hardware capable of loading software.
  • the user terminal described in the present disclosure may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC, a tablet PC, an ultrabook, a wearable device (e.g., a smartwatch, a smart glass, a head mounted display (HMD)), and the like.
  • the user terminal may include, but is not limited to, a device capable of inputting and outputting data by a user, a device capable of displaying data to the user, and a device capable of wired/wireless communication.
  • the computing device (100) may be a desktop, a laptop, a tablet PC, a portable terminal, and the like.
  • the various embodiments presented herein can be implemented as a method, an apparatus, or an article of manufacture using standard programming and/or engineering techniques.
  • article of manufacture includes a computer program, a carrier, or a medium accessible from any computer-readable storage device.
  • computer-readable storage media include, but are not limited to, magnetic storage devices (e.g., hard disks, floppy disks, magnetic strips, etc.), optical disks (e.g., CDs, DVDs, etc.), smart cards, and flash memory devices (e.g., EEPROMs, cards, sticks, key drives, etc.).
  • various storage media presented herein include one or more devices and/or other machine-readable media for storing information.
  • FIGS. 8 to 14 describe a device and a method for providing a data service using a group of questioners of the present disclosure in the present disclosure.
  • FIG. 8 is a diagram for explaining the configuration of a system for providing a data service according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram for explaining the configuration of a device for providing a data service according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram for explaining the detailed configuration of a device for providing a data service according to an embodiment of the present disclosure.
  • the data service system is a system that performs a data service that generates a query through a natural language processing algorithm for a natural language question, and provides an answer calculated by executing the generated query.
  • the data service system includes a user device (10), a service server (20), and a model server (30).
  • the model server (30) is a server on which a natural language processing (NLP) model is executed.
  • the model server (30) is illustrated as a device separate from the service server (20), but the natural language processing (NLP) model may operate in the service server (20), and in this case, the model server (30) may operate as a component of the service server (20).
  • the user device (10), service server (20), and model server (30) can transmit and receive data via a communication network.
  • the user device (10) inputs a natural language question to the service server (20) and receives an answer to the natural language question from the service server (20).
  • the natural language question can be input in the form of voice or text through an input unit provided by the user device (10).
  • the input unit can include a keypad, a touch screen, a microphone, etc.
  • the user device (10) is a communication terminal capable of communicating with the service server (20), and can be, for example, a personal computing system such as a smartphone, a laptop, a desktop, a handheld PC, or a tablet PC.
  • a user using a user device (10) may be a general user, but in this embodiment, may be a user belonging to a specific group.
  • the specific group is related to access rights to a database (DB). That is, access rights to a database (DB) may be set differently depending on the specific group to which the user belongs.
  • DB database
  • an answer to a natural language question may or may not be received depending on the specific group to which the user belongs.
  • the specific group may be classified by company, department, position, etc.
  • Information about the specific group to which the user belongs may be included in the user attribute information.
  • the user attribute information includes the user's personal information, information about the user device (10), and information about the specific group to which the user belongs.
  • the natural language processing model performs operations based on what has been learned on input information input from the service server (20) to generate a JSON (JavaScript Object Notation) question script containing information required for query generation, and returns it to the service server (20).
  • This natural language processing model may include an LLM (large language model) capable of inferring relationships between words in a large amount of text data.
  • LLM refers to an artificial intelligence model that can process a large amount of natural language data and generate answers that are often indistinguishable from text generated by humans. Examples of this LLM include OpenAI's GPT (Generative Pre-trained Transformer) series and Google's BERT (Bidirectional Encoder Representations from Transformers) model.
  • the natural language processing model (NLP) returns a JSON question script so that a query can be generated through an operation on input information such as keyword information, entity information, and item information input from a service server (20).
  • the JSON question script is a script for generating a query and includes, for example, commands for specifying templates, tables, columns, search conditions, etc.
  • the JSON question script may include a code that can generate a query.
  • the service server (20) is a server that processes data by communicating with the user device (10) and a natural language processing model (NLP), and may include, for example, an application server, a computing server, a database server, a file server, a proxy server, and a web server.
  • the service server (20) may be composed of one or more servers.
  • the service server (20) is basically intended to provide answers to user questions in natural language received from the user device (10). This will be described in more detail as follows.
  • the service server (20) includes an interface unit (IF), a computation unit (PM), and a database (DB).
  • IF interface unit
  • PM computation unit
  • DB database
  • the database (DB) stores data that can answer a user's question.
  • the database (DB) includes a vector DB that includes index terms for the stored data.
  • the vector DB can be provided to a natural language processing model (NLP) according to control.
  • the index terms can include table names and column names of the data.
  • the database (DB) can store previously received user questions, queries corresponding to the user questions, and execution plans corresponding to the queries.
  • the interface unit (IF) provides an environment in which the user device (10) can connect to the service server (20).
  • the user device (10) can input a natural language question through the interface unit (IF) and receive an answer to the input natural language question. That is, the interface unit (IF) receives a natural language question from the user device (10), provides it to the operation unit (PM), and returns an answer to the natural language question from the operation unit (PM) to the user device (10). That is, the interface unit (IF) can perform the function of the platform of the service server (20).
  • the operation unit (PM) generates a query based on a user question, executes the generated query on a database (DB), obtains an answer, and returns it to the user device (10) through the interface unit (IF).
  • the operation unit (PM) can derive a JSON question script through a natural language processing model (NLP) and generate a query (SQL) from the JSON question script.
  • NLP natural language processing model
  • SQL query
  • the operation unit (PM) includes a natural language processing unit (100), a DB analysis unit (200), an execution unit (300), a questioner group processing unit (400), a matching unit (500), and a feedback processing unit (600).
  • the natural language processing unit (100) When the natural language processing unit (100) receives a user question in natural language based on a user input from the user device (10) through the interface unit (IF), it can extract keyword information and the intent of the question from the user question and extract entity information of the user of the previously stored user device (10).
  • the entity information can include personal information of the user, information of the user device (10), and information about a specific group (e.g., company, department, position, etc.) to which the user belongs.
  • the DB analysis unit (200) can create a search target list by searching a database (DB) for a table of the search target, a column of the table, and multiple items including data of the column based on the user's entity information and keyword information.
  • the DB analysis unit (200) calculates a search similarity score, which is a similarity between the keyword information and multiple items of the search target list, in step S130.
  • a higher search similarity score means that the user knows more about the structure of the searched database and is a suitable user.
  • the execution unit (300) can provide a search target list to the user device (10) and receive item information representing an item selected by the user from the search target list from the user device (10). At this time, the execution unit (300) can measure time information, which is the time taken for the user to select an item from the search target list, according to the time taken until the search target list is provided and the item information representing the item selected by the user is received.
  • time information which is the time taken for the user to select an item from the search target list, according to the time taken until the search target list is provided and the item information representing the item selected by the user is received.
  • the execution unit (300) inputs keyword information, entity information, and item information into a natural language processing model (NLP)
  • the natural language processing model (NLP) can perform learned operations on the keyword information, entity information, and item information to derive a JSON question script.
  • the execution unit (300) can generate a query based on the JSON question script, generate an execution plan corresponding to the generated query for a database (DB), and execute the query according to the generated execution plan to receive an answer corresponding to the user's question from the database (DB). Then, the execution unit (300) can transmit the answer to the user device (10) through the interface unit (IF).
  • the questioner cluster processing unit (400) can create a questioner cluster based on entity information corresponding to multiple user questions, search similarity scores, item information indicating an item selected by the user from a search target list, and time information indicating the time taken by the user to select an item from the search target list after a query is executed for multiple user questions.
  • the questioner group processing unit (400) can identify the questioner group to which the user question belongs based on entity information corresponding to the new user question, search similarity score, item information indicating an item selected by the user from the search target list, and time information indicating the time taken by the user to select an item from the search target list after the query is executed.
  • the matching unit (500) can extract a plurality of similar questions having a similarity level with the user question that is greater than a predetermined value from a question list including a plurality of user questions belonging to a questioner group identified as the user's user question, thereby deriving a customized question list, and provide the derived customized question list to the user device (10).
  • the feedback processing unit (600) can receive feedback information, which is information about the user's preference or dislike (e.g., 'like' or 'dislike') for each of a plurality of similar questions in the customized question list from the user device (10). Then, the feedback processing unit (600) can retrain a natural language processing model (NLP) using the feedback information from the user device (10). Alternatively, the feedback processing unit (600) can update the customized question list and provide it to the user device (10) again.
  • feedback information is information about the user's preference or dislike (e.g., 'like' or 'dislike') for each of a plurality of similar questions in the customized question list from the user device (10). Then, the feedback processing unit (600) can retrain a natural language processing model (NLP) using the feedback information from the user device (10). Alternatively, the feedback processing unit (600) can update the customized question list and provide it to the user device (10) again.
  • NLP natural language processing model
  • FIG. 11 is a flowchart for explaining a method for collecting data for forming a group of questioners in a data provision service according to an embodiment of the present disclosure.
  • FIG. 12 is a flowchart for explaining a method for generating a plurality of groups of questioners in a data provision service according to an embodiment of the present disclosure.
  • the natural language processing unit (100) can receive a user question in natural language based on user input from the user device (10) through the interface unit (IF) at step S110.
  • the natural language processing unit (100) can extract keyword information and the intent of the question from the user question at step S120.
  • the natural language processing unit (100) can extract entity information of the user of the user device (10) that has been previously stored at step S120.
  • the entity information can include personal information of the user, information of the user device (10), and information about a specific group (e.g., company, department, position, etc.) to which the user belongs.
  • the DB analysis unit (200) can create a search target list by searching for a table of the search target, a column of the table, and multiple items including data of the column based on the user's entity information and keyword information in step S130 in the database (DB).
  • the DB analysis unit (200) calculates a search similarity score, which is a similarity between the keyword information and multiple items of the search target list in step S130.
  • a higher search similarity score means that the user knows more about the structure of the searched database and is a suitable user.
  • the execution unit (300) provides a search target list to the user device (10) at step S140, and receives item information indicating an item selected by the user from the search target list from the user device (10) at step S150.
  • the execution unit (300) can measure time information, which is the time taken by the user to select an item from the search target list, based on the time taken until the search target list is provided and the item information indicating the item selected by the user is received.
  • the execution unit (300) can generate a query using a natural language processing model (NLP) based on the items selected by the user and execute the generated query. This is described in more detail as follows.
  • NLP natural language processing model
  • the execution unit (300) When the execution unit (300) inputs keyword information, entity information, and item information into a natural language processing model (NLP) at step S160, the natural language processing model (NLP) performs learned operations on the keyword information, entity information, and item information to derive a JSON question script.
  • the JSON question script is a script for generating a query, and includes, for example, commands for specifying templates, tables, columns, search conditions, etc.
  • the execution unit (300) generates a query based on the JSON query script at step S170, generates an execution plan corresponding to the generated query for the database (DB), and executes the query according to the generated execution plan to receive an answer corresponding to the user's question from the database (DB). Then, the execution unit (300) transmits the answer to the user device (10) through the interface unit (IF) at step S180.
  • the questioner group processing unit (400) mutually maps and stores entity information corresponding to the plurality of user questions, a search similarity score, item information indicating an item selected by the user from the search target list, and time required information indicating the time required for the user to select an item from the search target list at step S210.
  • the questioner group processing unit (400) generates multiple questioner vectors by mapping entity information, search similarity scores, item information, and required time information corresponding to multiple user questions to a predetermined vector space in step S220.
  • the questioner cluster processing unit (400) can perform clustering on multiple questioner vectors using a clustering algorithm at step S230 to create multiple questioner clusters.
  • Fig. 13 is a flowchart for explaining a method for providing a data service using a group of questioners according to an embodiment of the present disclosure.
  • the natural language processing unit (100) can receive a user question in natural language based on user input from the user device (10) through the interface unit (IF) at step S310.
  • the natural language processing unit (100) can extract keyword information and the intent of the question from the user question at step S320.
  • the natural language processing unit (100) can extract entity information of the user of the user device (10) that is previously stored at step S320.
  • the DB analysis unit (200) can create a search target list by searching for a table of the search target, a column of the table, and multiple items including data of the column based on the user's entity information and keyword information in the database (DB) at step S330.
  • the DB analysis unit (200) calculates a search similarity score, which is the similarity between the keyword information and multiple items of the search target list at step S330.
  • the execution unit (300) provides a search target list to the user device (10) at step S340, and receives item information indicating an item selected by the user from the search target list from the user device (10) at step S350.
  • the execution unit (300) can measure the time required for the user to select an item from the search target list based on the time required to provide the search target list and receive item information indicating an item selected by the user.
  • the execution unit (300) can generate a query using a natural language processing model (NLP) based on the item selected by the user at step S360, and execute the generated query to provide an answer to the user device (10).
  • NLP natural language processing model
  • the execution unit (300) generates a query based on the JSON question script, generates an execution plan corresponding to the generated query for a database (DB), and executes the query according to the generated execution plan to receive an answer corresponding to the user's question from the database (DB). Subsequently, the execution unit (300) transmits the answer to the user device (10) through the interface unit (IF).
  • the questioner group processing unit (400) identifies a questioner group corresponding to the user question at step S370. To this end, the questioner group processing unit (400) can identify a questioner group to which the user question belongs based on entity information, search similarity score, item information, and time required information.
  • the questioner group processing unit (400) generates a questioner vector of the user question by mapping entity information, search similarity score, item information, and required time information corresponding to the user question to a predetermined vector space. Then, the questioner group processing unit (400) identifies the questioner group to which the user question belongs based on the distance between the clustering center of a plurality of questioner groups and the questioner vector of the user question in the vector space.
  • the questioner group processing unit (400) can identify the questioner group that has the closest distance between the clustering center of a plurality of questioner groups and the questioner vector of the user question in the vector space and is within a predetermined distance as the questioner group to which the user question of the corresponding user belongs.
  • the matching unit (500) extracts a plurality of similar questions having a similarity level higher than a predetermined value with the user question from a question list including a plurality of user questions belonging to a questioner group identified as the user question of the corresponding user in step S380, thereby deriving a customized question list, and provides the derived customized question list to the user device (10).
  • the feedback processing unit (600) can receive feedback information, which is information about the user's preference or dislike (e.g., 'like' or 'dislike') for each of a plurality of similar questions in the customized question list, from the user device (10) at step S390.
  • feedback information which is information about the user's preference or dislike (e.g., 'like' or 'dislike') for each of a plurality of similar questions in the customized question list, from the user device (10) at step S390.
  • the feedback processing unit (600) can retrain the natural language processing model (NLP) using the feedback information from the user device (10) at step S400. Alternatively, the feedback processing unit (600) can update the customized question list and provide it to the user device (10) again.
  • NLP natural language processing model
  • FIG. 14 is an example diagram of a hardware system for implementing a device for providing a data service using a group of questioners according to one embodiment of the present disclosure.
  • a hardware system (2000) may have a configuration including a processor unit (2100), a memory interface unit (2200), and a peripheral interface unit (2300).
  • Each component within the hardware system (2000) may be an individual component or integrated into one or more integrated circuits, and each of these components may be connected by a bus system (not shown).
  • bus system it is an abstraction representing any one or more individual physical buses, communication lines/interfaces, and/or multi-drop or point-to-point connections connected by appropriate bridges, adapters, and/or controllers.
  • the processor unit (2100) communicates with the memory unit (2210) through the memory interface unit (2200) to perform various functions in the hardware system, thereby executing various software modules stored in the memory unit (2210).
  • each of the components including the natural language processing unit (100), the DB analysis unit (200), the execution unit (300), the questioner group processing unit (400), the matching unit (500), and the feedback processing unit (600) can be stored in the form of a software module, and an operating system (OS) can be additionally stored.
  • the components including the natural language processing unit (100), the DB analysis unit (200), the execution unit (300), the questioner group processing unit (400), the matching unit (500), and the feedback processing unit (600) can be loaded onto the processor unit (2100) and executed.
  • Each component including the natural language processing unit (100), DB analysis unit (200), execution unit (300), questioner group processing unit (400), matching unit (500), and feedback processing unit (600) described above may be implemented in the form of a software module or hardware module executed by a processor, or may also be implemented in the form of a combination of software modules and hardware modules.
  • software modules, hardware modules, or a combination of software modules and hardware modules executed by the processor may be implemented as an actual hardware system (e.g., a computer system).
  • an operating system e.g., I-OS, Android, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, or an embedded operating system such as VxWorks
  • an operating system e.g., I-OS, Android, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, or an embedded operating system such as VxWorks
  • general system tasks e.g., memory management, storage device control, power management, etc.
  • the memory unit (2210) may include a memory hierarchy including, but not limited to, cache, main memory, and secondary memory, which may be implemented through any combination of, for example, RAM (e.g., SRAM, DRAM, DDRAM), ROM, FLASH, magnetic and/or optical storage devices (e.g., disk drives, magnetic tapes, compact disks (CDs), and digital video discs (DVDs)).
  • RAM e.g., SRAM, DRAM, DDRAM
  • ROM e.g., ROM, FLASH, magnetic and/or optical storage devices (e.g., disk drives, magnetic tapes, compact disks (CDs), and digital video discs (DVDs)).
  • CDs compact disks
  • DVDs digital video discs
  • the peripheral interface unit (2300) performs the role of enabling communication between the processor unit (2100) and the peripheral device.
  • a communication unit (2310) may be included.
  • the communication unit (2310) performs a role of providing a communication function with other devices, and for this purpose, includes, but is not limited to, an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, and a memory, and may include a known circuit that performs this function.
  • the communication protocols supported by the communication unit (2310) include, for example, Wireless LAN (WLAN), Digital Living Network Alliance (DLNA), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G communication system, Wireless Mobile Broadband Service (WMBS), Bluetooth, and Radio Frequency Identification (RFID).
  • WLAN Wireless LAN
  • DLNA Digital Living Network Alliance
  • Wibro Wireless Broadband
  • Wibro World Interoperability for Microwave Access
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • wireless communication networks may include wireless Identification, Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, Near Field Communication (NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, and Wi-Fi Direct.
  • wired communication networks may include wired Local Area Networks (LANs), wired Wide Area Networks (WANs), Power Line Communications (PLC), USB communication, Ethernet, serial communication, optical/coaxial cables, and so on. Any protocol that can provide a communication environment with other devices may be included, rather than being limited thereto.
  • each configuration stored in the form of a software module in the memory unit (2210) performs an interface with the communication unit (2310) through the memory interface unit (2200) and the peripheral device interface unit (2300) in the form of a command executed by the processor unit (2100).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 사용자가 입력한 자연어 질문을 수신하여 분석하고, 질문의 유형을 분류하는 질문 수신 및 분류 모듈; 사용자의 프로필과 과거 상호작용 기록을 바탕으로 사용자 맞춤형 쿼리를 생성하는 사용자 프로파일링 및 질문자 분류 모듈; 질문이 분류된 후 해당 질문에 맞는 메타데이터를 벡터 데이터베이스에서 검색하는 메타데이터 검색 및 대규모 언어 모델 연동 모듈; 대규모 언어 모델 연동 모듈로부터 생성된 메타 언어를 기반으로 최적화된 데이터베이스 쿼리를 자동으로 생성하는 데이터베이스 비교 및 생성 모듈; 생성된 데이터베이스 쿼리를 데이터베이스에 전달하여 결과를 검색하고 데이터 처리 모듈을 통해 처리된 데이터를 사용자에게 적합한 형식으로 응답이 변환되어 제공하는 데이터 처리 및 출력 모듈;을 포함한다.

Description

질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법
본 개시는 자연어 처리(NLP) 분야에 관한 것으로, 질문 분류, 사용자 프로파일링, 대규모 언어 모델(LLM)을 활용한 최적화된 데이터베이스 쿼리 생성을 통해 데이터베이스 쿼리 프로세스를 최적화하는 질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법에 관한 것으로, 상세하게는 질문자군을 이용한 데이터 서비스를 제공하고, 벡터 데이터베이스로부터 메타데이터를 추출하여 개인화된 응답을 제공하고, 효율적인 데이터 검색을 보장하는 질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법을 제공한다.
현대의 기업들은 방대한 양의 데이터를 축적하고 있으며, 이를 효과적으로 관리하고 분석하는 것은 기업 경쟁력의 핵심 요소로 부상하고 있다. 대부분의 데이터베이스 시스템은 모든 사용자에게 동일한 메타데이터 구조를 제공한다.
특허문헌 1(대한민국 등록특허공보 제 10-2094934 호)은 비정형 문서의 문장이나 단락을 분석하여 의미에 따라 문서를 분류 및 색인하여 질의어에 대한 응답을 제공하는 자연어 질의 응답 시스템 및 방법이 개시되어 있다.
이러한 종래의 자연어 질의 응답 시스템 및 방법은 주로 사용자의 자연어 질문을 분석하여 해당 질문을 데이터베이스 쿼리 언어로 변환하는 데 초점을 맞추고 있으며, 종래 기술의 대부분의 자연어 질의 응답 시스템은 사용자 개별 프로파일이나 과거 상호작용을 반영하지 않고, 동일한 질문에 대해 모든 사용자에게 동일한 결과를 제공함으로 인하여 사용자 맞춤형 쿼리 생성이 어려워지고, 최적화된 결과를 얻기 힘들다. 또한, 자연어 질문을 단순히 구조적 쿼리 언어로 변환하는 과정에서 복잡한 문맥이나 의미를 충분히 반영하지 못하는 경우가 있다. 예를 들어, 다의어나 복합적 질문의 경우 시스템이 올바르게 해석하지 못하여 부정확한 쿼리가 생성될 수 있다. 또한, 종래의 자연어 질의 응답 시스템은 주로 간단한 질의나 기본적인 데이터 검색에 유용하며, 복잡한 데이터 검색이나 다중 데이터 소스를 통합하는 고급 질의에 대한 처리가 미흡하다. 또한, 사용자가 명확하게 정의하지 않은 조건이나 모호한 질문을 처리하는 데 한계가 있었다.
한편, 최근에 인공지능과 머신러닝 기술을 활용하여 데이터베이스 관리와 데이터 분석을 고도화하려는 시도가 증가하고 있으며,이러한 인공지능과 머신러닝 기술을 활용하여 사용자가 자연어로 입력한 질문을 이해하고, 해당하는 데이터를 제공하는 자연어 처리(NLP) 기반 질의응답 시스템이 개발되고 있으나, 사용자 의도와 도메인 정보를 충분히 반영하지 못하는 경우가 많았다. 이에 대해 사용자 행동 패턴을 분석하여 필요한 정보를 추천하는 추천 시스템 기능이 도입되고 있으나, 추천 시스템은 주로 콘텐츠 소비 분야에 집중되어 있었다. 또한, 데이터베이스 쿼리의 성능을 향상시키기 위한 자동화된 튜닝 도구가 존재하지만, 사용자 맞춤형 데이터 제공과는 거리가 있었다.
[선행기술문헌]
[특허문헌]
(특허문헌 1) 대한민국 등록특허공보 제10-2094934호
(특허문헌 2) 대한민국 등록특허공보 제10-1987915호
본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 본 개시는 질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법을 제공한다.
즉 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법은 사용자 맞춤형 데이터 검색을 실현하기 위한 변환 매트릭스 시스템을 개발하는 데 있다. 이를 통해 사용자 질의에 대해 더 높은 정확성과 효율성을 제공하며, 시스템의 자동화 및 최적화를 통해 데이터베이스 쿼리 성능을 향상시키는 것이다. 이 시스템은 특히 사용자별로 상이한 맥락과 필요에 맞춘 최적의 데이터베이스 쿼리를 자동으로 생성하는 것을 목적으로 한다.
본 발명의 다른 목적은 질문자군을 이용한 데이터 서비스를 제공하기 위한 장치 및 이를 위한 방법을 제공함에 있다.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 과제를 해결하기 위한 몇몇 실시예에 따른 컴퓨팅 장치에 의해 수행되는 방법으로, 상기와 같은 목적을 달성하기 위한 본 개시의 일 측면에 따른 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 장치는, 프로세서(processor); 및 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory); 를 포함하고, 상기 적어도 하나의 명령은 상기 프로세서가: 사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환하는 질문 수신 및 해석 단계; 질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환하는 자연어 처리 단계; 및 추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는 데이터베이스 쿼리 생성 단계; 를 수행하도록 구성될 수 있다.
본 개시의 일 측면에 따른 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 사용자가 입력한 자연어 질문을 수신하여 분석하고, 질문의 유형을 분류하는 질문 수신 및 분류 모듈; 사용자의 프로필과 과거 상호작용 기록을 바탕으로 사용자 맞춤형 쿼리를 생성하는 사용자 프로파일링 및 질문자 분류 모듈; 질문이 분류된 후, 해당 질문에 맞는 메타데이터를 벡터 데이터베이스에서 검색하는 메타데이터 검색 및 대규모 언어 모델 연동 모듈; 대규모 언어 모델 연동 모듈로부터 생성된 메타 언어를 기반으로 최적화된 데이터베이스 쿼리를 자동으로 생성하는 데이터베이스 비교 및 생성 모듈; 및 생성된 데이터베이스 쿼리를 데이터베이스에 전달하여 결과를 검색하고, 데이터 처리 모듈을 통해 처리된 데이터를 사용자에게 적합한 형식으로 응답이 변환되어 제공하는 데이터 처리 및 출력 모듈;을 포함할 수 있다.
질문 수신 및 분류 모듈은 질문이 데이터 검색, 계산 요청, 또는 보고서 생성 작업에 해당하는지를 결정하며, 사용자의 의도와 요구 사항을 기반으로 적절한 질문 유형을 파악할 수 있다.
사용자 프로파일링 및 질문자 분류 모듈은 사용자가 이전에 어떤 데이터를 요청했는지, 데이터를 어떻게 처리했는지의 정보를 분석하여 사용자별로 최적화된 쿼리를 생성할 수 있다.
메타데이터 검색 및 대규모 언어 모델 연동 모듈은 검색된 메타데이터는 대규모 언어 모델(LLM)에 입력되어 이를 메타 언어로 변환하고, 대규모 언어 모델(LLM)은 이를 바탕으로 질문에 적합한 응답을 생성할 수 있다.
데이터베이스 비교 및 생성 모듈은, 대규모 언어 모델(LLM)으로부터 생성된 메타 언어를 기반으로 최적화된 데이터베이스 쿼리를 자동으로 생성하고, 사용자의 프로파일, 권한, 과거 쿼리 및 상호작용 이력을 고려하여 데이터베이스 쿼리를 최적화하고, 사용자의 이전 쿼리와 비교 분석을 통해 향상된 성능과 정확도를 제공하는 개선된 데이터베이스를 생성할 수 있다.
본 개시의 다르 측면에 따른 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법은, 사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환하는 질문 수신 및 해석 단계; 질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환하는 자연어 처리 단계; 및 추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는 데이터베이스 쿼리 생성 단계; 를 포함할 수 있다.
본 개시의 다른 측면에 따른 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법은, 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법으로서, 사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환하는 질문 수신 및 해석 단계; 질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환하는 자연어 처리 단계; 및 추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는 데이터베이스 쿼리 생성 단계; 를 포함할 수 있다.
상기 방법은, 메타 데이터를 기반으로 한 최종 결과는 스트리밍 방식으로 사용자에게 실시간으로 전달되는 결과 제공 단계를 더 포함할 수 있다.
본 개시의 또 다른 타 측면에 따른 컴퓨터 판독가능 저장 매체에 저장되는 컴퓨터 프로그램은, 컴퓨터 판독가능 저장 매체에 저장되는 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에 의해 실행되는 경우 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법을 수행하며, 상기 방법은, 사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환하는 질문 수신 및 해석 단계; 질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환하는 자연어 처리 단계; 및 추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는 데이터베이스 쿼리 생성 단계;를 포함할 수 있다.
본 발명의 실시예에 따른 데이터 서비스를 제공하기 위한 방법은 자연어 처리부가 사용자장치로부터 사용자의 입력에 따라 자연어로 이루어진 사용자 질문이 수신되면, 상기 사용자 질문으로부터 키워드 정보를 추출하는 단계와, DB분석부가 상기 사용자의 엔티티 정보 및 상기 키워드 정보를 기초로 데이터베이스에서 검색 대상의 테이블, 컬럼 및 데이터를 포함하는 복수의 항목을 검색하여 검색 대상 리스트를 작성하면서, 상기 키워드 정보와 상기 검색 대상 리스트의 복수의 항목 간의 검색 유사도 점수를 산출하는 단계와, 실행부가 사용자장치에 상기 검색 대상 리스트를 제공하여 사용자장치로부터 상기 검색 대상 리스트에서 사용자가 선택한 항목을 나타내는 항목 정보를 수신하는 단계와, 상기 실행부가 상기 사용자가 선택한 항목을 기초로 자연어처리모델(NLP)을 이용하여 쿼리를 생성하고, 생성된 쿼리를 실행하는 단계와, 질문자군처리부가 상기 엔티티 정보, 상기 검색 유사도 점수, 상기 항목 정보 및 사용자가 상기 검색 대상 리스트에서 항목을 선택하기까지 소요된 시간인 소요 시간 정보를 기초로 상기 사용자 질문이 속한 질문자군을 식별하는 단계와, 매칭부가 질문자군의 질문 목록에서 상기 사용자 질문과의 유사도가 소정 수치 이상인 복수의 유사 질문을 포함하는 맞춤형 질문 목록을 도출하여 상기 사용자장치에 제공하는 단계를 포함한다.
상기 방법은 상기 키워드 정보를 추출하는 단계 전, 복수의 사용자장치로부터 자연어로 이루어진 사용자 질문이 수신될 때마다, 상기 질문자군처리부가 복수의 사용자 질문에 대응하는 상기 엔티티 정보, 상기 검색 유사도 점수, 상기 항목 정보 및 상기 소요 시간 정보를 상호 매핑하여 저장하는 단계와, 상기 질문자군처리부가 복수의 사용자 질문에 대응하는 상기 엔티티 정보, 상기 검색 유사도 점수, 상기 항목 정보 및 상기 소요 시간 정보를 소정의 벡터 공간에 사상하여 복수의 질문자 벡터를 생성하는 단계와, 복수의 질문자 벡터에 대해 군집화 알고리즘을 이용하여 군집화를 수행하여 복수의 질문자군을 생성하는 단계를 더 포함한다.
상기 질문자군을 식별하는 단계는 상기 질문자군처리부가 상기 사용자 질문에 대응하는 상기 엔티티 정보, 상기 검색 유사도 점수, 상기 항목 정보 및 상기 소요 시간 정보를 소정의 벡터 공간에 사상하여 상기 사용자 질문의 질문자 벡터를 생성하는 단계와, 상기 질문자군처리부가 상기 벡터 공간 상에서 복수의 질문자군의 군집화 중심과 상기 사용자 질문의 질문자 벡터와의 거리에 따라 상기 사용자 질문이 속한 질문자군을 식별하는 단계를 포함한다.
상기 방법은 상기 사용자장치에 제공하는 단계 후, 피드백처리부가 사용자장치로부터 상기 맞춤형 질문 목록의 상기 복수의 유사 질문 각각에 대한 사용자의 선호 혹은 불호에 대한 정보인 피드백 정보를 수신하는 단계와, 상기 피드백처리부가 사용자장치로부터 상기 피드백 정보를 이용하여 자연어처리모델(NLP)을 재학습시키는 단계를 더 포함한다.
상기 생성된 쿼리를 실행하는 단계는 상기 실행부가 상기 키워드 정보, 상기 엔티티 정보 및 상기 항목 정보를 자연어처리모델(NLP)에 입력하는 단계와, 상기 실행부가 상기 자연어처리모델(NLP)이 상기 키워드 정보, 상기 엔티티 정보 및 항목 정보에 상응하는 JSON 질문 스크립트를 도출하는 단계와, 상기 실행부가 상기 JSON 질문 스크립트를 기초로 쿼리를 생성하는 단계와, 상기 실행부가 상기 생성된 쿼리를 실행하는 단계를 포함한다.
본 발명의 실시예에 따른 데이터 서비스를 제공하기 위한 장치는 사용자장치로부터 사용자의 입력에 따라 자연어로 이루어진 사용자 질문이 수신되면, 상기 사용자 질문으로부터 키워드 정보를 추출하는 자연어처리부와, 상기 사용자의 엔티티 정보 및 상기 키워드 정보를 기초로 데이터베이스에서 검색 대상의 테이블, 컬럼 및 데이터를 포함하는 복수의 항목을 검색하여 검색 대상 리스트를 작성하면서, 상기 키워드 정보와 상기 검색 대상 리스트의 복수의 항목 간의 검색 유사도 점수를 산출하는 DB분석부와, 사용자장치에 상기 검색 대상 리스트를 제공하여 사용자장치로부터 상기 검색 대상 리스트에서 사용자가 선택한 항목을 나타내는 항목 정보를 수신하고, 상기 사용자가 선택한 항목을 기초로 자연어처리모델(NLP)을 이용하여 쿼리를 생성하고, 생성된 쿼리를 실행하는 실행부와, 상기 엔티티 정보, 상기 검색 유사도 점수, 상기 항목 정보 및 사용자가 상기 검색 대상 리스트에서 항목을 선택하기까지 소요된 시간인 소요 시간 정보를 기초로 상기 사용자 질문이 속한 질문자군을 식별하는 질문자군처리부와, 질문자군의 질문 목록에서 상기 사용자 질문과의 유사도가 소정 수치 이상인 복수의 유사 질문을 포함하는 맞춤형 질문 목록을 도출하여 상기 사용자장치에 제공하는 매칭부를 포함한다.
본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법은 자연어 질문을 기반으로 질문과 질문자를 분류하고, 이를 통해 최적화된 데이터베이스 쿼리를 생성 및 비교하여 데이터베이스에서 정확하고 효율적인 데이터 검색을 가능하게 한다는 점에서 다음과 같은 효과를 제공한다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법은 사용자 프로파일링을 통해 각 사용자의 요구에 맞춘 SQL 쿼리를 생성함으로써 개인화된 응답을 제공한다. 이를 통해 사용자는 필요한 데이터만 신속하게 얻을 수 있다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법은 LLM 및 벡터 데이터베이스를 통해 생성된 메타 언어 기반 SQL 쿼리는 이전 쿼리와 비교 분석되며, 이를 통해 지속적으로 성능을 개선하여 더 빠르고 정확한 데이터 검색이 가능하다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법은 복잡한 자연어 질문을 효과적으로 처리할 수 있으며, 다의어나 복잡한 문맥을 포함한 질문에도 높은 정확도의 쿼리 생성을 제공한다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법은 최적화된 SQL 쿼리를 통해 불필요한 데이터 검색을 최소화하고, 데이터베이스 처리 시간을 단축하여 전체 시스템의 효율성을 높인다.
이를 통해, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법은 데이터베이스 쿼리 처리 성능을 극대화하고, 사용자 경험을 크게 개선하는 효과를 제공한다.
본 개시에 따르면, 질문자군에 따른 추천 질문을 제공함으로써 쿼리의 정확성과 사용자 편의성을 극대화할 수 있다.
본 개시의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수있음은 명백할 것이다. 다른 예시들에서, 공지의 구조들 및 장치들이 하나 이상의 양상들의 기재를 용이하게 하기 위해 블록도 형태로 도시된다.
도 1은 본 개시의 일 실시예에 따른 컴퓨팅 장치를 설명하기 위한 블록 구성도이다.
도 2는 본 개시의 실시 예에 따른 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 구성을 도시한 블록도이다.
도 3은 본 개시의 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 구성도이다.
도 4는 본 개시의 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 작동의 예시를 설명하기 위한 모식도이다.
도 5는 본 개시의 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 정보 처리를 도시한 흐름도이다.
도 6은 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법을 도시한 흐름도이다.
도 7에서는 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.
도 8은 본 개시의 실시예에 따른 데이터 서비스를 제공하기 위한 시스템의 구성을 설명하기 위한 도면이다.
도 9는 본 개시의 실시예에 따른 데이터 서비스를 제공하기 위한 장치의 구성을 설명하기 위한 도면이다.
도 10은 본 개시의 실시예에 따른 데이터 서비스를 제공하기 위한 장치의 세부 구성을 설명하기 위한 도면이다.
도 11은 본 개시의 실시예에 따른 데이터 제공 서비스에서 질문자군을 형성하기 위한 데이터를 수집하는 방법을 설명하기 위한 흐름도이다.
도 12는 본 개시의 실시예에 따른 데이터 제공 서비스에서 복수의 질문자군을 생성하는 방법을 설명하기 위한 흐름도이다.
도 13은 본 개시에 실시예에 따른 질문자군을 이용한 데이터 서비스를 제공하기 위한 방법을 설명하기 위한 흐름도이다.
도 14는 본 개시의 일 실시예에 따른 질문자군을 이용한 데이터 서비스를 제공하기 위한 장치를 구현하기 위한 하드웨어 시스템의 예시도이다.
다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.
본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만,이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.
이하의 설명에서 사용되는 구성 요소에 대한 접미사 “모듈” 및 “부”는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
더불어, 본 명세서에서 사용되는 용어 "정보" 및 "데이터"는 종종 서로 상호교환 가능하도록 사용될 수 있다.
어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 “직접 연결되어” 있다거나 “직접접속되어”있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
이하, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는설명은 생략한다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다.
그리고, “A 또는 B 중 적어도 하나”이라는 용어는, “A만을 포함하는 경우”, “B 만을 포함하는 경우”, “A와 B의 구성으로 조합된 경우”를 의미하는 것으로 해석되어야 한다.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인시스템에 부과된 특정 애플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정애플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.
제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을가진 자에게 명백할 것이다. 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예 들로 한정되는 것이 아니다. 본 개시는 여기에제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.
[질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법]
이하, 도 1 내지 도 7 에서는 본 개시에서 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법에 대해 설명한다.
도 1은 본 개시의 일 실시예에 따른 컴퓨팅 장치를 설명하기 위한 블록 구성도이다.
도 1을 참조하면, 도 1에 도시된 컴퓨팅 장치(100)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 일례로, 컴퓨팅 장치(100)는 컴퓨팅 장치(100)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 컴퓨팅 장치(100)를 구성할 수도 있다.
컴퓨팅 장치(100)는 프로세서(110), 메모리(130), 네트워크부(150)를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 통상적으로 컴퓨팅 장치(100)의 동작 및 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 예를 들어, 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서 (microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
상기 프로세서(110)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit)를 포함할 수 있다. 또한, 범용 그래픽 처리 장치(GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 더 포함할 수 있다.
본 개시의 일 실시예에 따르면, 메모리(130)는 프로세서(110)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(150)가 수신한 임의의 형태의 정보를 저장할 수 있다.
본 개시의 일 실시예에 따르면, 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따른 네트워크부(150)는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.
또한, 본 명세서에서 제시되는 네트워크부(150)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.
본 개시에서 네트워크부(150)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(LAN: Local Area Network), 개인 통신망(PAN: Personal Area Network), 광역 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.
본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.
본 명세서에서, 데이터베이스는, ORACLE(오라클), Postgre데이터베이스(SQL)(포스트그레스큐엘), My데이터베이스(SQL), 데이터베이스(SQL) Server(MS-데이터베이스(SQL)) 또는 데이터베이스(SQL)ite 중 적어도 하나의 관계형 데이터베이스 관리 시스템(RDBMS)에 의해 제어되는 것일 수 있다. 상기 데이터베이스는 데이터베이스 구문(database statement)에 의해 데이터의 입출력이 수행되는 것일 수 있다.
한편, 본 명세서의 애플리케이션은 별도의 구문 실행 모듈을 포함할 수 있다. 상기 구문 실행 모듈은 상기 데이터베이스 구문(database statement)이 상기 데이터베이스 관리 시스템(RDBMS)에 대한 데이터의 입출력을 수행할 경우, 상기 데이터베이스의 종류에 따라 문법(syntax)에 맞는 맞춤형의 구문(statement)이 생성될 수 있다. 예를 들어, 사용자는 본 개시를 통하여, 데이터베이스의 종류와 관계없이 애플리케이션이 제공하는 사용자 인터페이스(UI)에서 제공하는 추상화된 수식을 통해 편리하게 구문을 생성, 확인 및 제어할 수 있다.
또한, 상기 애플리케이션은 상기 구문이 생성, 읽기 또는 업데이트, 삭제(Create, Read, Update, Delete; CRUD) 중 어느 하나 이상의 동작을 수행하는 데이터베이스(SQL) 구문과 관련될 수 있다. 여기서, 상기 데이터베이스(SQL) 구문은 삽입(Insert), 업데이트(Update) 또는 삭제(Delete) 중 어느 하나의 명령어와 관련된 신호일 수 있고, 상기 신호는 상기 데이터베이스(SQL) 구문의 명칭 또는 약자가 스프레드 시트의 셀에 입력되거나 표시될 수 있다. 예를 들어, 상기 표시는 하기 표 1 과 같이 나타날 수 있다.
코드 설명
All Insert, Update 모든 동작에 컬럼을 포함 시킵니다.
InsertOnly Insert 구문에만 컬럼을 포함 시킵니다.
UpdateOnly Update 구문에서 컬럼을 포함 시킵니다.
또한, 사용자 입력 정보는 구문 생성과 관련 있는 컬럼을 설정하거나, 레코드 조건을 지정하기 위한 것일 수 있다. 예를 들어, 상기 원본 데이터와 출력 데이터 간 컬럼 순서가 변경되거나 컬럼 명이 다른 경우에도, SQL 구문이 실행될 수 있게 할 수 있다. 또한, 상기 사용자 입력 정보는 상기 출력 데이터에 대한 주석을 표시할 수 있다.
도 2는 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 블록도이다.
도 2를 참조하면, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 질문 수신 및 분류 모듈(10), 사용자 프로파일링 및 질문자 분류 모듈(20), 메타데이터 검색 및 대규모 언어 모델 연동 모듈(30), 데이터베이스 비교 및 생성 모듈(40), 데이터 처리 및 출력 모듈(50)로 구성될 수 있다.
질문 수신 및 분류 모듈(10)은 사용자가 입력한 자연어 질문을 수신하여 분석하고, 질문의 유형을 분류한다. 질문이 데이터 검색, 계산 요청, 또는 보고서 생성 등 다양한 작업에 해당하는지를 결정하며, 사용자의 의도와 요구 사항을 기반으로 적절한 질문 유형을 파악한다. 변환 매트릭스(G-MATRIX) 시스템은 사용자의 자연어 질문을 수신한 후, 이를 분석하여 해당 질문의 유형을 분류한다. 질문 분류는 사용자의 의도와 요청 사항을 기반으로 하며, 해당 질문이 데이터 검색, 계산 요청, 보고서 생성 등의 작업 중 어디에 해당하는지를 파악한다.
사용자 프로파일링 및 질문자 분류 모듈(20)은 질문자(사용자)의 프로필과 과거 상호작용 기록을 바탕으로 사용자 맞춤형 쿼리를 생성하는 모듈이다. 사용자가 이전에 어떤 데이터를 요청했는지, 데이터를 어떻게 처리했는지 등의 정보를 분석하여 사용자별로 최적화된 쿼리를 생성한다. 변환 매트릭스(G-MATRIX) 시스템은 사용자의 질문뿐만 아니라 사용자의 프로필과 과거 상호작용 기록을 활용하여 적절한 질문을 분류한다. 이를 통해 사용자가 이전에 어떤 데이터를 요청했는지, 어떤 방식으로 데이터를 처리했는지에 대한 정보를 바탕으로 사용자 맞춤형 쿼리를 생성한다.
메타데이터 검색 및 대규모 언어 모델 연동 모듈(30)은 질문이 분류된 후, 해당 질문에 맞는 메타데이터를 벡터 데이터베이스에서 검색한다. 검색된 메타데이터는 대규모 언어 모델(LLM)에 입력되어, 이를 메타 언어로 변환하고, 질문에 적합한 응답을 생성할 수 있도록 한다. 변환 매트릭스(G-MATRIX) 시스템은 질문이 분류된 후, 벡터 데이터베이스에서 해당 질문에 맞는 메타데이터를 검색한다. 검색된 메타데이터는 LLM에게 입력되어 메타 언어로 변환되며, 대규모 언어 모델(LLM)은 이를 바탕으로 질문에 적합한 응답을 생성한다.
SQL 비교 및 생성 모듈(40)은 대규모 언어 모델(LLM)으로부터 생성된 메타 언어를 기반으로 최적화된 데이터베이스(SQL) 쿼리를 자동으로 생성한다. 이 과정에서 사용자의 프로파일, 권한, 과거 쿼리 및 상호작용 이력을 고려하여 쿼리를 최적화하고, 이전 쿼리와 비교하여 성능을 개선한 데이터베이스(SQL)을 생성한다.
변환 매트릭스(G-MATRIX) 시스템은 대규모 언어 모델(LLM)으로부터 생성된 메타 언어 답변을 바탕으로, 최적의 데이터베이스(SQL) 쿼리를 생성한다. 이 때, 변환 매트릭스(G-MATRIX)는 사용자의 프로파일, 권한, 그리고 과거 상호작용을 반영하여 데이터베이스(SQL) 쿼리를 최적화한다. 사용자의 이전 쿼리와 비교 분석을 통해 더 나은 성능과 정확도를 제공하는 데이터베이스(SQL)을 생성하는 것이 가능하다.
데이터 처리 및 출력 모듈(50)은 생성된 데이터베이스(SQL) 쿼리를 데이터베이스에 전달하여 결과를 검색하고, 처리된 데이터를 사용자에게 적합한 형식으로 변환하여 제공한다. 개인화된 응답을 통해 사용자는 자신에게 필요한 데이터를 정확하고 신속하게 얻을 수 있다. 변환 매트릭스(G-MATRIX) 시스템은 생성된 데이터베이스(SQL) 쿼리를 데이터베이스에 전달하여 결과를 검색한 후, 데이터 처리 모듈을 통해 사용자에게 적합한 형식으로 응답이 제공된다. 이를 통해 사용자는 개인화된 결과를 효과적으로 얻을 수 있다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 자연어 처리(Natural Language Processing, NLP), 대규모 언어 모델(Large Language Model, LLM), 데이터베이스 쿼리 최적화, 그리고 벡터 데이터베이스(Vector Database)를 활용한 메타데이터 처리 분야에 속한다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 사용자 맞춤형 질문 처리와 데이터베이스(SQL) 쿼리 생성 및 최적화와 관련된 기술에 중점을 두고 있으며, 사용자 프로파일과 벡터 데이터베이스를 이용해 질문자의 과거 상호작용과 권한을 분석하고, 메타데이터를 활용하여 자연어 질문을 최적의 SQL로 변환하는 시스템을 제공한다. 이러한 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 자연어 질문을 보다 정확하게 해석하여 사용자의 요구에 부합하는 최적화된 데이터베이스(SQL) 쿼리를 자동으로 생성함으로써 데이터베이스 검색 및 결과 반환의 효율성을 극대화한다.
도 3은 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 구성도이다.
도 3을 참조하면, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 메타 언어를 활용하여 자연어 질의를 처리하고 데이터베이스(SQL)을 생성 및 최적화하여 데이터베이스로부터 적합한 결과를 도출할 수 있는 자연어 처리(NLP) 기술을 기반으로 한 데이터 서비스 시스템일 수 있다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 사용자가 자연어로 질의하면 이를 메타 언어로 변환하여 처리하는 시스템일 수 있는데, 메타 언어는 사용자 질의를 분석하고 적합한 SQL 쿼리를 자동으로 생성 및 수행하며, 그 결과 데이터를 사용자에게 다시 자연어로 제공할 수 있다. 이 시스템은 자연어 질의를 처리하기 위해 형태소 분석 및 유사 질의 관리 기능을 포함할 수 있다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 사용자(USER), 변환 메트릭스(G-MATRIX), 자연어 처리 모듈(NLP), 최적 데이터베이스 생성부(i-META)로 구성될 수 있다.
사용자(USER)는 자연어로 질의를 시스템에 입력한다.
변환 메트릭스(G-MATRIX)는 자연어를 메타 언어로 변환하여 질의 내용을 송신한다.
자연어 처리 모듈(NLP)은 메타 언어 질의를 수신하여 자연어 질의를 분석하고 이에 따른 메타 언어 답변을 제시한다. 자연어 처리 모듈(NLP)은 Chat GPT와 같은 GPT를 기반으로 하는 대화형 인공지능 서비스일 수 있다.
최적 데이터베이스 생성부(i-META)는 메타 언어 명령을 수신하여 최적의 SQL 쿼리를 생성하고 이에 따른 데이터 셋(DATA SET) 결과로부터 질의 결과 답변을 준비하여 사용자(USER)에게 결과 답변을 송신한다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 사용자가 자연어로 질의를 입력하면, 시스템은 이를 형태소 분석을 통해 주요 명사와 동사를 추출하고 유사어 처리 과정을 거친다. 추출된 정보는 메타 언어로 변환되며, 이를 바탕으로 SQL 쿼리가 자동으로 생성된다. 생성된 SQL 쿼리는 데이터베이스에서 실행되어 결과가 도출되며, 이 결과는 다시 메타 언어를 통해 자연어로 변환되어 사용자에게 제공된다. 메타 언어는 질의 송신, 명령 송신 및 결과 수신 과정에서 중요한 역할을 하며, 사용자는 최종적으로 자연어로 처리된 결과를 수신한다.
예를 들어, 본 개시의 질문자 정보에 따른 메타 생성 및 데이터베이스 최적화 시스템은, 사용자가 "올해 영업부 매출 현황을 보여줘"라는 자연어 질의를 입력하면, 시스템은 이를 "x=올해", "y=영업부", "매출=매출금액"과 같은 메타 정보로 변환할 수 있다. 이 정보를 바탕으로 SQL 쿼리가 생성되고, 최종적으로 사용자가 원하는 매출 현황이 제공될 수 있다.
이러한, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 유사 질의를 관리하는 기능이 포함될 수 있는데, 이전에 사용된 질의와 유사한 질의를 감지하고 이를 기반으로 보다 효율적으로 데이터를 처리할 수 있다. 또한, 데이터베이스(SQL) 최적화 및 데이터 캐싱 기술을 활용하여 쿼리 성능을 향상시키고, 시스템의 응답 시간을 단축시킨다. 또한, 메타 언어 기반의 질의 처리로 사용자가 데이터베이스(SQL)을 직접 작성하지 않아도 원하는 정보를 쉽게 얻을 수 있다. 또한, 자연어를 기반으로 데이터베이스 질의를 처리함으로써 사용자가 SQL 쿼리를 작성할 필요 없이 쉽게 데이터를 조회할 수 있는 시스템을 제공할 수 있어서 데이터 접근성을 높이고, 비전문가도 쉽게 사용할 수 있다.
도 4는 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 작동의 예시를 설명하기 위한 모식도이다.
도 4를 참조하면, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 자연어로 표현된 사용자의 질의를 분석하고, 이를 기반으로 SQL 쿼리를 생성하여 데이터베이스에서 데이터를 조회하고, 그 결과를 다시 사용자가 이해할 수 있는 형태로 제공하는 시스템이다. 이 시스템은 주로 기업의 전기 사업부와 같은 특정 사업 부서에서의 매출 관리와 같은 데이터 조회에 활용된다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 다음의 구성 요소를 포함할 수 있다.
사용자(USER)는 자연어로 특정 사업 부서의 매출 현황을 질의한다. 예를 들면 "올해는 얼마나 팔았는지 알려 주세요" 또는 "2023년 전기 사업부 매출은?" 등을 질의한다.
변환 메트릭스(G-MATRIX)는 사용자의 자연어 질의를 분석하여 SQL 쿼리를 생성하는 모듈이다. 예를 들어, "2023.1.1부터 오늘까지 S기업 전기 사업부 매출"에 대한 질의를 처리한다.
최적 데이터베이스 생성부(i-META)는 자연어 질의를 메타 언어로 변환하고, 이 메타 언어를 기반으로 데이터베이스(SQL)을 최적화하는 역할을 한다.
자연어 처리 모듈(NLP)은 사용자의 자연어 질의를 분석하여 필요한 데이터를 추출하고 메타 언어로 변환한다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 다음과 같이 작동될 수 있다.
사용자가 자연어로 "2023년 전기 사업부 매출은?"과 같은 질의를 입력하면, NLP 모듈이 이 질의를 분석하여 중요한 시간 범위 및 부서를 추출한다.
변환 메트릭스(G-MATRIX) 모듈은 분석된 데이터를 바탕으로 "2023.1.1부터 오늘까지 S 기업 전기 사업부 매출"이라는 구체적인 SQL 쿼리를 생성한다.
생성된 SQL 쿼리는 최적 데이터베이스 생성부(i-META)을 통해 데이터베이스에 전달되어 실행된다.
실행 결과는 테이블 A(Table A)와 같은 데이터 형식으로 정리되며, 템플릿 B(Template B)의 형태로 사용자에게 제공된다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 자연어 처리(NLP) 알고리즘을 이용하여 기업의 전기 사업부와 같은 특정 사업 부서의 매출 데이터를 효율적으로 관리하고, 사용자의 자연어 질의를 데이터베이스(SQL)로 변환하여 데이터베이스에서 관련 정보를 도출하는 데이터 서비스를 제공할 수 있다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 사용자가 자연어로 데이터를 요청할 수 있으며, 이를 분석하여 정확한 SQL 쿼리로 변환하는 자동화된 시스템을 제공할 수 있다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 특정 부서나 기간에 대해 SQL 쿼리를 생성하고 데이터를 조회하는 데 최적화된 모듈을 포함할 수 있다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 결과 데이터는 사용자 맞춤형으로 제공될 수있으며 템플릿을 통해 시각적 보고서를 생성할 수도 있다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 다음과 같이 작동될 수 있다. 사용자가 "올해 전기 사업부의 매출을 보여줘"라는 자연어 질의를 입력하면, 시스템은 해당 질의를 "2023.1.1부터 오늘까지 S 기업 전기 사업부 매출"로 변환한 후 SQL 쿼리를 실행하여 결과를 도출한다. 이 결과는 테이블(Table) A 형식으로 제공되며, 템플릿(Template) B를 이용해 사용자에게 시각화된 데이터로 출력된다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 사용자가 SQL과 같은 복잡한 쿼리 언어를 이해하지 않아도 자연어 질의를 통해 필요한 데이터를 조회할 수 있는 편리한 시스템을 제공하여 비전문가도 쉽게 데이터에 접근할 수 있게 되어 효율적으로 매출 관리 및 보고서를 작성할 수 있다.
도 5는 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템의 정보 처리를 도시한 흐름도이다.
도 5를 참조하면, 본 개시의 일 실시예에 따른 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은, 자연어 처리(NLP) 기술과 대규모 언어 모델(LLM)을 결합하여 사용자의 자연어 질의를 분석하고, 메타 데이터를 기반으로 최적의 응답을 제공하는 데이터 서비스 시스템일 수 있다. 그리하여, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 학습된 메타 데이터를 활용하여 SQL 쿼리를 생성하고, 결과를 실시간으로 제공할 수 있다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 사용자의 자연어 질의를 받아 대규모 언어 모델을 통해 메타 데이터를 학습하고, 이를 바탕으로 SQL 쿼리를 자동으로 생성하여 데이터베이스에서 데이터를 조회하는 시스템일 수 있다. 여기서, 메타 정보는 임베딩된 벡터 스토어에서 관리되며, 해당 시스템은 연속적인 질의 처리와 캐시 기능을 통해 실시간으로 응답을 제공한다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템은 사용자(User), 결과 플랫폼(AUD7 Platform), 변환 메트릭스(G-MATRIX), 최적 데이터베이스 생성부(i-META), LLM (대규모 언어 모델)로 구성될 수 있다.
사용자(User)로부터 자연어 질의를 입력받는다. 예시로, "2023년 전기 사업부 매출은?" 같은 질의가 포함된다.
결과 플랫폼(AUD7 Platform)은 사용자의 자연어 질의를 변환 메트릭스(G-MATRIX)에 전달하고, 결과를 다시 사용자에게 반환하는 역할을 한다.
변환 메트릭스(G-MATRIX)은 사용자의 자연어 질의를 처리하여 메타 데이터를 생성하고, 대규모 언어 모델(LLM)을 사용하여 자연어 질의를 임베딩된 벡터 형태로 변환한다.
대규모 언어 모델(LLM)은 사용자의 자연어 질의를 메타 정보로 변환하고, 메타 데이터를 최적 데이터베이스 생성부(i-META)에 전달하여 최적 데이터베이스 생성부(i-META)에서 SQL 쿼리를 생성하고 최적화하는 과정에서 학습된 데이터를 사용할 수 있게 된다.
최적 데이터베이스 생성부(i-META)는 변환 메트릭스(G-MATRIX)에서 생성된 메타 데이터를 바탕으로 템플릿을 구성하고, SQL 쿼리를 최적화한다.
도 6은 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법을 도시한 흐름도이다.
도 6을 참조하면, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법은, 질문 수신 및 해석 단계(S1000), 자연어 처리(NLP) 단계(S2000), 데이터베이스 쿼리 생성 단계(S3000)로 구성될 수 있다.
질문 수신 및 해석 단계(S1000)는 사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환한다.
자연어 처리(NLP) 단계(S2000)는 질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환한다.
데이터베이스 쿼리 생성 단계(S3000)는 추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는다.
일 실시예에서, 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법은, 사용자가 "2023년 전기 사업부 매출은?"과 같은 질의를 입력하면, 시스템은 해당 질의를 임베딩된 벡터 스토어에서 분석하고 메타 정보를 생성한다. 변환 메트릭스(G-MATRIX)은 생성된 메타 정보를 기반으로 SQL 쿼리를 실행하고, 최적 데이터베이스 생성부(i-META)은 최적화된 템플릿을 사용자에게 제공한다. 이 결과는 스트리밍 방식으로 실시간 응답된다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법은, 대규모 언어 모델(LLM)을 통해 학습된 메타 정보를 벡터 스토어에 저장하고, 이를 기반으로 질의에 대한 정확한 응답을 제공할 수 있다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법은, 질의와 관련된 캐시 데이터를 활용하여 빠른 응답을 제공하며, 캐시된 데이터를 실시간으로 검사하여 정확성을 보장할 수 있다.
본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법은, 사용자가 연속적으로 질의를 입력할 경우, 이전 질의와의 연관성을 고려하여 효율적으로 데이터를 처리할 수 있다. 메타 정보를 바탕으로 SQL 쿼리를 자동으로 생성하고, 이를 최적화하여 데이터베이스에서 실행할 수 있다.
이러한 본 개시의 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법은, 대규모 언어 모델(LLM)과 메타 데이터를 활용하여 자연어 질의를 처리하고, 실시간으로 정확한 데이터를 제공함으로써 데이터 검색 및 분석 과정을 크게 단축시킬 수 있으며, 캐시 기능과 연속 질의 처리 기능을 통해 효율성을 극대화할 수 있다.
도 7은 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.
도 7을 참조하면, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에 의해 실행되는 경우, 사용자에인가를 위한 동작을 수행하도록 할 수 있다.
또한, 본 개시의 일 실시예에 따라 데이터 구조를 저장한 컴퓨터 판독가능 매체가 개시된다.
데이터 구조는 데이터에 효율적인 접근 및 수정을 가능하게 하는 데이터의 조직, 관리, 저장을 의미할 수 있다.데이터 구조는 특정 문제(예를 들어, 최단 시간으로 데이터 검색, 데이터 저장, 데이터 수정) 해결을 위한 데이터의 조직을 의미할 수 있다. 데이터 구조는 특정한 데이터 처리 기능을 지원하도록 설계된, 데이터 요소들 간의 물리적이거나 논리적인 관계로 정의될 수도 있다. 데이터 요소들 간의 논리적인 관계는 사용자 정의 데이터요소들 간의 연결관계를 포함할 수 있다. 데이터 요소들 간의 물리적인 관계는 컴퓨터 판독가능 저장매체(예를 들어, 영구 저장 장치)에 물리적으로 저장되어 있는 데이터 요소들 간의 실제 관계를 포함할 수 있다. 데이터구조는 구체적으로 데이터의 집합, 데이터 간의 관계, 데이터에 적용할 수 있는 함수 또는 명령어를 포함할 수있다. 효과적으로 설계된 데이터 구조를 통해 컴퓨팅 장치는 컴퓨팅 장치의 자원을 최소한으로 사용하면서 연산을 수행할 수 있다. 구체적으로 컴퓨팅 장치는 효과적으로 설계된 데이터 구조를 통해 연산, 읽기, 삽입, 삭제,비교, 교환, 검색의 효율성을 높일 수 있다.
데이터 구조는 데이터 구조의 형태에 따라 선형 데이터 구조와 비선형 데이터 구조로 구분될 수 있다. 선형 데이터 구조는 하나의 데이터 뒤에 하나의 데이터만이 연결되는 구조일 수 있다. 선형 데이터 구조는 리스트(List), 스택(Stack), 큐(Queue), 데크(Deque)를 포함할 수 있다. 리스트는 내부적으로 순서가 존재하는 일련의데이터 집합을 의미할 수 있다. 리스트는 연결 리스트(Linked List)를 포함할 수 있다. 연결 리스트는 각각의데이터가 포인터를 가지고 한 줄로 연결되어 있는 방식으로 데이터가 연결된 데이터 구조일 수 있다. 연결 리스트에서 포인터는 다음이나 이전 데이터와의 연결 정보를 포함할 수 있다. 연결 리스트는 형태에 따라 단일 연결리스트, 이중 연결 리스트, 원형 연결 리스트로 표현될 수 있다. 스택은 제한적으로 데이터에 접근할 수 있는데이터 나열 구조일 수 있다. 스택은 데이터 구조의 한 쪽 끝에서만 데이터를 처리(예를 들어, 삽입 또는 삭제)할 수 있는 선형 데이터 구조일 수 있다. 스택에 저장된 데이터는 늦게 들어갈수록 빨리 나오는 데이터 구조(LIFO-Last in First Out)일 수 있다. 큐는 제한적으로 데이터에 접근할 수 있는 데이터 나열 구조로서, 스택과달리 늦게 저장된 데이터일수록 늦게 나오는 데이터 구조(FIFO-First in First Out)일 수 있다. 데크는 데이터구조의 양 쪽 끝에서 데이터를 처리할 수 있는 데이터 구조일 수 있다.
비선형 데이터 구조는 하나의 데이터 뒤에 복수개의 데이터가 연결되는 구조일 수 있다. 비선형 데이터 구조는 그래프(Graph) 데이터 구조를 포함할 수 있다. 그래프 데이터 구조는 정점(Vertex)과 간선(Edge)으로 정의될 수있으며 간선은 서로 다른 두개의 정점을 연결하는 선을 포함할 수 있다. 그래프 데이터 구조 트리(Tree) 데이터 구조를 포함할 수 있다. 트리 데이터 구조는 트리에 포함된 복수개의 정점 중에서 서로 다른 두개의 정점을 연결시키는 경로가 하나인 데이터 구조일 수 있다. 즉 그래프 데이터 구조에서 루프(loop)를 형성하지 않는 데이터 구조일 수 있다.
데이터 구조는 신경망에 입력되는 데이터를 포함할 수 있다. 신경망에 입력되는 데이터를 포함하는 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망에 입력되는 데이터는 신경망 학습 과정에서 입력되는 학습데이터 및/또는 학습이 완료된 신경망에 입력되는 입력 데이터를 포함할 수 있다. 신경망에 입력되는 데이터는 전처리(pre-processing)를 거친 데이터 및/또는 전처리 대상이 되는 데이터를 포함할 수 있다. 전처리는 데이터를 신경망에 입력시키기 위한 데이터 처리 과정을 포함할 수 있다. 따라서 데이터 구조는 전처리 대상이 되는데이터 및 전처리로 발생되는 데이터를 포함할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.
데이터 구조는 신경망의 가중치를 포함할 수 있다. 본 명세서에서 가중치, 파라미터는 동일한 의미로 사용될 수 있다. 그리고 신경망의 가중치를 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망은복수개의 가중치를 포함할 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드에서 출력되는 데이터 값을 결정할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.
본 개시가 일반적으로 컴퓨팅 장치에 의해 구현될 수 있는 것으로 전술되었지만, 당업자라면 본 개시가 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어 및/또는 기타 프로그램 모듈들과 결합되어 및/또는하드웨어와 소프트웨어의 조합으로써 구현될 수 있다는 것을 잘 알 것이다.
일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴,프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드(handheld)컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.
본 개시의 설명된 실시예들은 또한 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치둘 다에 위치할 수 있다.
컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다.컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈또는 기타 데이터 등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)-이 내장형 하드 디스크드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음-, 자기 플로피 디스크드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나또는 그 둘 다를 포함한다.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.
운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션,모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트,IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.
본 개시내용에서의 사용자 입력이라는 용어는 사용자 인터페이스 내에서(혹은 웹페이지 내에서) 수행되는 사용자의 요청과 관련된 임의의 형태의 사용자 입력을 의미할 수 있다. 예를 들어, 사용자 입력은 포인터 객체를 이동시키는 사용자 입력을 포함할 수 있다. 다른 예시로, 사용자 입력은 사용자 인터페이스 상에서의 특정한 객체를 선택하는 사용자 입력을 포함할 수 있다. 예컨대, 임의의 객체(예를 들어, 모듈, 탭 등)를 터치 혹은 클릭하는 방식으로, 해당 객체에 대한 사용자 입력이 이루어질 수 있다. 선택과 관련된 사용자 입력이 수신되는 경우,해당 입력에 응답하여 사용자 인터페이스 혹은 웹페이지 상에 새로운 객체가 디스플레이 되거나, 또는 객체의속성이 변경되어 디스플레이 될 수 있다.
또 다른 예시로, 사용자 입력은 다양한 입력수단에 의해 입력된 언어, 문자, 숫자 및 기호 등의 정보를 포함할수 있다. 사용자 입력은 전술한 예시로 한정되는 것은 아니며, 마우스 커서 제어, 마우스의 휠 스크롤, 키보드의 방향키, 마우스 클릭, 터치 등 다양한 형태의 사용자 액션이 가능하다.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다. 예를 들어, 상기 모니터(1144) 또는 다른 유형의 디스플레이 장치는 액정디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquidcrystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디스플레이부는 프로세서(110)에서 처리되는 데이터를 출력(표시)한다.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크,예를 들어, 인터넷에 연결될 수 있다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a, b, g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.
또한, 컴퓨터(1102)는 사용자 단말로 구현 가능할 수 있다. 따라서, 본 개시의 일 실시예에 따른 방법은 소프트웨어를 탑재할 수 있는 하드웨어로써 단말에 대해 제한 없이 차용될 수 있다. 본 개시에서 설명되는 사용자 단말은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personaldigital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기(smartwatch), 글래스형 단말기(smart glass), HMD(head mounted display)) 등이 포함될 수 있다. 또한, 사용자 단말은 사용자에 의해 데이터 입출력이 가능한 장치와 사용자에게 데이터를 디스플레이할 수 있는 장치 및유/무선 통신이 가능한 장치를 포함할 수 있으며, 이에 한정된 것은 아니다. 예를 들어, 컴퓨팅 장치(100)는 데스크탑, 노트북, 태블릿 PC, 휴대용 단말기 등이 될 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 소프트웨어로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의범위를 벗어나는 것으로 해석되어서는 안 될 것이다.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조물품(article)으로 구현될 수 있다. 용어 제조 물품은 임의의 컴퓨터-판독가능 저장장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는다른 기계-판독가능한 매체를 포함한다.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.
[질문자군을 이용한 데이터 서비스를 제공하기 위한 장치 및 이를 위한 방법]
이하, 도 8 내지 도 14 에서는 본 개시에서 본 개시의 질문자군을 이용한 데이터 서비스를 제공하기 위한 장치 및 이를 위한 방법에 대해 설명한다.
본 개시의 실시예에 따른 데이터 서비스를 제공하기 위한 시스템 및 장치에 대해 설명하기로 한다. 도 8은 본 개시의 실시예에 따른 데이터 서비스를 제공하기 위한 시스템의 구성을 설명하기 위한 도면이다. 도 9는 본 개시의 실시예에 따른 데이터 서비스를 제공하기 위한 장치의 구성을 설명하기 위한 도면이다. 도 10은 본 개시의 실시예에 따른 데이터 서비스를 제공하기 위한 장치의 세부 구성을 설명하기 위한 도면이다.
도 8을 참조하면, 본 실시예에 따른 데이터 서비스 시스템은 자연어 질문에 대한 자연어 처리 알고리즘을 통하여 쿼리를 생성하고, 생성한 쿼리를 수행하여 산출한 답변을 제공하는 데이터 서비스를 수행하는 시스템이다.
데이터 서비스 시스템은 사용자장치(10), 서비스서버(20) 및 모델서버(30)를 포함한다.
모델서버(30)는 자연어처리모델(NLP: natural language processing)이 실행되는 서버이다. 본 개시의 실시예에서, 모델서버(30)는 서비스서버(20)와 분리된 장치로 도시하였지만, 자연어처리모델(NLP)은 서비스서버(20)에서 동작할 수 있으며, 이러한 경우, 모델서버(30)는 서비스서버(20)의 일 구성요소로 동작할 수 있다.
사용자장치(10), 서비스서버(20) 및 모델서버(30)는 통신망을 매개로 데이터를 송수신할 수 있다.
사용자장치(10)은 서비스서버(20)로 자연어 질문을 입력하고, 자연어 질문에 대한 답변을 서비스서버(20)로부터 수신한다. 자연어 질문은 사용자장치(10)가 제공하는 입력부를 통하여 음성이나 텍스트 형태로 입력할 수 있다. 여기서 입력부는 키패드, 터치스크린, 마이크 등을 포함할 수 있다. 이러한 사용자장치(10)는 서비스서버(20)와 통신이 가능한 통신 단말기로서, 예컨대 스마트폰, 랩톱, 데스크톱, 핸드헬드PC, 태블릿PC 등 개인용 컴퓨팅 시스템일 수 있다.
사용자장치(10)를 사용하는 사용자는 일반적인 사용자일 수도 있지만, 본 실시예에서는 특정 그룹에 속하는 사용자가 될 수 있다. 여기서 특정 그룹은 데이터베이스(DB)에 대한 접근 권한과 관계가 있다. 즉 사용자가 속한 특정 그룹에 따라서 데이터베이스(DB)에 대한 접근 권한이 다르게 설정될 수 있다. 이로 인해 사용자가 속하는 특정 그룹에 따라서 자연어 질문에 대해서 답변을 받거나 받지 못할 수 있다. 예컨대 특정 그룹은 회사, 부서, 직급 등으로 구분될 수 있다. 사용자가 속한 특정 그룹에 대한 정보는 사용자 속성 정보에 포함될 수 있다. 여기서, 사용자 속성 정보는 사용자의 개인 정보, 사용자장치(10)의 정보, 및 사용자가 속한 특정 그룹에 대한 정보를 포함한다.
자연어처리모델(NLP)은 서비스서버(20)로부터 입력되는 입력 정보에 대해 학습된 바에 따른 연산을 수행하여 쿼리 생성에 필요한 정보를 포함하는 JSON(JavaScript Object Notation) 질문 스크립트를 생성하고, 이를 서비스서버(20)로 반환한다. 이러한 자연어처리모델(NLP)은 거대한 양의 텍스트 데이터 내의 단어들 사이의 관계 추론이 가능한 LLM(large language model)을 포함할 수 있다. 자연어처리모델(NLP)은 텍스트로부터 의미가 있는 정보를 분석 및 추출을 통하여, 쿼리 생성에 필요한 정보를 반환한다. 여기서 LLM은 방대한 양의 자연어 데이터를 처리하고 종종 사람이 생성한 텍스트와 구별할 수 없는 답변을 생성할 수 있는 인공 지능 모델을 의미한다. 이러한 LLM은 OpenAI의 GPT(Generative Pre-trained Transformer) 시리즈와 Google의 BERT(Bidirectional Encoder Representations from Transformers) 모델을 예시할 수 있다.
본 개시의 실시예에 따른 자연어처리모델(NLP)은 서비스서버(20)로부터 입력되는 예컨대, 키워드 정보, 엔티티 정보 및 항목 정보와 같은 입력 정보에 대한 연산을 통해 쿼리를 생성할 수 있도록 JSON 질문 스크립트를 반환한다. JSON 질문 스크립트는 쿼리를 생성하기 위한 스크립트로 예컨대, 템플릿, 테이블, 컬럼, 검색 조건 등을 지정하는 명령어가 포함된다. 또한, JSON 질문 스크립트는 쿼리를 생성할 수 있는 코드를 포함할 수 있다.
서비스서버(20)는 사용자장치(10) 및 자연어처리모델(NLP)과 통신을 수행하여 데이터를 처리하는 서버로써, 예컨대 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다. 서비스서버(20)은 하나 이상의 서버로 구성될 수 있다. 서비스서버(20)는 기본적으로, 사용자장치(10)로부터 수신되는 자연어로 이루어진 사용자 질문에 대한 답변을 제공하기 위한 것이다. 이에 대해 보다 구체적으로 설명하면 다음과 같다.
도 9를 참조하면, 서비스서버(20)는 인터페이스부(IF), 연산부(PM) 및 데이터베이스(DB)를 포함한다.
데이터베이스(DB)는 사용자의 질문에 답변할 수 있는 데이터를 저장한다. 데이터베이스(DB)는 저장된 데이터에 대한 색인어를 포함하는 벡터 DB를 포함한다. 벡터 DB는 제어에 따라 자연어처리모델(NLP)에 제공될 수 있다. 색인어는 데이터의 테이블명과 컬럼명을 포함할 수 있다. 데이터베이스(DB)에는 이전에 수신된 사용자 질문, 그 사용자 질문에 대응하는 쿼리 및 그 쿼리에 대응하는 실행 계획이 저장될 수 있다.
인터페이스부(IF)는 사용자장치(10)가 서비스서버(20)에 접속할 수 있는 환경을 제공한다. 사용자장치(10)는 인터페이스부(IF)를 통하여 자연어 질문을 입력하고, 입력한 자연어 질문에 대한 답변을 제공받을 수 있다. 즉, 인터페이스부(IF)는 사용자장치(10)로부터 자연어 질문을 입력받고, 연산부(PM)에 제공하며, 연산부(PM)로부터 자연어 질문에 대한 답변을 사용자장치(10)에 반환하기 위한 것이다. 즉, 인터페이스부(IF)는 서비스서버(20)의 플랫폼의 기능을 수행할 수 있다.
연산부(PM)는 사용자 질문을 기초로 쿼리를 생성하고, 데이터베이스(DB)에 대해 생성된 쿼리를 실행하여 답변을 획득한 후, 인터페이스부(IF)를 통해 사용자장치(10)에 반환한다. 특히, 연산부(PM)는 자연어처리모델(NLP)을 통해 JSON 질문 스크립트를 도출하고, JSON 질문 스크립트로부터 쿼리(SQL)를 생성할 수 있다.
도 10을 참조하면, 연산부(PM)는 자연어처리부(100), DB분석부(200), 실행부(300), 질문자군처리부(400), 매칭부(500) 및 피드백처리부(600)를 포함한다.
자연어처리부(100)는 사용자장치(10)로부터 인터페이스부(IF)를 통해 사용자의 입력에 따라 자연어로 이루어진 사용자 질문을 수신하면, 사용자 질문으로부터 키워드 정보, 질문의 의도를 추출하고, 기 저장된 사용자장치(10)의 사용자의 엔티티 정보를 추출할 수 있다. 여기서, 엔티티 정보는 사용자의 개인 정보, 사용자장치(10)의 정보, 및 사용자가 속한 특정 그룹(예컨대, 회사, 부서, 직급 등)에 대한 정보를 포함할 수 있다.
DB분석부(200)는 사용자의 엔티티 정보 및 키워드 정보를 기초로 데이터베이스(DB)에서 검색 대상의 테이블, 그 테이블의 컬럼 및 그 컬럼의 데이터를 포함하는 복수의 항목을 검색하여 검색 대상 리스트를 작성할 수 있다. 이와 동시에, DB분석부(200)는 S130 단계에서 키워드 정보와 검색 대상 리스트의 복수의 항목 간의 유사도인 검색 유사도 점수를 산출한다. 여기서, 검색 유사도 점수가 높을수록 사용자가 검색된 데이터베이스의 구조에 대해 더 잘 알고 적합한 사용자라는 의미이다.
실행부(300)는 사용자장치(10)에 검색 대상 리스트를 제공하고, 사용자장치(10)로부터 검색 대상 리스트에서 사용자가 선택한 항목을 나타내는 항목 정보를 수신할 수 있다. 이때, 실행부(300)는 검색 대상 리스트를 제공하고, 사용자가 선택한 항목을 나타내는 항목 정보를 수신할 때까지 소요된 시간에 따라 사용자가 검색 대상 리스트에서 항목을 선택하기까지 소요된 시간인 소요 시간 정보를 측정할 수 있다. 특히, 실행부(300)는 키워드 정보, 엔티티 정보 및 항목 정보를 자연어처리모델(NLP)에 입력하면, 자연어처리모델(NLP)이 키워드 정보, 엔티티 정보 및 항목 정보에 대해 학습된 연산을 수행하여 JSON 질문 스크립트를 도출할 수 있다. 또한, 실행부(300)는 JSON 질문 스크립트를 기초로 쿼리를 생성하고, 데이터베이스(DB)에 대해 생성된 쿼리에 상응하는 실행 계획을 생성하고, 생성된 실행 계획에 따라 쿼리를 실행하여 데이터베이스(DB)로부터 사용자 질문에 대응하는 답변을 수신할 수 있다. 그러면, 실행부(300)는 답변을 인터페이스부(IF)를 통해 사용자장치(10)로 전달할 수 있다.
질문자군처리부(400)는 복수의 사용자 질문에 대해 쿼리가 실행된 후, 복수의 사용자 질문에 대응하는 엔티티 정보, 검색 유사도 점수, 검색 대상 리스트에서 사용자가 선택한 항목을 나타내는 항목 정보 및 사용자가 상기 검색 대상 리스트에서 항목을 선택하기까지 소요된 시간을 나타내는 소요 시간 정보를 기초로 질문자군(Questioner Cluster)을 생성할 수 있다.
또한, 질문자군처리부(400)는 새로운 사용자 질문이 입력되면, 쿼리가 실행된 후, 새로운 사용자 질문에 대응하는 엔티티 정보, 검색 유사도 점수, 검색 대상 리스트에서 사용자가 선택한 항목을 나타내는 항목 정보 및 사용자가 상기 검색 대상 리스트에서 항목을 선택하기까지 소요된 시간을 나타내는 소요 시간 정보에 따라 사용자 질문이 속한 질문자군을 식별할 수 있다.
매칭부(500)는 사용자의 사용자 질문이 속한 것으로 식별된 질문자군에 속하는 복수의 사용자 질문을 포함하는 질문 목록에서 사용자 질문과의 유사도가 소정 수치 이상인 복수의 유사 질문을 추출하여 맞춤형 질문 목록을 도출하고, 도출된 맞춤형 질문 목록을 사용자장치(10)에 제공할 수 있다.
피드백처리부(600)는 사용자장치(10)로부터 맞춤형 질문 목록의 복수의 유사 질문 각각에 대한 사용자의 선호 혹은 불호(예컨대, '좋아요' 혹은 '싫어요')에 대한 정보인 피드백 정보를 수신할 수 있다. 그러면, 피드백처리부(600)는 사용자장치(10)로부터 피드백 정보를 이용하여 자연어처리모델(NLP)을 재학습시킬 수 있다. 혹은, 피드백처리부(600)는 맞춤형 질문 목록을 갱신하여 사용자장치(10)에 다시 제공할 수 있다.
다음으로, 본 개시의 실시예에 따른 데이터 제공 서비스에서 질문자군을 형성하기 위한 데이터를 수집하고, 수집된 데이터를 기초로 질문자군을 생성하는 방법에 대해 설명하기로 한다. 도 11은 본 개시의 실시예에 따른 데이터 제공 서비스에서 질문자군을 형성하기 위한 데이터를 수집하는 방법을 설명하기 위한 흐름도이다. 도 12는 본 개시의 실시예에 따른 데이터 제공 서비스에서 복수의 질문자군을 생성하는 방법을 설명하기 위한 흐름도이다.
도 11을 참조하면, 자연어처리부(100)는 S110 단계에서 사용자장치(10)로부터 인터페이스부(IF)를 통해 사용자의 입력에 따라 자연어로 이루어진 사용자 질문을 수신할 수 있다.
그러면, 자연어처리부(100)는 S120 단계에서 사용자 질문으로부터 키워드 정보, 질문의 의도를 추출할 수 있다. 또한, 자연어처리부(100)는 S120 단계에서 기 저장된 사용자장치(10)의 사용자의 엔티티 정보를 추출할 수 있다. 여기서, 엔티티 정보는 사용자의 개인 정보, 사용자장치(10)의 정보, 및 사용자가 속한 특정 그룹(예컨대, 회사, 부서, 직급 등)에 대한 정보를 포함할 수 있다.
다음으로, DB분석부(200)는 S130 단계에서 사용자의 엔티티 정보 및 키워드 정보를 기초로 데이터베이스(DB)에서 검색 대상의 테이블, 그 테이블의 컬럼 및 그 컬럼의 데이터를 포함하는 복수의 항목을 검색하여 검색 대상 리스트를 작성할 수 있다. 이와 동시에, DB분석부(200)는 S130 단계에서 키워드 정보와 검색 대상 리스트의 복수의 항목 간의 유사도인 검색 유사도 점수를 산출한다. 여기서, 검색 유사도 점수가 높을수록 사용자가 검색된 데이터베이스의 구조에 대해 더 잘 알고 적합한 사용자라는 의미이다.
다음으로, 실행부(300)는 S140 단계에서 사용자장치(10)에 검색 대상 리스트를 제공하고, S150 단계에서 사용자장치(10)로부터 검색 대상 리스트에서 사용자가 선택한 항목을 나타내는 항목 정보를 수신한다. 이러한 S140 및 S150 단계에서 실행부(300)는 검색 대상 리스트를 제공하고, 사용자가 선택한 항목을 나타내는 항목 정보를 수신할 때까지 소요된 시간에 따라 사용자가 검색 대상 리스트에서 항목을 선택하기까지 소요된 시간인 소요 시간 정보를 측정할 수 있다.
이에 따라, 실행부(300)는 사용자가 선택한 항목을 기초로 자연어처리모델(NLP)을 이용하여 쿼리를 생성하고, 생성된 쿼리를 실행할 수 있다. 이에 대해 보다 상세하게 설명하면 다음과 같다.
실행부(300)는 S160 단계에서 키워드 정보, 엔티티 정보 및 항목 정보를 자연어처리모델(NLP)에 입력하면, 자연어처리모델(NLP)이 키워드 정보, 엔티티 정보 및 항목 정보에 대해 학습된 연산을 수행하여 JSON 질문 스크립트를 도출한다. JSON 질문 스크립트는 쿼리를 생성하기 위한 스크립트로 예컨대, 템플릿, 테이블, 컬럼, 검색 조건 등을 지정하는 명령어가 포함된다.
그런 다음, 실행부(300)는 S170 단계에서 JSON 질문 스크립트를 기초로 쿼리를 생성하고, 데이터베이스(DB)에 대해 생성된 쿼리에 상응하는 실행 계획을 생성하고, 생성된 실행 계획에 따라 쿼리를 실행하여 데이터베이스(DB)로부터 사용자 질문에 대응하는 답변을 수신할 수 있다. 이어서, 실행부(300)는 S180 단계에서 답변을 인터페이스부(IF)를 통해 사용자장치(10)로 전달한다.
전술한 S110 단계 내지 S180 단계는 복수의 사용자, 즉, 복수의 사용자장치(10) 각각으로부터 사용자 질문을 수신할 때마다 반복된다.
이에 따라, 도 12를 참조하면, 복수의 사용자장치로부터 자연어로 이루어진 사용자 질문이 수신될 때마다, 질문자군처리부(400)는 S210 단계에서 복수의 사용자 질문에 대응하는 엔티티 정보, 검색 유사도 점수, 검색 대상 리스트에서 사용자가 선택한 항목을 나타내는 항목 정보 및 사용자가 상기 검색 대상 리스트에서 항목을 선택하기까지 소요된 시간을 나타내는 소요 시간 정보를 상호 매핑하여 저장한다.
그런 다음, 질문자군처리부(400)는 S220 단계에서 복수의 사용자 질문에 대응하는 엔티티 정보, 검색 유사도 점수, 항목 정보 및 소요 시간 정보를 소정의 벡터 공간에 사상하여 복수의 질문자 벡터를 생성한다.
이어서, 질문자군처리부(400)는 S230 단계에서 복수의 질문자 벡터에 대해 군집화 알고리즘(clustering algorithm)을 이용하여 군집화(clustering)를 수행하여 복수의 질문자군(Questioner Cluster)을 생성할 수 있다.
그러면, 전술한 바와 같이, 복수의 질문자군이 생성된 후의 본 개시에 실시예에 따른 질문자군을 이용한 데이터 서비스를 제공하기 위한 방법에 대해 설명하기로 한다. 도 13은 본 개시에 실시예에 따른 질문자군을 이용한 데이터 서비스를 제공하기 위한 방법을 설명하기 위한 흐름도이다.
도 13을 참조하면, 자연어처리부(100)는 S310 단계에서 사용자장치(10)로부터 인터페이스부(IF)를 통해 사용자의 입력에 따라 자연어로 이루어진 사용자 질문을 수신할 수 있다.
그러면, 자연어처리부(100)는 S320 단계에서 사용자 질문으로부터 키워드 정보, 질문의 의도를 추출할 수 있다. 또한, 자연어처리부(100)는 S320 단계에서 기 저장된 사용자장치(10)의 사용자의 엔티티 정보를 추출할 수 있다.
다음으로, DB분석부(200)는 S330 단계에서 사용자의 엔티티 정보 및 키워드 정보를 기초로 데이터베이스(DB)에서 검색 대상의 테이블, 그 테이블의 컬럼 및 그 컬럼의 데이터를 포함하는 복수의 항목을 검색하여 검색 대상 리스트를 작성할 수 있다. 이와 동시에, DB분석부(200)는 S330 단계에서 키워드 정보와 검색 대상 리스트의 복수의 항목 간의 유사도인 검색 유사도 점수를 산출한다.
다음으로, 실행부(300)는 S340 단계에서 사용자장치(10)에 검색 대상 리스트를 제공하고, S350 단계에서 사용자장치(10)로부터 검색 대상 리스트에서 사용자가 선택한 항목을 나타내는 항목 정보를 수신한다. 이러한 S340 및 S350 단계에서 실행부(300)는 검색 대상 리스트를 제공하고, 사용자가 선택한 항목을 나타내는 항목 정보를 수신할 때까지 소요된 시간에 따라 사용자가 검색 대상 리스트에서 항목을 선택하기까지 소요된 시간인 소요 시간 정보를 측정할 수 있다.
이에 따라, 실행부(300)는 S360 단계에서 사용자가 선택한 항목을 기초로 자연어처리모델(NLP)을 이용하여 쿼리를 생성하고, 생성된 쿼리를 실행함으로써 사용자장치(10)에 답변을 제공할 수 있다. 이에 대해 보다 상세하게 설명하면 다음과 같다. 실행부(300)가 먼저, 키워드 정보, 엔티티 정보 및 항목 정보를 자연어처리모델(NLP)에 입력하면, 자연어처리모델(NLP)이 키워드 정보, 엔티티 정보 및 항목 정보에 대해 학습된 연산을 수행하여 JSON 질문 스크립트를 도출한다. 그런 다음, 실행부(300)는 JSON 질문 스크립트를 기초로 쿼리를 생성하고, 데이터베이스(DB)에 대해 생성된 쿼리에 상응하는 실행 계획을 생성하고, 생성된 실행 계획에 따라 쿼리를 실행하여 데이터베이스(DB)로부터 사용자 질문에 대응하는 답변을 수신할 수 있다. 이어서, 실행부(300)는 답변을 인터페이스부(IF)를 통해 사용자장치(10)로 전달한다.
전술한 바와 같이, 쿼리를 실행하여 답변을 제공한 후, 질문자군처리부(400)는 S370 단계에서 사용자 질문에 대응하는 질문자군을 식별한다. 이를 위하여, 질문자군처리부(400)는 엔티티 정보, 검색 유사도 점수, 항목 정보 및 소요 시간 정보를 기초로 사용자 질문이 속한 질문자군을 식별할 수 있다.
S370 단계에 대해 보다 구체적으로 설명하면 다음과 같다. 질문자군처리부(400)는 사용자 질문에 대응하는 엔티티 정보, 검색 유사도 점수, 항목 정보 및 소요 시간 정보를 소정의 벡터 공간에 사상하여 사용자 질문의 질문자 벡터를 생성한다. 그런 다음, 질문자군처리부(400)는 벡터 공간 상에서 복수의 질문자군의 군집화 중심과 사용자 질문의 질문자 벡터와의 거리에 따라 사용자 질문이 속한 질문자군을 식별한다. 즉, 질문자군처리부(400)는 벡터 공간 상에서 복수의 질문자군의 군집화 중심과 사용자 질문의 질문자 벡터와의 거리가 가장 가까우면서 소정 거리 이내에 있는 질문자군을 해당 사용자의 사용자 질문이 속한 질문자군으로 식별할 수 있다.
다음으로, 매칭부(500)는 S380 단계에서 해당 사용자의 사용자 질문이 속한 것으로 식별된 질문자군에 속하는 복수의 사용자 질문을 포함하는 질문 목록에서 사용자 질문과의 유사도가 소정 수치 이상인 복수의 유사 질문을 추출하여 맞춤형 질문 목록을 도출하고, 도출된 맞춤형 질문 목록을 사용자장치(10)에 제공한다.
그런 다음, 피드백처리부(600)는 S390 단계에서 사용자장치(10)로부터 맞춤형 질문 목록의 복수의 유사 질문 각각에 대한 사용자의 선호 혹은 불호(예컨대, '좋아요' 혹은 '싫어요')에 대한 정보인 피드백 정보를 수신할 수 있다.
그러면, 피드백처리부(600)는 S400 단계에서 사용자장치(10)로부터 피드백 정보를 이용하여 자연어처리모델(NLP)을 재학습시킬 수 있다. 혹은, 피드백처리부(600)는 맞춤형 질문 목록을 갱신하여 사용자장치(10)에 다시 제공할 수 있다.
도 14는 본 개시의 일 실시예에 따른 질문자군을 이용한 데이터 서비스를 제공하기 위한 장치를 구현하기 위한 하드웨어 시스템의 예시도이다.
도 14에 도시된 바와 같이, 본 개시의 일 실시예에 따른 하드웨어 시스템(2000)은, 프로세서부(2100), 메모리 인터페이스부(2200), 및 주변장치 인터페이스부(2300)를 포함하는 구성을 가질 수 있다.
이러한, 하드웨어 시스템(2000) 내 각 구성은, 개별 부품이거나 하나 이상의 집적 회로에 집적될 수 있으며, 이러한 각 구성들은 버스 시스템(도시 안됨)에 의해서 결합될 수 있다.
여기서, 버스 시스템의 경우, 적절한 브리지들, 어댑터들, 및/또는 제어기들에 의해 연결된 임의의 하나 이상의 개별적인 물리 버스들, 통신 라인들/인터페이스들, 및/또는 멀티 드롭(multi-drop) 또는 포인트 투 포인트(point-to-point) 연결들을 나타내는 추상화(abstraction)이다.
프로세서부(2100)는 하드웨어 시스템에서 다양한 기능들을 수행하기 위해 메모리 인터페이스부(2200)를 통해 메모리부(2210)와 통신함으로써, 메모리부(2210)에 저장된 다양한 소프트웨어 모듈을 실행하는 역할을 수행하게 된다.
여기서, 메모리부(2210)에는 자연어처리부(100), DB분석부(200), 실행부(300), 질문자군처리부(400), 매칭부(500) 및 피드백처리부(600)를 포함하는 구성 각각이 소프트웨어 모듈 형태로 저장될 수 있으며, 그 외 운영 체계(OS)가 추가로 저장될 수 있다. 이러한 자연어처리부(100), DB분석부(200), 실행부(300), 질문자군처리부(400), 매칭부(500) 및 피드백처리부(600)를 포함하는 구성은 프로세서부(2100)에 로드되어 실행될 수 있다.
이상 설명한 자연어처리부(100), DB분석부(200), 실행부(300), 질문자군처리부(400), 매칭부(500) 및 피드백처리부(600)를 포함하는 각 구성은 프로세서에 의해 실행되는 소프트웨어 모듈 또는 하드웨어 모듈 형태로 구현되거나, 소프트웨어 모듈과 하드웨어 모듈이 조합된 형태로도 구현될 수 있다.
이와 같이, 프로세서에 의해 실행되는 소프트웨어 모듈, 하드웨어 모듈, 내지는 소프트웨어 모듈과 하드웨어 모듈이 조합된 형태는 실제 하드웨어 시스템(예: 컴퓨터 시스템)으로 구현될 수 있을 것이다.
운영 체계(예: I-OS, Android, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, 또는 VxWorks와 같은 임베디드 운영 체계)의 경우, 일반적인 시스템 작업들(예를 들어, 메모리 관리, 저장 장치 제어, 전력 관리 등)을 제어 및 관리하는 다양한 절차, 명령어 세트, 소프트웨어 컴포넌트 및/또는 드라이버를 포함하고 있으며 다양한 하드웨어 모듈과 소프트웨어 모듈 간의 통신을 용이하게 하는 역할을 수행하게 된다.
참고로, 메모리부(2210)는 캐쉬, 메인 메모리 및 보조 기억장치(secondary memory)를 포함하지만 이에 제한되지 않는 메모리 계층구조가 포함할 수 있는데, 이러한 메모리 계층구조의 경우 예컨대 RAM(예: SRAM, DRAM, DDRAM), ROM, FLASH, 자기 및/또는 광 저장 장치[예: 디스크 드라이브, 자기 테이프, CD(compact disk) 및 DVD(digital video disc) 등]의 임의의 조합을 통해서 구현될 수 있다.
주변장치 인터페이스부(2300)는 프로세서부(2100)와 주변장치 간에 통신을 가능하게 하는 역할을 수행한다.
여기서 주변장치의 경우, 하드웨어 시스템(2000)에 상이한 기능을 제공하기 위한 것으로서, 본 개시의 일 실시예에서는, 예컨대, 통신부(2310)가 포함될 수 있다.
여기서, 통신부(2310)는 다른 장치와의 통신 기능을 제공하는 역할을 수행하는 수행하게 되며, 이를 위해 예컨대, 안테나 시스템, RF 송수신기, 하나 이상의 증폭기, 튜너, 하나 이상의 발진기, 디지털 신호 처리기, 코덱(CODEC) 칩셋, 및 메모리 등을 포함하지만 이에 제한되지는 않으며, 이 기능을 수행하는 공지의 회로를 포함할 수 있다.
이러한, 통신부(2310)가 지원하는 통신 프로토콜로는, 예컨대, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 5G 통신시스템, 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신망으로는 유선 LAN(Local Area Network), 유선 WAN(Wide Area Network), 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있으며, 이제 제한되는 것이 아닌, 다른 장치와의 통신 환경을 제공할 수 있는 프로토콜은 모두 포함될 수 있다.
본 개시의 일 실시예에 따른 하드웨어 시스템(2000)에서 메모리부(2210)에 소프트웨어 모듈 형태로 저장되어 있는 각 구성은 프로세서부(2100)에 의해 실행되는 명령어의 형태로 메모리 인터페이스부(2200)와 주변장치 인터페이스부(2300)를 매개로 통신부(2310)와의 인터페이스를 수행한다.
이상에서 설명한 바와 같이, 본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안 되며, 오히려 특정한 발명의 특정한 실시 형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시 형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시 형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시 형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.
본 명세서에서 설명한 주제의 특정한 실시 형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부 도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현 예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.
본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.
따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.

Claims (10)

  1. 프로세서(processor); 및
    프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory); 를 포함하고,
    상기 적어도 하나의 명령은 상기 프로세서가:
    사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환하는 질문 수신 및 해석 단계;
    질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환하는 자연어 처리 단계; 및
    추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는 데이터베이스 쿼리 생성 단계; 를 수행하도록 구성되는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 장치.
  2. 사용자가 입력한 자연어 질문을 수신하여 분석하고, 질문의 유형을 분류하는 질문 수신 및 분류 모듈;
    사용자의 프로필과 과거 상호작용 기록을 바탕으로 사용자 맞춤형 쿼리를 생성하는 사용자 프로파일링 및 질문자 분류 모듈;
    질문이 분류된 후, 해당 질문에 맞는 메타데이터를 벡터 데이터베이스에서 검색하는 메타데이터 검색 및 대규모 언어 모델 연동 모듈;
    대규모 언어 모델 연동 모듈로부터 생성된 메타 언어를 기반으로 최적화된 데이터베이스 쿼리를 자동으로 생성하는 데이터베이스 비교 및 생성 모듈; 및
    생성된 데이터베이스 쿼리를 데이터베이스에 전달하여 결과를 검색하고, 데이터 처리 모듈을 통해 처리된 데이터를 사용자에게 적합한 형식으로 응답이 변환되어 제공하는 데이터 처리 및 출력 모듈;을 포함하는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템.
  3. 청구항 2에 있어서, 질문 수신 및 분류 모듈은,
    질문이 데이터 검색, 계산 요청, 또는 보고서 생성 작업에 해당하는지를 결정하며,
    사용자의 의도와 요구 사항을 기반으로 적절한 질문 유형을 파악하는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템.
  4. 청구항 2에 있어서, 사용자 프로파일링 및 질문자 분류 모듈은,
    사용자가 이전에 어떤 데이터를 요청했는지, 데이터를 어떻게 처리했는지 의 정보를 분석하여 사용자별로 최적화된 쿼리를 생성하는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템.
  5. 청구항 2에 있어서, 메타데이터 검색 및 대규모 언어 모델 연동 모듈은,
    검색된 메타데이터는 대규모 언어 모델에 입력되어 이를 메타 언어로 변환하고,
    대규모 언어 모델은 이를 바탕으로 질문에 적합한 응답을 생성하는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템.
  6. 청구항 2에 있어서, 데이터베이스 비교 및 생성 모듈은,
    대규모 언어 모델으로부터 생성된 메타 언어를 기반으로 최적화된 데이터베이스 쿼리를 자동으로 생성하고,
    사용자의 프로파일, 권한, 과거 쿼리 및 상호작용 이력을 고려하여 데이터베이스 쿼리를 최적화하고,
    사용자의 이전 쿼리와 비교 분석을 통해 향상된 성능과 정확도를 제공하는 개선된 데이터베이스를 생성하는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템.
  7. 사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환하는 질문 수신 및 해석 단계;
    질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환하는 자연어 처리 단계; 및
    추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는 데이터베이스 쿼리 생성 단계; 를 포함하는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법.
  8. 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법으로서,
    사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환하는 질문 수신 및 해석 단계;
    질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환하는 자연어 처리 단계; 및
    추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는 데이터베이스 쿼리 생성 단계; 를 포함하는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법.
  9. 청구항 8에 있어서, 상기 방법은,
    메타 데이터를 기반으로 한 최종 결과는 스트리밍 방식으로 사용자에게 실시간으로 전달되는 결과 제공 단계를 더 포함하는,
    질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법.
  10. 컴퓨터 판독가능 저장 매체에 저장되는 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에 의해 실행되는 경우 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 방법을 수행하며, 상기 방법은,
    사용자가 자연어로 작성한 질문을 수신하고, 이를 기계가 이해할 수 있는 형태로 변환하는 질문 수신 및 해석 단계;
    질문을 분석하여 의미를 파악하고, 질문 내의 키워드나 문맥을 추출하여 데이터베이스에 질의할 수 있는 형태로 변환하는 자연어 처리 단계; 및
    추출된 키워드와 분석된 문맥을 기반으로 데이터베이스 쿼리를 생성하여 데이터베이스로부터 결과를 반환받는 데이터베이스 쿼리 생성 단계;를 포함하는,
    컴퓨터 판독가능 저장 매체에 저장되는 컴퓨터 프로그램.
PCT/KR2024/018378 2023-11-20 2024-11-20 질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법 Pending WO2025110708A2 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2025513449A JP2026502033A (ja) 2023-11-20 2024-11-20 質問ベースのデータサービスを提供するための装置、システムおよびその方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20230161303 2023-11-20
KR10-2023-0161303 2023-11-20
KR1020240160051A KR102814588B1 (ko) 2023-11-20 2024-11-12 질문자군을 이용한 데이터 서비스를 제공하기 위한 장치 및 이를 위한 방법
KR10-2024-0160051 2024-11-12
KR10-2024-0160050 2024-11-12
KR1020240160050A KR20250076395A (ko) 2024-11-12 2024-11-12 질문 분류 및 질문자 분류에 의한 데이터베이스 비교 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
WO2025110708A2 true WO2025110708A2 (ko) 2025-05-30
WO2025110708A3 WO2025110708A3 (ko) 2025-07-17

Family

ID=95827062

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2024/018378 Pending WO2025110708A2 (ko) 2023-11-20 2024-11-20 질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법

Country Status (2)

Country Link
JP (1) JP2026502033A (ko)
WO (1) WO2025110708A2 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110129713A (ko) * 2010-05-26 2011-12-02 김철민 온오프라인 통합 정보 제공 에이전트, 이를 이용한 시스템 및 방법
US10402439B2 (en) * 2016-07-29 2019-09-03 Rovi Guides, Inc. Systems and methods for executing a supplemental function for a natural language query
US11295368B2 (en) * 2019-11-22 2022-04-05 Stubhub, Inc. Interactive and personalized ticket recommendation
KR102339794B1 (ko) * 2020-12-04 2021-12-16 주식회사 애자일소다 질의 응답 서비스 장치 및 방법
KR20230073684A (ko) * 2021-11-19 2023-05-26 현대자동차주식회사 추천 알고리즘 기반 문제 조치 제안 시스템 및 그 방법

Also Published As

Publication number Publication date
WO2025110708A3 (ko) 2025-07-17
JP2026502033A (ja) 2026-01-21

Similar Documents

Publication Publication Date Title
JP2021166098A (ja) 検索語の推薦方法と装置、目的モデルの訓練方法と装置、電子デバイス、記憶媒体、及びプログラム
WO2021157897A1 (en) A system and method for efficient multi-relational entity understanding and retrieval
WO2021060609A1 (ko) 복수의 엣지와 클라우드를 포함하는 분산 컴퓨팅 시스템 및 이의 적응적 지능 활용을 위한 모델 제공 방법
CN110390094B (zh) 对文档进行分类的方法、电子设备和计算机程序产品
WO2019242090A1 (zh) 智能客服应答方法、设备、存储介质及装置
WO2018004236A1 (ko) 개인정보의 비식별화 방법 및 장치
EP3164847A1 (en) Electronic device and method for providing content on electronic device
WO2018097407A1 (ko) 사용자 정의 erp 펑션 공유 방법 및 시스템
CN107609192A (zh) 一种搜索引擎的补充搜索方法和装置
WO2014044167A1 (en) Method and computer for indexing and searching structures
CN111538817A (zh) 人机交互方法和装置
WO2023075313A1 (en) Text classification method, text classification apparatus, electronic device, storage medium and program product
WO2011068315A4 (ko) 최대 개념강도 인지기법을 이용한 최적의 데이터베이스 선택장치 및 그 방법
US20240104005A1 (en) Method for testing application
WO2025110708A2 (ko) 질문 기반 데이터 서비스를 제공하기 위한 장치, 시스템 및 그 방법
WO2024029939A1 (ko) Esg 보조 툴을 이용하여 정형화된 esg 데이터로 이루어진 esg 데이터베이스를 구축하는 방법 및 이를 수행하는 esg 서비스 제공 시스템
WO2017020620A1 (zh) 标签页同步方法、电子设备及存储介质
US20210294776A1 (en) System for natural language processing-based electronic file scanning for processing database queries
WO2025136017A1 (ko) 생성형 ai를 이용하여 자연어 질의에 따라 데이터 분석을 수행하는 방법 및 이를 수행하기 위한 전자 장치
CN118734870A (zh) 基于大模型的文本转换方法、装置、电子设备及存储介质
WO2025110706A1 (ko) 질문자 정보에 따른 메타 생성 및 데이터베이스 최적화 시스템 및 그 방법
WO2025110705A1 (ko) 질문 및 의도 분류에 따른 도메인 기반의 사용자 맞춤 데이터베이스 생성을 위한 시스템 및 그 방법
WO2011025162A2 (ko) 특정 클래스에 속하는 엔터티의 리스트 검색 방법
WO2023210855A1 (ko) 텍스트 추출을 이용한 시뮬레이션 방법
WO2024143684A1 (ko) 콘텐츠 추천 방법 및 시스템

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2025513449

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2025513449

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24894600

Country of ref document: EP

Kind code of ref document: A2