JP2025138445A - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing programInfo
- Publication number
- JP2025138445A JP2025138445A JP2024037544A JP2024037544A JP2025138445A JP 2025138445 A JP2025138445 A JP 2025138445A JP 2024037544 A JP2024037544 A JP 2024037544A JP 2024037544 A JP2024037544 A JP 2024037544A JP 2025138445 A JP2025138445 A JP 2025138445A
- Authority
- JP
- Japan
- Prior art keywords
- user
- screenshot
- unit
- question
- expert
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】サーバ側でスクリーンショットを取得し、スクリーンショット起因でのアクションを行う。
【解決手段】本願に係る情報処理装置は、利用者からスクリーンショットと質問文章とを取得する取得部と、スクリーンショットと質問文章とから、利用者の質問の意図を推定する推定部と、スクリーンショットと利用者の質問の意図とから、回答者となる専門家を選定する選定部と、スクリーンショットと質問文章とを専門家に提供して問い合わせを行う提供部と、を備え、取得部は、専門家から回答を取得し、提供部は、専門家からの回答を利用者に提供することを特徴とする。
【選択図】図3
[Problem] Take screenshots on the server side and perform actions based on the screenshots.
[Solution] The information processing device of the present application comprises an acquisition unit that acquires screenshots and question text from a user, an estimation unit that infers the intention of the user's question from the screenshot and question text, a selection unit that selects an expert to answer the question from the screenshot and the intention of the user's question, and a provision unit that provides the screenshot and question text to the expert to make an inquiry, wherein the acquisition unit acquires answers from the experts and the provision unit provides the answers from the experts to the user.
[Selected Figure] Figure 3
Description
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.
SNS(Social Networking Service)の普及に伴い、生成したスクリーンショットを他のユーザと共有する技術が開示されている(特許文献1参照)。 With the spread of social networking services (SNS), technology has been disclosed that allows users to share screenshots they have created with other users (see Patent Document 1).
しかしながら、上記の従来技術では、スクリーンショットはユーザ間で直接共有されており、サーバ側が関与できる余地はほとんどなかった。 However, with the above-mentioned conventional technology, screenshots are shared directly between users, leaving little room for server-side involvement.
本願は、上記に鑑みてなされたものであって、サーバ側でスクリーンショットを取得し、スクリーンショット起因でのアクションを行うことを目的とする。 This application was made in consideration of the above, and aims to capture screenshots on the server side and perform actions triggered by the screenshots.
本願に係る情報処理装置は、利用者からスクリーンショットと質問文章とを取得する取得部と、前記スクリーンショットと前記質問文章とから、前記利用者の質問の意図を推定する推定部と、前記スクリーンショットと前記利用者の質問の意図とから、回答者となる専門家を選定する選定部と、前記スクリーンショットと前記質問文章とを専門家に提供して問い合わせを行う提供部と、を備え、前記取得部は、前記専門家から回答を取得し、前記提供部は、前記専門家からの回答を前記利用者に提供することを特徴とする。 The information processing device according to the present application comprises an acquisition unit that acquires a screenshot and a question from a user, an estimation unit that estimates the intent of the user's question from the screenshot and the question, a selection unit that selects an expert to answer the question from the screenshot and the intent of the user's question, and a provision unit that provides the screenshot and the question to the expert to make an inquiry, wherein the acquisition unit acquires an answer from the expert, and the provision unit provides the answer from the expert to the user.
実施形態の一態様によれば、サーバ側でスクリーンショットを取得し、スクリーンショット起因でのアクションを行うことができる。 According to one aspect of the embodiment, screenshots can be captured on the server side and actions can be taken based on the screenshot.
以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, detailed explanations will be given of the information processing device, information processing method, and information processing program (hereinafter referred to as "embodiments") according to the present application, with reference to the drawings. Note that the information processing device, information processing method, and information processing program according to the present application are not limited to these embodiments. Furthermore, identical components in the following embodiments will be designated by the same reference numerals, and duplicate explanations will be omitted.
〔1.情報処理システムの概要〕
まず、図1を参照し、実施形態に係る情報処理システムの概要について説明する。図1は、実施形態に係る情報処理システムの概要を示す説明図である。図1に示すように、実施形態に係る情報処理システム1は、端末装置10とサーバ装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により互いに通信可能に接続される。これにより、端末装置10は、サーバ装置100と連携可能である。ネットワークNは、例えば、LAN(Local Area Network)やWAN(Wide Area Network)、インターネット等である。
[1. Overview of the information processing system]
First, an overview of an information processing system according to an embodiment will be described with reference to Fig. 1. Fig. 1 is an explanatory diagram showing an overview of an information processing system according to an embodiment. As shown in Fig. 1, an information processing system 1 according to an embodiment includes a terminal device 10 and a server device 100. These various devices are connected to each other via a network N in a wired or wireless manner so as to be able to communicate with each other. This allows the terminal device 10 to cooperate with the server device 100. The network N is, for example, a local area network (LAN), a wide area network (WAN), the Internet, etc.
端末装置10は、利用者U(ユーザ)によって使用される情報処理装置である。例えば、端末装置10は、スマートフォン(スマホ)やタブレット端末等のスマートデバイス、フィーチャーフォン(ガラケー・ガラホ)等の携帯電話、PC(Personal Computer)、PDA(Personal Digital Assistant)、通信機能を備えたゲーム機やAV機器、情報家電・デジタル家電、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ、スマートグラス等のウェアラブルデバイス(Wearable Device)等である。また、端末装置10は、IOT(Internet of Things)に対応した住宅・建物、車、家電製品、電子機器等であってもよい。 The terminal device 10 is an information processing device used by a user U. For example, the terminal device 10 may be a smart device such as a smartphone or tablet, a mobile phone such as a feature phone (Gala-ke/Gala-ho), a personal computer (PC), a personal digital assistant (PDA), a game console or AV device with communication functions, an information appliance or digital appliance, a car navigation system, or a wearable device such as a smartwatch, a head-mounted display, or smart glasses. The terminal device 10 may also be a home or building, a car, a home appliance, or an electronic device that is compatible with the Internet of Things (IoT).
本実施形態では、端末装置10は、利用者Uにより使用されるスマートフォンやタブレット端末等のスマートデバイスであり、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、又は無線LAN等を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。 In this embodiment, terminal device 10 is a smart device such as a smartphone or tablet used by user U, and is a portable terminal device capable of communicating with any server device via a wireless communication network such as LTE (Long Term Evolution), 4G (4th Generation), or 5G (5th Generation: fifth generation mobile communication system), Bluetooth (registered trademark), or wireless LAN. Terminal device 10 also has a screen such as an LCD display with touch panel functionality, and accepts various operations on displayed data such as content, such as tapping, sliding, and scrolling, performed by user U with a finger or stylus. Note that operations performed on an area of the screen where content is displayed may be considered operations on the content. Terminal device 10 may not only be a smart device, but also an information processing device such as a desktop PC (Personal Computer) or laptop PC.
サーバ装置100は、例えばPCやブレードサーバ(blade server)等のコンピュータ、あるいはメインフレーム又はワークステーション等である。なお、サーバ装置100は、クラウドコンピューティングにより実現されてもよい。 The server device 100 is, for example, a computer such as a PC or a blade server, or a mainframe or workstation. The server device 100 may also be implemented using cloud computing.
本実施形態では、サーバ装置100は、各利用者Uの端末装置10と連携し、各利用者Uの端末装置10に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、コンピュータやクラウドシステム等により実現される。 In this embodiment, the server device 100 is an information processing device that works in conjunction with the terminal device 10 of each user U and provides API (Application Programming Interface) services for various applications (hereinafter referred to as apps) and various data to each user U's terminal device 10, and is realized by a computer, cloud system, etc.
また、サーバ装置100は、各利用者Uの端末装置10に対して、何らかのオンラインサービスを提供する情報処理装置であってもよい。例えば、サーバ装置100は、オンラインサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引(EC:Electronic Commerce)、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、サーバ装置100は、上記のようなオンラインサービスを提供する各種サーバと連携し、オンラインサービスを仲介してもよいし、オンラインサービスの処理を担当してもよい。 Furthermore, the server device 100 may be an information processing device that provides some kind of online service to the terminal device 10 of each user U. For example, the server device 100 may provide services such as internet connection, search services, SNS (Social Networking Service), electronic commerce (EC), electronic payments, online games, online banking, online trading, accommodation and ticket reservations, video and music distribution, news, maps, route searches, route guidance, line information, operation information, and weather forecasts as online services. In practice, the server device 100 may work in conjunction with various servers that provide the above-mentioned online services, and act as an intermediary for the online services or be responsible for processing the online services.
なお、サーバ装置100は、利用者Uに関する利用者情報を取得可能である。例えば、サーバ装置100は、利用者情報として、利用者Uの性別、年代、居住地域といった利用者Uの属性に関する情報(属性情報)を取得する。また、サーバ装置100は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を取得可能である。また、サーバ装置100は、利用者情報として、マーケティングの分野において利用者Uの属するセグメントやペルソナ(人物像)等を取得してもよい。そして、サーバ装置100は、利用者Uを示す識別情報(利用者ID等)とともに利用者Uの属性に関する情報(属性情報)を記憶して管理する。 The server device 100 can acquire user information about the user U. For example, the server device 100 acquires information (attribute information) about the attributes of the user U, such as the gender, age, and area of residence of the user U. The server device 100 can also acquire information about the attributes of the user U, such as demographic attributes, psychographic attributes, geographic attributes, and behavioral attributes. The server device 100 may also acquire, as user information, the segment or persona (personality) to which the user U belongs in the marketing field. The server device 100 then stores and manages the information about the attributes of the user U (attribute information) along with identification information (user ID, etc.) that identifies the user U.
また、サーバ装置100は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、サーバ装置100は、利用者Uの位置や日時の履歴である位置履歴を端末装置10から取得する。また、サーバ装置100は、利用者Uが入力した検索クエリの履歴である検索履歴を検索サーバ(検索エンジン)から取得する。また、サーバ装置100は、利用者Uが閲覧したコンテンツの履歴である閲覧履歴をコンテンツサーバから取得する。また、サーバ装置100は、利用者Uの商品購入や決済処理の履歴である購入履歴(決済履歴)を電子商取引サーバや決済処理サーバから取得する。また、サーバ装置100は、利用者Uのマーケットプレイスへの出品の履歴である出品履歴や販売履歴を電子商取引サーバや決済処理サーバから取得してもよい。また、サーバ装置100は、利用者Uの投稿の履歴である投稿履歴を口コミの投稿サービスを提供する投稿サーバやSNSサーバから取得する。なお、上記の各種サーバ等は、サーバ装置100自体であってもよい。すなわち、サーバ装置100が上記の各種サーバ等として機能してもよい。 The server device 100 also acquires various historical information (log data) indicating user U's behavior from user U's terminal device 10 or from various servers based on the user ID, etc. For example, the server device 100 acquires user U's location history, which is a history of user U's location and date and time, from the terminal device 10. The server device 100 also acquires user U's search history, which is a history of search queries entered by user U, from a search server (search engine). The server device 100 also acquires user U's browsing history, which is a history of content viewed by user U, from a content server. The server device 100 also acquires user U's purchase history (payment history), which is a history of product purchases and payment processes, from an e-commerce server or a payment processing server. The server device 100 may also acquire user U's listing history and sales history, which are a history of user U's listings on the marketplace, from the e-commerce server or the payment processing server. The server device 100 also acquires user U's posting history, which is a history of user U's posts, from a posting server or SNS server that provides a word-of-mouth posting service. Note that the various servers described above may be the server device 100 itself. In other words, the server device 100 may function as the various servers described above.
また、図1に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図1では、図示の簡略化のため、端末装置10を1台のみ示したが、これはあくまでも例示であって限定されるものではなく、2台以上であってもよい。 Furthermore, the number of devices included in the information processing system 1 shown in Figure 1 is not limited to that shown. For example, in Figure 1, only one terminal device 10 is shown to simplify the illustration, but this is merely an example and is not limiting; there may be two or more devices.
〔2.スクリーンショットの利用〕
近年、若年層ではネット情報を共有(シェア)する手段として、シェアボタン等によるリンク発行(リンク先の提示)に代わって相手のパケット通信負荷の少ないスクリーンショット(スクショ)の共有による情報共有が広がっている。しかし、現状ではスクリーンショットの共有はユーザ端末間で行われており、サーバ側で関与できることは少ない。本実施形態では、サーバ装置100が端末装置10同士のスクリーンショットの共有に介入し、スクリーンショット起因でのアクションを行う。
[2. Use of Screenshots]
In recent years, as a means of sharing online information among young people, screenshots, which place less of a burden on the other party's packet communication, have become popular, replacing the issuance of links (presentation of link destinations) using share buttons and the like. However, currently, screenshot sharing is performed between user terminals, and the server side has little opportunity to intervene. In this embodiment, the server device 100 intervenes in the sharing of screenshots between terminal devices 10 and takes action in response to the screenshots.
〔2-1.スクリーンショット起因でのグループ形成〕
サーバ装置100は、同じニュース記事をスクリーンショットした利用者をグループ化し、同じグループ内の利用者だけが参加できるクローズドコミュニティ(オープンチャット等)を形成する。すなわち、サーバ装置100は、スクリーンショットしたニュース記事の共通性や類似性に基づいて各利用者をグループ化し、同じグループ内の利用者だけが参加できるクローズドコミュニティを形成してもよい。
[2-1. Group formation due to screenshots]
The server device 100 groups users who have taken screenshots of the same news article and forms a closed community (such as an open chat) that only users in the same group can participate in. In other words, the server device 100 may group users based on the commonality or similarity of the news articles they have taken screenshots of, and form a closed community that only users in the same group can participate in.
また、サーバ装置100は、同じグループ内の利用者間でスクリーンショットの内容(当該ニュース記事)に対するコメント投稿を行うサービスや、同じグループ内の利用者間での情報をやり取りするサービスを提供してもよい。 The server device 100 may also provide a service that allows users in the same group to post comments on the contents of a screenshot (the news article in question), or a service that allows users in the same group to exchange information.
例えば、図1に示すように、サーバ装置100は、ネットワークNを介して、利用者Uの端末装置10から、ニュースサイト/アプリのニュース記事のスクリーンショットを取得(収集)する(ステップS1)。このとき、サーバ装置100は、利用者Uが興味関心を持った(又は利用者Uの疑問や悩み、質問に関連する)ニュース記事の一部のスクリーンショットを取得する。スクリーンショットを撮影している時点で、利用者Uはニュース記事の当該箇所(フォーカスした箇所)の内容に対して相当興味関心を持っていると推測される。 For example, as shown in FIG. 1, the server device 100 acquires (collects) screenshots of news articles on a news site/app from the user U's terminal device 10 via the network N (step S1). At this time, the server device 100 acquires screenshots of parts of the news articles that interest the user U (or that are related to the user U's doubts, worries, or questions). At the time the screenshot is taken, it is assumed that the user U is quite interested in the content of that part of the news article (the focused part).
実際には、利用者Uが端末装置10でニュース記事のスクリーンショットを撮影した際に、アプリ等の機能により自動的に端末装置10からサーバ装置100にスクリーンショットを送信するようにしてもよいし、サーバ装置100にスクリーンショットを送信するか否か利用者Uに確認し、利用者Uが許可した場合にサーバ装置100にスクリーンショットを送信するようにしてもよい。 In practice, when user U takes a screenshot of a news article on terminal device 10, the screenshot may be automatically sent from terminal device 10 to server device 100 using a function of an app or the like, or user U may be asked whether or not to send the screenshot to server device 100, and the screenshot may be sent to server device 100 if user U gives permission.
次に、サーバ装置100は、各利用者の端末装置10から取得したニュース記事のスクリーンショットが同一であるか否か判定する(ステップS2)。 Next, the server device 100 determines whether the screenshots of the news articles obtained from each user's terminal device 10 are identical (step S2).
次に、サーバ装置100は、ニュース記事のスクリーンショットが同一であると判定された利用者をグループ化する(ステップS3)。 Next, the server device 100 groups users whose screenshots of news articles are determined to be identical (step S3).
次に、サーバ装置100は、同じグループ内の利用者だけが参加できるクローズドコミュニティ(オープンチャット等)を形成する(ステップS4)。 Next, the server device 100 creates a closed community (such as an open chat) that only users within the same group can participate in (step S4).
次に、サーバ装置100は、クローズドコミュニティ内での情報共有サービスを提供する(ステップS5)。 Next, the server device 100 provides an information sharing service within the closed community (step S5).
〔2-2.スクリーンショット起因でのコメント表示〕
次に、図2を参照して、スクリーンショット起因でのコメント表示について説明する。図2は、スクリーンショット起因でのコメント表示の概要を示す説明図である。
[2-2. Displaying comments due to screenshots]
Next, comment display caused by a screenshot will be described with reference to Fig. 2. Fig. 2 is an explanatory diagram showing an overview of comment display caused by a screenshot.
例えば、図2に示すように、サーバ装置100は、ネットワークNを介して、利用者Uの端末装置10から、コメント投稿可能なニュースサイト/アプリのニュース記事のスクリーンショットを取得する(ステップS11)。 For example, as shown in FIG. 2, the server device 100 acquires a screenshot of a news article on a news site/app that allows comments to be posted from the terminal device 10 of the user U via the network N (step S11).
なお、ニュースサイト/アプリは一例に過ぎない。実際には、SNSや、Q&Aサイト、人生相談のサイト、専門分野のサイト、動画・音楽等の配信サイト、小説・イラスト等の投稿サイト、その他のコメント投稿可能なサイト/アプリ等であってもよい。 Note that news sites/apps are just one example. In reality, they could be social networking sites, Q&A sites, life advice sites, specialized field sites, video/music distribution sites, novel/illustration posting sites, or other sites/apps that allow users to post comments.
次に、サーバ装置100は、ニュースサイト/アプリにおいて当該ニュース記事に対して投稿されたコメントの中から、当該ニュース記事の内容と関連性のあるコメントを候補コメントとして抽出する(ステップS12)。すなわち、サーバ装置100は、当該ニュース記事に対して投稿されたコメントのうち、当該ニュース記事の内容と無関係のコメント(及び関連性の薄いコメント)を排除する。 Next, the server device 100 extracts comments that are relevant to the content of the news article from among the comments posted to the news article on the news site/app as candidate comments (step S12). In other words, the server device 100 eliminates comments that are unrelated to the content of the news article (and comments that are only vaguely relevant) from among the comments posted to the news article.
このとき、サーバ装置100は、ニュース記事のスクリーンショットを取得した際に、当該ニュース記事の掲載元のニュースサイト/アプリを特定してもよい。すなわち、サーバ装置100は、利用者Uの端末装置10がスクリーンショット撮影時に開いている(スクリーンショット撮影時に起動中の)ニュースサイト/アプリを特定してもよい。サーバ装置100が利用者Uの端末装置10にニュース記事を提供している場合、ニュース記事の掲載元を特定することは容易である。 In this case, when the server device 100 acquires a screenshot of a news article, it may identify the news site/app that published the news article. In other words, the server device 100 may identify the news site/app that is open (running) on the terminal device 10 of user U when the screenshot is taken. If the server device 100 is providing news articles to the terminal device 10 of user U, it is easy to identify the source of the news article.
また、サーバ装置100は、ニュースサイト/アプリと、ニュース記事のフォームや書式等とを学習データとしてAI(Artificial Intelligence)に学習させ、このAIを用いて当該ニュース記事の掲載元のニュースサイト/アプリを推定してもよい。あるいは、サーバ装置100は、ネットワークNを介して、利用者Uの端末装置10から、ニュース記事のスクリーンショットとともに、掲載元のニュースサイト/アプリを示す識別情報を取得してもよい。 The server device 100 may also use AI (Artificial Intelligence) to learn the news site/app and the form and format of the news article as learning data, and use this AI to estimate the news site/app that published the news article. Alternatively, the server device 100 may obtain, via the network N, from the terminal device 10 of the user U, a screenshot of the news article along with identification information indicating the news site/app that published it.
なお、サーバ装置100は、当該ニュース記事に対して適切なコメントが可能と推測される他の利用者(専門家や経験者等)を回答者として選定して、選定された回答者に対してスクリーンショットを送信してコメント投稿を依頼し、得られたコメントを候補コメントとしてもよい。 The server device 100 may also select other users (experts, experienced people, etc.) who are presumed to be able to make appropriate comments on the news article as respondents, send screenshots to the selected respondents, and request them to post comments, with the resulting comments being used as candidate comments.
次に、サーバ装置100は、ネットワークNを介して、候補コメントを利用者Uの端末装置10に提供(提示)する(ステップS13)。このとき、利用者Uは、候補コメントの中から適当なコメント(利用者Uの意図に合致するコメント等)を選択する。例えば、利用者Uは、自分の興味関心、疑問、悩み、質問等に関連するコメント等を選択する。 Next, the server device 100 provides (presents) the candidate comments to the terminal device 10 of the user U via the network N (step S13). At this time, the user U selects an appropriate comment from the candidate comments (such as a comment that matches the user U's intentions). For example, the user U selects a comment related to their interests, concerns, worries, questions, etc.
次に、サーバ装置100は、ニュース記事のスクリーンショットと、候補コメントの中から利用者Uが選択したコメント(選択コメント)とをマージ(Merge)したコンテンツであって、コメント投稿可能なコンテンツを生成する(ステップS14)。なお、選択コメントは複数であってもよい。サーバ装置100は、ニュース記事のスクリーンショットと、選択コメントとをマージして1枚の画像としてもよい。これにより、スクリーンショットに、専門家や他のユーザのコメントを追加できる。 Next, the server device 100 generates content that can be commented on by merging a screenshot of the news article with a comment (selected comment) selected by the user U from the candidate comments (step S14). Note that there may be multiple selected comments. The server device 100 may merge the screenshot of the news article with the selected comment to create a single image. This allows comments from experts and other users to be added to the screenshot.
このとき、サーバ装置100は、コンテンツにおいて、コメントをニュース記事のスクリーンショットの関連位置に表示してもよい。例えば、サーバ装置100は、ニュース記事のスクリーンショットの中で、コメントに対応する文章や画像(コメントが指し示す対象等)の位置に当該コメントを配置したコンテンツを生成する。 In this case, the server device 100 may display the comment in the content at a position related to the screenshot of the news article. For example, the server device 100 may generate content in which the comment is placed in the position of the text or image (such as the object indicated by the comment) that corresponds to the comment in the screenshot of the news article.
また、サーバ装置100は、スクリーンショットされたニュース記事のうち、利用者Uが特に注目していると思われる箇所(特定のテーマやキーワード等に言及している箇所等)を推定し、コンテンツにおいてその箇所を強調するとともに、その箇所に関する情報を提供してもよい。 The server device 100 may also estimate which parts of the screenshotted news article are likely to be of particular interest to the user U (such as parts that mention specific themes or keywords), and may highlight those parts in the content and provide information about those parts.
次に、サーバ装置100は、生成されたコンテンツを利用者Uが指定した他の利用者に提供する(ステップS15)。これにより、利用者Uは、生成されたコンテンツを所望の利用者と共有(シェア)する。このとき、サーバ装置100は、利用者Uと同じグループ内の利用者に提供してもよい。 Next, the server device 100 provides the generated content to other users designated by user U (step S15). This allows user U to share the generated content with desired users. At this time, the server device 100 may provide the content to users in the same group as user U.
〔2-3.スクリーンショット起因での専門家への問い合わせ〕
次に、図3を参照して、スクリーンショット起因での専門家への問い合わせについて説明する。図3は、スクリーンショット起因での専門家への問い合わせの概要を示す説明図である。
[2-3. Inquiry to an expert due to screenshots]
Next, an inquiry to an expert caused by a screenshot will be described with reference to Fig. 3. Fig. 3 is an explanatory diagram showing an overview of an inquiry to an expert caused by a screenshot.
例えば、図3に示すように、サーバ装置100は、ネットワークNを介して、利用者Uの端末装置10から、コメント投稿可能なニュースサイト/アプリのニュース記事のスクリーンショットと、質問文章とを取得する(ステップS21)。 For example, as shown in FIG. 3, the server device 100 acquires a screenshot of a news article from a news site/app that allows comments to be posted, and a question text, from the terminal device 10 of the user U via the network N (step S21).
次に、サーバ装置100は、取得されたスクリーンショットと質問文章とから、利用者Uの質問の意図を推定する(ステップS22)。すなわち、サーバ装置100は、利用者Uがスクリーンショットされたニュース記事のどの部分に興味関心を持ち、どのような意図で質問をしたかを推定する。 Next, the server device 100 estimates the intention of user U's question from the acquired screenshot and question text (step S22). In other words, the server device 100 estimates which part of the screenshotted news article user U was interested in and what intention he or she had in asking the question.
このとき、サーバ装置100は、さらに利用者Uの過去の検索、閲覧記事、記事評価などから、当該ニュース記事における利用者Uの興味関心・共感ポイントを明確化させ、利用者Uの質問の意図を推定してもよい。 At this time, the server device 100 may further clarify user U's points of interest and empathy in the news article based on user U's past searches, articles viewed, article ratings, etc., and infer the intention of user U's question.
また、サーバ装置100は、GPT(Generative Pretrained Transformer)等の生成系AIを用いて質問の意図を推定してもよい。例えば、サーバ装置100は、取得されたスクリーンショットと質問文章とを含むプロンプト(Prompt)をGPTに投入して、GPTにより推測された質問の意図を取得してもよい。 The server device 100 may also infer the intent of the question using generative AI such as a Generative Pretrained Transformer (GPT). For example, the server device 100 may input a prompt containing the acquired screenshot and question text into the GPT, and obtain the intent of the question inferred by the GPT.
次に、サーバ装置100は、スクリーンショットの内容と質問の意図(又は質問文章)とから回答者として適切な専門家を選定する(ステップS23)。すなわち、サーバ装置100は、スクリーンショットされた部分に関わる専門領域(分野)の専門家をマッチングする。なお、選定される専門家は複数人でもよい。例えば、サーバ装置100は、スクリーンショットされた部分(又はその中で特に利用者Uが興味関心を持っていると推測される部分)が複数の専門領域に関わる場合、専門領域ごとに専門家をマッチングしてもよい。 Next, the server device 100 selects an appropriate expert as the respondent based on the content of the screenshot and the intent of the question (or the question text) (step S23). In other words, the server device 100 matches experts in the specialized fields (areas) related to the screenshotted portion. Note that multiple experts may be selected. For example, if the screenshotted portion (or the portion thereof that is expected to be of particular interest to user U) relates to multiple specialized fields, the server device 100 may match experts for each specialized field.
また、サーバ装置100は、スクリーンショットの内容と質問の意図(又は質問文章)とから、専門家に質問するか、GPTにより回答するかを判定してもよい。そして、サーバ装置100は、GPTにより回答すると判断した場合には、スクリーンショットの内容と質問の意図(又は質問文章)とを含むプロンプトをGPTに投入して、GPTにより生成された回答を取得してもよい。 The server device 100 may also determine whether to ask an expert or to provide an answer using GPT based on the content of the screenshot and the intent of the question (or the question text). If the server device 100 determines to provide an answer using GPT, it may input a prompt including the content of the screenshot and the intent of the question (or the question text) into GPT and obtain an answer generated by GPT.
また、サーバ装置100は、スクリーンショットの内容と質問の意図と専門家との組を学習データとして予測AIに学習させ、この予測AIを用いてスクリーンショットの内容と質問の意図とから専門家を選定してもよい。 The server device 100 may also have the predictive AI learn pairs of screenshot content, question intent, and expert as learning data, and use this predictive AI to select an expert based on the screenshot content and question intent.
また、専門家は、スクリーンショットの内容(分野、テーマ等)とあらかじめ対応付けられていてもよい。また、サーバ装置100は、スクリーンショットと質問文章との組と対応する分野の専門家を選定するようにしてもよい。また、サーバ装置100は、複数の利用者(又は所定の人数以上)がスクリーンショットした箇所(部分)と対応する分野の専門家を選定するようにしてもよい。 In addition, experts may be associated in advance with the content of the screenshot (field, theme, etc.). Furthermore, the server device 100 may select an expert in a field corresponding to a pair of screenshot and question text. Furthermore, the server device 100 may select an expert in a field corresponding to a portion (part) screenshotted by multiple users (or a predetermined number of users or more).
次に、サーバ装置100は、ネットワークNを介して、選定された専門家にスクリーンショットと質問文章とを提供して、当該専門家から回答を取得する(ステップS24)。 Next, the server device 100 provides the screenshot and question text to the selected expert via the network N and obtains an answer from the expert (step S24).
このとき、サーバ装置100は、専門家に対して、スクリーンショットと質問文章とともに、スクリーンショットの元(ニュース記事等)の原文の内容やリンクを同時に送付してもよい。 At this time, the server device 100 may simultaneously send the content and link of the original text of the screenshot (such as a news article) to the expert along with the screenshot and question.
また、サーバ装置100は、回答した専門家に対して報酬(ポイント等)を支払うようにしてもよい。専門家は、回答を提供すると、報酬(ポイント等)をもらう。 The server device 100 may also pay a reward (points, etc.) to the expert who provides the answer. The expert receives a reward (points, etc.) when providing an answer.
次に、サーバ装置100は、ネットワークNを介して、利用者Uの端末装置10に回答を提供する(ステップS25)。このとき、サーバ装置100は、回答とともに、回答した専門家の氏名や専門分野、専門性に関するランク(回答の信用ランク)等に関する情報を利用者Uに提示してもよい。回答した専門家は、自身の専門性の高さを利用者Uにアピールすることができるとともに、専門家としての知名度を高めることができる。 Next, the server device 100 provides the answer to the terminal device 10 of the user U via the network N (step S25). At this time, the server device 100 may present to the user U, along with the answer, information about the expert who provided the answer, such as the expert's name, field of expertise, and rank of expertise (the answer's credibility rank). The expert who provided the answer can appeal to the user U about the high level of their expertise and increase their recognition as an expert.
次に、サーバ装置100は、スクリーンショットと回答とをマージして記事化する(ステップS26)。すなわち、サーバ装置100は、スクリーンショットと回答とをマージしたコンテンツを生成する。このとき、サーバ装置100は、生成されたコンテンツを利用者Uが指定した他の利用者に提供してもよい。当該コンテンツが不特定多数の利用者に公開される場合、回答した専門家は、自身の専門性の高さを閲覧した利用者にアピールすることができるとともに、専門家としての知名度を高めることができる。 Next, the server device 100 merges the screenshot and the response to create an article (step S26). That is, the server device 100 generates content by merging the screenshot and the response. At this time, the server device 100 may provide the generated content to other users designated by user U. If the content is made public to an unspecified number of users, the expert who provided the response can demonstrate their high level of expertise to users who view the content and increase their recognition as an expert.
また、サーバ装置100は、当該コンテンツを生成する際、上記2-2で説明したコメント表示と同じ手法を用いてコンテンツを生成してもよい。この場合、専門家からの回答を、投稿されたコメントとして扱う。 Furthermore, when generating the content, the server device 100 may generate the content using the same method as the comment display described in 2-2 above. In this case, the answers from the experts are treated as posted comments.
〔2-3-1.補足〕
なお、サーバ装置100は、スクリーンショットと質問文章と回答との組を履歴情報(ログデータ)として蓄積してもよい。このとき、履歴情報の保存期間は一定期間として、一定期間の経過後は古い履歴情報から順に消去してもよい。
[2-3-1. Supplementary Information]
The server device 100 may store sets of screenshots, question sentences, and answers as history information (log data). In this case, the history information may be stored for a fixed period of time, and the oldest history information may be deleted after the fixed period has elapsed.
さらに、サーバ装置100は、スクリーンショットと質問文章とを取得した際に、過去に(既に)取得されたスクリーンショットと質問文章との履歴情報を参照し、取得されたスクリーンショットと質問文章とが、過去に取得されたスクリーンショットと質問文章と同じであるか否かを判定してもよい。そして、サーバ装置100は、取得されたスクリーンショットと質問文章とが、過去に取得されたスクリーンショットと質問文章と同じである場合、専門家に対して同じ質問を何度も繰り返すことになるのを避けるため、過去の履歴情報から同じスクリーンショットと質問文章とに対する回答を抽出し、ネットワークNを介して、抽出された回答を利用者Uの端末装置10に提供してもよい。 Furthermore, when acquiring a screenshot and question text, the server device 100 may refer to history information of previously (already) acquired screenshots and question texts to determine whether the acquired screenshot and question text are the same as those previously acquired. If the acquired screenshot and question text are the same as those previously acquired, the server device 100 may extract an answer to the same screenshot and question text from the past history information and provide the extracted answer to the terminal device 10 of the user U via the network N to avoid repeatedly asking the same question to the expert.
また、サーバ装置100は、スクリーンショットと、スクリーンショットの元(ニュース記事等)と、質問文章との組み合わせから、利用者Uの適切性を推定し、利用者Uが適切ではないと推定した場合には、専門家への問い合わせを不可としてもよい。 Furthermore, the server device 100 may estimate the suitability of user U from a combination of the screenshot, the source of the screenshot (such as a news article), and the question text, and may not allow user U to inquire of an expert if it is estimated that user U is not suitable.
また、サーバ装置100は、スクリーンショットと質問文章とから、利用者Uがまじめな質問の意図を持っているか否かを推定してもよい。そして、サーバ装置100は、利用者Uがまじめな質問の意図を持っておらず、悪戯や冷やかし、荒らし行為などの意図(悪意)で質問を行っていると推定した場合、ネットワークNを介して、利用者Uの端末装置10に当該行為に対する警告を通知するとともに、当該スクリーンショットと質問文章とを破棄して処理を終了してもよい。 The server device 100 may also infer from the screenshot and question text whether user U intended to ask a serious question. If the server device 100 determines that user U did not intend to ask a serious question, but rather that he or she was asking the question with malicious intent, such as to prank, troll, or cause trouble, the server device 100 may send a warning about this behavior to user U's terminal device 10 via the network N, discard the screenshot and question text, and terminate processing.
また、サーバ装置100は、スクリーンショットされた部分と質問文章の内容とがマッチしているか(マッチ度が閾値を超えているか)否か判定し、マッチしている(マッチ度が閾値を超えている)場合には、専門家への問い合わせを許可してもよい。なお、サーバ装置100は、スクリーンショットされた部分と質問文章の内容とがマッチしているかの判定には、画像認識(Image Recognition)及び自然言語処理(NLP:Natural Language Processing)を用いてもよい。例えば、サーバ装置100は、画像認識及び自然言語処理により、スクリーンショットされた部分の文章と質問文章とをそれぞれベクトル化し、それぞれのベクトルのコサイン類似度(Cosine Similarity)からマッチしているか否か判定してもよい。 The server device 100 may also determine whether the screenshotted portion matches the content of the question (whether the degree of match exceeds a threshold), and if there is a match (the degree of match exceeds a threshold), allow the user to make an inquiry to an expert. The server device 100 may also use image recognition and natural language processing (NLP) to determine whether the screenshotted portion matches the content of the question. For example, the server device 100 may use image recognition and natural language processing to vectorize the text of the screenshotted portion and the question, and determine whether there is a match based on the cosine similarity of the vectors.
また、サーバ装置100は、スクリーンショットの内容が同一である利用者の人数が閾値を超えている(直近で30人以上など)か否か判定し、閾値を超えている場合には、専門家への問い合わせを許可してもよい。あるいは、サーバ装置100は、スクリーンショットされた箇所(部分)が同一である回数が閾値を超えているか否か判定し、閾値を超えている場合には、専門家への問い合わせを許可してもよい。 The server device 100 may also determine whether the number of users with identical screenshot content exceeds a threshold (e.g., 30 or more users in the most recent past), and if so, permit the user to inquire with an expert. Alternatively, the server device 100 may determine whether the number of times the screenshotted portion (part) is identical exceeds a threshold, and if so, permit the user to inquire with an expert.
また、サーバ装置100は、スクリーンショットされた部分に関わる専門領域にマッチする専門家が複数人(2名以上)存在するか否か判定し、専門家が複数人(2名以上)存在する場合に、専門家への問い合わせを許可してもよい。 The server device 100 may also determine whether there are multiple experts (two or more) whose areas of expertise match the area of expertise related to the screenshotted portion, and if there are multiple experts (two or more), allow the user to inquire about the experts.
また、サーバ装置100は、スクリーンショットの元(ニュース記事等)の公開から24時間以内であるか否か判定し、公開から24時間以内である場合に、専門家への問い合わせを許可してもよい。 The server device 100 may also determine whether the original screenshot (such as a news article) was published within 24 hours, and if so, allow inquiries to be made to experts.
なお、規約や仕様等によりサーバ装置100が端末装置10からニュース記事のスクリーンショットを取得することができない場合、スクリーンショットを直接利用する上記のサーバ装置100の処理の一部(又は全部)は、利用者Uの端末装置10が当該機能を有するアプリ等を起動して実施(代行)してもよい。 Note that if the server device 100 is unable to obtain screenshots of news articles from the terminal device 10 due to regulations, specifications, etc., some (or all) of the above-mentioned server device 100 processing that directly uses screenshots may be performed (on behalf of) the user U's terminal device 10 by launching an app or the like that has the relevant function.
〔3.端末装置の構成例〕
次に、図4を用いて、端末装置10の構成について説明する。図4は、実施形態に係る端末装置10の構成例を示す図である。図4に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
3. Example of terminal device configuration
Next, the configuration of the terminal device 10 will be described with reference to Fig. 4. Fig. 4 is a diagram showing an example of the configuration of the terminal device 10 according to the embodiment. As shown in Fig. 4, the terminal device 10 includes a communication unit 11, a display unit 12, an input unit 13, a positioning unit 14, a sensor unit 20, a control unit 30 (controller), and a storage unit 40.
(通信部11)
通信部11は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、サーバ装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication unit 11)
The communication unit 11 is connected to the network N via a wired or wireless connection, and transmits and receives information to and from the server device 100 via the network N. For example, the communication unit 11 is realized by a NIC (Network Interface Card), an antenna, or the like.
(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display section 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic electroluminescent display (OLED). The display unit 12 is also a touch panel display, but is not limited to this.
(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。例えば、入力部13は、文字や数字等を入力するためのボタン等を有する。なお、入力部13は、入出力ポート(I/O port)やUSB(Universal Serial Bus)ポート等であってもよい。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。また、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input unit 13)
The input unit 13 is an input device that accepts various operations from the user U. For example, the input unit 13 has buttons for inputting letters, numbers, etc. The input unit 13 may be an input/output port (I/O port), a USB (Universal Serial Bus) port, etc. In addition, when the display unit 12 is a touch panel display, a part of the display unit 12 functions as the input unit 13. In addition, the input unit 13 may be a microphone that accepts voice input from the user U. The microphone may be wireless.
(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives signals (radio waves) transmitted from satellites of the GPS (Global Positioning System), and acquires, based on the received signals, location information (e.g., latitude and longitude) indicating the current location of the terminal device 10. That is, the positioning unit 14 measures the location of the terminal device 10. Note that the GPS is merely an example of a GNSS (Global Navigation Satellite System).
また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 In addition, the positioning unit 14 can determine the position using various methods other than GPS. For example, the positioning unit 14 may determine the position using various communication functions of the terminal device 10 as an auxiliary positioning means for position correction, etc., as described below.
(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 uses the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication networks of each communication company to determine the position of the terminal device 10. Specifically, the positioning unit 14 performs Wi-Fi communication or the like to determine the distance to a nearby base station or access point, thereby determining the position of the terminal device 10.
(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth(登録商標)機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
The positioning unit 14 may also measure the position by using a Bluetooth (registered trademark) function of the terminal device 10. For example, the positioning unit 14 measures the position of the terminal device 10 by connecting to a beacon transmitter connected via the Bluetooth (registered trademark) function.
(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(geomagnetic positioning)
The positioning unit 14 also measures the position of the terminal device 10 based on the geomagnetic pattern of the structure measured in advance and a geomagnetic sensor included in the terminal device 10 .
(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Furthermore, for example, if the terminal device 10 has the functionality of an RFID (Radio Frequency Identification) tag equivalent to a contactless IC card used at station ticket gates, in stores, etc., or has the functionality to read an RFID tag, the location of use is recorded together with information on payments, etc., made by the terminal device 10. The positioning unit 14 may obtain such information to determine the location of the terminal device 10. Alternatively, the location may be determined by an optical sensor, an infrared sensor, or the like provided in the terminal device 10.
測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 If necessary, the positioning unit 14 may use one or a combination of the positioning methods described above to determine the position of the terminal device 10.
(センサ部20)
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図4に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(Sensor unit 20)
The sensor unit 20 includes various sensors mounted on or connected to the terminal device 10. The connection may be wired or wireless. For example, the sensors may be detection devices other than the terminal device 10, such as wearable devices or wireless devices. In the example shown in FIG. 4 , the sensor unit 20 includes an acceleration sensor 21, a gyro sensor 22, a barometric pressure sensor 23, a temperature sensor 24, a sound sensor 25, a light sensor 26, a magnetic sensor 27, and an image sensor (camera) 28.
なお、上記した各センサ21~28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~28のうちの一部を備える構成であってもよいし、各センサ21~28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。 Note that the sensors 21-28 described above are merely examples and are not intended to be limiting. That is, the sensor unit 20 may be configured to include some of the sensors 21-28, or may include other sensors, such as a humidity sensor, in addition to or instead of the sensors 21-28.
加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、及び、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a three-axis acceleration sensor that detects the physical movement of the terminal device 10, such as the direction of movement, speed, and acceleration of the terminal device 10. The gyro sensor 22 detects the physical movement of the terminal device 10, such as tilt in three axial directions, based on the angular velocity of the terminal device 10. The air pressure sensor 23 detects, for example, the air pressure around the terminal device 10.
端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 The terminal device 10 is equipped with the acceleration sensor 21, gyro sensor 22, barometric pressure sensor 23, etc. described above, and is therefore able to determine the position of the terminal device 10 using techniques such as pedestrian dead-reckoning (PDR) that utilize these sensors 21-23. This makes it possible to obtain indoor position information that is difficult to obtain using positioning systems such as GPS.
例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、利用者Uの端末装置10が存在する高度やフロアの階数を知ることもできる。 For example, a pedometer using the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked. Furthermore, the gyro sensor 22 can be used to determine the user U's direction of travel, line of sight, and body tilt. Furthermore, the atmospheric pressure detected by the atmospheric pressure sensor 23 can be used to determine the altitude and floor on which the user U's terminal device 10 is located.
気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。 The temperature sensor 24 detects, for example, the temperature around the terminal device 10. The sound sensor 25 detects, for example, sound around the terminal device 10. The light sensor 26 detects the illuminance around the terminal device 10. The magnetic sensor 27 detects, for example, the geomagnetism around the terminal device 10. The image sensor 28 captures images of the area around the terminal device 10.
上記した気圧センサ23、気温センサ24、音センサ25、光センサ26及び画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The above-mentioned air pressure sensor 23, temperature sensor 24, sound sensor 25, light sensor 26, and image sensor 28 can detect the environment and situation surrounding the terminal device 10 by detecting air pressure, temperature, sound, and illuminance, and capturing images of the surroundings. Furthermore, the accuracy of the location information of the terminal device 10 can be improved based on the environment and situation surrounding the terminal device 10.
(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33とを有する。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), ROM (Read Only Memory), RAM, input/output ports, and various other circuits. The control unit 30 may also be configured with hardware such as an integrated circuit, for example, an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 30 includes a transmitting unit 31, a receiving unit 32, and a processing unit 33.
(送信部31)
送信部31は、例えば入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって検知された各種情報、測位部14によって測位された端末装置10の位置情報等を、通信部11を介してサーバ装置100へ送信することができる。
(Transmitter 31)
The transmission unit 31 can transmit, for example, various information input by the user U using the input unit 13, various information detected by each sensor 21 to 28 mounted on or connected to the terminal device 10, and location information of the terminal device 10 measured by the positioning unit 14 to the server device 100 via the communication unit 11.
(受信部32)
受信部32は、通信部11を介して、サーバ装置100から提供される各種情報や、サーバ装置100からの各種情報の要求を受信することができる。
(Receiving unit 32)
The receiving unit 32 can receive various information provided by the server device 100 and requests for various information from the server device 100 via the communication unit 11 .
(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信されたサーバ装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10, including the display unit 12. For example, the processing unit 33 can output various information transmitted by the transmission unit 31 and various information received from the server device 100 by the reception unit 32 to the display unit 12 for display.
(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk drive (HDD), a solid state drive (SSD), an optical disk, etc. The storage unit 40 stores various programs, various data, etc.
〔4.サーバ装置の構成例〕
次に、図5を用いて、実施形態に係るサーバ装置100の構成について説明する。図5は、実施形態に係るサーバ装置100の構成例を示す図である。図5に示すように、サーバ装置100は、通信部110と、記憶部120と、制御部130とを備える。
4. Example of Server Device Configuration
Next, the configuration of the server device 100 according to the embodiment will be described with reference to Fig. 5. Fig. 5 is a diagram showing an example of the configuration of the server device 100 according to the embodiment. As shown in Fig. 5, the server device 100 includes a communication unit 110, a storage unit 120, and a control unit 130.
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークNと有線又は無線で接続される。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC), etc. The communication unit 110 is connected to a network N by wire or wirelessly.
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD、SSD、光ディスク等の記憶装置によって実現される。記憶部120は、利用者Uを示す識別情報(利用者ID等)とともに、利用者Uの属性情報や履歴情報(ログデータ)を記憶してもよい。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD, an SSD, an optical disk, etc. The storage unit 120 may store attribute information and history information (log data) of the user U together with identification information (such as a user ID) indicating the user U.
(制御部130)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、サーバ装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図5に示す例では、制御部130は、取得部131と、判定部132と、抽出部133と、グループ化部134と、形成部135と、推定部136と、選定部137と、生成部138と、提供部139とを有する。
(Control unit 130)
The control unit 130 is a controller, and is realized by, for example, a central processing unit (CPU), a micro processing unit (MPU), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or the like, by executing various programs (corresponding to examples of information processing programs) stored in a storage device inside the server device 100 using a storage area such as a RAM as a working area. In the example shown in FIG. 5 , the control unit 130 includes an acquisition unit 131, a determination unit 132, an extraction unit 133, a grouping unit 134, a formation unit 135, an estimation unit 136, a selection unit 137, a generation unit 138, and a provision unit 139.
(取得部131)
取得部131は、利用者U(ユーザ)により入力された検索クエリを取得する。例えば、取得部131は、利用者Uが検索エンジン等に検索クエリを入力してキーワード検索を行った際に、通信部110を介して、当該検索クエリを取得する。すなわち、取得部131は、通信部110を介して、利用者Uにより検索エンジンやサイト又はアプリの検索窓に入力されたキーワードを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires a search query input by a user U. For example, when the user U inputs a search query into a search engine or the like to perform a keyword search, the acquisition unit 131 acquires the search query via the communication unit 110. That is, the acquisition unit 131 acquires the keywords input by the user U into the search box of a search engine, website, or app via the communication unit 110.
また、取得部131は、通信部110を介して、利用者Uに関する利用者情報を取得する。例えば、取得部131は、利用者Uの端末装置10から、利用者Uを示す識別情報(利用者ID等)や、利用者Uの位置情報、利用者Uの属性情報等を取得する。また、取得部131は、利用者Uのユーザ登録時に、利用者Uを示す識別情報や、利用者Uの属性情報等を取得してもよい。そして、取得部131は、利用者情報を記憶部120に記憶する。 The acquisition unit 131 also acquires user information about user U via the communication unit 110. For example, the acquisition unit 131 acquires identification information (such as a user ID) indicating user U, location information about user U, attribute information about user U, etc. from user U's terminal device 10. The acquisition unit 131 may also acquire identification information indicating user U, attribute information about user U, etc. when user U is registered. The acquisition unit 131 then stores the user information in the storage unit 120.
また、取得部131は、通信部110を介して、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、取得部131は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報を取得する。そして、取得部131は、各種の履歴情報を記憶部120に記憶する。 The acquisition unit 131 also acquires various types of history information (log data) indicating the behavior of user U via the communication unit 110. For example, the acquisition unit 131 acquires various types of history information indicating the behavior of user U from user U's terminal device 10 or from various servers based on the user ID, etc. Then, the acquisition unit 131 stores the various types of history information in the storage unit 120.
さらに、取得部131は、通信部110を介して、利用者Uからスクリーンショットを取得する。また、取得部131は、通信部110を介して、候補コメントの中から利用者Uにより選択されたコメントを選択コメントとして取得する。 Furthermore, the acquisition unit 131 acquires a screenshot from the user U via the communication unit 110. The acquisition unit 131 also acquires, as a selected comment, a comment selected by the user U from among the candidate comments via the communication unit 110.
あるいは、取得部131は、通信部110を介して、利用者Uからスクリーンショットと質問文章とを取得する。また、取得部131は、専門家から質問文章に対する回答を取得する。 Alternatively, the acquisition unit 131 acquires a screenshot and a question from the user U via the communication unit 110. The acquisition unit 131 also acquires an answer to the question from an expert.
(判定部132)
判定部132は、複数の利用者Uから取得されたスクリーンショットの対象が同じであるか否かを判定する。
(Determination unit 132)
The determination unit 132 determines whether the screenshots acquired from multiple users U are of the same subject.
また、判定部132は、過去の履歴情報を参照し、取得されたスクリーンショットと質問文章とが、過去に取得されたスクリーンショットと質問文章と同じであるか否かを判定する。 The determination unit 132 also references past history information to determine whether the acquired screenshot and question text are the same as screenshots and question text acquired in the past.
また、判定部132は、利用者Uがスクリーンショットした部分と質問文章の内容とがマッチしているか否か判定し、マッチしている場合には、専門家への問い合わせを許可する。また、判定部132は、スクリーンショットの内容が同一である利用者Uの人数が閾値を超えているか否か判定し、閾値を超えている場合には、専門家への問い合わせを許可する。また、判定部132は、利用者Uがスクリーンショットした部分を専門領域とする専門家が複数人存在するか否か判定し、専門家が複数人存在する場合に、専門家への問い合わせを許可する。 The determination unit 132 also determines whether the portion of the screenshot taken by the user U matches the content of the question text, and if so, allows the user to make an inquiry to an expert. The determination unit 132 also determines whether the number of users U whose screenshots have the same content exceeds a threshold, and if so, allows the user to make an inquiry to an expert. The determination unit 132 also determines whether there are multiple experts whose area of expertise is the portion of the screenshot taken by the user U, and if there are multiple experts, allows the user to make an inquiry to an expert.
(抽出部133)
抽出部133は、取得されたスクリーンショットと質問文章とが、過去に取得されたスクリーンショットと質問文章と同じである場合、過去の履歴情報から、取得されたスクリーンショットと質問文章とに対する回答を抽出する。
(Extraction unit 133)
If the acquired screenshot and question text are the same as a screenshot and question text acquired in the past, the extraction unit 133 extracts an answer to the acquired screenshot and question text from past history information.
また、抽出部133は、スクリーンショットの対象に対して投稿されたコメントの中から、スクリーンショットの対象に関連するコメントを候補コメントとして抽出する。 The extraction unit 133 also extracts comments related to the subject of the screenshot as candidate comments from among the comments posted about the subject of the screenshot.
(グループ化部134)
グループ化部134は、同じ対象をスクリーンショットした利用者Uをグループ化する。
(Grouping unit 134)
The grouping unit 134 groups users U who have taken screenshots of the same object.
(形成部135)
形成部135は、同じグループ内の利用者が参加できるクローズドコミュニティを形成する。
(Forming part 135)
The forming unit 135 forms a closed community in which users in the same group can participate.
(推定部136)
推定部136は、スクリーンショットの中で利用者Uが特に注目していると思われる箇所を推定する。また、推定部136は、スクリーンショットと質問文章とから、利用者Uの質問の意図を推定する。
(Estimation unit 136)
The estimation unit 136 estimates a portion of the screenshot that is likely to be of particular interest to the user U. The estimation unit 136 also estimates the intention of the question from the screenshot and the question text.
(選定部137)
選定部137は、スクリーンショットと利用者Uの質問の意図とから、回答者となる専門家を選定する。なお、選定部137は、利用者Uがスクリーンショットした部分が複数の専門領域に関わる場合、専門領域ごとに専門家を選定する。
(Selection Department 137)
The selection unit 137 selects an expert to answer the question based on the screenshot and the intent of the question posed by the user U. Note that if the portion of the screenshot taken by the user U relates to multiple specialized fields, the selection unit 137 selects an expert for each specialized field.
(生成部138)
生成部138は、スクリーンショットの対象に関連する候補コメントのうち利用者Uにより選択された選択コメントをスクリーンショットにマージして1つのコンテンツを生成する。このとき、生成部138は、選択コメントをスクリーンショットの関連位置に配置したコンテンツを生成する。また、生成部138は、スクリーンショットの中で利用者Uが特に注目していると思われる箇所を強調したコンテンツを生成する。
(Generation unit 138)
The generation unit 138 generates one piece of content by merging a selected comment selected by the user U from among candidate comments related to the subject of the screenshot with the screenshot. At this time, the generation unit 138 generates content in which the selected comment is arranged at a relevant position in the screenshot. In addition, the generation unit 138 generates content in which a portion of the screenshot that is thought to be of particular interest to the user U is emphasized.
また、生成部138は、スクリーンショットと回答とをマージして記事化したコンテンツを生成する。 The generation unit 138 also generates article-like content by merging screenshots and responses.
(提供部139)
提供部139は、スクリーンショットと質問文章とを専門家に提供して問い合わせを行う。また、提供部139は、スクリーンショットと質問文章とともに、スクリーンショットの対象の原文又はリンクを同時に専門家に提供して問い合わせを行う。
(Providing Department 139)
The providing unit 139 provides the screenshot and the question text to the expert to make an inquiry. The providing unit 139 also provides the original text or a link to the subject of the screenshot together with the screenshot and the question text to the expert to make an inquiry.
また、提供部139は、専門家からの回答を利用者Uに提供する。また、提供部139は、生成されたコンテンツを他の利用者に提供する。また、提供部139は、候補コメントを利用者Uに提供する。 The providing unit 139 also provides answers from experts to the user U. The providing unit 139 also provides the generated content to other users. The providing unit 139 also provides candidate comments to the user U.
また、提供部139は、形成されたクローズドコミュニティ内での情報共有サービスを提供する。 The provider 139 also provides information sharing services within the formed closed community.
〔5.処理手順〕
次に、図6を用いて実施形態に係るサーバ装置100による第1の処理手順について説明する。図6は、実施形態に係る第1の処理手順を示すフローチャートである。なお、以下に示す処理手順は、サーバ装置100の制御部130によって繰り返し実行される。
5. Processing Procedure
Next, a first processing procedure performed by the server device 100 according to the embodiment will be described with reference to Fig. 6. Fig. 6 is a flowchart showing the first processing procedure according to the embodiment. Note that the processing procedure shown below is repeatedly executed by the control unit 130 of the server device 100.
例えば、図6に示すように、サーバ装置100の取得部131は、通信部110を介して、利用者Uの端末装置10から、利用者Uが操作して撮影したニュース記事等のスクリーンショットを取得する(ステップS101)。 For example, as shown in FIG. 6, the acquisition unit 131 of the server device 100 acquires a screenshot of a news article or the like taken by user U from the terminal device 10 of user U via the communication unit 110 (step S101).
続いて、サーバ装置100の判定部132は、複数の利用者Uから取得されたスクリーンショットの対象が同じであるか否かを判定する(ステップS102)。 Next, the determination unit 132 of the server device 100 determines whether the screenshots obtained from multiple users U are of the same subject (step S102).
続いて、サーバ装置100のグループ化部134は、複数の利用者Uから取得されたスクリーンショットの対象が同じである場合(ステップS102;Yes)、同じ対象をスクリーンショットした利用者Uをグループ化する(ステップS103)。 Next, if the screenshots obtained from multiple users U have the same subject (step S102; Yes), the grouping unit 134 of the server device 100 groups users U who have taken screenshots of the same subject (step S103).
続いて、サーバ装置100の形成部135は、同じグループ内の利用者が参加できるクローズドコミュニティを形成する(ステップS104)。 Next, the formation unit 135 of the server device 100 forms a closed community that users in the same group can participate in (step S104).
続いて、サーバ装置100の提供部139は、形成されたクローズドコミュニティ内での情報共有サービスを提供する(ステップS105)。 Next, the provider 139 of the server device 100 provides an information sharing service within the formed closed community (step S105).
なお、複数の利用者Uから取得されたスクリーンショットの対象が同じではない場合(ステップS102;No)、サーバ装置100のグループ化部134、形成部135及び提供部139は、上記のステップS103~ステップS105の処理を行わない。 Note that if the screenshots acquired from multiple users U do not relate to the same subject (step S102; No), the grouping unit 134, creation unit 135, and provision unit 139 of the server device 100 do not perform the processes of steps S103 to S105 described above.
続いて、サーバ装置100の抽出部133は、スクリーンショットの対象に対して投稿されたコメントの中から、スクリーンショットの対象に関連するコメントを候補コメントとして抽出する(ステップS106)。このとき、提供部139は、通信部110を介して、候補コメントを利用者Uの端末装置10に提供する。取得部131は、通信部110を介して、利用者Uの端末装置10から、候補コメントの中から利用者Uにより選択されたコメントを選択コメントとして取得する。 The extraction unit 133 of the server device 100 then extracts comments related to the screenshot target from among the comments posted about the screenshot target as candidate comments (step S106). At this time, the provision unit 139 provides the candidate comments to the terminal device 10 of user U via the communication unit 110. The acquisition unit 131 acquires, from the terminal device 10 of user U via the communication unit 110, the comment selected by user U from the candidate comments as the selected comment.
続いて、サーバ装置100の生成部138は、スクリーンショットの対象に関連する候補コメントのうち利用者Uにより選択された選択コメントをスクリーンショットにマージして1つのコンテンツを生成する(ステップS107)。 Next, the generation unit 138 of the server device 100 merges the selected comment selected by the user U from among the candidate comments related to the subject of the screenshot with the screenshot to generate one piece of content (step S107).
続いて、サーバ装置100の提供部139は、通信部110を介して、生成されたコンテンツを他の利用者の端末装置10に提供する(ステップS108)。すなわち、生成されたコンテンツは利用者間で共有(シェア)される。 Then, the providing unit 139 of the server device 100 provides the generated content to the terminal devices 10 of other users via the communication unit 110 (step S108). In other words, the generated content is shared among users.
次に、図7を用いて実施形態に係るサーバ装置100による第2の処理手順について説明する。図7は、実施形態に係る第2の処理手順を示すフローチャートである。なお、以下に示す処理手順は、サーバ装置100の制御部130によって繰り返し実行される。 Next, a second processing procedure performed by the server device 100 according to the embodiment will be described using FIG. 7. FIG. 7 is a flowchart showing the second processing procedure according to the embodiment. Note that the processing procedure shown below is repeatedly executed by the control unit 130 of the server device 100.
例えば、図7に示すように、サーバ装置100の取得部131は、通信部110を介して、利用者Uの端末装置10から、利用者Uが操作して撮影したニュース記事等のスクリーンショットと、スクリーンショットの内容に関する質問文章とを取得する(ステップS201)。 For example, as shown in FIG. 7, the acquisition unit 131 of the server device 100 acquires, via the communication unit 110, a screenshot of a news article or the like taken by user U from the terminal device 10 of user U, and a question regarding the content of the screenshot (step S201).
続いて、サーバ装置100の判定部132は、過去の履歴情報を参照し、取得されたスクリーンショットと質問文章とが、過去に取得されたスクリーンショットと質問文章と同じであるか否かを判定する(ステップS202)。 Next, the determination unit 132 of the server device 100 references past history information and determines whether the acquired screenshot and question text are the same as screenshots and question text acquired in the past (step S202).
続いて、サーバ装置100の抽出部133は、取得されたスクリーンショットと質問文章とが、過去に取得されたスクリーンショットと質問文章と同じである場合(ステップS202;Yes)、過去の履歴情報から、取得されたスクリーンショットと質問文章とに対する回答を抽出する(ステップS203)。 Next, if the acquired screenshot and question text are the same as those acquired in the past (step S202; Yes), the extraction unit 133 of the server device 100 extracts an answer to the acquired screenshot and question text from past history information (step S203).
続いて、サーバ装置100の推定部136は、取得されたスクリーンショットと質問文章とが、過去に取得されたスクリーンショットと質問文章と同じではない場合(ステップS202;No)、スクリーンショットと質問文章とから、利用者Uの質問の意図を推定する(ステップS204)。 Next, if the acquired screenshot and question text are not the same as those acquired previously (step S202; No), the estimation unit 136 of the server device 100 estimates the intent of user U's question from the screenshot and question text (step S204).
続いて、サーバ装置100の選定部137は、スクリーンショットと利用者Uの質問の意図とから、回答者となる専門家を選定する(ステップS205)。 Next, the selection unit 137 of the server device 100 selects an expert to answer the question based on the screenshot and the intent of the user U's question (step S205).
続いて、サーバ装置100の提供部139は、通信部110を介して、スクリーンショットと質問文章とを専門家に提供して問い合わせを行う(ステップS206)。このとき、提供部139は、通信部110を介して、スクリーンショットと質問文章とともに、スクリーンショットの対象の原文又はリンクを同時に専門家に提供して問い合わせを行ってもよい。また、取得部131は、通信部110を介して、専門家から質問文章に対する回答を取得する。 The providing unit 139 of the server device 100 then provides the screenshot and the question text to the expert via the communication unit 110 to make an inquiry (step S206). At this time, the providing unit 139 may also provide the original text or a link to the subject of the screenshot, along with the screenshot and the question text, to the expert via the communication unit 110 to make an inquiry. In addition, the acquiring unit 131 acquires an answer to the question text from the expert via the communication unit 110.
続いて、サーバ装置100の提供部139は、専門家からの回答を利用者Uに提供する(ステップS207)。 Next, the providing unit 139 of the server device 100 provides the answer from the expert to the user U (step S207).
続いて、サーバ装置100の生成部138は、スクリーンショットと回答とをマージして記事化したコンテンツを生成する(ステップS208)。 Next, the generation unit 138 of the server device 100 merges the screenshot and the response to generate article-like content (step S208).
続いて、サーバ装置100の提供部139は、通信部110を介して、生成されたコンテンツを他の利用者の端末装置10に提供する(ステップS209)。すなわち、生成されたコンテンツは利用者間で共有(シェア)される。 Then, the providing unit 139 of the server device 100 provides the generated content to the terminal devices 10 of other users via the communication unit 110 (step S209). In other words, the generated content is shared among users.
〔6.変形例〕
上述した端末装置10及びサーバ装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
6. Modifications
The terminal device 10 and the server device 100 described above may be implemented in various different forms other than the above-described embodiment. Therefore, modifications of the embodiment will be described below.
上記の実施形態において、サーバ装置100が実行している処理の一部又は全部は、実際には、端末装置10(又は端末装置10上で動作するアプリ)が実行してもよい。例えば、スタンドアローン(Stand-alone)で(端末装置10単体で)処理が完結してもよい。この場合、端末装置10に、上記の実施形態におけるサーバ装置100の機能が備わっているものとする。また、上記の実施形態では、端末装置10はサーバ装置100と連携しているため、利用者Uから見れば、サーバ装置100の処理も端末装置10が実行しているように見える。すなわち、他の観点では、端末装置10は、サーバ装置100を備えているともいえる。 In the above embodiment, some or all of the processing performed by the server device 100 may actually be performed by the terminal device 10 (or an app running on the terminal device 10). For example, processing may be completed standalone (by the terminal device 10 alone). In this case, the terminal device 10 is assumed to have the functions of the server device 100 in the above embodiment. Furthermore, in the above embodiment, the terminal device 10 is linked to the server device 100, so from the perspective of the user U, it appears that the processing of the server device 100 is also being performed by the terminal device 10. In other words, from another perspective, the terminal device 10 can also be said to be equipped with the server device 100.
また、上記の実施形態において、サーバ装置100は、画像認識(Image Recognition)及び自然言語処理(NLP:Natural Language Processing)により、スクリーンショットされた部分の文章とコメント(候補コメント又は選択コメント)の文章とをそれぞれベクトル化し、それぞれのベクトルのコサイン類似度(Cosine Similarity)からマッチしているか否か判定してもよい。そして、サーバ装置100は、マッチしている場合にはそのコメントを採用し、マッチしていない場合にはそのコメントを破棄するようにしてもよい。 In addition, in the above embodiment, the server device 100 may use image recognition and natural language processing (NLP) to vectorize the text of the screenshot and the text of the comment (candidate comment or selected comment), and determine whether they match based on the cosine similarity of the vectors. The server device 100 may then adopt the comment if they match, or discard the comment if they do not match.
また、上記の実施形態において、サーバ装置100は、画像認識及び自然言語処理により、スクリーンショットされた部分の文章と専門家の回答の文章とをそれぞれベクトル化し、それぞれのベクトルのコサイン類似度からマッチしているか否か判定してもよい。そして、サーバ装置100は、マッチしている場合にはその回答を採用し、マッチしていない場合にはその回答を破棄するようにしてもよい。 In addition, in the above embodiment, the server device 100 may use image recognition and natural language processing to vectorize the text in the screenshot and the text in the expert's answer, and determine whether they match based on the cosine similarity of the vectors. The server device 100 may then adopt the answer if they match, and discard the answer if they do not match.
また、上記の実施形態において、サーバ装置100は、画像認識及び自然言語処理により、質問文章と専門家の回答の文章とをそれぞれベクトル化し、それぞれのベクトルのコサイン類似度からマッチしているか否か判定してもよい。そして、サーバ装置100は、マッチしている場合にはその回答を採用し、マッチしていない場合にはその回答を破棄するようにしてもよい。 In addition, in the above embodiment, the server device 100 may use image recognition and natural language processing to vectorize the question text and the expert's answer text, and determine whether they match based on the cosine similarity of the vectors. The server device 100 may then adopt the answer if they match, and discard the answer if they do not match.
〔7.効果〕
上述してきたように、本願の第1の発明に係る情報処理装置(端末装置10及びサーバ装置100)は、利用者Uからスクリーンショットを取得する取得部131と、スクリーンショットの対象に関連する候補コメントのうち利用者Uにより選択された選択コメントをスクリーンショットにマージして1つのコンテンツを生成する生成部138と、生成されたコンテンツを他の利用者に提供する提供部139と、を備える。
7. Effects
As described above, the information processing device (terminal device 10 and server device 100) according to the first invention of the present application comprises an acquisition unit 131 that acquires a screenshot from a user U, a generation unit 138 that merges a selected comment selected by the user U from among candidate comments related to the subject of the screenshot into the screenshot to generate one piece of content, and a provision unit 139 that provides the generated content to other users.
また、本願の第1の発明に係る情報処理装置は、スクリーンショットの対象に対して投稿されたコメントの中から、スクリーンショットの対象に関連するコメントを候補コメントとして抽出する抽出部133をさらに備える。提供部139は、候補コメントを利用者Uに提供する。取得部131は、候補コメントの中から利用者Uにより選択されたコメントを選択コメントとして取得する。 The information processing device according to the first aspect of the present application further includes an extraction unit 133 that extracts comments related to the target of the screenshot as candidate comments from among comments posted about the target of the screenshot. The provision unit 139 provides the candidate comments to the user U. The acquisition unit 131 acquires a comment selected by the user U from the candidate comments as a selected comment.
また、本願の第1の発明に係る情報処理装置は、複数の利用者Uから取得されたスクリーンショットの対象が同じであるか否かを判定する判定部132と、同じ対象をスクリーンショットした利用者Uをグループ化するグループ化部134と、同じグループ内の利用者が参加できるクローズドコミュニティを形成する形成部135と、をさらに備える。提供部139は、クローズドコミュニティ内での情報共有サービスを提供する。 The information processing device according to the first aspect of the present application further includes a determination unit 132 that determines whether the subject of screenshots acquired from multiple users U is the same, a grouping unit 134 that groups users U who have taken screenshots of the same subject, and a formation unit 135 that forms a closed community in which users within the same group can participate. The provision unit 139 provides an information sharing service within the closed community.
また、生成部138は、選択コメントをスクリーンショットの関連位置に配置したコンテンツを生成する。 The generation unit 138 also generates content in which the selected comment is placed at a relevant position on the screenshot.
また、本願の第1の発明に係る情報処理装置は、スクリーンショットの中で利用者Uが特に注目していると思われる箇所を推定する推定部136をさらに備える。生成部138は、スクリーンショットの中で利用者Uが特に注目していると思われる箇所を強調したコンテンツを生成する。 The information processing device according to the first aspect of the present application further includes an estimation unit 136 that estimates the portion of the screenshot that is likely to be of particular interest to the user U. The generation unit 138 generates content that highlights the portion of the screenshot that is likely to be of particular interest to the user U.
別の観点では、本願の第2の発明に係る情報処理装置(端末装置10及びサーバ装置100)は、利用者Uからスクリーンショットと質問文章とを取得する取得部131と、スクリーンショットと質問文章とから、利用者Uの質問の意図を推定する推定部136と、スクリーンショットと利用者Uの質問の意図とから、回答者となる専門家を選定する選定部137と、スクリーンショットと質問文章とを専門家に提供して問い合わせを行う提供部139と、を備える。取得部131は、専門家から回答を取得する。提供部139は、専門家からの回答を利用者Uに提供する。 From another perspective, the information processing device (terminal device 10 and server device 100) according to the second invention of the present application includes an acquisition unit 131 that acquires a screenshot and a question sentence from a user U, an estimation unit 136 that estimates the intent of the user U's question from the screenshot and the question sentence, a selection unit 137 that selects an expert to answer the question from the screenshot and the intent of the user U's question, and a provision unit 139 that provides the screenshot and the question sentence to the expert to make an inquiry. The acquisition unit 131 acquires an answer from the expert. The provision unit 139 provides the answer from the expert to the user U.
また、本願の第2の発明に係る情報処理装置は、スクリーンショットと回答とをマージして記事化したコンテンツを生成する生成部138をさらに備える。 In addition, the information processing device according to the second aspect of the present invention further includes a generation unit 138 that generates article-like content by merging screenshots and responses.
また、選定部137は、利用者Uがスクリーンショットした部分が複数の専門領域に関わる場合、専門領域ごとに専門家を選定する。 In addition, if the portion of the screenshot taken by user U relates to multiple specialized fields, the selection unit 137 selects an expert for each specialized field.
また、提供部139は、スクリーンショットと質問文章とともに、スクリーンショットの対象の原文又はリンクを同時に専門家に提供して問い合わせを行う。 The providing unit 139 also provides the original text or a link to the subject of the screenshot, along with the screenshot and question text, to the expert to make an inquiry.
また、本願の第2の発明に係る情報処理装置は、過去の履歴情報を参照し、取得されたスクリーンショットと質問文章とが、過去に取得されたスクリーンショットと質問文章と同じであるか否かを判定する判定部132と、同じである場合、過去の履歴情報から、取得されたスクリーンショットと質問文章とに対する回答を抽出する抽出部133と、をさらに備える。 The information processing device according to the second aspect of the present invention further includes a determination unit (132) that references past history information and determines whether the acquired screenshot and question text are the same as previously acquired screenshots and question text, and an extraction unit (133) that, if they are the same, extracts an answer to the acquired screenshot and question text from the past history information.
また、本願の第2の発明に係る情報処理装置は、利用者Uがスクリーンショットした部分と質問文章の内容とがマッチしているか否か判定し、マッチしている場合には、専門家への問い合わせを許可する判定部132をさらに備える。 The information processing device according to the second aspect of the present invention further includes a determination unit 132 that determines whether the portion of the screenshot taken by user U matches the content of the question text, and if so, allows the user to make an inquiry to an expert.
また、本願の第2の発明に係る情報処理装置は、スクリーンショットの内容が同一である利用者Uの人数が閾値を超えているか否か判定し、閾値を超えている場合には、専門家への問い合わせを許可する判定部132をさらに備える。 In addition, the information processing device according to the second aspect of the present invention further includes a determination unit 132 that determines whether the number of users U whose screenshots have the same content exceeds a threshold, and if the threshold is exceeded, allows the user to inquire with an expert.
また、本願の第2の発明に係る情報処理装置は、利用者Uがスクリーンショットした部分を専門領域とする専門家が複数人存在するか否か判定し、専門家が複数人存在する場合に、専門家への問い合わせを許可する判定部132をさらに備える。 In addition, the information processing device according to the second aspect of the present invention further includes a determination unit 132 that determines whether there are multiple experts whose area of expertise is the portion screenshotted by user U, and, if there are multiple experts, allows the user U to inquire about the experts.
上述した各処理のいずれかもしくは組合せにより、本願に係る情報処理装置は、サーバ側でスクリーンショットを取得し、スクリーンショット起因でのアクションを行うことができる。 By using any one or a combination of the above processes, the information processing device according to the present application can acquire screenshots on the server side and perform actions triggered by the screenshot.
〔8.ハードウェア構成〕
また、上述した実施形態に係る端末装置10やサーバ装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、サーバ装置100を例に挙げて説明する。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
8. Hardware Configuration
The terminal device 10 and the server device 100 according to the above-described embodiments are realized by a computer 1000 having a configuration as shown in Fig. 8, for example. The following description will be given taking the server device 100 as an example. Fig. 8 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and has a configuration in which a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are connected via a bus 1090.
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on programs stored in the primary storage device 1040 and secondary storage device 1050, programs read from the input device 1020, and the like, and executes various processes. The arithmetic unit 1030 is realized, for example, by a CPU (Central Processing Unit), MPU (Micro Processing Unit), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), etc.
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device, such as RAM (Random Access Memory), that primarily stores data used by the arithmetic device 1030 for various calculations. The secondary storage device 1050 is a storage device in which data used by the arithmetic device 1030 for various calculations and various databases are registered, and is realized by a ROM (Read Only Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, etc. The secondary storage device 1050 may be internal storage or external storage. The secondary storage device 1050 may also be a removable storage medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) memory card. The secondary storage device 1050 may also be cloud storage (online storage), NAS (Network Attached Storage), a file server, etc.
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various types of information, such as a display, projector, printer, etc., and is realized by a connector conforming to a standard such as USB (Universal Serial Bus), DVI (Digital Visual Interface), or HDMI (High Definition Multimedia Interface, registered trademark). The input I/F 1070 is an interface for receiving information from various input devices 1020, such as a mouse, keyboard, keypad, buttons, scanner, etc., and is realized by USB, for example.
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Furthermore, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. In other words, the output device 1010 and the input device 1020 may be wireless devices.
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Furthermore, the output device 1010 and the input device 1020 may be integrated, such as a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 The input device 1020 may be a device that reads information from, for example, optical recording media such as CDs (Compact Discs), DVDs (Digital Versatile Discs), and PDs (Phase Change Rewritable Disks), magneto-optical recording media such as MOs (Magneto-Optical Disks), tape media, magnetic recording media, or semiconductor memories.
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 The network I/F 1080 receives data from other devices via the network N and sends it to the computing device 1030, and also transmits data generated by the computing device 1030 to other devices via the network N.
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output I/F 1060 and the input I/F 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040 and executes the loaded program.
例えば、コンピュータ1000がサーバ装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the server device 100, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the primary storage device 1040. The arithmetic unit 1030 of the computer 1000 may also load a program acquired from another device via the network I/F 1080 onto the primary storage device 1040 and execute the loaded program. The arithmetic unit 1030 of the computer 1000 may also cooperate with other devices via the network I/F 1080 and call and use program functions, data, etc. from other programs on the other devices.
〔9.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[9. Other]
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-described components include those that can be easily imagined by a person skilled in the art, those that are substantially the same, and those that are within the scope of so-called equivalents. Furthermore, the above-described components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the components can be made without departing from the spirit of the above-described embodiments.
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Furthermore, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically using known methods. In addition, the information including the processing procedures, specific names, various data, and parameters shown in the above documents and drawings can be changed as desired unless otherwise specified. For example, the various information shown in each drawing is not limited to the information shown.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, the components of each device shown in the figure are functional concepts and do not necessarily have to be physically configured as shown. In other words, the specific form of distribution and integration of each device is not limited to that shown, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.
例えば、上述したサーバ装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the above-mentioned server device 100 may be implemented using multiple server computers, and depending on the function, the configuration can be flexibly changed, such as by calling an external platform using an API (Application Programming Interface) or network computing.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and variations can be combined as appropriate to the extent that the processing content is not contradictory.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Furthermore, the "parts" (sections, modules, units) mentioned above can be read as "means" or "circuits." For example, an acquisition unit can be read as an acquisition means or an acquisition circuit.
1 情報処理システム
10 端末装置
100 サーバ装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 判定部
133 抽出部
134 グループ化部
135 形成部
136 推定部
137 選定部
138 生成部
139 提供部
REFERENCE SIGNS LIST 1 Information processing system 10 Terminal device 100 Server device 110 Communication unit 120 Storage unit 130 Control unit 131 Acquisition unit 132 Determination unit 133 Extraction unit 134 Grouping unit 135 Formation unit 136 Estimation unit 137 Selection unit 138 Generation unit 139 Provision unit
Claims (10)
前記スクリーンショットと前記質問文章とから、前記利用者の質問の意図を推定する推定部と、
前記スクリーンショットと前記利用者の質問の意図とから、回答者となる専門家を選定する選定部と、
前記スクリーンショットと前記質問文章とを専門家に提供して問い合わせを行う提供部と、
を備え、
前記取得部は、前記専門家から回答を取得し、
前記提供部は、前記専門家からの回答を前記利用者に提供する
ことを特徴とする情報処理装置。 an acquisition unit that acquires a screenshot and a question sentence from a user;
an estimation unit that estimates the intent of the user's question from the screenshot and the question text;
a selection unit that selects an expert to answer the question based on the screenshot and the intent of the user's question;
a providing unit that provides the screenshot and the question text to an expert and makes an inquiry;
Equipped with
the acquisition unit acquires an answer from the expert,
The information processing device, wherein the providing unit provides the answer from the expert to the user.
をさらに備えることを特徴とする請求項1に記載の情報処理装置。 a generation unit that generates article-like content by merging the screenshots and the answers;
The information processing apparatus according to claim 1 , further comprising:
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1 , wherein the selection unit selects an expert for each of the specialized fields when the portion screenshotted by the user relates to a plurality of specialized fields.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the providing unit simultaneously provides the screenshot, the question text, and an original text or a link to the subject of the screenshot to the expert to make an inquiry.
同じである場合、過去の履歴情報から、取得されたスクリーンショットと質問文章とに対する回答を抽出する抽出部と、
をさらに備えることを特徴とする請求項1に記載の情報処理装置。 a determination unit that refers to past history information and determines whether the acquired screenshot and question text are the same as those acquired in the past;
an extracting unit that extracts an answer to the acquired screenshot and question sentence from past history information if they are the same;
The information processing apparatus according to claim 1 , further comprising:
をさらに備えることを特徴とする請求項1に記載の情報処理装置。 a determination unit that determines whether the portion of the screenshot taken by the user matches the content of the question text, and if they match, allows the user to make an inquiry to an expert;
The information processing apparatus according to claim 1 , further comprising:
をさらに備えることを特徴とする請求項1に記載の情報処理装置。 a determination unit that determines whether the number of users whose screenshots are identical exceeds a threshold, and if the number exceeds the threshold, allows the user to inquire with an expert;
The information processing apparatus according to claim 1 , further comprising:
をさらに備えることを特徴とする請求項1に記載の情報処理装置。 a determination unit that determines whether there are multiple experts whose area of expertise is the part that the user has taken a screenshot of, and if there are multiple experts, allows the user to inquire with the experts;
The information processing apparatus according to claim 1 , further comprising:
利用者からスクリーンショットと質問文章とを取得する取得工程と、
前記スクリーンショットと前記質問文章とから、前記利用者の質問の意図を推定する推定工程と、
前記スクリーンショットと前記利用者の質問の意図とから、回答者となる専門家を選定する選定工程と、
前記スクリーンショットと前記質問文章とを専門家に提供して問い合わせを行う提供工程と、
を含み、
前記取得工程では、前記専門家から回答を取得し、
前記提供工程では、前記専門家からの回答を前記利用者に提供する
ことを特徴とする情報処理方法。 An information processing method executed by an information processing device,
an acquisition step of acquiring a screenshot and a question sentence from a user;
an estimation step of estimating the intention of the user's question from the screenshot and the question text;
a selection step of selecting an expert to answer the question based on the screenshot and the intent of the user's question;
a providing step of providing the screenshot and the question text to an expert and making an inquiry;
Including,
In the obtaining step, an answer is obtained from the expert,
In the providing step, the answer from the expert is provided to the user.
前記スクリーンショットと前記質問文章とから、前記利用者の質問の意図を推定する推定手順と、
前記スクリーンショットと前記利用者の質問の意図とから、回答者となる専門家を選定する選定手順と、
前記スクリーンショットと前記質問文章とを専門家に提供して問い合わせを行う提供手順と、
をコンピュータに実行させるとともに、
前記取得手順では、前記専門家から回答を取得し、
前記提供手順では、前記専門家からの回答を前記利用者に提供する
ことを特徴とする情報処理プログラム。 an acquisition procedure for acquiring a screenshot and a question text from a user;
an estimation step of estimating the intention of the user's question from the screenshot and the question text;
a selection procedure for selecting an expert to answer the question based on the screenshot and the intent of the user's question;
a providing step of providing the screenshot and the question text to an expert and making an inquiry;
and causing a computer to execute the above.
The obtaining step obtains an answer from the expert;
The information processing program, wherein the providing step provides the answer from the expert to the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024037544A JP2025138445A (en) | 2024-03-11 | 2024-03-11 | Information processing device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024037544A JP2025138445A (en) | 2024-03-11 | 2024-03-11 | Information processing device, information processing method, and information processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2025138445A true JP2025138445A (en) | 2025-09-25 |
Family
ID=97140887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024037544A Pending JP2025138445A (en) | 2024-03-11 | 2024-03-11 | Information processing device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2025138445A (en) |
-
2024
- 2024-03-11 JP JP2024037544A patent/JP2025138445A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021189973A (en) | Information processing apparatus, information processing method, and information processing program | |
JP7174782B2 (en) | Information processing device, information processing method and information processing program | |
JP7532585B1 (en) | Information processing device, information processing method, and information processing program | |
JP7716940B2 (en) | Information processing device, information processing method, and information processing program | |
JP7317901B2 (en) | Information processing device, information processing method and information processing program | |
JP7337123B2 (en) | Information processing device, information processing method and information processing program | |
JP7145247B2 (en) | Information processing device, information processing method and information processing program | |
JP2025138445A (en) | Information processing device, information processing method, and information processing program | |
JP2025139075A (en) | Information processing device, information processing method, and information processing program | |
JP2023027548A (en) | Device, method, and program for processing information | |
JP7653335B2 (en) | Information processing device, information processing method, and information processing program | |
JP7684165B2 (en) | Information processing device, information processing method, and information processing program | |
JP7682064B2 (en) | Information processing device, information processing method, and information processing program | |
JP7717647B2 (en) | Information processing device, information processing method, and information processing program | |
JP7459026B2 (en) | Information processing device, information processing method, and information processing program | |
JP7671707B2 (en) | Information processing device, information processing method, and information processing program | |
JP7522148B2 (en) | Information processing device, information processing method, and information processing program | |
JP7737302B2 (en) | Information processing device, information processing method, and information processing program | |
JP7122432B1 (en) | Information processing device, information processing method and information processing program | |
JP7708801B2 (en) | Information processing device, information processing method, and information processing program | |
JP7737301B2 (en) | Information processing device, information processing method, and information processing program | |
JP7388744B2 (en) | Information processing device, information processing method, and information processing program | |
JP7459021B2 (en) | Information processing device, information processing method, and information processing program | |
JP7568802B1 (en) | Information processing device, information processing method, and information processing program | |
JP2025127203A (en) | Information processing device, information processing method, and information processing program |