JP2008217660A - Search method and apparatus - Google Patents
Search method and apparatus Download PDFInfo
- Publication number
- JP2008217660A JP2008217660A JP2007056990A JP2007056990A JP2008217660A JP 2008217660 A JP2008217660 A JP 2008217660A JP 2007056990 A JP2007056990 A JP 2007056990A JP 2007056990 A JP2007056990 A JP 2007056990A JP 2008217660 A JP2008217660 A JP 2008217660A
- Authority
- JP
- Japan
- Prior art keywords
- search
- image
- user
- presenting
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】詳細な情報を所望するコンテンツ内の語句、あるいは画像に対して検索を行う場合、入力作業の負担を省き、快適なコンテンツ鑑賞環境を提供すること。
【解決手段】コンテンツ上におけるユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報command1を撮像手段INPUT1により撮像し、入力画像IMGin1、およびIMGin2を得る。画像IMGin1は、検索対象contentsに対するユーザの指示情報、あるいは動き情報を保持しており、画像IMGin2は、ユーザによる検索結果提示位置の指示情報を保持している。検索キー検出手段SDにおいて、画像認識により検索用キーワード、あるいは画像(以下、両者をまとめて検索キーCOMin1と呼ぶ)を検出する。検索手段SEAR1において、検索キーCOMin1に検索アルゴリズムを適用し、検索結果Sdatを取得する。
【選択図】図1When searching for words or images in content for which detailed information is desired, the burden of input work is reduced and a comfortable content viewing environment is provided.
A user-designated position on a content or user instruction information command1 such as a user's movement is imaged by an imaging means INPUT1 to obtain input images IMGin1 and IMGin2. The image IMGin1 holds user instruction information or motion information for the search target contents, and the image IMGin2 holds user search result presentation position instruction information. The search key detection means SD detects a search keyword or an image (hereinafter collectively referred to as a search key COMin1) by image recognition. In the search means SEAR1, the search algorithm is applied to the search key COMin1, and the search result Sdat is acquired.
[Selection] Figure 1
Description
本発明は、ユーザが詳細な情報を所望するコンテンツ内の語句、あるいは画像に対して、手間のかかる入力作業を省いた検索を可能とする装置に関する。 The present invention relates to an apparatus that enables searching without requiring a laborious input operation for words or images in content for which detailed information is desired by a user.
近年、高速通信の低コスト化が進み、誰でも気軽にネットワークにアクセスすることが可能となり、ネットワーク上には膨大な情報が公開されている。これにより、読書中に未知の語句があった場合、旅行の計画を立てる場合、高度先端技術に関する調査を行う場合など、幅広い調査作業において、ウェブ検索が最も一般な手段となっている。 In recent years, the cost of high-speed communication has been reduced, and anyone can easily access the network, and a large amount of information is disclosed on the network. As a result, web search has become the most common means in a wide range of research work, such as when there are unknown phrases during reading, when planning a trip, or when conducting research on advanced technology.
その代表的な方法として、PCに標準搭載されているウェブブラウザの利用が挙げられる。これは、入力デバイスを使用して、入力ボックスに検索キーを打ち込むという方法である。検索キー(この場合は文字列)を打ち込む際、キーボード操作が不可欠である。 A typical example is the use of a web browser that comes standard with a PC. This is a method of inputting a search key into an input box using an input device. When entering a search key (in this case, a character string), keyboard operation is indispensable.
図15は、キーボードなどの入力デバイスを使用した従来の検索装置PROC4の構成を示したブロック図である。検索装置PROC4は、入力手段INPUT3、検索手段SEAR1、画像生成手段GEN3、提示手段OUTPUT2とから構成される。入力手段INPUT3は、キーボードなどの入力デバイスにより入力されたユーザからの検索命令command2を読み込み、検索キーCOMin2として出力する。検索手段SEAR1は、検索キーCOMin2に検索アルゴリズムを適用し、検索結果Sdatを取得する。提示画像生成手段GEN3は、検索エンジン、あるいはアプリケーションに応じて、検索結果Sdatをユーザに提示する提示画像IMGout3を作成する。提示手段OUTPUT2は、ディスプレイにより提示画像IMGout3を検索結果search result 2として出力する。
FIG. 15 is a block diagram showing a configuration of a conventional search device PROC4 using an input device such as a keyboard. The search device PROC4 includes input means INPUT3, search means SEAR1, image generation means GEN3, and presentation means OUTPUT2. The input means INPUT3 reads a search command command2 from a user input by an input device such as a keyboard and outputs it as a search key COMin2. The search means SEAR1 applies a search algorithm to the search key COMin2 and acquires the search result Sdat. The presentation image generation means GEN3 creates a presentation image IMGout3 that presents the search result Sdat to the user according to the search engine or application. The presentation means OUTPUT2 outputs the presentation image IMGout3 as a search
前記装置の動作のフローチャートを図16に示す。ステップS109では、ユーザが検索キーCOMin2となる文字列をキーボードなどの入力デバイスから直接入力する。ステップS105では、ステップS109で入力された検索キーCOMin2を検索アルゴリズムに適用し、検索結果Sdatを取得する。ステップS110では、検索エンジン、あるいはアプリケーションに応じて、検索結果Sdatをユーザに提示するための提示画像IMGout3を作成する。ステップS111では、ステップS110で作成した提示画像IMGout3をsearch result 2として出力する。
A flowchart of the operation of the apparatus is shown in FIG. In step S109, the user directly inputs a character string serving as the search key COMin2 from an input device such as a keyboard. In step S105, the search key COMin2 input in step S109 is applied to the search algorithm, and the search result Sdat is obtained. In step S110, a presentation image IMGout3 for presenting the search result Sdat to the user is created according to the search engine or application. In step S111, the presentation image IMGout3 created in step S110 is output as
前記検索装置において、キーボードを用いて円滑な入力を行うには、訓練が必要である上、操作に慣れてきてもタイプミスは頻繁に起こり得るものであり、作業は煩雑であると言える。この点を考慮して、人間工学デザインに基づき、キー配置が様々に工夫されたキーボードが販売されている。ただし、現状では、このようなキーボードを購入するのは、仕事や趣味において、キーボードを操作する時間が長い人々の中でも、こだわりを持つユーザに限られる。しかも、前記工夫されたキーボードを、熟練者が使用したとしても、タイプミスを完全に無くすことは不可能であり、また、キータイプ自体の煩雑さを解決したとは言えない。 In the search device, in order to perform smooth input using the keyboard, training is necessary, and even if the user gets used to the operation, typographical errors can occur frequently, and it can be said that the operation is complicated. Considering this point, keyboards with various key arrangements based on ergonomic design are on the market. However, at present, the purchase of such a keyboard is limited to users who have a particular commitment among people who have a long time to operate the keyboard for work or hobbies. Moreover, even if a skilled person uses the devised keyboard, it is impossible to completely eliminate typing errors, and it cannot be said that the complexity of the key type itself has been solved.
現在、検索作業の効率化を目指した技術開発が数多く進められているが、それらは、検索アルゴリズムに重点を置いたものが主流である。検索結果の提示順位に関する検索アルゴリズムについてはベイズ理論などの統計学的手法が導入され、今なお、改善が図られている。高度な検索アルゴリズム採用した代表例がGoogleなどの検索エンジンである。このような検索エンジンでは、検索キー、言語、ファイルタイプなど検索条件の詳細指定が可能な検索オプションが充実し、また、イメージ、ニュース、マップなど各項目の分類提示が可能であり、利用者の目的に幅広く対応している。ただし、検索アルゴリズムの改善は、ユーザに対して、いかに所望の情報を上位に提示するかを目的としたものであり、検索条件の入力については、ユーザによる文字列の入力を前提としている。デザインが非常に簡潔なGoogleの検索サイトでさえ、入力ボックスを中心に構成されており、インタフェースに関しては、ユーザの入力作業に負担を与えるものである。 Currently, many technological developments aimed at improving the efficiency of search work have been promoted, but most of them are focused on search algorithms. Statistical algorithms such as Bayesian theory have been introduced for search algorithms related to the presentation order of search results, and improvements are still being made. Search engines such as Google are representative examples that employ advanced search algorithms. Such search engines offer a variety of search options that allow detailed specification of search conditions such as search key, language, file type, etc., and can also categorize and present each item such as images, news, maps, etc. It corresponds to a wide range of purposes. However, the improvement of the search algorithm is aimed at how the desired information is presented to the user, and the input of the search condition is premised on the input of a character string by the user. Even Google search sites with a very concise design are built around an input box, and the interface puts a burden on user input.
こうした状況の中、検索作業における新たな入力デバイスの開発も徐々に注目され始めている。その一つが携帯電話に搭載されたカメラの利用である。これは、画像認識と携帯電話用ソフトウェアを用いたサービスとして実用化されている。特許文献1では、自動車で移動中に看板などを撮影し、その内容を認識して、ナビゲーションを行う装置が提案されている。携帯電話は、キーボードに比べて文字入力がより一層煩雑となるため、前記特許文献1のように画像検索は、機動性の高いデバイスの特性を上手く生かした技術として、潜在的ニーズが高い。
Under these circumstances, the development of new input devices for search work is also beginning to attract attention. One of them is the use of cameras mounted on mobile phones. This is put into practical use as a service using image recognition and mobile phone software.
また、特許文献2では、屋内用の技術として、新聞などのテレビ欄をカメラ付き携帯電話で撮影し、番組予約を行う装置が提案されている。ただし、前記特許文献2のように文字列認識が可能なカメラ付携帯電話による撮影であっても、撮影範囲の調整に手間がかかる。さらに、読書中、あるいは画像、映像の視聴中に何度もコンテンツにカメラを向けることは、パソコンを使用したウェブ検索同様に煩雑な作業であり、快適なコンテンツ鑑賞を妨げることになる。
前記従来検索手段の問題点は、ユーザが鑑賞しているコンテンツと検索を行うため装置が完全に独立していることが原因として挙げられる。本や新聞を読みながら、あるいは映画を鑑賞しつつ、パソコンのディスプレイに向かって検索作業を行うことは、時間的、空間的移動を伴うものであり、非常に手間がかかり、快適なコンテンツ鑑賞環境の妨げとなる。前記カメラ付携帯電話による検索手段においても、ユーザがコンテンツ鑑賞を中断する必要があるため、検索作業の効率化という要求を完全に満たすものとは言えない。
検索エンジンによる前記検索手段において、キーボードで入力ボックスに検索キーを打ち込む方法が一般的である。キーボード自体の改良が進んだとしても、入力作業は依然として必要であり、ユーザへの負担が大きいという第1の課題があった。 In the search means by a search engine, a method of entering a search key into an input box with a keyboard is common. Even if the keyboard itself has been improved, there is a first problem that input work is still necessary and a burden on the user is heavy.
また、ウェブ検索においては、ユーザがコンテンツ鑑賞を行う合間に検索を行う場合、パソコンのディスプレイに目を向ける必要があるため、コンテンツから目を逸らし、鑑賞を一時中断することになる。また、検索対象をカメラ付携帯電話で撮影する場合、コンテンツにカメラを向けて撮像範囲を調節することは、回数が増えると非常に煩雑な作業に他ならない。前記検索手段では、コンテンツを鑑賞しながら検索することができないという第2の課題があった。 In addition, in web search, when a user performs a search between viewing contents, it is necessary to look at the display of the personal computer. Therefore, the user looks away from the contents and the viewing is temporarily suspended. Also, when the search target is shot with a camera-equipped mobile phone, adjusting the imaging range by pointing the camera at the content is a very complicated task as the number of times increases. The search means has a second problem that it cannot be searched while viewing the content.
本発明は、以上の課題を解決するためになされたものである。 The present invention has been made to solve the above problems.
コンテンツ内において、ユーザが詳細な情報を所望する語句、あるいは画像に対して、画像処理により検索用のキーワードあるいは画像データ(以下、両者をまとめて検索キーと呼ぶ)を検出する検索方法であって、
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像ステップと、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出ステップと、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索ステップと、
前記検索結果を提示するための提示画像を作成する画像生成ステップと、
前記提示画像を提示する提示ステップと、
を備えることを特徴とする。
A search method for detecting a search keyword or image data (hereinafter collectively referred to as a search key) by image processing for a phrase or image for which detailed information is desired by a user in a content. ,
An imaging step for obtaining an instruction for a user-desired search location on the content as a moving image or a still image;
A detection step of inputting a moving image or a still image, specifying a search target based on user-designated information such as a position designated by the user or a user's movement, and detecting a search key;
A search step of applying the search key to a search algorithm and obtaining a search result;
An image generation step of creating a presentation image for presenting the search result;
A presenting step of presenting the presented image;
It is characterized by providing.
本発明の請求項2の検索方法は、
コンテンツ内において、ユーザが詳細な情報を所望する語句、あるいは画像に対して、画像処理により検索キーを検出する検索方法であって、
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像ステップと、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出ステップと、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索ステップと、
前記検索結果を提示するための提示画像を作成する画像生成ステップと、
前記提示画像を提示する空間位置を決定する提示位置決定ステップと、
前記提示画像を、前記提示位置決定ステップにより決定した位置に提示する提示ステップと、
を備えることを特徴とする請求項1記載の検索方法である。
The search method according to
A search method for detecting a search key by image processing for a word or image for which detailed information is desired by a user in a content,
An imaging step for obtaining an instruction for a user-desired search location on the content as a moving image or a still image;
A detection step of inputting a moving image or a still image, specifying a search target based on user-designated information such as a position designated by the user or a user's movement, and detecting a search key;
A search step of applying the search key to a search algorithm and obtaining a search result;
An image generation step of creating a presentation image for presenting the search result;
A presentation position determining step for determining a spatial position for presenting the presented image;
A presenting step of presenting the presented image at the position determined by the presenting position determining step;
The search method according to
本発明の請求項3の検索方法は、
前記検出ステップは、前記撮像ステップで得られた前記動画像あるいは静止画像に対して、文字認識、あるいは画像識別を行い、検索キーを検出することを特徴とする請求項1記載の検索方法である。
The search method according to claim 3 of the present invention includes:
The search method according to
本発明の請求項4の検索方法は、
前記提示位置決定ステップは、前記撮像ステップで得られた前記動画像あるいは静止画像に対して、ユーザからの提示位置の指示を画像認識により検出し、前記提示画像の提示位置を決定することを特徴とする請求項2記載の検索方法である。
The search method according to claim 4 of the present invention comprises:
The presenting position determining step detects an instruction of a presenting position from a user with respect to the moving image or the still image obtained in the imaging step, and determines the presenting position of the presenting image. The search method according to
本発明の請求項5の検索方法は、
前記コンテンツは、前記提示ステップとは異なるステップにより提示された画像、あるいは、印刷物などの物理的な媒体であることを特徴とする請求項1記載の検索方法である。
The search method according to claim 5 of the present invention includes:
The search method according to
本発明の請求項6の検索方法は、
前記コンテンツは、前記提示ステップにより提示される仮想コンテンツであって、
前記画像生成ステップは、前記仮想コンテンツを提示するための画像も作成し、さらに、検索結果と前記仮想コンテンツを提示するための画像とを合成して前記提示画像とすることを特徴とする請求項1記載の検索方法である。
The search method according to claim 6 of the present invention includes:
The content is virtual content presented by the presenting step,
The image generating step also creates an image for presenting the virtual content, and further combines the search result with an image for presenting the virtual content to form the presented image. The search method according to 1.
本発明の請求項7の検索方法は、
前記検出ステップは、前記仮想コンテンツを提示する位置情報を保持することで、指示位置検出のみで検索キーの検出が可能となることを特徴とする請求項6記載の検索方法である。
The search method according to claim 7 of the present invention comprises:
The search method according to claim 6, wherein the detection step is capable of detecting a search key only by detecting a designated position by holding position information presenting the virtual content.
本発明の請求項8の検索方法は、
前記提示ステップは、前記ユーザ指示情報に応じて、前記コンテンツ上に、前記検索対象を特定するための補助情報を提示し、
前記補助情報は所定のマークや、ハイライトを含むことを特徴とする請求項1記載の検索方法である。
The search method according to claim 8 of the present invention comprises:
The presenting step presents auxiliary information for specifying the search target on the content according to the user instruction information,
The search method according to
本発明の請求項9の検索方法は、
前記検出ステップは、前記コンテンツに埋め込まれたメタデータを利用して、検索キーを検出することを特徴とする請求項1記載の検索方法である。
The search method according to claim 9 of the present invention includes:
The search method according to
本発明の請求項10の検索装置は、
コンテンツ内において、ユーザが詳細な情報を所望する語句、あるいは画像に対して、画像処理により検索キーを検出する検索装置であって、
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像手段と、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出手段と、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索手段と、
前記検索結果を提示するための提示画像を作成する画像生成手段と、
前記提示画像を提示する提示手段と、
を備えることを特徴とする。
The search device according to claim 10 of the present invention comprises:
A search device for detecting a search key by image processing for a phrase or image for which detailed information is desired by a user in a content,
Imaging means for acquiring an instruction for a user-desired search location on the content as a moving image or a still image;
Detecting means for inputting a moving image or a still image, specifying a search target based on user designation information such as a position designated by a user or a user's movement, and detecting a search key;
Search means for applying the search key to a search algorithm and obtaining a search result;
Image generating means for creating a presentation image for presenting the search result;
Presenting means for presenting the presented image;
It is characterized by providing.
本発明の請求項11のプログラムは、
コンテンツ内において、ユーザが詳細な情報を所望する語句、あるいは画像に対して、画像処理により検索キーを検出する検索方法を実現するプログラムであって、
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像ステップと、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出ステップと、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索ステップと、
前記検索結果を提示するための提示画像を作成する画像生成ステップと、
前記提示画像を提示する提示ステップと、
を備えることを特徴とする。
The program of claim 11 of the present invention is:
A program for realizing a search method for detecting a search key by image processing for a phrase or image for which a user desires detailed information in a content,
An imaging step for obtaining an instruction for a user-desired search location on the content as a moving image or a still image;
A detection step of inputting a moving image or a still image, specifying a search target based on user-designated information such as a position designated by the user or a user's movement, and detecting a search key;
A search step of applying the search key to a search algorithm and obtaining a search result;
An image generation step of creating a presentation image for presenting the search result;
A presenting step of presenting the presented image;
It is characterized by providing.
本発明の請求項12の集積回路は、
コンテンツ内において、ユーザが詳細な情報を所望する語句、あるいは画像に対して、画像処理により検索キーを検出する検索方法を実現する集積回路であって、
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像手段と、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出手段と、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索手段と、
前記検索結果を提示するための提示画像を作成する画像生成手段と、
前記提示画像を提示する提示手段と、
を備えることを特徴とする。
An integrated circuit according to claim 12 of the present invention comprises:
An integrated circuit for realizing a search method for detecting a search key by image processing for a phrase or image for which detailed information is desired by a user in a content,
Imaging means for acquiring an instruction for a user-desired search location on the content as a moving image or a still image;
Detecting means for inputting a moving image or a still image, specifying a search target based on user designation information such as a position designated by a user or a user's movement, and detecting a search key;
Search means for applying the search key to a search algorithm and obtaining a search result;
Image generating means for creating a presentation image for presenting the search result;
Presenting means for presenting the presented image;
It is characterized by providing.
以上のように、本発明によれば、画像認識によって、ユーザの指定する位置と動きから検索キーを検出できるため、ユーザは煩雑なキーボード入力作業を行うことなく、所望の検索結果を取得することができ、その実用的価値は高い。 As described above, according to the present invention, since the search key can be detected from the position and movement designated by the user by image recognition, the user can obtain a desired search result without performing a complicated keyboard input operation. And its practical value is high.
また、検索結果の提示位置決定手段を備えているため、提示位置の自由度が高く、快適なコンテンツ鑑賞環境を提供できる。 In addition, since the search result presentation position determining means is provided, the degree of freedom of the presentation position is high and a comfortable content viewing environment can be provided.
以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施の形態1)
図1は、本発明の検索装置PROC1の動作を示すブロック図である。検索装置PROC1は、検索キーCOMinの入力において、指示情報としてユーザが検索対象への位置指定、あるいは動作を行い、動作が撮像された映像に対する画像認識により検索キーCOMin1を検出することができる。また、検索結果提示画像IMGout1をユーザの意図する提示位置Pdatに決定できるため、自由度の高い提示が可能となる。前記2点が従来の検索方法と異なる。
(Embodiment 1)
FIG. 1 is a block diagram showing the operation of the search device PROC1 of the present invention. The search device PROC1 can detect the search key COMin1 by image recognition of a video in which the operation is captured by the user specifying a position as a search target or performing an operation as instruction information when the search key COMin is input. Further, since the search result presentation image IMGout1 can be determined as the presentation position Pdat intended by the user, presentation with a high degree of freedom is possible. The two points are different from the conventional search method.
検索装置PROC1は、撮像手段INPUT1、検索キー検出手段SD、検索手段SEAR1、画像生成手段GEN1、提示位置決定手段POS、提示手段OUTPUT1とから構成される。 The search device PROC1 includes an imaging means INPUT1, search key detection means SD, search means SEAR1, image generation means GEN1, presentation position determination means POS, and presentation means OUTPUT1.
撮像手段INPUT1は、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報command1を撮像した画像IMGin1を取得する。検索キー検出手段SDは、画像IMGin1に対する画像認識により、ユーザの指定する検索キーCOMin1を検出する。検索手段SEAR1は、検索キーCOMin1に検索アルゴリズムを適用し、検索結果Sdatを取得する。画像生成手段GEN1は、検索エンジン、あるいはアプリケーションに応じて、検索結果Sdatをユーザに提示するための提示画像IMGout1を作成する。提示位置決定手段POSは、撮像手段INPUT1により撮像したユーザの動作、あるいはユーザが鑑賞中のコンテンツの位置などに基づき、提示画像IMGout1を提示する位置Pdatを決定する。提示手段OUTPUT1は、提示デバイスにより提示画像IMGout1を検索結果search result 1として出力する。
The imaging means INPUT1 acquires an image IMGin1 obtained by capturing user instruction information command1 such as a position designated by the user or a user's movement. The search key detecting means SD detects a search key COMin1 designated by the user by image recognition for the image IMGin1. The search means SEAR1 applies a search algorithm to the search key COMin1 and acquires a search result Sdat. The image generation means GEN1 creates a presentation image IMGout1 for presenting the search result Sdat to the user according to the search engine or application. The presentation position determination unit POS determines a position Pdat for presenting the presentation image IMGout1 based on the user's action taken by the imaging unit INPUT1 or the position of the content being viewed by the user. The presentation means OUTPUT1 outputs the presentation image IMGout1 as a search
この一実施の形態として、カメラとプロジェクタを搭載した検索装置を図2に示す。この装置では、撮像装置であるカメラにより、ユーザの指示、あるいは動きを撮像し、提示装置であるプロジェクタにより、検索結果を基に生成された提示画像を提示する。この装置における検索対象は、本や新聞といった印刷物などの物理的な媒体(以下、実コンテンツと呼ぶ)に含まれる語句や画像でも良いし、プロジェクタによって提示された文章や画像(以下、仮想コンテンツと呼ぶ)でも良い。また、仮想的なコンテンツの提示は、白紙の冊子にコンテンツを提示するものでも良い。なお、仮想コンテンツは、ネットワークから取得することが可能である。 As an embodiment of this, a search device equipped with a camera and a projector is shown in FIG. In this apparatus, a user's instruction or motion is imaged by a camera as an imaging apparatus, and a presentation image generated based on the search result is presented by a projector as a presentation apparatus. The search target in this apparatus may be a phrase or an image included in a physical medium (hereinafter referred to as actual content) such as a printed matter such as a book or a newspaper, or a sentence or an image presented by a projector (hereinafter referred to as virtual content). ) The virtual content may be presented in a blank booklet. The virtual content can be acquired from the network.
カメラ、あるいはプロジェクタは図2にように、コンパクトに納めた装置に搭載されても良いし、天井、壁、あるいは柱に設置しても良い。なお、将来、プロジェクタ、およびカメラのさらなる小型化が実現した際、図3のようにプロジェクタとカメラの機能を有した携帯端末を構成し、本発明を適用することが可能である。また、図4のようにプロジェクタとカメラを搭載した眼鏡型検索装置を構成して、ユーザの視線に応じてユーザ指示情報command1の取得、あるいは、検索結果search result 1の提示を行うことが可能である。なお、ユーザの視線検出は、前記眼鏡型検索装置内で行っても良いし、外部で行い、前記視線検出結果を送信する方法で行っても良い。
The camera or projector may be mounted on a compact device as shown in FIG. 2, or may be installed on the ceiling, wall, or pillar. In the future, when further miniaturization of the projector and the camera is realized, a portable terminal having functions of the projector and the camera can be configured as shown in FIG. 3 and the present invention can be applied. In addition, as shown in FIG. 4, a glasses-type search device equipped with a projector and a camera can be configured to acquire the user instruction information command1 or present the search
次に、本発明の実施の形態に係る検索装置PROC1の動作について説明する。検索装置PROC1の動作のフローチャートを図5に示す。 Next, the operation of the search device PROC1 according to the embodiment of the present invention will be described. FIG. 5 shows a flowchart of the operation of the search device PROC1.
ステップS101では、カメラ撮像範囲内に検索対象を含むコンテンツcontentsを提示する。なお、カメラは固定されたものであっても良いし、ユーザの動きを追従するものであっても良い。 In step S101, content contents including a search target are presented within the camera imaging range. The camera may be fixed, or may follow the user's movement.
ステップS102では、ユーザが、検索対象の位置を特定するための指示、あるいは動作を行う。これを指示情報command1とする。指示を行うための専用のツールを使用しても良いし、指先や市販のペンなど棒状の物体を仮想的なマーカーとして使用しても良い。この時、専用ツールを用いると画像認識によるユーザの指示情報command1からの検索キー検出が容易になる。また検索対象の指示は、映像内の人物、物体、あるいは文章内の文字などの検索対象の存在する領域内の1点を示すことを基本とする。ただし、より正確に検索対象を指示する場合は、検索対象を丸で囲む動きや罫線を引く動きを行うことが可能である。 In step S102, the user performs an instruction or operation for specifying the position to be searched. This is designated as instruction information command1. A dedicated tool for giving instructions may be used, or a stick-shaped object such as a fingertip or a commercially available pen may be used as a virtual marker. At this time, if a dedicated tool is used, search key detection from user instruction information command1 by image recognition becomes easy. The search target instruction basically indicates one point in an area where the search target exists, such as a person, an object in a video, or a character in a sentence. However, in order to specify the search target more accurately, it is possible to move the search target in a circle or draw a ruled line.
ステップS103では、ユーザの指示情報command1、および検索対象contentsを撮像する。検索対象は、動画、あるいは静止画として取得する。周期的に撮像を行い、指示情報command1を示す動作を検出した際には、ステップS104の検索キー検出、あるいはステップS107の提示位置決定を行う。ユーザによる指示、および検索対象が撮像された場合は、画像IMGin1をステップS104の入力とし、ユーザによる提示位置の指示が撮像された場合は、画像IMGin2をステップS105の入力とする。前記判定に関しては、ユーザの指示位置における検索対象の存在の有無によるものでも良いし、ユーザの指示位置によってあらかじめ決められたものでも良いし、ユーザがインタフェースを介して指定するものでも良い。撮像に使用するカメラは、一般的に市販されているNTSCカメラで良いし、提示するコンテンツの内容、提示装置の構成に応じて、モノクロカメラや赤外カメラを使用しても良い。 In step S103, the user instruction information command1 and the search target contents are imaged. The search target is acquired as a moving image or a still image. When imaging is periodically performed and an operation indicating the instruction information command1 is detected, search key detection in step S104 or presentation position determination in step S107 is performed. If the user's instruction and the search target are imaged, the image IMGin1 is input in step S104, and if the user's presentation position instruction is imaged, the image IMGin2 is input in step S105. The determination may be based on the presence / absence of a search target at the user's designated position, may be determined in advance by the user's designated position, or may be designated by the user via an interface. The camera used for imaging may be a commercially available NTSC camera, or a monochrome camera or an infrared camera may be used depending on the content to be presented and the configuration of the presentation device.
ステップS104では、ユーザによる指示情報command1、および検索対象contentsが撮像された画像IMGin1を入力として、検索キーCOMin1の検出を行う。ここでの処理は、検索対象が文字である場合と画像である場合、またコンテンツ提示がプロジェクタ提示像である場合と実物である場合など、いずれの状況にも対応可能である。ここで得られる検索キーCOMin1は、従来のウェブ検索で入力ボックスにキーボード入力される検索キーCOMin2と同様であっても良いし、検索システム特有のものであっても良い。なお、次のステップに進む前に検索キーCOMin1がユーザの意図したものであるか、ユーザに問い合わせ、もし所望の検索キーCOMin1でない場合は、ステップS102からやり直す処理を加えることもできる。 In step S104, the search key COMin1 is detected by using the instruction information command1 from the user and the image IMGin1 in which the search target contents are captured. The processing here can deal with any situation, such as when the search target is a character or an image, or when the content presentation is a projector presentation image or a real thing. The search key COMin1 obtained here may be the same as the search key COMin2 that is input to the input box by a conventional web search or may be unique to the search system. Before proceeding to the next step, the user is inquired as to whether the search key COMin1 is intended by the user. If the search key COMin1 is not the desired search key COMin1, processing can be performed again from step S102.
ステップS105では、ステップS104で検出された検索キーCOMin1を検索アルゴリズムに適用し、検索結果Sdatを取得する。なお、検索は、インターネット検索でも良いし、ローカル検索でも良い。ローカル検索は、図書館、教育機関、アミューズメント施設など狭い範囲の施設、あるいは地域で構築されたネットワーク上で行う検索を指す。ローカル検索では、インターネット検索よりも検索範囲が限定される一方で、また、コンテンツとの関連性が高い情報を集約することができる。なお、前記インターネット検索、およびローカル検索は、ネットワーク上のあらかじめ決められたサーバで行っても良い。 In step S105, the search key COMin1 detected in step S104 is applied to the search algorithm to obtain the search result Sdat. The search may be an Internet search or a local search. Local search refers to a search performed on a narrow range of facilities such as a library, educational institution, amusement facility, or a network constructed in a region. In the local search, while the search range is limited as compared with the Internet search, it is also possible to aggregate information highly related to the content. The Internet search and local search may be performed by a predetermined server on the network.
ステップS106では、S105で得られた検索結果Sdatを反映した提示画像IMGout1を作成する。検索結果は、アプリケーション、インタフェースに応じて,コンテンツデータ上に合成しても良いし、コンテンツと独立しても良い。 In step S106, a presentation image IMGout1 reflecting the search result Sdat obtained in S105 is created. The search result may be synthesized on the content data according to the application and interface, or may be independent of the content.
ステップS107では、S106で作成した画像IMGout1を提示する位置Pdatを、ステップS103で撮像した入力画像IMGin2を基に決定する。この処理では、ユーザが所望する提示位置を指定する動作を行い、それをステップS103で撮像する方法でも良いし、S103による入力画像から最適の提示位置を装置側で判定する方法でも良い。なお、提示画像IMGout1を提示する位置が固定されたものである場合、このステップは省略される。 In step S107, the position Pdat where the image IMGout1 created in S106 is presented is determined based on the input image IMGin2 captured in step S103. In this processing, an operation of designating a presentation position desired by the user may be performed, and this may be captured in step S103, or the optimal presentation position may be determined on the apparatus side from the input image in S103. If the position where the presentation image IMGout1 is presented is fixed, this step is omitted.
ステップS108では、ステップS107で決定した提示位置にステップS106で作成した提示画像IMGout1を検索結果search result 1として出力する。この提示画像IMGout1中の情報を、次の検索対象として、検索を続行することも可能である。また、検索対象を特定するための補助情報としてマークやハイライトをユーザに提示し、インタフェースの視認性を向上させることもできる。なお、仮想コンテンツを検索対象とした検索結果を提示する際、仮想コンテンツを提示するための提示手段と検索結果を基に作成した提示画像を提示するための提示手段を分けることが可能である。その一実施の形態として、図6プロジェクタを2つ使用する方法が挙げられる。これにより、提示画像を提示する位置の自由度を向上することができる。
In step S108, the presentation image IMGout1 created in step S106 is output as the search
図7はステップS104の詳細を示すフローチャートである。 FIG. 7 is a flowchart showing details of step S104.
ステップS1041では、ユーザの指示を撮像した画像IMGin1を入力する。画像IMGin1は、ユーザの指示の開始から終了まで撮像した画像列とする。 In step S1041, an image IMGin1 obtained by capturing a user instruction is input. The image IMGin1 is an image sequence captured from the start to the end of the user instruction.
ステップS1042では、専用ツール、あるいはユーザの指先や棒状の実物体といった仮想ツールの先端部座標の検出を行う。検出を行う対象画像については、ユーザからの指示の開始を先頭フレーム、終了を最終フレームとした画像IMGin1の先頭フレームを基本とするが、画像列中のどのフレームでも良いものとする。 In step S1042, the coordinates of the tip of a dedicated tool or a virtual tool such as a user's fingertip or a bar-like real object are detected. The target image to be detected is basically the first frame of the image IMGin1 in which the start of the instruction from the user is the first frame and the end is the last frame, but any frame in the image sequence may be used.
ステップS1043では、S1042で得られた座標に提示されているコンテンツが画像であるか文字であるかを判定する。ユーザインタフェースを介して文字か画像か指定することも可能である。 In step S1043, it is determined whether the content presented at the coordinates obtained in S1042 is an image or a character. It is also possible to specify text or image via the user interface.
ステップS1044では、検索対象が文字である場合に、文字認識を行い、検索キーCOMin1を検出する。文字認識の実施の形態としては、以下の方法が挙げられる。ユーザの指示位置座標、あるいは動き検出の結果得られる指示ベクトルに基づき、指示領域を抽出する。この際、指示領域は文字方向に応じて、指示座標、あるいは指示ベクトルを拡張して抽出される。指示領域内で文字認識を行い、得られた語句を検索キーCOMin1とする。 In step S1044, when the search target is a character, character recognition is performed and the search key COMin1 is detected. Examples of character recognition include the following methods. The designated area is extracted based on the designated position coordinates of the user or the designated vector obtained as a result of motion detection. At this time, the instruction area is extracted by extending the instruction coordinates or the instruction vector according to the character direction. Character recognition is performed in the designated area, and the obtained word / phrase is used as a search key COMin1.
ステップS1045では、検索対象が画像である場合に、画像識別を行い、その画像に対応する検索キーCOMin1を検出する。画像識別は、大きく2つの手法に分類される。第1の手法は、画像に付加されているメタデータを利用する方法である。メタデータは、本発明ではコンテンツ内に付加、あるいは埋め込まれる検索キーのことを指す。仮想コンテンツは、図2、図3、あるいは図4のような検索装置のプロジェクタにより提示する電子データであるため、コンテンツ内にデジタルデータとしてメタデータを付加することができる。例えば、飲み物の缶が映っている画像には、その品名、メーカ、成分などの検索キーをメタデータとして付加することができ、検索対象として指示された際には、前記メタデータが検索キーとして検出される。一方、実コンテンツの場合は、バーコードやQRコード、電子透かし情報として検索キーを埋め込むことができる。メタデータは、画像内の登場人物、物体毎に与えられ、1フレーム内に一括保持し、ユーザに選択を求める形態でも良いし、分割された領域でそれぞれ保持していても良い。また、1つの対象に対して、複数のメタデータが付加される可能性もある。その場合、ユーザに選択を求めても良いし、全てを検索キーCOMin1としても良い。第2の手法は、特徴抽出を行い、サーバに格納されているパターン情報とマッチングを行う方法である。この際、パターン情報と共に、それに対応する検索キーCOMin1も格納されている。前記第1の手法と同様に、1つのパターン情報に対して複数の検索キーCOMin1を用意することもできる。 In step S1045, when the search target is an image, image identification is performed, and a search key COMin1 corresponding to the image is detected. Image identification is roughly classified into two methods. The first method is a method that uses metadata added to an image. In the present invention, metadata refers to a search key added or embedded in content. Since the virtual content is electronic data presented by the projector of the search device as shown in FIG. 2, FIG. 3, or FIG. 4, metadata can be added as digital data in the content. For example, a search key such as the product name, manufacturer, and ingredient can be added as metadata to an image showing a drink can. When the search target is instructed, the metadata is used as a search key. Detected. On the other hand, in the case of real content, a search key can be embedded as a barcode, QR code, or digital watermark information. The metadata may be given for each character or object in the image, and may be held in one frame and the user may be requested to select, or may be held in divided areas. In addition, a plurality of metadata may be added to one target. In that case, the user may be asked to select, or all may be used as the search key COMin1. The second method is a method of performing feature extraction and matching with pattern information stored in a server. At this time, the search key COMin1 corresponding to the pattern information is also stored. Similar to the first method, a plurality of search keys COMin1 can be prepared for one pattern information.
なお、仮想コンテンツが検索対象となる場合は、前記仮想コンテンツを提示する位置情報を保持しておけば、ステップS1044における文字認識、あるいはステップS1045における画像識別を行うことなく、前記指示領域の検出のみで検索キーCOMin1を取得することも可能である。 When virtual content is a search target, if the position information for presenting the virtual content is retained, only the indication area is detected without performing character recognition in step S1044 or image identification in step S1045. It is also possible to acquire the search key COMin1.
ステップS1046では、ステップS1044、あるいはステップS1045で得られた検索キーCOMin1を出力する。検索キーが複数得られた場合は、それぞれ単独の検索キーCOMin1としても良いし、AND、ORなどの論理演算子を用いた検索式を構成しても良い。 In step S1046, the search key COMin1 obtained in step S1044 or step S1045 is output. When a plurality of search keys are obtained, each search key may be a single search key COMin1, or a search expression using logical operators such as AND and OR may be configured.
なお、検索キーCOMin1の検出において、複数の検索対象を指定する場合、図8のフローチャートに示す形態でも実現可能である。図7との差異として、指示終了判定をステップS1047として付加している。ユーザの指示が終了するまで、ステップS1041〜ステップS1045を繰り返し、複数の検索対象を指定し、検索キーCOMin1を取得することが可能である。 In the detection of the search key COMin1, when a plurality of search targets are specified, the embodiment shown in the flowchart of FIG. 8 can be realized. As a difference from FIG. 7, an instruction end determination is added as step S1047. Until the user's instruction is completed, steps S1041 to S1045 are repeated, a plurality of search targets can be specified, and the search key COMin1 can be acquired.
以上のように、本発明によれば、画像認識によって、ユーザの指定する位置と動きから検索キーCOMin1を検出できるため、ユーザは煩雑なキーボード入力作業を行うことなく、所望の検索結果を取得することができ、その実用的価値は高い。また、検索結果の提示位置決定手段を備えているため、提示位置の自由度が高く、快適なコンテンツ鑑賞環境を提供できる。 As described above, according to the present invention, the search key COMin1 can be detected from the position and movement specified by the user by image recognition, so that the user can obtain a desired search result without performing a complicated keyboard input operation. And its practical value is high. In addition, since the search result presentation position determining means is provided, the degree of freedom of the presentation position is high and a comfortable content viewing environment can be provided.
(実施の形態2)
次に本発明の実施の形態2に係る検索装置PROC2の動作について説明する。図9は、検索装置PROC2の動作を示したブロック図である。検索装置PROC2は、コンテンツcontを提示、参照することが可能である。動作のフローチャートは実施の形態1で示した図5と同様であるが、電子的なコンテンツを保持しているため、撮像手段INTPUT2が撮像するのは、ユーザによる指示情報command1のみである。実施の形態2では、図1の検索対象contentsと同等の信号は、コンテンツcontを参照することで得られるため、ステップS109における検索キーCOMin1の検出が容易になる。コンテンツを提示する位置情報を保持しておけば、ユーザの指示する位置から対象領域を抽出した時点で、コンテンツが参照され、検索キーCOMin1を取得することが可能となる。前記方法により、コンテンツ判定、あるいは文字認識や画像識別といった複雑な画像認識処理を省き、処理量を削減することができる。コンテンツcontには、メタデータを付加することができ、検索キー検出に利用することが可能である。
(Embodiment 2)
Next, the operation of the search device PROC2 according to
なお、コンテンツファイルFILEにコンテンツ内容に関する付加情報が保持されている場合の構成として、図10のブロック図に示す検索装置PROC3による検索の実施が可能である。検索装置PROC3は、検索手段SEAR2において、コンテンツファイルFILEを参照可能であることが、図9に示した前記検索装置PROC2の前記検索手段SEAR1とは異なる。この実施の形態2においては、コンテンツファイルとネットワークサーバ、あるいはローカルサーバとの間で参照順序がしてされたものであっても良いし、参照先をユーザ側が選択、あるいはサーバ側が指定するものであっても良い。 As a configuration in the case where additional information related to content contents is held in the content file FILE, a search can be performed by the search device PROC3 shown in the block diagram of FIG. The search device PROC3 is different from the search unit SEAR1 of the search device PROC2 shown in FIG. 9 in that the search unit SEAR2 can refer to the content file FILE. In the second embodiment, the content file and the network server or the local server may be referred to in order, or the reference side may be selected by the user side or designated by the server side. There may be.
<検索装置におけるユーザインタフェース>
以下、本実施の形態の検索装置のユーザインタフェース画面を示すが、ここで示す画面は典型例であり、これに限定されるものではない。
<User interface in search device>
Hereinafter, although the user interface screen of the search device of this embodiment is shown, the screen shown here is a typical example and is not limited to this.
図11(a)、および(b)は、検索結果を提示するユーザインタフェース画面の例を示す図である。この例では、コンテンツ001は、本や新聞など物理的な媒体である実コンテンツでも良いし、プロジェクタによって提示された仮想的なコンテンツでも良い。また、仮想的なコンテンツの提示は、白紙の冊子にコンテンツを提示するものでも良い。検索結果002は、図11(a)のようにコンテンツと独立して提示されても良いし、図11(b)のようにコンテンツと合成した形式で提示されても良い。コントロールパネル003は、ユーザによる装置へのフィードバックを可能とする操作ボタン、およびナビゲーション画面を提示する。このコントロールパネル003により、ユーザは検索開始、終了、検索対象の指示、検索結果の閲覧などにおいて、検索装置に対する操作命令を行うことができる。なお、前記操作命令を、動きとして与え、画像認識により抽出しても良い。
FIGS. 11A and 11B are diagrams showing examples of user interface screens that present search results. In this example, the
図12は、ユーザが文章中の語句について検索を行う際のユーザインタフェース画面の例を示す図である。コンテンツ001上でユーザが指示情報command1を与えている。この際、検索対象をハイライトしてインタフェースの視認性を向上させている。また、コントロールパネル003において、検索キーがユーザ所望のものであるかどうかを問い合わせることが可能である。
FIG. 12 is a diagram illustrating an example of a user interface screen when a user searches for a phrase in a sentence. On the
図13は、コンテンツ001上で画像中の物体について検索を行う際のユーザインタフェース画面の例を示す図である。検索対象をユーザが指示すると、仮想コンテンツであればメタデータに、実コンテンツであれば電子透かし情報に記録された検索キーをコントロールパネル003に提示する。図12と同様に検索対象をハイライトすることができる。ユーザが検索対象を点で示した場合は、その点を含む物体が選択され、検索対象を囲む動作を示した場合は、その領域内の物体が選択される。なお、検索キーが複数ある場合は、図13のように選択を求める。提示された検索キーから任意の数だけ選択することができる。また、所望の検索キーがない場合は、選択された検索キーがない状態で「OK」を指定すれば良い。また、検索キーが階層的に分類することが可能であり、その場合は「Next」、あるいは「Prev」を指定して、階層を移動する。
FIG. 13 is a diagram illustrating an example of a user interface screen when searching for an object in an image on the
(実施の形態3)
さらに、前記各実施の形態で示した検索方法を実現するためのプログラムを、フレキシブルディスク等の記録媒体に記録するようにすることにより、前記各実施の形態で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。
(Embodiment 3)
Further, by recording a program for realizing the search method shown in each embodiment on a recording medium such as a flexible disk, the processing shown in each embodiment is independent of a computer system. It becomes possible to carry out easily.
図14は、前記各実施の形態の検索方法を、フレキシブルディスク等の記録媒体に記録されたプログラムを用いて、コンピュータシステムにより実施する場合の説明図である。 FIG. 14 is an explanatory diagram when the search method of each of the above embodiments is implemented by a computer system using a program recorded on a recording medium such as a flexible disk.
図14(b)は、フレキシブルディスクの正面からみた外観、断面構造、及びフレキシブルディスクを示し、図14(a)は、記録媒体本体であるフレキシブルディスクの物理フォーマットの例を示している。フレキシブルディスクFDはケースF内に内蔵され、該ディスクの表面には、同心円状に外周からは内周に向かって複数のトラックTrが形成され、各トラックは角度方向に16のセクタSeに分割されている。従って、前記プログラムを格納したフレキシブルディスクでは、前記フレキシブルディスクFD上に割り当てられた領域に、前記プログラムが記録されている。 FIG. 14B shows an appearance, a cross-sectional structure, and a flexible disk as seen from the front of the flexible disk, and FIG. 14A shows an example of a physical format of the flexible disk that is a recording medium body. The flexible disk FD is built in the case F, and on the surface of the disk, a plurality of tracks Tr are formed concentrically from the outer periphery toward the inner periphery, and each track is divided into 16 sectors Se in the angular direction. ing. Therefore, in the flexible disk storing the program, the program is recorded in an area allocated on the flexible disk FD.
また、図14(c)は、フレキシブルディスクFDに前記プログラムの記録再生を行うための構成を示す。検索方法を実現する前記プログラムをフレキシブルディスクFDに記録する場合は、コンピュータシステムCsから前記プログラムをフレキシブルディスクドライブを介して書き込む。また、フレキシブルディスク内のプログラムにより検索方法を実現する前記検索方法をコンピュータシステム中に構築する場合は、フレキシブルディスクドライブによりプログラムをフレキシブルディスクから読み出し、コンピュータシステムに転送する。 FIG. 14C shows a configuration for recording and reproducing the program on the flexible disk FD. When the program for realizing the search method is recorded on the flexible disk FD, the program is written from the computer system Cs via the flexible disk drive. Further, when the search method for realizing the search method by the program in the flexible disk is constructed in the computer system, the program is read from the flexible disk by the flexible disk drive and transferred to the computer system.
なお、前記説明では、記録媒体としてフレキシブルディスクを用いて説明を行ったが、光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。 In the above description, the flexible disk is used as the recording medium, but the same can be done using an optical disk. Further, the recording medium is not limited to this, and any recording medium such as an IC card or a ROM cassette capable of recording a program can be similarly implemented.
以上、本発明に係る検索装置および検索方法について、前記各実施の形態に基づいて説明したが、本発明は、これら実施の形態に限定されるものではない。本発明の主旨を逸脱しない範囲内で、当業者が思いつく変形を本実施の形態に施したものも、本発明に含まれる。 The search device and search method according to the present invention have been described based on the above embodiments, but the present invention is not limited to these embodiments. The present invention also includes modifications made to the present embodiment by those skilled in the art without departing from the scope of the present invention.
例えば、本実施の形態における検索装置を備える光ディスク記録装置、動画像送信装置、デジタルテレビ放送送出装置、Webサーバ、通信装置、携帯情報端末等や、本実施の形態における画像処理装置を備える動画像受信装置、動画像記録装置、静止画記録装置、デジタルテレビ放送受信装置、通信装置、携帯情報端末等も、本発明に含まれるのは言うまでもない。ここで、動画像記録装置とはカムコーダやWebなどを含み、静止画記録装置とはデジタルスチルカメラなどを含む。 For example, an optical disk recording device including a search device according to the present embodiment, a moving image transmission device, a digital television broadcast transmission device, a Web server, a communication device, a portable information terminal, and the like, or a moving image including the image processing device according to the present embodiment. It goes without saying that a receiving device, a moving image recording device, a still image recording device, a digital television broadcast receiving device, a communication device, a portable information terminal, and the like are also included in the present invention. Here, the moving image recording device includes a camcorder, Web, and the like, and the still image recording device includes a digital still camera and the like.
なお、ブロック図(図1、図9及び図10など)の各機能ブロックは典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されても良い。 Each functional block in the block diagrams (FIG. 1, FIG. 9, FIG. 10, etc.) is typically realized as an LSI (Large Scale Integration) which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
ここでは、LSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Although referred to as LSI here, it may be called IC (Integrated Circuit), system LSI, super LSI, or ultra LSI depending on the degree of integration.
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。 Further, the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of the circuit cells inside the LSI may be used.
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。 Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.
また、各機能ブロックのうち、検索対象となるデータを格納する手段だけ1チップ化せずに別構成としても良い。 Further, among the functional blocks, only the means for storing the data to be searched may be configured separately instead of being integrated into one chip.
本発明によれば、画像認識によって、ユーザの指定する位置と動きから検索キーを検出できるため、ユーザは煩雑なキーボード入力作業を行うことなく、所望の検索結果を取得することができるなど、その有効性は高い。 According to the present invention, since the search key can be detected from the position and movement specified by the user by image recognition, the user can acquire a desired search result without performing complicated keyboard input work. Effectiveness is high.
INPUT1 撮像手段
INPUT2 撮像手段
INPUT3 入力手段
SD 検索キー検出手段
SEAR 検索手段
SEAV ネットワーク上のサーバ
GEN 画像生成手段
POS 提示位置決定手段
OUTPUT 提示手段
FILE コンテンツファイル
INPUT1 Imaging means
INPUT2 imaging means
INPUT3 input means
SD search key detection means
SEAR search means
Server on SEAV network
GEN image generation means
POS presentation position determination means
OUTPUT presentation means
FILE Content file
Claims (12)
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像ステップと、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出ステップと、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索ステップと、
前記検索結果を提示するための提示画像を作成する画像生成ステップと、
前記提示画像を提示する提示ステップと、
を備えることを特徴とする検索方法。 A search method for detecting a search keyword or image data (hereinafter collectively referred to as a search key) by image processing for a phrase or image for which detailed information is desired by a user in a content. ,
An imaging step for obtaining an instruction for a user-desired search location on the content as a moving image or a still image;
A detection step of inputting a moving image or a still image, specifying a search target based on user-designated information such as a position designated by the user or a user's movement, and detecting a search key;
A search step of applying the search key to a search algorithm and obtaining a search result;
An image generation step of creating a presentation image for presenting the search result;
A presenting step of presenting the presented image;
A search method comprising:
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像ステップと、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出ステップと、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索ステップと、
前記検索結果を提示するための提示画像を作成する画像生成ステップと、
前記提示画像を提示する空間位置を決定する提示位置決定ステップと、
前記提示画像を、前記提示位置決定ステップにより決定した位置に提示する提示ステップと、
を備えることを特徴とする請求項1記載の検索方法。 A search method for detecting a search key by image processing for a word or image for which detailed information is desired by a user in a content,
An imaging step for obtaining an instruction for a user-desired search location on the content as a moving image or a still image;
A detection step of inputting a moving image or a still image, specifying a search target based on user-designated information such as a position designated by the user or a user's movement, and detecting a search key;
A search step of applying the search key to a search algorithm and obtaining a search result;
An image generation step of creating a presentation image for presenting the search result;
A presentation position determining step for determining a spatial position for presenting the presented image;
A presenting step of presenting the presented image at the position determined by the presenting position determining step;
The search method according to claim 1, further comprising:
前記画像生成ステップは、前記仮想コンテンツを提示するための画像も作成し、さらに、検索結果と前記仮想コンテンツを提示するための画像とを合成して前記提示画像とすることを特徴とする請求項1記載の検索方法。 The content is virtual content presented by the presenting step,
The image generating step also creates an image for presenting the virtual content, and further combines the search result with an image for presenting the virtual content to form the presented image. The search method according to 1.
前記補助情報は所定のマークや、ハイライトを含むことを特徴とする請求項1記載の検索方法。 The presenting step presents auxiliary information for specifying the search target on the content according to the user instruction information,
The search method according to claim 1, wherein the auxiliary information includes a predetermined mark and a highlight.
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像手段と、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出手段と、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索手段と、
前記検索結果を提示するための提示画像を作成する画像生成手段と、
前記提示画像を提示する提示手段と、
を備えることを特徴とする検索装置。 A search device for detecting a search key by image processing for a phrase or image for which detailed information is desired by a user in a content,
Imaging means for acquiring an instruction for a user-desired search location on the content as a moving image or a still image;
Detecting means for inputting a moving image or a still image, specifying a search target based on user designation information such as a position designated by a user or a user's movement, and detecting a search key;
Search means for applying the search key to a search algorithm and obtaining a search result;
Image generating means for creating a presentation image for presenting the search result;
Presenting means for presenting the presented image;
A search device comprising:
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像ステップと、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出ステップと、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索ステップと、
前記検索結果を提示するための提示画像を作成する画像生成ステップと、
前記提示画像を提示する提示ステップと、
を備えることを特徴とするプログラム。 A program for realizing a search method for detecting a search key by image processing for a phrase or image for which a user desires detailed information in a content,
An imaging step of acquiring an instruction for a search location desired by the user on the content as a moving image or a still image;
A detection step of inputting a moving image or a still image, specifying a search target based on user-designated information such as a position designated by the user or a user's movement, and detecting a search key;
A search step of applying the search key to a search algorithm and obtaining a search result;
An image generation step of creating a presentation image for presenting the search result;
A presenting step of presenting the presented image;
A program comprising:
コンテンツ上でユーザ所望の検索箇所に対する指示を動画像あるいは静止画像として取得する撮像手段と、
前記動画像あるいは静止画像を入力して、ユーザの指定する位置、あるいはユーザの動きなどのユーザ指示情報に基づいて検索対象を特定し、検索キーを検出する検出手段と、
前記検索キーを検索アルゴリズムに適用し、検索結果を取得する検索手段と、
前記検索結果を提示するための提示画像を作成する画像生成手段と、
前記提示画像を提示する提示手段と、
を備えることを特徴とする集積回路。 An integrated circuit for realizing a search method for detecting a search key by image processing for a phrase or image for which detailed information is desired by a user in a content,
Imaging means for acquiring an instruction for a user-desired search location on the content as a moving image or a still image;
Detecting means for inputting a moving image or a still image, specifying a search target based on user designation information such as a position designated by a user or a user's movement, and detecting a search key;
Search means for applying the search key to a search algorithm and obtaining a search result;
Image generating means for creating a presentation image for presenting the search result;
Presenting means for presenting the presented image;
An integrated circuit comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007056990A JP2008217660A (en) | 2007-03-07 | 2007-03-07 | Search method and apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007056990A JP2008217660A (en) | 2007-03-07 | 2007-03-07 | Search method and apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008217660A true JP2008217660A (en) | 2008-09-18 |
Family
ID=39837594
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007056990A Pending JP2008217660A (en) | 2007-03-07 | 2007-03-07 | Search method and apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008217660A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012022643A (en) * | 2010-07-16 | 2012-02-02 | Toshiba Corp | Display device and display method |
| JP2013046151A (en) * | 2011-08-23 | 2013-03-04 | Ricoh Co Ltd | Projector, projection system, and information search display method |
| JP2013219447A (en) * | 2012-04-05 | 2013-10-24 | Sharp Corp | Content display device, content reception device, program, and content reproduction device |
| JP2014063318A (en) * | 2012-09-20 | 2014-04-10 | Sharp Corp | Character recognition device, control method for character recognition device, control program, and computer readable recording medium with control program recorded thereon |
| JP2015531906A (en) * | 2012-07-12 | 2015-11-05 | エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド | Bidirectional control system, manufacturing method thereof, and device incorporating the same |
-
2007
- 2007-03-07 JP JP2007056990A patent/JP2008217660A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012022643A (en) * | 2010-07-16 | 2012-02-02 | Toshiba Corp | Display device and display method |
| JP2013046151A (en) * | 2011-08-23 | 2013-03-04 | Ricoh Co Ltd | Projector, projection system, and information search display method |
| JP2013219447A (en) * | 2012-04-05 | 2013-10-24 | Sharp Corp | Content display device, content reception device, program, and content reproduction device |
| JP2015531906A (en) * | 2012-07-12 | 2015-11-05 | エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド | Bidirectional control system, manufacturing method thereof, and device incorporating the same |
| JP2014063318A (en) * | 2012-09-20 | 2014-04-10 | Sharp Corp | Character recognition device, control method for character recognition device, control program, and computer readable recording medium with control program recorded thereon |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20110099493A1 (en) | Image auxiliary data searching and displaying method and document camera using such method | |
| CN102246121B (en) | Information display device and information display method | |
| JP2011008752A (en) | Document operation system, document operation method and program thereof | |
| KR20110052124A (en) | Panorama image generation and inquiry method and mobile terminal using the same | |
| JPWO2007004519A1 (en) | Search system and search method | |
| US8094242B2 (en) | Object management apparatus, mobile terminal, and object management method | |
| EP2105930B1 (en) | Selection and positioning of images within a template based on relative comparison of image attributes | |
| US20080095447A1 (en) | Retrieval System and Retrieval Method | |
| KR102832858B1 (en) | Method of providing augmented reality contents and elecronic device therefor | |
| JP2008217660A (en) | Search method and apparatus | |
| US10162507B2 (en) | Display control apparatus, display control system, a method of controlling display, and program | |
| US20180189602A1 (en) | Method of and system for determining and selecting media representing event diversity | |
| JP6828421B2 (en) | Desktop camera-calculation execution method, program and calculation processing system for visualizing related documents and people when viewing documents on a projector system. | |
| JPH10254901A (en) | Image search method and apparatus | |
| US7898566B2 (en) | Video processing apparatus and object identifying method | |
| EP2784736A1 (en) | Method of and system for providing access to data | |
| JP6115673B2 (en) | Apparatus and program | |
| JP2002152668A (en) | Multi-display device, multi-display display method, photographing system and photographing method | |
| JP2010191907A (en) | Character input device and character input method | |
| JP7333027B2 (en) | Information processing device, information processing method and program | |
| JP5532748B2 (en) | Imaging device | |
| JP5920448B2 (en) | Imaging device, program | |
| JP5655916B2 (en) | Image search system | |
| US20210158595A1 (en) | Information processing apparatus, information processing method, and information processing system | |
| JP2023160455A (en) | Information processing device, information processing method, and program |