[go: up one dir, main page]

JP2012094090A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2012094090A
JP2012094090A JP2010243059A JP2010243059A JP2012094090A JP 2012094090 A JP2012094090 A JP 2012094090A JP 2010243059 A JP2010243059 A JP 2010243059A JP 2010243059 A JP2010243059 A JP 2010243059A JP 2012094090 A JP2012094090 A JP 2012094090A
Authority
JP
Japan
Prior art keywords
unit
imaging position
image
range
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010243059A
Other languages
Japanese (ja)
Other versions
JP2012094090A5 (en
JP5565271B2 (en
Inventor
Yoshihiro Tejima
義裕 手島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010243059A priority Critical patent/JP5565271B2/en
Publication of JP2012094090A publication Critical patent/JP2012094090A/en
Publication of JP2012094090A5 publication Critical patent/JP2012094090A5/ja
Application granted granted Critical
Publication of JP5565271B2 publication Critical patent/JP5565271B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】より高速に画像を検索する。
【解決手段】撮像装置1は、撮像日時情報及び撮像位置情報と対応付けられた複数の画像と、第2のテーブルT2と、を記憶する記憶部204、画像の撮像位置に係る検索範囲Bを受け付ける操作部302、撮像日時情報に基づいて記憶部204に記憶された画像を組分けする組分け部208c、撮像位置情報に基づいて組分けされた各組のそれぞれに含まれる画像の撮像位置範囲Aを特定する撮像位置範囲特定部208d、各組の撮像位置範囲Aと検索範囲Bとが重複するか否か判定する検索範囲重複判定部208e、組分けされた全ての組のうち、撮像位置範囲Aと検索範囲Bとが重複しないと判定された組を除いた他の組から検索範囲内で撮像された画像を抽出する画像抽出部208fと、を備える。
【選択図】図1
An image is retrieved at a higher speed.
An imaging apparatus includes a storage unit that stores a plurality of images associated with imaging date and time information and imaging position information, and a second table, and a search range B related to the imaging position of the image. Accepting operation unit 302, grouping unit 208c for grouping images stored in the storage unit 204 based on imaging date and time information, and imaging position range of images included in each group grouped based on imaging position information An imaging position range specifying unit 208d for specifying A, a search range overlap determination unit 208e for determining whether or not each set of the imaging position range A and the search range B overlaps, and an imaging position among all the divided groups An image extraction unit 208f that extracts an image captured in the search range from another set excluding the set determined that the range A and the search range B do not overlap.
[Selection] Figure 1

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

近年、大量の画像データを取り扱う機会が増加しており、このような大量の画像データを管理するために複数のキーワードを用いて画像を予め分類する画像管理方法が知られている(例えば特許文献1)。   In recent years, an opportunity to handle a large amount of image data has increased, and an image management method for classifying images in advance using a plurality of keywords in order to manage such a large amount of image data is known (for example, Patent Documents). 1).

特開2007−11637号公報JP 2007-11637 A

しかしながら、従来の画像管理方法では、画像の撮像位置の範囲を指定した検索のように、キーワードによる分類がなされない画像の検索条件については全ての画像を総当り検索しなければならず、画像の検索を高速化することができなかった。   However, in the conventional image management method, all the images must be searched round-robin for the search conditions for images that are not classified by keywords, such as a search that specifies a range of image capturing positions. The search could not be accelerated.

本発明の課題は、より高速に画像を検索することである。   An object of the present invention is to retrieve an image at a higher speed.

上記課題を解決するため、請求項1に記載の発明は、情報処理装置であって、撮像日時を示す情報及び撮像位置を示す情報と対応付けられた画像を複数記憶する第1の記憶手段と、前記第1の記憶手段に記憶された複数の画像を、前記撮像日時を示す情報に基づいて組分けする組分け手段と、前記組分け手段により組分けされた各組のそれぞれに含まれる画像の撮像位置範囲を、前記撮像位置を示す情報に基づいて特定する特定手段と、前記特定手段により特定された各組の画像の撮像位置範囲を記憶する第2の記憶手段と、前記第1の記憶手段に記憶された画像の検索条件として、画像の撮像位置に係る検索範囲の入力を受け付ける受付手段と、前記各組の画像の撮像位置範囲と前記検索範囲とが重複するか否か判定する第1の判定手段と、前記組分け手段により組分けされた全ての組のうち、前記第1の判定手段により前記各組の画像の撮像位置範囲と前記検索範囲とが重複しないと判定された組を除いた他の組から、前記検索範囲に対応する画像を、前記撮像位置を示す情報に基づいて抽出する抽出手段と、を備えることを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is an information processing apparatus, and a first storage unit that stores a plurality of images associated with information indicating an imaging date and time and information indicating an imaging position; , A grouping unit that groups the plurality of images stored in the first storage unit based on the information indicating the imaging date and time, and an image included in each of the groups grouped by the grouping unit An image pickup position range based on information indicating the image pickup position, a second storage means for storing the image pickup position range of each set of images specified by the specifying means, and the first As an image search condition stored in the storage means, it is determined whether or not the accepting means for accepting an input of a search range related to an image capturing position and the image capturing position range of each set of images and the search range overlap. A first determination means; Of all the groups grouped by the grouping unit, other groups except for the group determined by the first determination unit that the imaging position range of each group of images and the search range do not overlap. Extraction means for extracting an image corresponding to the search range based on information indicating the imaging position.

請求項2に記載の発明は、請求項1に記載の情報処理装置であって、前記抽出手段は、
前記第1の判定手段により前記各組の画像の撮像位置範囲と前記検索範囲とが重複すると判定された組に含まれる画像の各々について、前記撮像位置を示す情報が前記検索範囲内であるか否かを判定する第2の判定手段を有することを特徴とする。
Invention of Claim 2 is the information processing apparatus of Claim 1, Comprising: The said extraction means is
Whether the information indicating the imaging position is within the search range for each of the images included in the set determined by the first determination unit that the imaging position range of the image of each set and the search range overlap. It has the 2nd determination means which determines whether or not.

請求項3に記載の発明は、請求項2に記載の情報処理装置であって、前記抽出手段は、さらに、前記第1の判定手段により前記各組の画像の撮像位置範囲が前記検索範囲内であると判定された組について、当該組に含まれる各画像と対応付けられた前記撮像位置を示す情報が前記検索範囲内であるか否かを前記第2の判定手段により判定することなく、当該組に含まれる全ての画像を抽出することを特徴とする。   A third aspect of the present invention is the information processing apparatus according to the second aspect, wherein the extraction unit further includes an imaging position range of the images of each set within the search range by the first determination unit. Without determining by the second determination means whether or not the information indicating the imaging position associated with each image included in the set is within the search range. All the images included in the set are extracted.

請求項4に記載の発明は、請求項1から3のいずれか一項に記載の情報処理装置であって、所定の領域内の地図を表示する表示手段と、前記抽出手段により抽出された画像の撮影位置を、前記表示手段により表示された地図上に識別表示する識別表示手段と、を更に備え、前記受付手段は、前記表示手段により表示された地図の所定の領域を、前記検索範囲として受け付けることを特徴とする。   A fourth aspect of the present invention is the information processing apparatus according to any one of the first to third aspects, wherein the display unit displays a map in a predetermined area and the image extracted by the extraction unit. Identification display means for identifying and displaying the shooting position on the map displayed by the display means, and the reception means uses a predetermined area of the map displayed by the display means as the search range. It is characterized by accepting.

請求項5に記載の発明は、請求項4に記載の情報処理装置であって、前記表示手段の表示対象となる地図の所定の領域が変更されると、前記表示手段による表示内容の変更とともに、この変更後の座標領域が前記受付手段により新たな検索範囲とし、前記識別表示手段により新たな検索範囲に対応した画像の撮影位置の識別表示を自動的に行うことを特徴とする。   The invention according to claim 5 is the information processing apparatus according to claim 4, wherein when a predetermined region of the map to be displayed by the display unit is changed, the display content is changed by the display unit. The coordinate area after the change is set as a new search range by the receiving means, and the identification display means automatically displays the identification of the shooting position of the image corresponding to the new search range.

請求項6に記載の発明は、請求項5に記載の情報処理装置であって、現在位置を取得する測位手段を更に備え、前記測位手段により取得される現在位置を含む領域を前記表示手段により表示させ、前記測位手段により取得される現在位置の変化に応じて、前記表示手段による地図表示、前記識別表示手段による画像の撮影位置の識別表示の処理を逐次実行することを特徴とする。   The invention according to claim 6 is the information processing apparatus according to claim 5, further comprising positioning means for acquiring a current position, and an area including the current position acquired by the positioning means is displayed by the display means. In accordance with a change in the current position acquired by the positioning means, a map display by the display means and an image photographing position identification display process by the identification display means are sequentially executed.

請求項7に記載の発明は、請求項1から6のいずれか一項に記載の情報処理装置であって、撮像手段による画像の撮像順に従って順次増加する番号を、複数の画像の各々を特定する特定情報に付加する付加手段をさらに備え、前記組分け手段は、前記付加手段により付加された前記番号を用いて画像の組分けを行うことを特徴とする。   A seventh aspect of the present invention is the information processing apparatus according to any one of the first to sixth aspects, wherein each of the plurality of images is identified with a number that sequentially increases in accordance with the order of image capturing by the image capturing means. And adding means for adding to the specific information, wherein the grouping means performs image grouping using the numbers added by the adding means.

請求項8に記載の発明は、請求項7に記載の情報処理装置であって、前記第1の記憶手段に記憶されている複数の画像の各々に係る前記特定情報をまとめたリスト情報を生成する生成手段と、前記第1の記憶手段に記憶された画像を削除する削除手段と、前記リスト情報に、前記削除手段により削除された画像を示す削除情報を設定する設定手段と、をさらに備えることを特徴とする。   The invention according to claim 8 is the information processing apparatus according to claim 7, wherein the list information in which the specific information related to each of the plurality of images stored in the first storage unit is collected is generated. A generating unit that deletes the image stored in the first storage unit, and a setting unit that sets deletion information indicating an image deleted by the deleting unit in the list information. It is characterized by that.

請求項9に記載の発明は、請求項1から8のいずれか一項に記載の情報処理装置であって、前記撮像位置を示す情報は、緯度及び経度の少なくとも一を含み、前記特定手段により特定される画像の撮像位置範囲は、各組に含まれる画像と対応付けられた前記撮像位置を示す情報に含まれる緯度及び経度の少なくとも一のうちの最大値及び/又は最小値に基づいて示されることを特徴とする。   A ninth aspect of the present invention is the information processing apparatus according to any one of the first to eighth aspects, wherein the information indicating the imaging position includes at least one of latitude and longitude, and is determined by the specifying unit. The imaging position range of the specified image is indicated based on the maximum value and / or the minimum value of at least one of latitude and longitude included in the information indicating the imaging position associated with the image included in each set. It is characterized by that.

請求項10に記載の発明は、情報処理方法であって、情報処理装置に、撮像日時を示す情報及び撮像位置を示す情報と対応付けられた画像を複数記憶させる処理と、前記第1の記憶手段に記憶された複数の画像を、前記撮像日時を示す情報に基づいて組分けする処理と、前記組分け手段により組分けされた各組のそれぞれに含まれる画像の撮像位置範囲を、前記撮像位置を示す情報に基づいて特定する処理と、前記特定手段により特定された各組の画像の撮像位置範囲を記憶させる処理と、前記第1の記憶手段に記憶された画像の検索条件として、画像の撮像位置に係る検索範囲の入力を受け付ける処理と、前記各組の画像の撮像位置範囲と前記検索範囲とが重複するか否か判定する処理と、前記組分け手段により組分けされた全ての組のうち、前記第1の判定手段により前記各組の画像の撮像位置範囲と前記検索範囲とが重複しないと判定された組を除いた他の組から、前記検索範囲に対応する画像を、前記撮像位置を示す情報に基づいて抽出する処理と、を実行させることを特徴とする。   The invention according to claim 10 is an information processing method, wherein the information processing apparatus stores a plurality of images associated with information indicating an imaging date and time and information indicating an imaging position, and the first storage A process of grouping a plurality of images stored in the means based on information indicating the imaging date and time, and an imaging position range of images included in each of the groups grouped by the grouping means As processing for specifying based on information indicating the position, processing for storing the imaging position range of each set of images specified by the specifying means, and image search conditions stored in the first storage means, an image Processing for accepting an input of a search range relating to the imaging position, processing for determining whether the imaging position range of each set of images and the search range overlap, and all of the groups grouped by the grouping unit Pair The image corresponding to the search range is extracted from the other set excluding the set determined by the first determination means that the imaging position range of the image of each set and the search range do not overlap. And a process of performing extraction based on the information indicating.

請求項11に記載の発明は、プログラムであって、情報処理装置のコンピュータを、撮像日時を示す情報及び撮像位置を示す情報と対応付けられた画像を複数記憶させる手段、記憶された複数の画像を前記撮像日時を示す情報に基づいて組分けする手段、組分けされた各組のそれぞれに含まれる画像の撮像位置範囲を、前記撮像位置を示す情報に基づいて特定する手段、特定された各組の画像の撮像位置範囲を記憶させる手段、受付手段を介して入力された、記憶された画像の検索条件としての画像の撮像位置に係る検索範囲と、前記各組の画像の撮像位置範囲と、が重複するか否か判定する手段、組分けされた全ての組のうち、前記各組の画像の撮像位置範囲と前記検索範囲とが重複しないと判定された組を除いた他の組から、前記検索範囲に対応する画像を、前記撮像位置を示す情報に基づいて抽出する手段、として機能させることを特徴とする。   The invention according to claim 11 is a program, wherein the computer of the information processing apparatus stores a plurality of images associated with information indicating the imaging date and time and information indicating the imaging position, a plurality of stored images Means for grouping based on the information indicating the imaging date and time, means for identifying the imaging position range of the image included in each of the grouped groups based on the information indicating the imaging position, each specified Means for storing the image pickup position range of the set of images, a search range relating to the image pickup position as a search condition for the stored image input via the accepting means, and the image pickup position range of the image of each set , Means for determining whether or not, among all the divided groups, from the other groups excluding the group determined that the imaging position range of the image of each group and the search range do not overlap , The search category An image corresponding to, characterized in that to function as a unit, for extracting, based on the information indicating the image pickup position.

本発明によれば、より高速に画像を検索することができる。   According to the present invention, it is possible to retrieve an image at a higher speed.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 記憶処理の一例を示すフローチャートである。It is a flowchart which shows an example of a memory | storage process. 検索対象抽出処理の一例を示すフローチャートである。It is a flowchart which shows an example of a search object extraction process. 削除処理の一例を示すフローチャートである。It is a flowchart which shows an example of a deletion process. 第1のテーブルT1の一例を示す図である。It is a figure which shows an example of 1st table T1. 第2のテーブルT2の一例を示す図である。It is a figure which shows an example of 2nd table T2. 各組の撮像位置範囲と検索範囲との関係の一例を示す図である。It is a figure which shows an example of the relationship between the imaging position range of each group, and a search range. 検索範囲の入力例を示す図である。It is a figure which shows the example of input of a search range. JPEG画像データの抽出結果の一例を示す図である。It is a figure which shows an example of the extraction result of JPEG image data.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の撮像装置1の概略構成を示すブロック図である。
撮像装置1は、画像の撮像日時情報に基づいて複数の画像を組分けし、組分けされた各組の撮像位置範囲A(図7参照)を、画像の撮像位置情報に基づいて特定する。また、撮像装置1は、画像の撮像位置に係る検索範囲B(図7参照)の入力を操作部302を介して受け付ける。そして、撮像装置1は、各組の画像の撮像位置範囲Aと検索範囲Bとが重複するか否か判定し、撮像位置範囲Aと検索範囲Bとが重複しないと判定された組を除いた他の組から検索範囲内で撮像された画像を抽出する。
FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus 1 according to an embodiment to which the present invention is applied.
The imaging apparatus 1 groups a plurality of images based on image capturing date / time information, and identifies the grouped imaging position range A (see FIG. 7) based on the image capturing position information. In addition, the imaging apparatus 1 receives an input of the search range B (see FIG. 7) related to the image capturing position via the operation unit 302. Then, the imaging apparatus 1 determines whether or not the imaging position range A and the search range B of the images of each set overlap, and excludes the sets that are determined that the imaging position range A and the search range B do not overlap. An image captured within the search range is extracted from another set.

具体的には、図1に示すように、撮像装置1は、レンズ部101、イメージセンサ部102、メモリ201、出力制御部202、画像処理部203、記憶部204、位置情報取得部205、日時情報出力部206、CPU207、画像データ処理部208、表示部301、操作部302及び外部記憶媒体インタフェース303を備える。   Specifically, as illustrated in FIG. 1, the imaging apparatus 1 includes a lens unit 101, an image sensor unit 102, a memory 201, an output control unit 202, an image processing unit 203, a storage unit 204, a position information acquisition unit 205, date and time. An information output unit 206, a CPU 207, an image data processing unit 208, a display unit 301, an operation unit 302, and an external storage medium interface 303 are provided.

レンズ部101は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部101は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The lens unit 101 includes a plurality of lenses and includes a zoom lens, a focus lens, and the like.
Although not shown, the lens unit 101 includes a zoom drive unit that moves the zoom lens in the optical axis direction and a focus drive unit that moves the focus lens in the optical axis direction when imaging a subject. May be.

イメージセンサ部102は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサを有し、レンズ部101の各種レンズを通過した光学像を二次元の画像信号に変換する。
また、図示は省略するが、イメージセンサ部102は、タイミング発生器、ドライバなどを備えている。そして、イメージセンサ部102は、タイミング発生器、ドライバによりイメージセンサを走査駆動して、所定周期毎に光学像をイメージセンサにより二次元の画像信号に変換させ、当該イメージセンサの撮像領域から1画面分ずつ画像フレームを読み出す。また、イメージセンサ部102は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体の撮像条件の調整制御を行う。
また、イメージセンサ部102は、イメージセンサから転送された画像フレームのアナログ値の信号に対してRGBの色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリ201にDMA転送される。
ここで、レンズ部101及びイメージセンサ部102は協働により、撮像手段として機能する。撮像のための操作(撮像操作)は操作部302を介して行われる。撮像操作の実施回数に応じて、イメージセンサ部102は複数のYUVデータを生成する。
The image sensor unit 102 includes, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit 101 into a two-dimensional image signal. To do.
Although not shown, the image sensor unit 102 includes a timing generator, a driver, and the like. The image sensor unit 102 scans and drives the image sensor with a timing generator and a driver, converts an optical image into a two-dimensional image signal with the image sensor every predetermined period, and displays one screen from the imaging region of the image sensor. Read image frames by minute. In addition, the image sensor unit 102 performs adjustment control of imaging conditions of the subject such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.
In addition, the image sensor unit 102 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the image frame transferred from the image sensor, and then performs sample holding by a sample hold circuit (not shown) to perform A / The digital data is converted into digital data by a D converter (not shown), and color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a luminance signal Y and a color difference signal Cb, Cr (YUV data) is generated. The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA transferred to a memory 201 used as a buffer memory via a DMA controller (not shown).
Here, the lens unit 101 and the image sensor unit 102 function as an imaging unit through cooperation. An operation for imaging (imaging operation) is performed via the operation unit 302. The image sensor unit 102 generates a plurality of YUV data according to the number of times of performing the imaging operation.

メモリ201は、例えば、DRAM等により構成され、イメージセンサ部102、画像処理部203、CPU207、画像データ処理部208等によって処理されるデータ等を一時記憶する。   The memory 201 is constituted by, for example, a DRAM or the like, and temporarily stores data processed by the image sensor unit 102, the image processing unit 203, the CPU 207, the image data processing unit 208, and the like.

出力制御部202は、メモリ201に一時的に記憶されている表示用画像データを読み出して表示部301に表示させる制御を行う。また、出力制御部202は、外部の表示装置に対してビデオ信号を出力する機能も有する。
具体的には、出力制御部202は、VRAM、VRAMコントローラ、デジタルビデオエンコーダ、外部の表示装置への出力を可能とするインタフェースなど(全て図示略)を備えている。そして、デジタルビデオエンコーダは、CPU207の制御下にてメモリ201から読み出されてVRAMに記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部301やインタフェースを介して接続された外部の表示装置に出力する。
また、出力制御部202は、CPU207や画像データ処理部208の処理内容に応じた表示を表示部301に行わせる表示制御を行う。
The output control unit 202 performs control to read the display image data temporarily stored in the memory 201 and display it on the display unit 301. The output control unit 202 also has a function of outputting a video signal to an external display device.
Specifically, the output control unit 202 includes a VRAM, a VRAM controller, a digital video encoder, an interface that enables output to an external display device, and the like (all not shown). The digital video encoder periodically reads out the luminance signal Y and the color difference signals Cb and Cr read from the memory 201 and stored in the VRAM under the control of the CPU 207 from the VRAM via the VRAM controller, Based on these data, a video signal is generated and output to a display unit 301 or an external display device connected via an interface.
Further, the output control unit 202 performs display control for causing the display unit 301 to perform display in accordance with the processing contents of the CPU 207 and the image data processing unit 208.

画像処理部203は、メモリ201に記憶された画像データに対して種々の画像処理を施す。具体的には、画像処理部203は、JPEG圧縮部(図示略)などを備えている。そして、JPEG圧縮部は、イメージセンサ部102から出力され、メモリ201に一次記憶されたYUVデータを読み出し、符号化することによりJPEG画像データを生成してCPU207又は画像データ処理部208へ出力する。   The image processing unit 203 performs various image processing on the image data stored in the memory 201. Specifically, the image processing unit 203 includes a JPEG compression unit (not shown). The JPEG compression unit reads out YUV data output from the image sensor unit 102 and temporarily stored in the memory 201, encodes it, generates JPEG image data, and outputs the JPEG image data to the CPU 207 or the image data processing unit 208.

記憶部204は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部203のJPEG圧縮部(図示略)により符号化された撮像画像の記録用の画像データを記憶する。また、記憶部204は、第1のテーブルT1(図5参照)及び第2のテーブルT2(図6参照)を記憶する。   The storage unit 204 includes, for example, a nonvolatile memory (flash memory) or the like, and stores image data for recording a captured image encoded by a JPEG compression unit (not shown) of the image processing unit 203. The storage unit 204 stores a first table T1 (see FIG. 5) and a second table T2 (see FIG. 6).

位置情報取得部205は、撮像装置1の現在の位置情報を取得する。具体的には、位置情報取得部205は、GPS(Global Positioning System)受信機を備え、GPS衛星からの信号を受信して現在の位置を測定し、位置情報として出力する。本実施形態では、当該位置情報は緯度と経度の数値情報として出力される。
ここで、位置情報取得部205は、現在位置を取得する測位手段として機能する。
The position information acquisition unit 205 acquires current position information of the imaging device 1. Specifically, the position information acquisition unit 205 includes a GPS (Global Positioning System) receiver, receives a signal from a GPS satellite, measures the current position, and outputs it as position information. In the present embodiment, the position information is output as numerical information of latitude and longitude.
Here, the position information acquisition unit 205 functions as a positioning unit that acquires the current position.

日時情報出力部206は、日時情報を出力する。具体的には、日時情報出力部206は、現在の日時を計時する専用の集積回路、当該集積回路を駆動する電池等を備え、集積回路が現在の日時を計時して日時情報として出力する。   The date / time information output unit 206 outputs date / time information. Specifically, the date and time information output unit 206 includes a dedicated integrated circuit that measures the current date and time, a battery that drives the integrated circuit, and the like, and the integrated circuit measures and outputs the current date and time as date and time information.

CPU207は、撮像装置1の各部を制御するものである。具体的には、CPU207は、撮像装置1用の各種処理プログラム(図示略)に従って各種の制御動作を行うものである。   The CPU 207 controls each unit of the imaging device 1. Specifically, the CPU 207 performs various control operations in accordance with various processing programs (not shown) for the imaging apparatus 1.

画像データ処理部208は、JPEG画像データの取り扱いに係る各種処理を行う。
具体的には、図1に示すように、画像データ処理部208は、画像ファイル情報生成部208a、インデックス番号付加部208b、組分け部208c、撮像位置範囲特定部208d、検索範囲重複判定部208e、画像抽出部208f、画像削除部208h及び削除フラグ設定部208iを備える。
画像ファイル情報生成部208aは、JPEG画像データが生成されて記憶部204に記憶されるにあたり、撮像日時を示す撮像日時情報として、JPEG画像データの生成日時を当該JPEG画像データに付加し、それぞれのJPEG画像データとその撮像日時とを対応付ける。具体的には、画像ファイル情報生成部208aは、JPEG画像データの生成に際し、日時情報出力部206から現在の日時を取得してそのJPEG画像データに付加する。
The image data processing unit 208 performs various processes related to handling of JPEG image data.
Specifically, as shown in FIG. 1, the image data processing unit 208 includes an image file information generation unit 208a, an index number addition unit 208b, a grouping unit 208c, an imaging position range specifying unit 208d, and a search range duplication determination unit 208e. An image extracting unit 208f, an image deleting unit 208h, and a deletion flag setting unit 208i.
When the JPEG image data is generated and stored in the storage unit 204, the image file information generation unit 208a adds the generation date and time of the JPEG image data to the JPEG image data as the imaging date and time information indicating the imaging date and time. The JPEG image data is associated with the imaging date / time. Specifically, when generating JPEG image data, the image file information generation unit 208a acquires the current date and time from the date and time information output unit 206 and adds it to the JPEG image data.

また、画像ファイル情報生成部208aは、JPEG画像データが生成されて記憶部204に記憶されるにあたり、JPEG画像データの特定情報としてそれぞれのJPEGデータにファイル名を与える。画像ファイル情報生成部208aは、予め定められた所定の規則に基づいてファイル名を生成する。   Also, the image file information generation unit 208a gives a file name to each JPEG data as the specific information of the JPEG image data when the JPEG image data is generated and stored in the storage unit 204. The image file information generation unit 208a generates a file name based on a predetermined rule set in advance.

そして、画像ファイル情報生成部208aは、記憶部204に記憶されるJPEG画像データのファイル名とそのJPEG画像データの撮像位置とを対応付けたリスト情報をテーブルデータ(第1のテーブルT1)として生成し、記憶部204に記憶させる。
図5は、第1のテーブルT1の一例を示す図である。
図5に示すように、第1のテーブルT1は、複数の画像ファイル情報Fを含む。画像ファイル情報Fは、それぞれのJPEG画像データのファイル名、撮像位置の緯度及び撮像位置の経度を対応付けた情報である。
例えば、図5に示す一の画像ファイル情報F1は、「000A.JPG」のファイル名と、「35.65870」の撮像位置の緯度と、「139.74540」の撮像装置の経度とを対応付ける。図5に示す例では、一の画像ファイル情報F1に、さらに「1」のインデックス番号と、値の設定されていない削除フラグとが対応付けられている。インデックス番号及び削除フラグについては後述する。
Then, the image file information generation unit 208a generates list information in which the file name of the JPEG image data stored in the storage unit 204 is associated with the imaging position of the JPEG image data as table data (first table T1). And stored in the storage unit 204.
FIG. 5 is a diagram illustrating an example of the first table T1.
As shown in FIG. 5, the first table T1 includes a plurality of image file information F. The image file information F is information that associates the file name of each JPEG image data, the latitude of the imaging position, and the longitude of the imaging position.
For example, one image file information F1 illustrated in FIG. 5 associates the file name “000A.JPG”, the latitude of the imaging position “35.65870”, and the longitude of the imaging device “139.74540”. In the example shown in FIG. 5, one image file information F1 is further associated with an index number of “1” and a deletion flag for which no value is set. The index number and deletion flag will be described later.

画像ファイル情報生成部208aは、JPEG画像データの生成に際し、位置情報取得部205から現在の位置情報を取得する。画像ファイル情報生成部208aは、取得した位置情報をそのJPEG画像データの撮像位置を示す撮像位置情報としてJPEG画像データのファイル名と対応付けて第1のテーブルT1に記録する。   The image file information generation unit 208a acquires current position information from the position information acquisition unit 205 when generating JPEG image data. The image file information generation unit 208a records the acquired position information in the first table T1 in association with the file name of the JPEG image data as imaging position information indicating the imaging position of the JPEG image data.

また、画像ファイル情報生成部208aは、JPEG画像データのExif(Exchangeable Image File Format)情報として、そのJPEG画像データと対応付けられた撮像位置情報、撮像日時情報を記録する。
ここで、記憶部204は、撮像日時を示す情報(撮像日時情報)及び撮像位置を示す情報(撮像位置情報)と対応付けられた画像(JPEG画像データ)を複数記憶する第1の記憶手段として機能する。
また、画像ファイル情報生成部208aは、記憶部204に記憶された複数の画像(JPEG画像データ)の各々に係る特定情報(ファイル名)をまとめたリスト情報(第1のテーブル)を生成する生成手段として機能する。
Further, the image file information generation unit 208a records imaging position information and imaging date / time information associated with the JPEG image data as Exif (Exchangeable Image File Format) information of the JPEG image data.
Here, the storage unit 204 is a first storage unit that stores a plurality of images (JPEG image data) associated with information (imaging date / time information) indicating imaging date / time and information (imaging position information) indicating imaging position. Function.
Also, the image file information generation unit 208a generates list information (first table) in which specific information (file names) related to each of a plurality of images (JPEG image data) stored in the storage unit 204 is collected. Functions as a means.

インデックス番号付加部208bは、第1のテーブルT1の画像ファイル情報Fの各々にJPEG画像データのファイル名にインデックス番号を設定する(図5参照)。インデックス番号は、画像の撮像順に従って順次増加する番号である。
ここで、インデックス番号付加部208bは、画像の撮像順に従って順次増加する番号(インデックス番号)を、複数の画像の各々を特定する特定情報(画像ファイル情報Fにおけるファイル名)に付加する付加手段として機能する。
なお、インデックス番号付加部208bに、それぞれのJPEG画像データに割り当てられたインデックス番号をそのJPEG画像データのExif情報に記録させるようにしてもよい。
The index number adding unit 208b sets an index number to the file name of the JPEG image data in each of the image file information F of the first table T1 (see FIG. 5). The index number is a number that sequentially increases in accordance with the image capturing order.
Here, the index number adding unit 208b is an adding unit that adds a number (index number) that sequentially increases in accordance with the image capturing order to specific information (file name in the image file information F) that specifies each of the plurality of images. Function.
Note that the index number adding unit 208b may record the index number assigned to each JPEG image data in the Exif information of the JPEG image data.

なお、図5に示す第1のテーブルT1は、それぞれのJPEG画像データの撮像日時情報を含んでいないが、撮像日時情報を第1のテーブルT1に含ませてもよい。   Note that the first table T1 illustrated in FIG. 5 does not include the imaging date / time information of each JPEG image data, but the imaging date / time information may be included in the first table T1.

組分け部208cは、JPEG画像データに付加された撮像日時情報に基づいて記憶部204に記憶された画像を組分けする。具体的には、組分け部208cは、各JPEG画像データの撮像日時に基づいて各JPEGデータの撮像日を特定し、日単位でJPEGデータを組分けする。組分けの基準は、日単位に限らず、任意に決定することができる。
ここで、組分け部208cは、特定情報に付加された番号を用いて組分けを行う。具体的には、組分け部208cは、各組に含まれる画像を、その組に含まれるJPEG画像データのファイル名に付加されたインデックス番号のうち、最小の番号(先頭インデックス番号)と最大の番号(最終インデックス番号)により管理する。組分け部208cは、各組に含まれるJPEG画像データのインデックス番号を第1のテーブルT1から取得し、各組の先頭インデックス番号及び最終インデックス番号を特定する。
このように、組分け部208cは、記憶部204に記憶された複数の画像(JPEG画像データ)を、撮像日時を示す情報(撮像日時情報)に基づいて組分けする組分け手段として機能する。
The grouping unit 208c groups the images stored in the storage unit 204 based on the imaging date / time information added to the JPEG image data. Specifically, the grouping unit 208c identifies the shooting date of each JPEG data based on the shooting date and time of each JPEG image data, and groups the JPEG data in units of days. The grouping standard is not limited to daily units, and can be arbitrarily determined.
Here, the grouping unit 208c performs grouping using the number added to the specific information. Specifically, the grouping unit 208c assigns the image included in each set to the smallest number (first index number) and the largest of the index numbers added to the file names of the JPEG image data included in the set. Manage by number (final index number). The grouping unit 208c acquires the index number of the JPEG image data included in each group from the first table T1, and specifies the first index number and the last index number of each group.
As described above, the grouping unit 208c functions as a grouping unit that groups a plurality of images (JPEG image data) stored in the storage unit 204 based on information (shooting date / time information) indicating the shooting date / time.

撮像位置範囲特定部208dは、組分けされた各組の撮像位置範囲(例えば図7に示す撮像位置範囲A)を特定する。各組の撮像位置範囲とは、各組に含まれる画像の全てが撮像された撮像位置を内包する位置範囲をさす。
撮像位置範囲特定部208dは、各組に含まれるJPEG画像データのそれぞれに対応付けられた撮像位置情報のうち、最大の緯度(北端の緯度)、最小の緯度(南端の緯度)、最大の経度(東端の経度)及び最小の経度(西端の経度)により管理する。撮像位置範囲特定部208dは、各組に含まれるJPEG画像データの撮像位置情報を第1のテーブルT1から取得し、各組の撮像位置範囲Aを特定する。
ここで、撮像位置範囲特定部208dは、組分け部208cにより組分けされた各組のそれぞれに含まれる画像(JPEG画像データ)の撮像位置範囲(撮像位置範囲A)を、撮像位置を示す情報(撮像位置情報)に基づいて特定する特定手段として機能する。
The imaging position range specifying unit 208d specifies each grouped imaging position range (for example, the imaging position range A shown in FIG. 7). The imaging position range of each group refers to a position range including the imaging positions where all the images included in each group are captured.
The imaging position range specifying unit 208d has a maximum latitude (north latitude), a minimum latitude (south latitude), and a maximum longitude among imaging position information associated with each piece of JPEG image data included in each set. (East longitude) and minimum longitude (west longitude). The imaging position range specifying unit 208d acquires the imaging position information of the JPEG image data included in each group from the first table T1, and specifies the imaging position range A of each group.
Here, the imaging position range specifying unit 208d indicates the imaging position range (imaging position range A) of the image (JPEG image data) included in each group grouped by the grouping unit 208c. It functions as a specifying means for specifying based on (imaging position information).

また、撮像位置範囲特定部208dは、組分けされた各組の撮像位置範囲Aを示すリスト情報をテーブルデータ(第2のテーブルT2)として生成し、記憶部204に記憶させる。
図6は、第2のテーブルT2の一例を示す図である。
図6に示すように、第2のテーブルT2は、複数の組情報Cを含む。組情報Cは、各組の日付即ち各組に含まれるJPEG画像データの撮像日、北端の緯度、南端の緯度、東端の経度、西端の経度、先頭インデックス番号及び最終インデックス番号を対応付けた情報である。
例えば、一の組情報C1は、「20101001」の撮像日と、「36.12114」の北端の緯度と、「35.44115」の南端の緯度と、「139.96642」の東端の経度と、「138.44549」の西端の経度と、「1」の先頭インデックス番号と、「5」の最終インデックス番号と、を対応付ける。なお、「20101001」の撮像日は、2010年10月1日を示す。
ここで、記憶部204は、撮像位置範囲特定部208dにより特定された各組の画像(JPEG画像データ)の撮像位置範囲(撮像位置範囲A)を記憶する第2の記憶手段として機能する。
In addition, the imaging position range specifying unit 208d generates list information indicating the grouped imaging position ranges A as table data (second table T2) and stores it in the storage unit 204.
FIG. 6 is a diagram illustrating an example of the second table T2.
As shown in FIG. 6, the second table T2 includes a plurality of set information C. The set information C is information that associates the date of each set, that is, the imaging date of the JPEG image data included in each set, the latitude at the north end, the latitude at the south end, the longitude at the east end, the longitude at the west end, the first index number, and the last index number. It is.
For example, one set information C1 includes an imaging date “20101001”, a latitude at the north end of “36.12114”, a latitude at the south end of “35.44115”, a longitude at the east end of “139.96642”, The longitude of the west end of “138.44549” is associated with the first index number of “1” and the final index number of “5”. Note that the imaging date of “20101001” indicates October 1, 2010.
Here, the storage unit 204 functions as a second storage unit that stores the imaging position range (imaging position range A) of each set of images (JPEG image data) specified by the imaging position range specifying unit 208d.

検索範囲重複判定部208eは、検索範囲(例えば図7に示す検索範囲B)と各組の画像の撮像位置範囲Aとが重複するか否か判定する。検索範囲とは、後述する操作部302を介して入力される画像の検索条件であり、画像に対応付けられた撮像位置情報に基づいて検索対象となるか否かを判定するための撮像位置の範囲である。
操作部302を介して検索範囲Bの入力を受けると、検索範囲重複判定部208eは、第2のテーブルT2を読み出して、各組の撮像位置範囲Aと検索範囲Bとが重複するか否かを全ての組について判定する。
ここで、検索範囲重複判定部208eは、各組の画像の撮像位置範囲(撮像位置範囲A)と検索範囲(検索範囲B)とが重複するか否か判定する第1の判定手段として機能する。
The search range overlap determination unit 208e determines whether or not the search range (for example, search range B shown in FIG. 7) and the imaging position range A of each set of images overlap. The search range is a search condition for an image input via the operation unit 302 to be described later, and an imaging position for determining whether or not to be a search target based on imaging position information associated with the image. It is a range.
Upon receiving an input of the search range B via the operation unit 302, the search range overlap determination unit 208e reads the second table T2, and determines whether or not the imaging position range A and the search range B of each set overlap. Are determined for all pairs.
Here, the search range overlap determination unit 208e functions as a first determination unit that determines whether or not the imaging position range (imaging position range A) and the search range (search range B) of each set of images overlap. .

画像抽出部208fは、組分けされた全ての組のうち、各組の画像の撮像位置範囲Aと検索範囲Bとが重複しないと判定された組を除いた他の組から検索範囲内で撮像された画像を画像と対応付けられた撮像位置情報に基づいて抽出する。   The image extraction unit 208f picks up images within the search range from the other sets except for the set determined that the imaging position range A and the search range B of the images of each set do not overlap among all the divided sets. The extracted image is extracted based on the imaging position information associated with the image.

検索範囲Bの入力に対して画像データ処理部208が行う判定及び抽出の処理(検索対象抽出処理)について、図7による例示を用いて説明する。
図7に示す例は、各組に含まれるJPEG画像データと対応付けられた撮像位置に基づいて得られた北端の緯度、南端の緯度、東端の経度及び西端の経度により決定された各組の撮像位置範囲A(撮像位置範囲A1、A2、A3)を示している。また、点P1〜P13は、撮像位置情報が撮像位置範囲A1、A2、A3のいずれかの範囲内であるJPEG画像データの撮像位置の一例を示している。そして、図7に示す例は、このような撮像位置範囲A1、A2、A3について、撮像位置範囲A1と全く重複せず、撮像位置範囲A2と一部が重複し、かつ、撮像位置範囲A3を内包する検索範囲Bが入力された場合を示している。
The determination and extraction processing (search target extraction processing) performed by the image data processing unit 208 with respect to the input of the search range B will be described with reference to an example illustrated in FIG.
In the example shown in FIG. 7, the north end latitude, the south end latitude, the east end longitude, and the west end longitude determined based on the imaging position associated with the JPEG image data included in each set An imaging position range A (imaging position ranges A1, A2, A3) is shown. Points P1 to P13 show examples of the imaging positions of JPEG image data whose imaging position information is in any one of the imaging position ranges A1, A2, and A3. In the example shown in FIG. 7, such imaging position ranges A1, A2, and A3 do not overlap at all with the imaging position range A1, partially overlap with the imaging position range A2, and the imaging position range A3 The case where the search range B to include is input is shown.

画像抽出部208fは、各組の画像の撮像位置範囲Aと検索範囲Bとが重複するか否かの判定結果として、検索範囲Bと全く重複しない撮像位置範囲A1の組を、画像の抽出対象から除外する。つまり、画像抽出部208fは、点P1〜P5に対応するJPEG画像データについて、各々のJPEG画像データに対応付けられた撮像位置と検索範囲Bとの比較照合を省略し、検索条件に該当するJPEG画像データとして抽出しない。   The image extraction unit 208f determines a set of the imaging position range A1 that does not overlap the search range B at all as a result of determination as to whether the imaging position range A and the search range B of each set of images overlap. Exclude from That is, for the JPEG image data corresponding to the points P1 to P5, the image extraction unit 208f omits comparison and collation between the imaging position associated with each JPEG image data and the search range B, and the JPEG corresponding to the search condition. Do not extract as image data.

また、画像抽出部208fは、検索範囲Bに内包される撮像位置範囲A3の組については、当該組に含まれる画像と対応付けられた画像の撮像位置情報が検索範囲内であるか否かを判定することなく当該組に含まれる全ての画像を抽出する。つまり、画像抽出部208fは、点P10〜P13に対応するJPEG画像データについて、各々のJPEG画像データに対応付けられた撮像位置と検索範囲Bとの比較照合を省略し、検索条件に該当するJPEG画像データとして抽出する。   Further, the image extraction unit 208f determines whether the imaging position information of the image associated with the image included in the set is within the search range for the set of the imaging position range A3 included in the search range B. All images included in the set are extracted without determination. In other words, the image extraction unit 208f omits the comparison of the imaging position associated with each JPEG image data and the search range B for the JPEG image data corresponding to the points P10 to P13, and the JPEG corresponding to the search condition. Extract as image data.

また、図1に示すように、画像抽出部208fは、撮像位置判定部208gを備える。
撮像位置判定部208gは、検索範囲Bと一部が重複する撮像位置範囲A2の組に含まれるJPEG画像データの各々について、JPEG画像データと対応付けられた撮像位置情報が検索範囲内であるか否かを判定する。そして、撮像位置判定部208gは、撮像位置情報が検索範囲内であるJPEG画像データを抽出する。図7に示す例の場合、画像抽出部208fは、点P8に対応するJPEG画像データのみ抽出し、点P6、P7、P9に対応するJPEG画像データを抽出しない。
ここで、撮像位置判定部208gは、検索範囲重複判定部208eにより各組の画像の撮像位置範囲(撮像位置範囲A)と検索範囲(検索範囲B)とが重複すると判定された組に含まれる画像の各々について、撮像位置を示す情報(撮像位置情報)が検索範囲内であるか否かを判定する第2の判定手段として機能する。
また、画像抽出部208fは、組分け部208cにより組分けされた全ての組のうち、検索範囲重複判定部208eにより各組の画像の撮像位置範囲(撮像位置範囲A)と検索範囲(検索範囲B)とが重複しないと判定された組を除いた他の組から、検索範囲に対応する画像(JPEG画像データ)を、撮像位置を示す情報(撮像位置情報)に基づいて抽出する抽出手段として機能する。
As shown in FIG. 1, the image extraction unit 208f includes an imaging position determination unit 208g.
The imaging position determination unit 208g determines whether the imaging position information associated with the JPEG image data is within the search range for each of the JPEG image data included in the set of the imaging position range A2 that partially overlaps the search range B. Determine whether or not. Then, the imaging position determination unit 208g extracts JPEG image data whose imaging position information is within the search range. In the example shown in FIG. 7, the image extraction unit 208f extracts only JPEG image data corresponding to the point P8, and does not extract JPEG image data corresponding to the points P6, P7, and P9.
Here, the imaging position determination unit 208g is included in the set determined by the search range overlap determination unit 208e that the imaging position range (imaging position range A) and the search range (search range B) of each set of images overlap. For each of the images, it functions as a second determination unit that determines whether information indicating the imaging position (imaging position information) is within the search range.
In addition, the image extraction unit 208f includes the image capturing position range (imaging position range A) and the search range (search range) of each set of images by the search range overlap determination unit 208e among all the groups that are grouped by the grouping unit 208c. As an extraction means for extracting an image (JPEG image data) corresponding to the search range based on information indicating the imaging position (imaging position information) from other groups excluding the group determined not to overlap with B). Function.

画像削除部208hは、記憶部204に記憶された複数のJPEG画像データのうち、操作部302を介した入力により画像の削除を指示された一又は複数のJPEG画像データを削除する。
ここで、画像削除部208hは、記憶部204に記憶された画像(JPEG画像データ)を削除する削除手段として機能する。
The image deletion unit 208 h deletes one or a plurality of JPEG image data instructed to be deleted by an input via the operation unit 302 among the plurality of JPEG image data stored in the storage unit 204.
Here, the image deletion unit 208h functions as a deletion unit that deletes an image (JPEG image data) stored in the storage unit 204.

削除フラグ設定部208iは、画像削除部208hによるJPEG画像データの削除に伴い、第1のテーブルT1に含まれる画像ファイル情報Fのうち、削除されたJPEG画像データのファイル名を含む画像ファイル情報Fに削除フラグを設定する。
図5に示すように、第1のテーブルT1のそれぞれの画像ファイル情報Fは、JPEG画像データのファイル名と削除フラグとを対応付ける。削除フラグは、そのファイル名のJPEG画像データが削除されたか否かを管理するためのフラグの有無を示す項目である。画像ファイル情報生成部208aは、第1のテーブルを生成するときに、それぞれの画像ファイル情報に初期値なし(クリア)の状態で削除フラグを設ける。そして、削除フラグ設定部208iが、削除されたJPEG画像データに対応する画像ファイル情報Fの削除フラグを設定する。
本実施形態では、削除フラグ設定部208iが、画像ファイル情報Fの削除フラグに1を設定することで削除された画像を示すフラグを付加するが、画像が削除されたか否かを示すフラグ情報であればその具体的内容は問わない。
ここで、削除フラグ設定部208iは、リスト情報(第1のテーブル)に、画像削除部208hにより削除された画像(JPEG画像データ)を示す削除情報(削除フラグ)を設定する設定手段として機能する。
The deletion flag setting unit 208i includes image file information F including the file name of the deleted JPEG image data among the image file information F included in the first table T1 in accordance with the deletion of the JPEG image data by the image deletion unit 208h. Set the delete flag to.
As shown in FIG. 5, each image file information F in the first table T1 associates a file name of JPEG image data with a deletion flag. The deletion flag is an item indicating whether or not there is a flag for managing whether or not the JPEG image data of the file name has been deleted. When the image file information generation unit 208a generates the first table, the image file information generation unit 208a sets a deletion flag with no initial value (clear) in each image file information. Then, the deletion flag setting unit 208i sets a deletion flag of the image file information F corresponding to the deleted JPEG image data.
In the present embodiment, the deletion flag setting unit 208i adds a flag indicating an image deleted by setting the deletion flag of the image file information F to 1, but the flag information indicating whether or not the image has been deleted. If there is, the concrete contents do not ask.
Here, the deletion flag setting unit 208i functions as a setting unit that sets deletion information (deletion flag) indicating the image (JPEG image data) deleted by the image deletion unit 208h in the list information (first table). .

また、画像データ処理部208は、JPEG画像データの削除にあたり、全てのJPEG画像データが記憶部204から削除されたか否かを判定する。全てのJPEG画像データが削除された場合、画像データ処理部208は、第1のテーブルT1及び第2のテーブルT2を削除する。
また、JPEG画像データの削除にあたり、記憶部204に記憶された全ての画像データを一括して削除することもできる。
The image data processing unit 208 determines whether all JPEG image data has been deleted from the storage unit 204 when deleting the JPEG image data. When all the JPEG image data is deleted, the image data processing unit 208 deletes the first table T1 and the second table T2.
Further, when deleting JPEG image data, all the image data stored in the storage unit 204 can be deleted at once.

なお、削除されたJPEG画像データは、撮像位置判定部208gによる撮像位置情報が検索範囲内であるか否かの判定や、画像抽出部208fによるJPEG画像データの抽出の対象とならない。   Note that the deleted JPEG image data is not subject to determination as to whether or not the imaging position information within the search range by the imaging position determination unit 208g and extraction of JPEG image data by the image extraction unit 208f.

表示部301は、例えば、液晶表示装置であり、出力制御部202からのビデオ信号に基づいてイメージセンサ部102により撮像された画像の表示や、CPU207、画像データ処理部208等の処理内容に応じた表示を行う。   The display unit 301 is, for example, a liquid crystal display device, depending on display of an image captured by the image sensor unit 102 based on a video signal from the output control unit 202 and processing contents of the CPU 207, the image data processing unit 208, and the like. Display.

操作部302は、撮像装置1に対する入力操作を受け付ける。具体的には、操作部302は、撮影指示に係るシャッタボタン、メニュー画面にて撮像モードや機能等の選択指示に係るモードボタン、ズーム量の調整指示に係るズームボタン、表示部301に表示された内容に対する入力や検索範囲Bの入力に用いる矢印ボタン、入力内容を確定させる確定ボタン等を備え、これらのボタンに対する入力操作に応じて所定の操作信号を画像データ処理部208に出力する。   The operation unit 302 receives an input operation on the imaging device 1. Specifically, the operation unit 302 is displayed on the display unit 301, a shutter button related to a shooting instruction, a mode button related to an instruction to select an imaging mode or a function on the menu screen, a zoom button related to a zoom amount adjustment instruction. In addition, an arrow button used for input of the contents and the input of the search range B, a confirmation button for confirming the input contents, and the like are provided, and a predetermined operation signal is output to the image data processing unit 208 in accordance with an input operation for these buttons.

検索範囲Bの入力について、図8による例示を用いて説明する。
検索範囲Bの入力を行うにあたり、画像データ処理部208は、所定の地域に対応する地図情報を表示部301に表示させる。図8に示す例では、日本列島の主要部分が表示されているが、検索範囲Bの入力に係り表示される地域は任意に設定することができる。また、所定の地域に対応する地図情報のデータは、予め記憶部204に記憶されている。
The input of the search range B will be described using the example shown in FIG.
In inputting the search range B, the image data processing unit 208 causes the display unit 301 to display map information corresponding to a predetermined area. In the example shown in FIG. 8, the main part of the Japanese archipelago is displayed, but the area displayed in response to the input of the search range B can be arbitrarily set. In addition, map information data corresponding to a predetermined area is stored in the storage unit 204 in advance.

また、図8に示すように、画像データ処理部208は、地図情報に対して移動可能な指標(カーソルD)を表示させる。カーソルDは、操作部302の矢印ボタン等による移動操作が可能であり、ユーザはカーソルDを移動させて検索範囲Bを指定、入力する。
カーソルDを用いた検索範囲Bの指定方法としては、例えば入力確定時のカーソルDの位置を中心とする所定の範囲(例えば円等)内としてもよい。また、他の例として、カーソルDにより異なる二点を指定し、その二点を対向する頂点とした方形状の領域内を検索範囲Bとしてもよいし、他の指定方法を用いてもよい。
ここで、操作部302は、記憶部204に記憶された画像(JPEG画像データ)の検索条件として、画像の撮像位置に係る検索範囲(検索範囲B)の入力を受け付ける受付手段として機能する。
なお、図8では、日本国の国土及びその周辺地域の表示例に留めているが、カーソルDにより指定された地域の詳細地図を段階的に表示させるようにしてもよい。
Further, as shown in FIG. 8, the image data processing unit 208 displays a movable index (cursor D) with respect to the map information. The cursor D can be moved by an arrow button or the like of the operation unit 302, and the user moves the cursor D to designate and input the search range B.
As a method for specifying the search range B using the cursor D, for example, it may be within a predetermined range (for example, a circle) centered on the position of the cursor D at the time of input confirmation. As another example, two different points may be designated by the cursor D, and a search area B may be set in a rectangular area having the two points as opposite vertices, or another designation method may be used.
Here, the operation unit 302 functions as a reception unit that receives an input of a search range (search range B) related to an image capturing position as a search condition for images (JPEG image data) stored in the storage unit 204.
In FIG. 8, the display example of the land of Japan and the surrounding area is limited, but a detailed map of the area designated by the cursor D may be displayed step by step.

画像データ処理部208は、JPEG画像データに対応付けられた撮像位置情報が検索範囲内であると判定され、抽出されたJPEG画像データの抽出結果に係る情報を表示部301に表示させる。図9に示す例では、地図情報を背景として、地図に対する検索範囲B(円弧Bの内側)と、撮像位置情報が検索範囲内であるJPEG画像データの縮小画像J1、J2及びその撮像位置(座標)を示す識別情報K1、K2が表示されているが、抽出結果の表示はこのような表示例に限らない。例えば、ファイル情報をテーブル形式で一覧表示してもよいし、抽出された画像をサムネイルやスライドショーで表示してもよい。
図8、図9の例により示すように、表示部301は、所定の領域内の地図を表示する表示手段として機能する。また、図9の例により示すように、表示部301は、画像抽出部208fにより抽出された画像の撮影位置を、表示された地図上に識別表示する識別表示手段として機能する。
The image data processing unit 208 determines that the imaging position information associated with the JPEG image data is within the search range, and causes the display unit 301 to display information related to the extraction result of the extracted JPEG image data. In the example shown in FIG. 9, with map information as a background, search range B (inside arc B) with respect to the map, reduced images J1 and J2 of JPEG image data whose imaging position information is within the search range, and their imaging positions (coordinates) Identification information K1 and K2 are displayed, but the display of the extraction result is not limited to such a display example. For example, the file information may be displayed as a list in a table format, or the extracted images may be displayed as thumbnails or a slide show.
As shown in the examples of FIGS. 8 and 9, the display unit 301 functions as a display unit that displays a map in a predetermined area. Further, as shown in the example of FIG. 9, the display unit 301 functions as an identification display unit that identifies and displays the shooting position of the image extracted by the image extraction unit 208f on the displayed map.

なお、図8、図9に示す例では、撮像装置1は、地図上における画像データの検索範囲と、地図上における画像データの表示範囲とを別々に指定するものとしているが、検索範囲と表示範囲とを区別することなく同時に指定するようにしてもよい。
つまり、ユーザがカーソルDを移動させて地図上の位置を指定すると、撮像装置1が、この指定された位置を中心として予め指定された縮尺の地図を自動的に表示し、この表示した地図内の領域を検索範囲として画像データを自動的に検索し、この検索された画像データの撮影位置を示す識別情報、縮小画像又はその両方を、この地図上に識別表示する。そして、ユーザが地図上の表示範囲をスクロールさせたり、縮尺を変更する度に、撮像装置1が、変更後の表示範囲に対応する検索範囲での画像データの再検索と、検索された画像データの更新表示を行うようにしてもよい。
この場合、表示範囲および検索範囲は次のようにして決定される。
操作部302を介して行われた入力等により、ユーザから地図上の位置や縮尺が指定されると、画像データ処理部208は、まず、この指定された位置の座標を中心位置座標として特定する。画像データ処理部208は、次に、表示部301の画面の表示領域の縦横サイズと、地図の縮尺とに基づいて、特定された中心位置座標を当該表示領域の中心として当該地図の縮尺の地図を表示部301に表示させた場合の地図の領域(地図表示領域)に対応する地図上の縦横距離を特定する。
そして、画像データ処理部208は、上記中心位置座標を中心として上記縦横距離の範囲を有する地図上の領域の北端の緯度、南端の緯度、東端の経度、西端の経度を夫々特定する。画像データ処理部208は、この特定された北端の緯度、南端の緯度、東端の経度、西端の経度で囲まれる領域を表示範囲および検索範囲として決定する。
In the example illustrated in FIGS. 8 and 9, the imaging apparatus 1 separately designates the search range of the image data on the map and the display range of the image data on the map. You may make it designate simultaneously, without distinguishing a range.
That is, when the user moves the cursor D and designates a position on the map, the imaging device 1 automatically displays a map of a predetermined scale centered on the designated position, The image data is automatically searched using the area of the image as a search range, and the identification information indicating the photographing position of the searched image data, the reduced image, or both are identified and displayed on the map. Then, every time the user scrolls the display range on the map or changes the scale, the imaging apparatus 1 re-searches the image data in the search range corresponding to the changed display range, and the searched image data The update display may be performed.
In this case, the display range and the search range are determined as follows.
When a position or scale on the map is designated by the user by input or the like made via the operation unit 302, the image data processing unit 208 first specifies the coordinates of the designated position as the center position coordinates. . Next, the image data processing unit 208, based on the vertical and horizontal sizes of the display area of the screen of the display unit 301 and the scale of the map, uses the specified center position coordinates as the center of the display area and the map at the scale of the map. Is displayed on the display unit 301, and the vertical and horizontal distances on the map corresponding to the map area (map display area) are specified.
Then, the image data processing unit 208 specifies the latitude at the north end, the latitude at the south end, the longitude at the east end, and the longitude at the west end of the area on the map having the range of the vertical and horizontal distances around the center position coordinates. The image data processing unit 208 determines an area surrounded by the identified north end latitude, south end latitude, east end longitude, and west end longitude as a display range and a search range.

このように、表示範囲と検索範囲とが同じである場合には、通常の表示範囲は矩形であることから、上記第2のテーブルT2の撮像位置範囲を矩形(北端の緯度、南端の緯度、東端の経度、西端の経度)で表すのは、表示範囲及び検索範囲に対応することとなり、画像検索(検索範囲と撮像位置範囲との重複判定及び画像の抽出)において効果的である。
また、位置情報取得部205による現在位置の測位機能を用い、常に現在位置が地図の中心位置座標となるように、逐次、自動的に地図表示をリアルタイム更新し、更新される地図表示に合わせてリアルタイムに画像検索と、撮影位置の識別表示を行うようにしてもよい。
Thus, when the display range and the search range are the same, the normal display range is a rectangle, so the imaging position range of the second table T2 is a rectangle (north latitude, southern latitude, Expressing with the longitude of the east end and the longitude of the west end corresponds to the display range and the search range, and is effective in image search (determination of overlap between the search range and the imaging position range and image extraction).
In addition, by using the positioning function of the current position by the position information acquisition unit 205, the map display is automatically and sequentially updated in real time so that the current position always becomes the center position coordinates of the map, and in accordance with the updated map display. You may make it perform an image search and the display display of an imaging position in real time.

外部記憶媒体インタフェース303は、メモリカードM等の外部記憶媒体を撮像装置1に接続するためのインタフェースである。外部記憶媒体インタフェース303は、撮像装置1で使用可能な外部記憶媒体に応じたスロットを有し、当該スロットに挿入された外部記憶媒体からのデータの読み出しやデータの書き込み、データの削除等を可能とする。CPU207及び画像データ処理部208は、外部記憶媒体インタフェース303に接続された外部記憶媒体を、記憶部204と同様に扱うことができる。   The external storage medium interface 303 is an interface for connecting an external storage medium such as a memory card M to the imaging apparatus 1. The external storage medium interface 303 has a slot corresponding to the external storage medium that can be used in the imaging apparatus 1, and can read data from, write data to, and delete data from the external storage medium inserted in the slot. And The CPU 207 and the image data processing unit 208 can handle the external storage medium connected to the external storage medium interface 303 in the same manner as the storage unit 204.

次に、撮像装置1による画像の撮像からJPEG画像データの記憶及び第1、第2のテーブルT2の生成に係る処理(記憶処理)について、図2を参照して説明する。
図2は、記憶処理の一例を示すフローチャートである。
Next, processing (storage processing) relating to storage of JPEG image data and generation of the first and second tables T2 from image capturing by the image capturing apparatus 1 will be described with reference to FIG.
FIG. 2 is a flowchart illustrating an example of the storage process.

まず、ユーザにより撮像が行われる(ステップS1)。具体的には、ユーザにより操作部302のシャッタボタンが操作されると、イメージセンサ部102がYUVデータを生成し、メモリ201に入力する。そして、画像処理部203のJPEG圧縮部が当該YUVデータを符号化する。   First, imaging is performed by the user (step S1). Specifically, when the shutter button of the operation unit 302 is operated by the user, the image sensor unit 102 generates YUV data and inputs it to the memory 201. Then, the JPEG compression unit of the image processing unit 203 encodes the YUV data.

次に、画像ファイル情報生成部208aは、位置情報取得部205から現在の位置情報を取得する(ステップS2)。画像ファイル情報生成部208aは、日時情報出力部206から現在の日時情報を取得する(ステップS3)。また、画像ファイル情報生成部208aは、ファイル名を決定する(ステップS4)。   Next, the image file information generation unit 208a acquires the current position information from the position information acquisition unit 205 (step S2). The image file information generation unit 208a acquires the current date / time information from the date / time information output unit 206 (step S3). Further, the image file information generation unit 208a determines a file name (step S4).

また、インデックス番号付加部208bが、インデックス番号を決定する(ステップS5)。インデックス番号の決定に際し、画像ファイル情報生成部208aは、第1のテーブルT1を読み出して当該第1のテーブルT1において最も大きいインデックス番号を特定し、当該最も大きいインデックス番号に1を加算した値を決定されたインデックス番号とする。なお、JPEGデータが全く記憶部204に記憶されておらず第1のテーブルT1が存在しない場合、画像ファイル情報生成部208aは、インデックス番号を所定の初期値(例えば1)とする。   Further, the index number adding unit 208b determines an index number (step S5). When determining the index number, the image file information generation unit 208a reads the first table T1, identifies the largest index number in the first table T1, and determines a value obtained by adding 1 to the largest index number. Index number. When no JPEG data is stored in the storage unit 204 and the first table T1 does not exist, the image file information generation unit 208a sets the index number to a predetermined initial value (for example, 1).

そして、画像ファイル情報生成部208aは、画像処理部203により符号化されたJPEG画像データに対して、ステップS4で得られたファイル名を与えて記憶部204に記憶させると共に、ステップS2で得られた現在の位置情報を撮像位置情報とし、ステップS3で得られた現在の日時情報を撮像日情報として当該JPEG画像ファイルのExif情報として記録する(ステップS6)
また、画像ファイル情報生成部208aは、JPEG画像データのファイル名、撮像位置情報及びインデックス番号を対応付けて第1のテーブルT1に記録する(ステップS7)。なお、第1のテーブルT1が存在しない場合、画像ファイル情報生成部208aは、第1のテーブルT1を生成して記録を行う。
Then, the image file information generation unit 208a gives the file name obtained in step S4 to the JPEG image data encoded by the image processing unit 203 and stores it in the storage unit 204, and also obtains it in step S2. The current position information is set as imaging position information, and the current date and time information obtained in step S3 is recorded as imaging date information as Exif information of the JPEG image file (step S6).
Further, the image file information generation unit 208a records the JPEG image data file name, imaging position information, and index number in association with each other in the first table T1 (step S7). If the first table T1 does not exist, the image file information generation unit 208a generates and records the first table T1.

次に、組分け部208cが、JPEG画像データの撮像日に対応する組情報が第2のテーブルT2に存在するか否か判定する(ステップS8)。
ステップS8で、JPEG画像データの撮像日に対応する組情報が第2のテーブルT2に存在しない場合(ステップS8;NO)、組分け部208cは、ステップS2で取得した位置情報を当該撮像日の組情報Cの撮像位置範囲Aとして第2のテーブルT2に記録する(ステップS9)。具体的には、組分け部208cは、ステップS2で得た位置情報のうち、緯度の値を当該撮像日の北端の緯度及び南端の緯度として設定し、ステップS2で得た位置情報のうち、経度の値を当該撮像日の東端の経度及び西端の経度として設定する。
また、組分け部208cは、ステップS5で決定されたインデックス番号を当該撮像日の組情報Cの先頭インデックス番号及び最終インデックス番号として第2のテーブルT2に記録し(ステップS10)、記憶処理を終了する。
Next, the grouping unit 208c determines whether or not group information corresponding to the imaging date of JPEG image data exists in the second table T2 (step S8).
In step S8, when the group information corresponding to the imaging date of the JPEG image data does not exist in the second table T2 (step S8; NO), the grouping unit 208c uses the position information acquired in step S2 as the imaging date. It records on the 2nd table T2 as the imaging position range A of the group information C (step S9). Specifically, the grouping unit 208c sets the latitude value as the northernmost latitude and the southernmost latitude of the imaging date among the position information obtained in step S2, and among the position information obtained in step S2, The longitude value is set as the longitude of the east end and the longitude of the west end of the imaging date.
In addition, the grouping unit 208c records the index number determined in step S5 as the first index number and the last index number of the group information C on the imaging date in the second table T2 (step S10), and ends the storage process. To do.

一方、ステップS8で、JPEG画像データの撮像日に対応するレコードが第2のテーブルT2に存在する場合(ステップS8;YES)、組分け部208cは、ステップS2で取得した位置情報に基づいて第2のテーブルT2における当該撮像日の組情報Cの撮像位置範囲Aを更新する(ステップS11)。具体的には、組分け部208cは、ステップS2で得た位置情報のうち、緯度の値を当該撮像日の北端の緯度と比較し、ステップS2で取得した緯度が北端の緯度よりも大きい場合に取得した緯度を北端の緯度として書き換え、ステップS2で取得した緯度が北端の緯度よりも小さい場合に北端の緯度を書き換えず据え置く。また、組分け部208cは、ステップS2で得た位置情報のうち、緯度の値を当該撮像日の南端の緯度と比較し、ステップS2で取得した緯度が南端の緯度よりも小さい場合に取得した緯度を南端の緯度として書き換え、ステップS2で取得した緯度が南端の緯度よりも大きい場合に南端の緯度を書き換えず据え置く。また、組分け部208cは、ステップS2で得た位置情報のうち、経度の値を当該撮像日の東端の経度と比較し、ステップS2で取得した経度が東端の経度よりも大きい場合に取得した経度を東端の経度として書き換え、ステップS2で取得した経度が東端の経度よりも小さい場合に東端の経度を書き換えず据え置く。また、組分け部208cは、ステップS2で得た位置情報のうち、経度の値を当該撮像日の西端の経度と比較し、ステップS2で取得した経度が西端の経度よりも小さい場合に取得した経度を西端の経度として書き換え、ステップS2で取得した経度が西端の経度よりも大きい場合に西端の経度を書き換えず据え置く。
また、組分け部208cは、ステップS5で決定されたインデックス番号により第2のテーブルT2における当該撮像日の組情報Cの最終インデックス番号を更新し(ステップS12)、記憶処理を終了する。
On the other hand, when the record corresponding to the imaging date of the JPEG image data exists in the second table T2 in step S8 (step S8; YES), the grouping unit 208c determines the first based on the position information acquired in step S2. The imaging position range A of the set information C on the imaging date in the table T2 of 2 is updated (step S11). Specifically, the grouping unit 208c compares the latitude value of the position information obtained in step S2 with the latitude at the northern end of the imaging date, and the latitude acquired in step S2 is greater than the latitude at the northern end. The latitude acquired at step S2 is rewritten as the north end latitude, and when the latitude acquired at step S2 is smaller than the north end latitude, the north end latitude is not rewritten. In addition, the grouping unit 208c compares the latitude value of the position information obtained in step S2 with the latitude at the southern end of the imaging date, and acquired when the latitude acquired in step S2 is smaller than the latitude at the southern end. The latitude is rewritten as the south end latitude, and when the latitude acquired in step S2 is larger than the south end latitude, the south end latitude is left unchanged. In addition, the grouping unit 208c compares the longitude value of the position information obtained in step S2 with the longitude of the east end of the imaging date, and acquired when the longitude acquired in step S2 is greater than the longitude of the east end. The longitude is rewritten as the east end longitude, and if the longitude acquired in step S2 is smaller than the east end longitude, the east end longitude is left unchanged. In addition, the grouping unit 208c compares the longitude value of the position information obtained in step S2 with the longitude of the western end of the imaging date, and acquired when the longitude acquired in step S2 is smaller than the longitude of the western end. The longitude is rewritten as the west end longitude, and when the longitude acquired in step S2 is larger than the west end longitude, the west end longitude is left unchanged.
Further, the grouping unit 208c updates the final index number of the group information C on the imaging date in the second table T2 with the index number determined in step S5 (step S12), and ends the storage process.

次に、検索対象抽出処理について、図3のフローチャートを参照して説明する。
操作部302を介してユーザにより検索範囲Bが入力されると(ステップS21)、検索範囲重複判定部208eは、第2のテーブルT2に記録された組のうち、一つと対応付けられた撮像位置範囲A(図7参照)と検索範囲B(図7参照)とを比較する(ステップS22)。具体的には、検索範囲重複判定部208eは、第2のテーブルT2を読み出し、まだ検索範囲Bとの比較がなされていない組情報Cを抽出する。そして、検索範囲重複判定部208eは、抽出した組情報Cの撮像位置範囲A(北端の緯度、南端の緯度、東端の経度及び西端の経度)と検索範囲Bとを比較し、撮像位置範囲Aと検索範囲Bとが重複するか否かを判定する。
Next, the search target extraction process will be described with reference to the flowchart of FIG.
When the search range B is input by the user via the operation unit 302 (step S21), the search range duplication determination unit 208e captures an imaging position associated with one of the sets recorded in the second table T2. The range A (see FIG. 7) is compared with the search range B (see FIG. 7) (step S22). Specifically, the search range duplication determination unit 208e reads the second table T2, and extracts the set information C that has not been compared with the search range B yet. Then, the search range duplication determination unit 208e compares the imaging position range A (north end latitude, south end latitude, east end longitude, and west end longitude) of the extracted set information C with the search range B, and the imaging position range A And whether or not the search range B overlaps.

ステップS22の比較結果として、撮像位置範囲Aが検索範囲外である、即ち、撮像位置範囲Aが検索範囲Bと全く重複しない場合(ステップS23;YES)、検索範囲重複判定部208eは、第2のテーブルT2の全ての組情報Cの撮像位置範囲Aと、検索範囲Bと、の比較を完了したか否かを判定する(ステップS24)。全ての組情報Cの撮像位置範囲Aと、検索範囲Bと、の比較を完了していない場合(ステップS24;NO)、ステップS22の処理に戻る。一方、全ての組情報Cの撮像位置範囲Aと、検索範囲Bと、の比較を完了した場合(ステップS24;YES)、画像抽出部208fが抽出結果を表示部301に表示させ、検索対象抽出処理を終了する。   As a comparison result of step S22, when the imaging position range A is outside the search range, that is, when the imaging position range A does not overlap with the search range B at all (step S23; YES), the search range overlap determination unit 208e It is determined whether or not the comparison between the imaging position range A and the search range B of all the group information C in the table T2 has been completed (step S24). If the comparison between the imaging position range A and the search range B of all the group information C has not been completed (step S24; NO), the process returns to step S22. On the other hand, when the comparison between the imaging position range A of all the set information C and the search range B is completed (step S24; YES), the image extraction unit 208f displays the extraction result on the display unit 301, and the search target extraction is performed. The process ends.

即ち、撮像位置範囲Aと検索範囲Bとが全く重複しない組情報Cの先頭インデックス番号から最終インデックス番号までの範囲に対応する全てのJPEG画像データは検索範囲Bと撮像位置範囲Aとの比較照合が省略され、全く抽出対象とならない。
図7に示す例の場合、検索範囲Bと全く重複しない撮像位置範囲A1を有する組に含まれる全てのJPEG画像データは検索範囲Bと撮像位置情報との比較照合が省略され、全く抽出対象とならないこととなる。
That is, all the JPEG image data corresponding to the range from the first index number to the last index number of the set information C in which the imaging position range A and the search range B do not overlap at all are compared and verified between the search range B and the imaging position range A. Is omitted and is not subject to extraction at all.
In the case of the example shown in FIG. 7, all the JPEG image data included in the set having the imaging position range A1 that does not overlap with the search range B is omitted from the comparison with the search range B and the imaging position information. It will not be.

また、ステップS22の比較結果として、撮像位置範囲Aが検索範囲外でなく(ステップS23;NO)、撮像位置範囲Aが検索範囲Bに内包される場合(ステップS25;YES)、画像抽出部208fは、その組情報Cに設定されている撮像日に対応する撮像日時を付加されたJPEG画像データについて、第1のテーブルT1の画像ファイル情報において削除フラグが設定されているか否か確認する(ステップS26)。
具体的には、画像抽出部208fは、撮像位置範囲Aが検索範囲内であると判定された組情報Cに設定された先頭インデックス番号から最終インデックス番号の範囲内で、削除フラグの確認がまだなされていないJPEG画像データのファイル名を有する画像ファイル情報Fのうち、最も若いインデックス番号を有する画像ファイル情報Fを読み出して削除フラグの有無をチェックする。
As a comparison result in step S22, when the imaging position range A is not outside the search range (step S23; NO) and the imaging position range A is included in the search range B (step S25; YES), the image extraction unit 208f. Confirms whether or not the deletion flag is set in the image file information of the first table T1 for the JPEG image data to which the imaging date corresponding to the imaging date set in the set information C is added (step S1). S26).
Specifically, the image extraction unit 208f has not yet confirmed the deletion flag within the range from the first index number to the last index number set in the set information C determined that the imaging position range A is within the search range. The image file information F having the smallest index number is read out from the image file information F having the file name of the JPEG image data that has not been set, and the presence or absence of the deletion flag is checked.

ステップS26で、削除フラグが設定されていない場合(ステップS26;NO)、画像抽出部208fは、検索範囲Bに含まれるJPEG画像データとしてそのインデックス番号と対応付けられたファイル名を有するJPEG画像データを抽出する(ステップS27)。
図7に示す例の場合、検索範囲Bに内包される撮像位置範囲A3を有する組に含まれる全てのJPEG画像データは、検索範囲Bと撮像位置情報との比較照合が省略され、削除されていない限り全て抽出されることとなる。
If the deletion flag is not set in step S26 (step S26; NO), the image extraction unit 208f has JPEG image data having a file name associated with the index number as JPEG image data included in the search range B. Is extracted (step S27).
In the case of the example shown in FIG. 7, all the JPEG image data included in the set having the imaging position range A3 included in the search range B is deleted because the comparison and matching between the search range B and the imaging position information is omitted. All will be extracted unless otherwise.

ステップS27の処理後又はステップS26で削除フラグが設定されている場合(ステップS26;YES)、画像抽出部208fは、撮像位置範囲Aが検索範囲内であると判定された組情報Cに設定された最終インデックス番号まで削除フラグの確認を完了したか否か判定する(ステップS28)。撮像位置範囲Aが検索範囲内であると判定された組情報Cに設定された最終インデックス番号まで削除フラグの確認を完了していない場合(ステップS28;NO)、ステップS26の処理に戻る。   After the process of step S27 or when the deletion flag is set in step S26 (step S26; YES), the image extraction unit 208f is set to the set information C determined that the imaging position range A is within the search range. It is determined whether or not the confirmation of the deletion flag has been completed up to the last index number (step S28). When the confirmation of the deletion flag has not been completed up to the final index number set in the set information C determined that the imaging position range A is within the search range (step S28; NO), the process returns to step S26.

ステップS28で、撮像位置範囲Aが検索範囲内であると判定された組情報Cに設定された最終インデックス番号まで削除フラグの確認を完了した場合(ステップS28;YES)、ステップS24の処理へ移行する。   When the confirmation of the deletion flag is completed up to the final index number set in the set information C determined that the imaging position range A is within the search range in step S28 (step S28; YES), the process proceeds to step S24. To do.

また、ステップS22の比較結果として、撮像位置範囲Aが検索範囲外でなく(ステップS23;NO)、撮像位置範囲Aが検索範囲内でもない場合(ステップS25;NO)、即ち撮像位置範囲Aの一部が検索範囲Bと重複する場合、撮像位置判定部208gは、撮像位置範囲Aの一部が検索範囲Bと重複すると判定された組情報Cに設定されている撮像日に対応する撮像日時を付加されたJPEG画像データについて、第1のテーブルT1に設定された撮像位置情報が検索範囲内であるか否か判定する(ステップS29)。具体的には、撮像位置判定部208gは、撮像位置範囲Aの一部が検索範囲Bと重複すると判定された組情報Cに設定された先頭インデックス番号から最終インデックス番号の範囲内で、撮像位置情報が検索範囲内であるか否かの判定がまだなされていないJPEG画像データのファイル名を有する画像ファイル情報Fのうち、最も若いインデックス番号を有する画像ファイル情報Fを読み出して撮像位置情報が検索範囲内であるか否かを判定する。   As a comparison result of step S22, when the imaging position range A is not outside the search range (step S23; NO) and the imaging position range A is not within the search range (step S25; NO), that is, the imaging position range A When a part overlaps with the search range B, the imaging position determination unit 208g captures the imaging date and time corresponding to the imaging date set in the set information C determined that a part of the imaging position range A overlaps with the search range B. It is determined whether or not the imaging position information set in the first table T1 is within the search range for the JPEG image data to which is added (step S29). Specifically, the imaging position determination unit 208g determines the imaging position within the range from the first index number to the last index number set in the set information C determined that a part of the imaging position range A overlaps the search range B. Whether the information is within the search range has not yet been determined. Among the image file information F having the file name of JPEG image data, the image file information F having the smallest index number is read and the imaging position information is searched. It is determined whether it is within the range.

ステップS29で、撮像位置情報が検索範囲内であると判定された場合(ステップS29;YES)、画像抽出部208fは、その画像ファイル情報Fに削除フラグが設定されているか否か確認する(ステップS30)。削除フラグが設定されていない場合(ステップS30;NO)、画像抽出部208fは、検索範囲Bに含まれるJPEG画像データとしてそのインデックス番号と対応付けられたファイル名を有するJPEG画像データを抽出する(ステップS31)。
図7に示す例の場合、撮像位置範囲Aの一部が検索範囲Bと重複する撮像位置範囲A2を有する組に含まれる全てのJPEG画像データについて、撮像位置判定部208gは検索範囲Bと撮像位置情報との比較照合を行う。そして、画像抽出部208fは、撮像位置判定部208gにより撮像位置情報が検索範囲内であると判定されたJPEG画像データ(点P8に対応するJPEG画像データ)を抽出する。
If it is determined in step S29 that the imaging position information is within the search range (step S29; YES), the image extraction unit 208f confirms whether or not a deletion flag is set in the image file information F (step S29). S30). When the deletion flag is not set (step S30; NO), the image extraction unit 208f extracts JPEG image data having a file name associated with the index number as JPEG image data included in the search range B ( Step S31).
In the example illustrated in FIG. 7, for all JPEG image data included in the set having the imaging position range A2 in which a part of the imaging position range A overlaps the search range B, the imaging position determination unit 208g Compare with the location information. Then, the image extraction unit 208f extracts JPEG image data (JPEG image data corresponding to the point P8) determined by the imaging position determination unit 208g that the imaging position information is within the search range.

ステップS31の処理後、ステップS29で撮像位置情報が検索範囲内でないと判定された場合(ステップS29;NO)又はステップS30で削除フラグが設定されている場合(ステップS30;YES)、画像抽出部208fは、撮像位置範囲Aの一部が検索範囲Bと重複すると判定された組情報Cに設定された最終インデックス番号まで撮像位置情報が検索範囲内であるか否かの判定を完了したか否か判定する(ステップS32)。撮像位置範囲Aの一部が検索範囲Bと重複すると判定された組情報Cに設定された最終インデックス番号まで撮像位置情報が検索範囲内であるか否かの確認を完了していない場合(ステップS32;NO)、ステップS29の処理に戻る。   After the process of step S31, if it is determined in step S29 that the imaging position information is not within the search range (step S29; NO) or if the deletion flag is set in step S30 (step S30; YES), the image extraction unit 208f whether or not the determination of whether or not the imaging position information is within the search range up to the final index number set in the set information C determined that a part of the imaging position range A overlaps with the search range B is completed. (Step S32). When the confirmation of whether or not the imaging position information is within the search range up to the final index number set in the set information C determined that a part of the imaging position range A overlaps with the search range B (step S32; NO), the process returns to step S29.

ステップS32で、撮像位置範囲Aの一部が検索範囲Bと重複すると判定された組情報Cに設定された最終インデックス番号まで撮像位置情報が検索範囲内であるか否かの確認を完了した場合(ステップS32;YES)、ステップS24の処理へ移行する。   In step S32, when it has been confirmed whether or not the imaging position information is within the search range up to the final index number set in the set information C determined that a part of the imaging position range A overlaps with the search range B (Step S32; YES), the process proceeds to Step S24.

次に、画像データの削除に係る処理(削除処理)について、図4を参照して説明する。
図4は、削除処理の一例を示すフローチャートである。
操作部302を介したユーザの指示入力に応じて画像削除部208hによりJPEG画像データの削除が行われると(ステップS41)、画像データ処理部208は、全てのJPEG画像データが削除されたか否か判定する(ステップS42)。
ステップS32で、全てのJPEG画像データが削除されていない場合(ステップS42;NO)、削除フラグ設定部208iは、第1のテーブルT1を読み出し、削除されたJPEG画像データのファイル名を含む画像ファイル情報Fを特定する(ステップS43)。そして、削除フラグ設定部208iは、当該レコードの削除フラグを設定し(ステップS44)、削除処理を終了する。
一方、ステップS42で、全てのJPEG画像データが削除された場合(ステップS42;YES)、画像データ処理部208は、第1のテーブルT1及び第2のテーブルT2を削除し(ステップS45)、削除処理を終了する。
Next, processing related to deletion of image data (deletion processing) will be described with reference to FIG.
FIG. 4 is a flowchart illustrating an example of the deletion process.
When JPEG image data is deleted by the image deletion unit 208h in response to a user instruction input via the operation unit 302 (step S41), the image data processing unit 208 determines whether all JPEG image data has been deleted. Determination is made (step S42).
If all the JPEG image data has not been deleted in step S32 (step S42; NO), the deletion flag setting unit 208i reads the first table T1 and includes an image file including the file name of the deleted JPEG image data. Information F is specified (step S43). Then, the deletion flag setting unit 208i sets a deletion flag for the record (step S44), and ends the deletion process.
On the other hand, when all the JPEG image data are deleted in step S42 (step S42; YES), the image data processing unit 208 deletes the first table T1 and the second table T2 (step S45) and deletes them. The process ends.

以上のように、本実施形態の撮像装置1によれば、画像抽出部208fが、全ての組のうち、撮像位置範囲Aと検索範囲Bとが重複しないと判定された組を除いた他の組から検索範囲内で撮像されたJPEG画像データを、当該JPEG画像データと対応付けられた撮像位置情報に基づいて抽出する。
これによって、撮像位置範囲Aと検索範囲Bとが重複しないと判定された組に含まれる全てのJPEG画像データについて、JPEG画像データに対応付けられた撮像位置情報と検索範囲Bとの比較照合を省略することができる。
ここで、撮像日時と撮像位置とは高い相関を有する傾向がある。例えば、ユーザが行楽地等の所定の地域に赴いた場合、当該地域における撮像を1日のうち、に複数回行うことによりその撮像日に撮像された撮像画像の撮像位置が当該地域に集中する場合等が挙げられる。このような傾向から、組分けを撮像日時に基づいて行うことにより、各組の撮像位置範囲Aを自ずと限定させることができ、各組の撮像位置範囲Aと検索範囲Bとが重複するか否かの判定に基づく組の除外の是非、除外された組に含まれる全てのJPEG画像データの比較照合の省略による検索の高速化を実現することができる。このため、大量のJPEG画像データが記憶部204に記憶されている場合であっても、JPEG画像データの撮像日時と検索範囲Bとの比較照合を、全ての組のうち、撮像位置範囲Aと検索範囲Bとが重複しないと判定された組を除いた他の組に含まれるJPEG画像データに限定することができ、従来のように総当り検索を行う場合に比してより高速に画像を検索することができる。
As described above, according to the imaging apparatus 1 of the present embodiment, the image extracting unit 208f excludes the other groups from which all of the combinations determined that the imaging position range A and the search range B do not overlap. JPEG image data captured within the search range from the set is extracted based on imaging position information associated with the JPEG image data.
As a result, for all the JPEG image data included in the set determined that the imaging position range A and the search range B do not overlap, the comparison of the imaging position information associated with the JPEG image data and the search range B is performed. Can be omitted.
Here, the imaging date and time and the imaging position tend to have a high correlation. For example, when the user visits a predetermined area such as a resort area, the imaging positions of the captured images captured on the imaging day are concentrated in the area by performing imaging in the area several times a day. Cases. From such a tendency, by performing the grouping based on the imaging date and time, it is possible to naturally limit the imaging position range A of each group, and whether or not the imaging position range A and the search range B of each group overlap. It is possible to realize a high-speed search by omitting the pair exclusion based on whether or not, and omitting comparison and collation of all JPEG image data included in the excluded pair. For this reason, even when a large amount of JPEG image data is stored in the storage unit 204, the comparison of the imaging date and time of the JPEG image data and the search range B is performed with the imaging position range A of all the sets. The search range B can be limited to JPEG image data included in other sets except for the set determined not to overlap, and the image can be displayed at a higher speed than when performing a brute force search as in the past. You can search.

さらに、画像抽出部208fが、撮像位置範囲Aが検索範囲内であると判定された組については、当該組に含まれるJPEG画像データと対応付けられた撮像位置情報が検索範囲内であるか否かを判定することなく当該組に含まれる全てのJPEG画像データを検索結果として抽出する。
これによって、撮像位置範囲Aが検索範囲内であると判定された組についても、JPEG画像データに対応付けられた撮像位置情報と検索範囲Bとの比較照合を省略して検索画像を抽出することができる。このため、大量のJPEG画像データが記憶部204に記憶されている場合であっても、JPEG画像データの撮像日時と検索範囲Bとの比較照合を、全ての組のうち、撮像位置範囲Aの一部と検索範囲Bとが重複すると判定された組に含まれるJPEG画像データに限定することができるので、さらに高速に画像を検索することができる。
Furthermore, for the set for which the image extraction unit 208f determines that the imaging position range A is within the search range, whether the imaging position information associated with the JPEG image data included in the set is within the search range. All JPEG image data included in the set is extracted as a search result without determining whether or not.
As a result, even for the group in which the imaging position range A is determined to be within the search range, the search image is extracted by omitting the comparison of the imaging position information associated with the JPEG image data and the search range B. Can do. For this reason, even when a large amount of JPEG image data is stored in the storage unit 204, the comparison of the imaging date and time of the JPEG image data and the search range B is performed in the imaging position range A of all the sets. Since the search can be limited to JPEG image data included in a set in which a part and the search range B are determined to overlap, an image can be searched at higher speed.

さらに、表示部301に表示される地図の領域と検索範囲とを連動させることにより、表示部301に表示された地図の領域内で撮像された画像の検索及び確認を容易に行うことができる。
加えて、位置情報取得部205により取得された現在位置に応じた逐次の地図の表示更新等、表示部301に表示された地図の領域の更新に応じて自動的に検索範囲の変更と変更された検索範囲に応じた撮像位置の画像に係る表示とを自動的に行うことにより、手動の操作を経ることなく画像の検索及び確認を行うことができることから、より高速に画像を検索することができる。
Further, by linking the map area displayed on the display unit 301 with the search range, it is possible to easily search and confirm the image captured in the map area displayed on the display unit 301.
In addition, the search range is automatically changed and changed in accordance with the update of the map area displayed on the display unit 301, such as the sequential display update of the map according to the current position acquired by the position information acquisition unit 205. By automatically performing display related to the image at the imaging position according to the search range, it is possible to search and confirm the image without manual operation. it can.

さらに、組分け部208cが、組分けにおいて先頭インデックス番号及び最終インデックス番号を設定することにより組分けを行う。
また、画像削除部208hによるJPEG画像データの削除に伴い、削除フラグ設定部208iが、削除されたJPEG画像データのファイル名に対応する画像ファイル情報Fに削除フラグを設定する。
このように、組分けをインデックス番号により管理し、JPEG画像ファイルの削除に伴ってインデックス番号を変更することがないので、一度行われた組分けの結果をJPEG画像ファイルの削除の有無に係らず保持することができる。このため、画像データ処理部208の処理負荷を軽減することができ、検索範囲Bの入力に伴う処理により多くの処理能力を割り当てることができることとなり、さらに高速に画像を検索することができる。
Further, the grouping unit 208c performs grouping by setting the first index number and the last index number in the grouping.
As the JPEG image data is deleted by the image deletion unit 208h, the deletion flag setting unit 208i sets a deletion flag in the image file information F corresponding to the file name of the deleted JPEG image data.
In this way, the grouping is managed by the index number, and the index number is not changed with the deletion of the JPEG image file. Therefore, the result of the grouping performed once is irrespective of whether or not the JPEG image file is deleted. Can be held. For this reason, the processing load of the image data processing unit 208 can be reduced, more processing capability can be assigned to the processing associated with the input of the search range B, and images can be searched at higher speed.

さらに、緯度及び経度により画像の撮像位置が示され、撮像位置範囲Aは、各組に含まれるJPEG画像データに付加された撮像位置情報に含まれる緯度、経度のそれぞれの最大値及び最小値の少なくとも一に基づいて示されるので、撮像位置情報及び撮像位置範囲Aを具体的かつ明確に設定することができる。   Furthermore, the imaging position of the image is indicated by latitude and longitude, and the imaging position range A includes the maximum and minimum values of the latitude and longitude included in the imaging position information added to the JPEG image data included in each set. Since the display is based on at least one, the imaging position information and the imaging position range A can be set specifically and clearly.

なお、本発明は、上記の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。   The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.

例えば、上記の実施形態における画像データはJPEGフォーマットであるが、他のフォーマットの画像でもよいし専用の画像形式を設けてもよい。
また、緯度や経度等を数値により指定して検索範囲の入力を行う等、各種の詳細条件を変更してもよい。
For example, the image data in the above embodiment is in the JPEG format, but an image in another format may be used, or a dedicated image format may be provided.
In addition, various detailed conditions may be changed, such as inputting a search range by specifying latitude and longitude numerically.

また、組分けされた各組の撮像位置範囲を緯度、経度又はその両方を用いて示す場合、各組に含まれる画像に対応付けられた撮像位置情報に含まれる緯度及び経度の少なくとも一のうち、最大値及び最小値の少なくとも一に基づいて示されればよい。
また、緯度や経度を用いる以外の方法で画像の撮像位置情報及び撮像位置範囲を扱ってもよい。例えばある基準位置に対する東西南北の位置及び距離等を用いて撮像位置を示す場合等が挙げられる。
In addition, when the imaging position range of each group that is grouped is indicated using latitude, longitude, or both, at least one of latitude and longitude included in the imaging position information associated with the image included in each group It may be indicated based on at least one of the maximum value and the minimum value.
Further, the image capturing position information and the image capturing position range may be handled by a method other than using latitude and longitude. For example, the case where an imaging position is shown using the position of east, west, south, north, and a distance with respect to a certain reference position, etc. is mentioned.

また、撮像画像に限らず、予め記憶されている画像についても撮像画像と同様に取り扱うことができる。
例えば、メモリカードM等の外部記憶媒体に記憶されているExif情報を含むJPEG画像データについて、組分け部208cが、JPEG画像データのExif情報に含まれる撮像日時情報に基づいて組分けを行い、撮像位置範囲特定部208dが、Exif情報に含まれる撮像位置情報に基づいて各組の撮像位置範囲Aを特定する。このように組分け撮像位置範囲Aの特定を行うことで、撮像装置1は上記の撮像画像と同様に、検索範囲Bと撮像位置範囲Aとの重複の有無に基づいて検索範囲に含まれるJPEG画像データの判定、抽出を行うことができる。
Further, not only the captured image but also an image stored in advance can be handled in the same manner as the captured image.
For example, for JPEG image data including Exif information stored in an external storage medium such as a memory card M, the grouping unit 208c performs grouping based on the imaging date and time information included in the Exif information of the JPEG image data. The imaging position range specifying unit 208d specifies each set of imaging position ranges A based on the imaging position information included in the Exif information. By specifying the grouped imaging position range A in this way, the imaging apparatus 1 can include the JPEG included in the search range based on whether or not the search range B and the imaging position range A overlap as in the above-described captured image. Image data can be determined and extracted.

また、上記の実施形態では、撮像装置が本発明の情報処理装置として機能しているが、撮像装置とは別個に設けられたコンピュータ等の情報処理装置を用いてもよいし、撮像装置以外の装置に設けられたコンピュータ等の情報処理装置に本発明を適用してもよい。   In the above-described embodiment, the imaging device functions as the information processing device of the present invention. However, an information processing device such as a computer provided separately from the imaging device may be used. The present invention may be applied to an information processing apparatus such as a computer provided in the apparatus.

加えて、上記実施形態にあっては、第1の記憶手段、組分け手段、特定手段、第2の記憶手段、第1の判定手段、抽出手段、第2の判定手段、付加手段、生成手段、削除手段、設定手段としての機能を、CPU207の制御下にて、画像データ処理部208が駆動することにより実現される構成としたが、これに限られるものではなく、CPU207によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、第1の記憶処理ルーチン、組分け処理ルーチン、特定処理ルーチン、第2の記憶処理ルーチン、第1の判定処理ルーチン、抽出処理ルーチン、第2の判定処理ルーチン、付加処理ルーチン、生成処理ルーチン、削除処理ルーチン、設定処理ルーチンを含むプログラムを記憶しておく。そして、第1の記憶処理ルーチンによりCPU207を、撮像日時を示す情報及び撮像位置を示す情報と対応付けられた画像を記憶部204等の記憶装置に複数記憶させる手段として機能させるようにしてもよい。また、組分け処理ルーチンによりCPU207を、記憶部204等の記憶装置に記憶された複数の画像を、撮像日時を示す情報に基づいて組分けする組分け手段として機能させるようにしてもよい。また、特定処理ルーチンによりCPU207を、組分けされた各組のそれぞれに含まれる画像の撮像位置範囲を、撮像位置を示す情報に基づいて特定する特定手段として機能させるようにしてもよい。また、第2の記憶処理ルーチンによりCPU207を、特定された各組の画像の撮像位置範囲を記憶部204等の記憶装置に記憶させる手段として機能させるようにしてもよい。また、第1の判定処理ルーチンによりCPU207を、各組の画像の撮像位置範囲と検索範囲とが重複するか否か判定する第1の判定手段として機能させるようにしてもよい。また、抽出処理ルーチンによりCPU207を、組分けされた全ての組のうち、各組の画像の撮像位置範囲と検索範囲とが重複しないと判定された組を除いた他の組から、検索範囲に対応する画像を、撮像位置を示す情報に基づいて抽出する抽出手段として機能させるようにしてもよい。また、第2の判定処理ルーチンによりCPU207を、受付手段を介して入力された、記憶された画像の検索条件としての画像の撮像位置に係る検索範囲と、前記各組の画像の撮像位置範囲と、が重複するか否か判定する第2の判定手段として機能させるようにしてもよい。また、付加処理ルーチンによりCPU207を、画像の撮像順に従って順次増加する番号を、複数の画像の各々を特定する特定情報に付加する付加手段として機能させるようにしてもよい。また、生成処理ルーチンによりCPU207を、記憶部204等の記憶装置に記憶された複数の画像の各々に係る特定情報をまとめたリスト情報を生成する生成手段として機能させるようにしてもよい。また、削除処理ルーチンによりCPU207を、記憶部204等の記憶装置に記憶された画像を削除する削除手段として機能させるようにしてもよい。また、設定処理ルーチンによりCPU207を、リスト情報に、削除された画像を示す削除情報を設定する設定手段として機能させるようにしてもよい。
In addition, in the above embodiment, the first storage means, grouping means, identification means, second storage means, first determination means, extraction means, second determination means, addition means, generation means The functions of the deletion unit and the setting unit are realized by the image data processing unit 208 being driven under the control of the CPU 207. However, the present invention is not limited to this. It is good also as a structure implement | achieved by performing.
That is, in a program memory (not shown) for storing a program, a first storage processing routine, a grouping processing routine, a specific processing routine, a second storage processing routine, a first determination processing routine, an extraction processing routine, a second A program including a determination processing routine, an addition processing routine, a generation processing routine, a deletion processing routine, and a setting processing routine is stored. Then, the first storage processing routine may cause the CPU 207 to function as means for storing a plurality of images associated with information indicating the imaging date and time and information indicating the imaging position in a storage device such as the storage unit 204. . Further, the CPU 207 may function as a grouping unit that groups a plurality of images stored in a storage device such as the storage unit 204 based on information indicating the imaging date and time by a grouping process routine. Further, the CPU 207 may be caused to function as a specifying unit that specifies the imaging position range of the image included in each of the divided groups based on the information indicating the imaging position by the specifying process routine. Further, the CPU 207 may be caused to function as a means for storing the specified imaging position range of each set of images in a storage device such as the storage unit 204 by the second storage processing routine. Further, the first determination processing routine may cause the CPU 207 to function as a first determination unit that determines whether the imaging position range and the search range of each set of images overlap. In addition, the CPU 207 causes the extraction processing routine to change the image capturing position range of each group image and the search range from other groups excluding the group determined to be non-overlapping to the search range. You may make it function as an extraction means which extracts a corresponding image based on the information which shows an imaging position. In addition, the CPU 207 causes the second determination processing routine to input the search range related to the image capturing position as a stored image search condition input via the receiving unit, and the image capturing position range of each set of images. , May be made to function as second determination means for determining whether or not they overlap. Further, the CPU 207 may be caused to function as an adding unit that adds a number that sequentially increases in accordance with the image capturing order to the specific information that specifies each of the plurality of images. Further, the generation processing routine may cause the CPU 207 to function as a generation unit that generates list information in which specific information related to each of a plurality of images stored in a storage device such as the storage unit 204 is collected. Further, the CPU 207 may function as a deletion unit that deletes an image stored in a storage device such as the storage unit 204 by a deletion processing routine. Further, the setting processing routine may cause the CPU 207 to function as setting means for setting deletion information indicating the deleted image in the list information.

204 記憶部
205 位置情報取得部
206 日時情報出力部
207 CPU
208 画像データ処理部
208a 画像ファイル情報生成部
208b インデックス番号付加部
208c 組分け部
208d 撮像位置範囲特定部
208e 検索範囲重複判定部
208f 画像抽出部
208g 撮像位置判定部
208h 画像削除部
208i 削除フラグ設定部
301 表示部
302 操作部
303 外部記憶媒体インタフェース
204 Storage Unit 205 Position Information Acquisition Unit 206 Date / Time Information Output Unit 207 CPU
208 Image data processing unit 208a Image file information generation unit 208b Index number addition unit 208c Grouping unit 208d Imaging position range specifying unit 208e Search range overlap determination unit 208f Image extraction unit 208g Imaging position determination unit 208h Image deletion unit 208i Deletion flag setting unit 301 Display unit 302 Operation unit 303 External storage medium interface

Claims (11)

撮像日時を示す情報及び撮像位置を示す情報と対応付けられた画像を複数記憶する第1の記憶手段と、
前記第1の記憶手段に記憶された複数の画像を、前記撮像日時を示す情報に基づいて組分けする組分け手段と、
前記組分け手段により組分けされた各組のそれぞれに含まれる画像の撮像位置範囲を、前記撮像位置を示す情報に基づいて特定する特定手段と、
前記特定手段により特定された各組の画像の撮像位置範囲を記憶する第2の記憶手段と、
前記第1の記憶手段に記憶された画像の検索条件として、画像の撮像位置に係る検索範囲の入力を受け付ける受付手段と、
前記各組の画像の撮像位置範囲と前記検索範囲とが重複するか否か判定する第1の判定手段と、
前記組分け手段により組分けされた全ての組のうち、前記第1の判定手段により前記各組の画像の撮像位置範囲と前記検索範囲とが重複しないと判定された組を除いた他の組から、前記検索範囲に対応する画像を、前記撮像位置を示す情報に基づいて抽出する抽出手段と、
を備えることを特徴とする情報処理装置。
First storage means for storing a plurality of images associated with information indicating an imaging date and time and information indicating an imaging position;
Grouping means for grouping a plurality of images stored in the first storage unit based on information indicating the imaging date and time;
A specifying unit that specifies an imaging position range of an image included in each of the groups grouped by the grouping unit based on information indicating the imaging position;
Second storage means for storing an imaging position range of each set of images specified by the specifying means;
Receiving means for receiving an input of a search range related to an imaging position of an image as a search condition for an image stored in the first storage means;
First determination means for determining whether or not the imaging position range of each set of images and the search range overlap;
Of all the groups grouped by the grouping unit, other groups except for the group determined by the first determination unit that the imaging position range of each group of images and the search range do not overlap. Extraction means for extracting an image corresponding to the search range based on information indicating the imaging position;
An information processing apparatus comprising:
前記抽出手段は、
前記第1の判定手段により前記各組の画像の撮像位置範囲と前記検索範囲とが重複すると判定された組に含まれる画像の各々について、前記撮像位置を示す情報が前記検索範囲内であるか否かを判定する第2の判定手段を有することを特徴とする請求項1に記載の情報処理装置。
The extraction means includes
Whether the information indicating the imaging position is within the search range for each of the images included in the set determined by the first determination unit that the imaging position range of the image of each set and the search range overlap. The information processing apparatus according to claim 1, further comprising second determination means for determining whether or not.
前記抽出手段は、さらに、
前記第1の判定手段により前記各組の画像の撮像位置範囲が前記検索範囲内であると判定された組について、当該組に含まれる各画像と対応付けられた前記撮像位置を示す情報が前記検索範囲内であるか否かを前記第2の判定手段により判定することなく、当該組に含まれる全ての画像を抽出することを特徴とする請求項2に記載の情報処理装置。
The extraction means further includes:
Information indicating the imaging position associated with each image included in the set for the group in which the imaging position range of each group of images is determined to be within the search range by the first determination unit is The information processing apparatus according to claim 2, wherein all images included in the set are extracted without determining by the second determination unit whether or not the image is within a search range.
所定の領域内の地図を表示する表示手段と、
前記抽出手段により抽出された画像の撮影位置を、前記表示手段により表示された地図上に識別表示する識別表示手段と、を更に備え、
前記受付手段は、前記表示手段により表示された地図の所定の領域を、前記検索範囲として受け付けることを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。
Display means for displaying a map in a predetermined area;
An identification display means for identifying and displaying the shooting position of the image extracted by the extraction means on the map displayed by the display means;
The information processing apparatus according to claim 1, wherein the reception unit receives a predetermined area of the map displayed by the display unit as the search range.
前記表示手段の表示対象となる地図の所定の領域が変更されると、前記表示手段による表示内容の変更とともに、この変更後の座標領域が前記受付手段により新たな検索範囲とし、前記識別表示手段により新たな検索範囲に対応した画像の撮影位置の識別表示を自動的に行うことを特徴とする請求項4に記載の情報処理装置。   When a predetermined area of the map to be displayed by the display means is changed, the display area is changed by the display means, and the coordinate area after the change is made a new search range by the receiving means, and the identification display means 5. The information processing apparatus according to claim 4, wherein identification display of an imaging position of an image corresponding to a new search range is automatically performed. 現在位置を取得する測位手段を更に備え、
前記測位手段により取得される現在位置を含む領域を前記表示手段により表示させ、前記測位手段により取得される現在位置の変化に応じて、前記表示手段による地図表示、前記識別表示手段による画像の撮影位置の識別表示の処理を逐次実行することを特徴とする請求項5に記載の情報処理装置。
It further comprises positioning means for acquiring the current position,
An area including the current position acquired by the positioning unit is displayed on the display unit, and a map display by the display unit and an image capturing by the identification display unit are performed according to a change in the current position acquired by the positioning unit. The information processing apparatus according to claim 5, wherein position identification display processing is sequentially executed.
撮像手段による画像の撮像順に従って順次増加する番号を、複数の画像の各々を特定する特定情報に付加する付加手段をさらに備え、
前記組分け手段は、前記付加手段により付加された前記番号を用いて画像の組分けを行うことを特徴とする請求項1から6のいずれか一項に記載の情報処理装置。
An addition means for adding a number that sequentially increases in accordance with the order of image capturing by the image capturing means to specific information that identifies each of the plurality of images;
The information processing apparatus according to claim 1, wherein the grouping unit performs image grouping using the number added by the adding unit.
前記第1の記憶手段に記憶されている複数の画像の各々に係る前記特定情報をまとめたリスト情報を生成する生成手段と、
前記第1の記憶手段に記憶された画像を削除する削除手段と、
前記リスト情報に、前記削除手段により削除された画像を示す削除情報を設定する設定手段と、
をさらに備えることを特徴とする請求項7に記載の情報処理装置。
Generating means for generating list information in which the specific information relating to each of a plurality of images stored in the first storage means is collected;
Deleting means for deleting the image stored in the first storage means;
A setting unit that sets deletion information indicating an image deleted by the deletion unit in the list information;
The information processing apparatus according to claim 7, further comprising:
前記撮像位置を示す情報は、緯度及び経度の少なくとも一を含み、
前記特定手段により特定される画像の撮像位置範囲は、各組に含まれる画像と対応付けられた前記撮像位置を示す情報に含まれる緯度及び経度の少なくとも一のうちの最大値及び/又は最小値に基づいて示されることを特徴とする請求項1から8のいずれか一項に記載の情報処理装置。
The information indicating the imaging position includes at least one of latitude and longitude,
The imaging position range of the image specified by the specifying means is the maximum value and / or the minimum value of at least one of latitude and longitude included in the information indicating the imaging position associated with the image included in each set. The information processing apparatus according to claim 1, wherein the information processing apparatus is displayed based on the information.
情報処理装置に、
撮像日時を示す情報及び撮像位置を示す情報と対応付けられた画像を複数記憶させる処理と、
前記第1の記憶手段に記憶された複数の画像を、前記撮像日時を示す情報に基づいて組分けする処理と、
前記組分け手段により組分けされた各組のそれぞれに含まれる画像の撮像位置範囲を、前記撮像位置を示す情報に基づいて特定する処理と、
前記特定手段により特定された各組の画像の撮像位置範囲を記憶させる処理と、
前記第1の記憶手段に記憶された画像の検索条件として、画像の撮像位置に係る検索範囲の入力を受け付ける処理と、
前記各組の画像の撮像位置範囲と前記検索範囲とが重複するか否か判定する処理と、
前記組分け手段により組分けされた全ての組のうち、前記第1の判定手段により前記各組の画像の撮像位置範囲と前記検索範囲とが重複しないと判定された組を除いた他の組から、前記検索範囲に対応する画像を、前記撮像位置を示す情報に基づいて抽出する処理と、
を実行させることを特徴とする情報処理方法。
In the information processing device,
A process of storing a plurality of images associated with information indicating an imaging date and time and information indicating an imaging position;
A process of grouping a plurality of images stored in the first storage unit based on information indicating the imaging date and time;
A process of specifying an imaging position range of an image included in each of the groups grouped by the grouping unit based on information indicating the imaging position;
Processing for storing the imaging position range of each set of images specified by the specifying means;
A process of receiving an input of a search range related to an image capturing position as a search condition for the image stored in the first storage unit;
A process of determining whether or not the imaging position range of each set of images and the search range overlap;
Of all the groups grouped by the grouping unit, other groups except for the group determined by the first determination unit that the imaging position range of each group of images and the search range do not overlap. A process of extracting an image corresponding to the search range based on information indicating the imaging position;
An information processing method characterized in that
情報処理装置のコンピュータを、
撮像日時を示す情報及び撮像位置を示す情報と対応付けられた画像を複数記憶させる手段、
記憶された複数の画像を前記撮像日時を示す情報に基づいて組分けする手段、
組分けされた各組のそれぞれに含まれる画像の撮像位置範囲を、前記撮像位置を示す情報に基づいて特定する手段、
特定された各組の画像の撮像位置範囲を記憶させる手段、
受付手段を介して入力された、記憶された画像の検索条件としての画像の撮像位置に係る検索範囲と、前記各組の画像の撮像位置範囲と、が重複するか否か判定する手段、
組分けされた全ての組のうち、前記各組の画像の撮像位置範囲と前記検索範囲とが重複しないと判定された組を除いた他の組から、前記検索範囲に対応する画像を、前記撮像位置を示す情報に基づいて抽出する手段、
として機能させることを特徴とするプログラム。
The computer of the information processing device
Means for storing a plurality of images associated with information indicating an imaging date and time and information indicating an imaging position;
Means for grouping a plurality of stored images based on information indicating the imaging date and time;
Means for specifying an imaging position range of an image included in each of the divided groups based on information indicating the imaging position;
Means for storing the imaging position range of each set of identified images;
Means for determining whether or not the search range related to the image capturing position of the image as the stored image search condition and the image capturing position range of each set of images input via the accepting unit overlap;
Among all the groups that have been grouped, the image corresponding to the search range from the other groups excluding the group determined that the imaging position range of the image of each set and the search range do not overlap, Means for extracting based on information indicating the imaging position;
A program characterized by functioning as
JP2010243059A 2010-10-29 2010-10-29 Information processing apparatus, information processing method, and program Expired - Fee Related JP5565271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010243059A JP5565271B2 (en) 2010-10-29 2010-10-29 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010243059A JP5565271B2 (en) 2010-10-29 2010-10-29 Information processing apparatus, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2012094090A true JP2012094090A (en) 2012-05-17
JP2012094090A5 JP2012094090A5 (en) 2013-11-21
JP5565271B2 JP5565271B2 (en) 2014-08-06

Family

ID=46387314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010243059A Expired - Fee Related JP5565271B2 (en) 2010-10-29 2010-10-29 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5565271B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793338A (en) * 1993-09-24 1995-04-07 Mitsubishi Electric Corp Spatiotemporal data management device
JP2004062428A (en) * 2002-07-26 2004-02-26 Canon Inc Information retrieval apparatus, information retrieval method, program, and recording medium
JP2007207254A (en) * 2007-02-13 2007-08-16 Seiko Epson Corp Image file classification
JP2009130379A (en) * 2007-11-19 2009-06-11 Olympus Imaging Corp Image display method and image display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793338A (en) * 1993-09-24 1995-04-07 Mitsubishi Electric Corp Spatiotemporal data management device
JP2004062428A (en) * 2002-07-26 2004-02-26 Canon Inc Information retrieval apparatus, information retrieval method, program, and recording medium
JP2007207254A (en) * 2007-02-13 2007-08-16 Seiko Epson Corp Image file classification
JP2009130379A (en) * 2007-11-19 2009-06-11 Olympus Imaging Corp Image display method and image display device

Also Published As

Publication number Publication date
JP5565271B2 (en) 2014-08-06

Similar Documents

Publication Publication Date Title
US8988347B2 (en) Image processing apparatus, image displaying method, and image displaying program
US8599251B2 (en) Camera
JP4645685B2 (en) Camera, camera control program, and photographing method
KR101379066B1 (en) Image processing device, image processing method, and recording medium
JP5401962B2 (en) Image processing apparatus, image processing method, and image processing program
JP4735995B2 (en) Image processing apparatus, image display method, and image display program
KR101720774B1 (en) Digital photographing apparatus and method for providing a picture thereof
CN105453538B (en) Electronic device, control method thereof, and non-transitory computer-readable recording medium
KR20120085474A (en) A photographing apparatus, a method for controlling the same, and a computer-readable storage medium
US20100246968A1 (en) Image capturing apparatus, image processing method and recording medium
CN107710731B (en) Camera and image processing method
JP2012114561A (en) Object detection device, object detection method and program
JP6230386B2 (en) Image processing apparatus, image processing method, and image processing program
JP5565271B2 (en) Information processing apparatus, information processing method, and program
JP2007266902A (en) Camera
JP5593778B2 (en) Image processing apparatus and method, and program
JP5181935B2 (en) Image processing apparatus, program, and subject detection method
JP5170217B2 (en) Camera, camera control program, and photographing method
JP2012134864A (en) Information processor, processing method of the same and program
US8643744B2 (en) Image processing apparatus and image file management method
JP5232109B2 (en) Image management apparatus, image management method and program, and imaging apparatus
JP2010141652A (en) Electronic camera
JP4431861B2 (en) Imaging device
JP5687480B2 (en) Imaging apparatus, imaging method, and imaging program
JP2007181020A (en) Imaging device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131007

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R150 Certificate of patent or registration of utility model

Ref document number: 5565271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees