[go: up one dir, main page]

JP2020119211A - Information processing device, terminal program, and information processing system - Google Patents

Information processing device, terminal program, and information processing system Download PDF

Info

Publication number
JP2020119211A
JP2020119211A JP2019009358A JP2019009358A JP2020119211A JP 2020119211 A JP2020119211 A JP 2020119211A JP 2019009358 A JP2019009358 A JP 2019009358A JP 2019009358 A JP2019009358 A JP 2019009358A JP 2020119211 A JP2020119211 A JP 2020119211A
Authority
JP
Japan
Prior art keywords
position information
unit
prey
image
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019009358A
Other languages
Japanese (ja)
Inventor
西垣 英則
Hidenori Nishigaki
英則 西垣
明子 山根木
Akiko Yamanegi
明子 山根木
鈴木 琢也
Takuya Suzuki
琢也 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Lighting and Technology Corp
Original Assignee
Toshiba Lighting and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Lighting and Technology Corp filed Critical Toshiba Lighting and Technology Corp
Priority to JP2019009358A priority Critical patent/JP2020119211A/en
Publication of JP2020119211A publication Critical patent/JP2020119211A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Catching Or Destruction (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information processor, a terminal program, and an information processing system, which can attach imaging position information of a prey image while associating them with each other even if the prey image is captured at a location where the position information of a terminal device cannot be acquired.SOLUTION: An information processor according to the embodiment includes a prey image acquisition unit, a position information acquisition unit, a generation unit, and an association unit. The prey image acquisition unit acquires a prey image obtained by imaging a captured animal. The position information acquisition unit acquires position information of a terminal device. The generation unit generates a movement locus of the terminal device based on the position information acquired by the position information acquisition unit. The association unit associates the prey image acquired by the prey image acquisition unit with imaging position information of the prey image estimated based on the movement locus.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、情報処理装置、端末プログラムおよび情報処理システムに関する。 Embodiments of the present invention relate to an information processing device, a terminal program, and an information processing system.

農作物に被害を及ぼすイノシシやシカ等の害獣を捕獲した場合、害獣を捕獲したことを示す証拠を自治体等へ提出することで報奨金を得る制度がある。従来、かかる証拠の提出方法として、例えば捕獲した動物を撮像した獲物画像を提出する方法がある。 There is a system to obtain bounties by submitting evidence showing that the harmful beasts have been captured to local governments, etc., if the harmful insects such as wild boars and deer that damage crops are captured. Conventionally, as a method of submitting such evidence, for example, there is a method of submitting a prey image obtained by imaging a captured animal.

特開2017−146778号公報JP, 2017-146778, A

ところで、上記した獲物画像には、獲物画像を撮像した位置を示す撮像位置情報が対応付けられて付与される。具体的には、例えば獲物画像が端末装置で撮像される場合、端末装置は、GPS(Global Positioning System)などの測位システムを利用して端末装置の位置情報を取得し、取得された位置情報が撮像位置情報として獲物画像に付与される。 By the way, the above-mentioned prey image is provided in association with imaging position information indicating the position where the prey image is captured. Specifically, for example, when a prey image is captured by the terminal device, the terminal device acquires the position information of the terminal device using a positioning system such as GPS (Global Positioning System), and the acquired position information is It is added to the prey image as imaging position information.

しかしながら、獲物画像を撮像する場所によっては、GPSの衛星からの信号を受信できずに位置情報を取得できない場合があり、かかる場合、獲物画像に撮像位置情報を付与することができないおそれがあった。 However, depending on the location where the prey image is captured, the signal from the GPS satellite may not be received and the position information may not be acquired. In such a case, there is a possibility that the capture position information may not be added to the prey image. ..

本発明が解決しようとする課題は、端末装置の位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を獲物画像に対応付けて付与することができる情報処理装置、端末プログラムおよび情報処理システムを提供することである。 The problem to be solved by the present invention is information processing in which the captured position information of a prey image can be associated with the prey image even if the prey image is captured in a location where the position information of the terminal device cannot be acquired. To provide an apparatus, a terminal program, and an information processing system.

実施形態に係る情報処理装置は、獲物画像取得部と、位置情報取得部と、生成部と、対応付け部とを具備する。獲物画像取得部は、捕獲した動物を撮像した獲物画像を取得する。位置情報取得部は、端末装置の位置情報を取得する。生成部は、前記位置情報取得部によって取得された前記位置情報に基づいて、前記端末装置の移動軌跡を生成する。対応付け部は、前記獲物画像取得部によって取得された前記獲物画像に対し、前記移動軌跡に基づいて推定される前記獲物画像の撮像位置情報を対応付ける。 The information processing apparatus according to the embodiment includes a prey image acquisition unit, a position information acquisition unit, a generation unit, and an association unit. The prey image acquisition unit acquires a prey image obtained by capturing the captured animal. The position information acquisition unit acquires the position information of the terminal device. The generation unit generates a movement track of the terminal device based on the position information acquired by the position information acquisition unit. The associating unit associates with the prey image acquired by the prey image acquisition unit, the imaging position information of the prey image estimated based on the movement trajectory.

本発明によれば、端末装置の位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を獲物画像に対応付けて付与することができる。 ADVANTAGE OF THE INVENTION According to this invention, even if it is the prey image imaged in the place where the positional information on a terminal device cannot be acquired, the imaging position information on a prey image can be provided in association with a prey image.

図1は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an information processing system according to the embodiment. 図2は、実施形態に係る端末装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the terminal device according to the embodiment. 図3は、実施形態に係る画像情報の一例を示す図である。FIG. 3 is a diagram showing an example of image information according to the embodiment. 図4Aは、実施形態に係る端末装置に表示される画面の一例を示す図である。FIG. 4A is a diagram showing an example of a screen displayed on the terminal device according to the embodiment. 図4Bは、実施形態に係る端末装置に表示される画面の一例を示す図である。FIG. 4B is a diagram showing an example of a screen displayed on the terminal device according to the embodiment. 図5は、実施形態に係る端末装置に表示される画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a screen displayed on the terminal device according to the embodiment. 図6は、実施形態に係るサーバの構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of the server according to the embodiment. 図7は、実施形態に係る捕獲情報の一例を示す図である。FIG. 7 is a diagram showing an example of capture information according to the embodiment. 図8は、実施形態に係る端末装置の処理の手順を示すフローチャートである。FIG. 8 is a flowchart showing a procedure of processing of the terminal device according to the embodiment.

以下に説明する実施形態に係る端末装置(情報処理装置の一例)10は、獲物画像取得部161と、位置情報取得部162と、生成部163と、対応付け部165とを具備する。獲物画像取得部161は、捕獲した動物を撮像した獲物画像を取得する。位置情報取得部162は、端末装置の位置情報を取得する。生成部163は、位置情報取得部162によって取得された位置情報に基づいて、端末装置10の移動軌跡を生成する。対応付け部165は、獲物画像取得部161によって取得された獲物画像に対し、移動軌跡に基づいて推定される獲物画像の撮像位置情報を対応付ける。 The terminal device (an example of an information processing device) 10 according to the embodiment described below includes a prey image acquisition unit 161, a position information acquisition unit 162, a generation unit 163, and an association unit 165. The prey image acquisition part 161 acquires the prey image which imaged the captured animal. The position information acquisition unit 162 acquires the position information of the terminal device. The generation unit 163 generates the movement trajectory of the terminal device 10 based on the position information acquired by the position information acquisition unit 162. The associating unit 165 associates the prey image acquired by the prey image acquiring unit 161 with the imaging position information of the prey image estimated based on the movement trajectory.

また、以下に説明する実施形態に係る端末装置10は、表示制御部164をさらに具備する。表示制御部164は、生成部163によって生成された移動軌跡を端末装置10の画面に表示させる。 In addition, the terminal device 10 according to the embodiment described below further includes the display control unit 164. The display control unit 164 displays the movement locus generated by the generation unit 163 on the screen of the terminal device 10.

また、以下に説明する実施形態に係る対応付け部165は、獲物画像が撮像されるときに位置情報取得部162によって端末装置10の位置情報が取得された場合、当該位置情報を撮像位置情報として獲物画像に対応付ける一方、獲物画像が撮像されるときに位置情報取得部162によって端末装置10の位置情報が取得されなかった場合、移動軌跡に基づいて推定される撮像位置情報を前記獲物画像に対応付ける。 Further, when the position information acquisition unit 162 acquires the position information of the terminal device 10 when the prey image is captured, the association unit 165 according to the embodiment described below uses the position information as the imaging position information. On the other hand, when the position information acquisition unit 162 does not acquire the position information of the terminal device 10 while associating the prey image with the prey image, the imaging position information estimated based on the movement trajectory is associated with the prey image. ..

また、以下に説明する実施形態に係る獲物画像取得部161は、獲物画像が撮像された時間を示す撮像時間情報を獲物画像とともに取得し、対応付け部165は、獲物画像取得部161によって取得された撮像時間情報と、移動軌跡とに基づいて撮像位置情報を推定し、推定された撮像位置情報を獲物画像に対応付ける。 In addition, the prey image acquisition unit 161 according to the embodiment described below acquires imaging time information indicating the time at which the prey image was captured together with the prey image, and the association unit 165 is acquired by the prey image acquisition unit 161. The imaging position information is estimated based on the imaging time information and the movement trajectory, and the estimated imaging position information is associated with the prey image.

また、以下に説明する実施形態に係る端末装置10は、修正部166をさらに具備する。修正部166は、対応付け部165によって獲物画像に対応付けられた撮像位置情報を、ユーザUの操作に応じて修正する。 In addition, the terminal device 10 according to the embodiment described below further includes a correction unit 166. The correction unit 166 corrects the imaging position information associated with the prey image by the association unit 165 according to the operation of the user U.

また、以下に説明する実施形態に係る対応付け部165は、撮像位置情報が推定された情報であるか否かを識別する識別情報を獲物画像に対応付ける。 Further, the associating unit 165 according to the embodiment described below associates the identification information for identifying whether or not the imaging position information is the estimated information with the prey image.

以下、図面を参照して、実施形態に係る情報処理装置、端末プログラムおよび情報処理システムについて説明する。実施形態において同一の部位には同一の符号を付し、重複する説明は省略される場合がある。 Hereinafter, an information processing apparatus, a terminal program, and an information processing system according to the embodiments will be described with reference to the drawings. In the embodiments, the same reference numerals are given to the same parts, and duplicate description may be omitted.

なお、以下では、端末装置が情報処理装置の一例である場合について説明するが、これに限定されるものではない。すなわち、例えば後述するサーバが情報処理装置として機能してもよい。 In the following, a case where the terminal device is an example of an information processing device will be described, but the present invention is not limited to this. That is, for example, a server described later may function as the information processing device.

[情報処理システムの構成例]
まず、端末プログラムを実行する端末装置を含む情報処理システムの構成を説明する。図1は、実施形態に係る情報処理システムの構成例を示す図である。情報処理システム1は、例えば、猟師等のユーザUによって捕獲された動物30の捕獲状況などを管理するためのシステムである。
[Example of configuration of information processing system]
First, the configuration of an information processing system including a terminal device that executes a terminal program will be described. FIG. 1 is a diagram illustrating a configuration example of an information processing system according to the embodiment. The information processing system 1 is, for example, a system for managing the capture status of the animals 30 captured by the user U such as a hunter.

図1に示すように情報処理システム1は、端末装置10と、サーバ20とを有する。また、端末装置10およびサーバ20は、ネットワーク2を介して通信可能に接続されている。なお、ネットワーク2は、例えばインターネットなどである。 As shown in FIG. 1, the information processing system 1 includes a terminal device 10 and a server 20. Further, the terminal device 10 and the server 20 are communicably connected via the network 2. The network 2 is, for example, the Internet.

例えば、端末装置10は、スマートフォン、タブレットおよびデジタルカメラ等の携帯型の端末装置であり、ユーザUによって利用される。端末装置10は、カメラ機能等を用いて、捕獲した動物30の画像(以下「獲物画像」という)を撮像することができる。また、端末装置10は、GPSなどの測位システムを利用して端末装置10の位置情報を取得することができる。また、端末装置10は、獲物画像を含む画像情報151をサーバ20へ送信することができる。 For example, the terminal device 10 is a portable terminal device such as a smartphone, a tablet, and a digital camera, and is used by the user U. The terminal device 10 can capture an image of the captured animal 30 (hereinafter referred to as a “prey image”) by using a camera function or the like. Further, the terminal device 10 can acquire the position information of the terminal device 10 by using a positioning system such as GPS. Further, the terminal device 10 can transmit the image information 151 including the prey image to the server 20.

なお、端末装置10には、例えば所定のアプリケーション(端末プログラムの一例)がインストールされ、かかるアプリケーションの起動によって上記した獲物画像の撮像や位置情報の取得、画像情報151の送信などの各種処理が実行されてもよい。 In addition, for example, a predetermined application (an example of a terminal program) is installed in the terminal device 10, and various processes such as the capturing of the prey image, the acquisition of the position information, and the transmission of the image information 151 are executed by the activation of the application. May be done.

サーバ20は、端末装置10から送信された画像情報151を記憶部に格納し、動物30の捕獲状況などを管理するが、これについては後述する。 The server 20 stores the image information 151 transmitted from the terminal device 10 in the storage unit and manages the capture status of the animal 30 and the like, which will be described later.

ところで、端末装置10は、獲物画像に対し、獲物画像を撮像した位置を示す撮像位置情報を対応付けて付与して画像情報151を生成する。例えば、端末装置10は、獲物画像を撮像したときに端末装置10の位置情報を取得し、かかる位置情報を撮像位置情報として獲物画像に対応付けるようにする。 By the way, the terminal device 10 generates image information 151 by associating the prey image with imaging position information indicating the position where the prey image is captured. For example, the terminal device 10 acquires the position information of the terminal device 10 when the prey image is captured, and associates the position information with the prey image as imaging position information.

しかしながら、動物30の捕獲は、例えば山奥や山間部などで行われることがあるため、獲物画像を撮像する場所によっては、GPSの衛星からの信号を受信できずに位置情報を取得できない場合がある。 However, since the animal 30 may be captured, for example, in the mountains or in the mountains, depending on the place where the prey image is captured, the signal from the GPS satellite may not be received and the position information may not be acquired. ..

そこで、本実施形態に係る端末装置10にあっては、位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を対応付けて付与することができるような構成とした。以下、その構成について詳しく説明する。 Therefore, in the terminal device 10 according to the present embodiment, even if the prey image is picked up at a location where the position information cannot be acquired, the imaging position information of the prey image can be associated and added. And The configuration will be described in detail below.

図2は、実施形態に係る端末装置10の構成例を示すブロック図である。図2に示すように、端末装置10は、撮像部11、通信部12、GPS受信部13、入出力部14、記憶部15および制御部16を有する。 FIG. 2 is a block diagram showing a configuration example of the terminal device 10 according to the embodiment. As shown in FIG. 2, the terminal device 10 includes an imaging unit 11, a communication unit 12, a GPS receiving unit 13, an input/output unit 14, a storage unit 15, and a control unit 16.

撮像部11は、ユーザUが捕獲した動物30の画像、すなわち獲物画像を撮像する。撮像部11は、例えばカメラである。撮像部11が撮像する画像は静止画であるが、これに限られず、例えば動画であってもよい。 The imaging unit 11 captures an image of the animal 30 captured by the user U, that is, a prey image. The imaging unit 11 is, for example, a camera. The image captured by the image capturing unit 11 is a still image, but the image is not limited to this and may be, for example, a moving image.

通信部12は、無線通信処理や有線通信処理を行うためのネットワークデバイスである。例えば、通信部12は、ネットワーク2を介してサーバ20との間で各種情報を送受信する。 The communication unit 12 is a network device for performing wireless communication processing and wired communication processing. For example, the communication unit 12 transmits/receives various information to/from the server 20 via the network 2.

GPS受信部13は、GPSの衛星から送出される信号(電波)を受信し、受信した信号を制御部16へ出力する。 The GPS receiving unit 13 receives a signal (radio wave) sent from a GPS satellite and outputs the received signal to the control unit 16.

入出力部14は、ユーザUからの入力を受け付けたり、ユーザUに対して各種情報を画面に表示して出力したりする装置である。例えば、入出力部14は、タッチパネルディスプレイである。 The input/output unit 14 is a device that receives an input from the user U or displays various information to the user U on a screen and outputs the information. For example, the input/output unit 14 is a touch panel display.

記憶部15は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部15は、端末装置10で実行される各処理で利用されるデータを記憶する。 The storage unit 15 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 15 according to the embodiment stores data used in each process executed by the terminal device 10.

また、記憶部15は、上記した画像情報151を記憶する。図3は、実施形態に係る画像情報151の一例を示す図である。 The storage unit 15 also stores the above-described image information 151. FIG. 3 is a diagram showing an example of the image information 151 according to the embodiment.

図3に示すように、画像情報151には、獲物画像151aと、付与情報151bとが含まれる。獲物画像151aは、後述する獲物画像取得部161によって取得された獲物画像である。 As shown in FIG. 3, the image information 151 includes a prey image 151a and additional information 151b. The prey image 151a is a prey image acquired by the prey image acquisition unit 161 described later.

付与情報151bは、獲物画像151aに対応付けて付与された情報である。例えば、付与情報151bには、撮像時間情報、撮像位置情報、識別情報など種々の情報が含まれる。撮像時間情報は、獲物画像が撮像された時間を示す情報であり、撮像位置情報は、獲物画像が撮像された位置を示す情報である。なお、識別情報については、後述する。 The attached information 151b is information attached in association with the prey image 151a. For example, the additional information 151b includes various information such as image capturing time information, image capturing position information, and identification information. The imaging time information is information indicating the time when the prey image was captured, and the imaging position information is information indicating the position at which the prey image was captured. The identification information will be described later.

図2の説明に戻ると、制御部16は、例えば、各種の処理手順等を規定したプログラム及び所要データを格納するための内部メモリやCPU(Central Processing Unit)を有し、これらによって種々の処理を実行するマイクロコンピュータを含む。制御部16は、獲物画像取得部161、位置情報取得部162、生成部163、表示制御部164、対応付け部165、修正部166および送信部167を有する。 Returning to the description of FIG. 2, the control unit 16 has, for example, an internal memory and a CPU (Central Processing Unit) for storing a program defining various processing procedures and required data, and various processing by these. It includes a microcomputer for executing. The control unit 16 includes a prey image acquisition unit 161, a position information acquisition unit 162, a generation unit 163, a display control unit 164, an association unit 165, a correction unit 166, and a transmission unit 167.

獲物画像取得部161は、撮像部11によって撮像された獲物画像を取得する。そして、獲物画像取得部161は、取得された獲物画像を記憶部15に記憶させる(図3参照)。また、獲物画像取得部161は、例えば端末装置10に内蔵された時計から、獲物画像が撮像された時間を示す撮像時間情報を獲物画像とともに取得してもよい。そして、獲物画像取得部161は、取得された撮像時間情報を獲物画像に対応付けて付与し、記憶部15に記憶させる(図3参照)。 The prey image acquisition unit 161 acquires the prey image captured by the imaging unit 11. Then, the prey image acquisition unit 161 stores the acquired prey image in the storage unit 15 (see FIG. 3 ). In addition, the prey image acquisition unit 161 may acquire, together with the prey image, imaging time information indicating the time at which the prey image was captured, for example, from a clock built in the terminal device 10. Then, the prey image acquisition unit 161 associates the acquired imaging time information with the prey image, and stores the information in the storage unit 15 (see FIG. 3 ).

位置情報取得部162は、端末装置10の現在地の位置情報を取得する。例えば、位置情報取得部162は、GPS受信部13から出力された信号に基づいて現在地の位置情報(例えば緯度経度)を取得する。 The position information acquisition unit 162 acquires the position information of the current location of the terminal device 10. For example, the position information acquisition unit 162 acquires position information (for example, latitude/longitude) of the current position based on the signal output from the GPS reception unit 13.

また、位置情報取得部162は、端末装置10の位置情報を定期的に取得する。例えば、位置情報取得部162は、ユーザUが狩猟を開始した地点から終了した地点に至るまで定期的に、言い換えると所定時間ごとに端末装置10の位置情報を取得する。そして、位置情報取得部162は、定期的に取得された位置情報を生成部163へ出力する。 Further, the position information acquisition unit 162 periodically acquires the position information of the terminal device 10. For example, the position information acquisition unit 162 acquires the position information of the terminal device 10 periodically from the point where the user U starts the hunting to the point where the hunting ends, in other words, every predetermined time. Then, the position information acquisition unit 162 outputs the position information acquired periodically to the generation unit 163.

なお、上記した所定時間は、任意の時間に設定可能であるが、例えば端末装置10のバッテリ消費に過度な影響を与えない時間や、後述する端末装置10の移動軌跡を生成できるような時間に設定されてもよい。また、位置情報取得部162は、端末装置10の位置情報を不定期に取得するようにしてもよい。 The above-described predetermined time can be set to an arbitrary time, but for example, a time that does not excessively affect the battery consumption of the terminal device 10 or a time when a movement locus of the terminal device 10 described later can be generated. It may be set. The position information acquisition unit 162 may acquire the position information of the terminal device 10 irregularly.

また、位置情報取得部162は、獲物画像が撮像部11によって撮像されたときに、端末装置10の位置情報を取得する。そして、位置情報取得部162は、獲物画像が撮像されたときに取得された位置情報を対応付け部165へ出力する。但し、獲物画像を撮像する場所によっては、端末装置10の位置情報を取得できない場合があることは既に述べた通りである。 Further, the position information acquisition unit 162 acquires the position information of the terminal device 10 when the prey image is captured by the image capturing unit 11. Then, the position information acquisition unit 162 outputs the position information acquired when the prey image is captured to the association unit 165. However, as described above, the position information of the terminal device 10 may not be acquired depending on the place where the prey image is captured.

生成部163は、位置情報取得部162によって取得された端末装置10の位置情報に基づいて、端末装置10の移動軌跡を生成する。例えば、生成部163は、位置情報取得部162によって定期的に取得された位置情報を、地図データ上にプロットして時系列に沿ってつなげることで、端末装置10の移動軌跡を生成する。なお、上記した地図データは、記憶部15に予め記憶されてもよいし、図示しない外部のサーバなどから取得してもよい。 The generation unit 163 generates the movement trajectory of the terminal device 10 based on the position information of the terminal device 10 acquired by the position information acquisition unit 162. For example, the generation unit 163 generates the movement locus of the terminal device 10 by plotting the position information periodically acquired by the position information acquisition unit 162 on the map data and connecting them in time series. The map data described above may be stored in advance in the storage unit 15 or may be acquired from an external server or the like (not shown).

また、上記したように、ユーザUが狩猟を開始した地点から終了した地点に至るまで定期的に端末装置10の位置情報が取得されることから、生成部163は、狩猟の開始から終了までの端末装置10の移動軌跡、言い換えると、端末装置10を利用するユーザUの移動軌跡を生成することができる。 Further, as described above, since the position information of the terminal device 10 is periodically acquired from the point where the user U starts the hunting to the point where the hunting ends, the generation unit 163 determines that the hunting starts and ends. It is possible to generate the movement trajectory of the terminal device 10, in other words, the movement trajectory of the user U who uses the terminal device 10.

表示制御部164は、生成部163によって生成された移動軌跡を、端末装置10の入出力部14の画面に表示させる。これについては図4A等を参照して後述する。 The display control unit 164 displays the movement trajectory generated by the generation unit 163 on the screen of the input/output unit 14 of the terminal device 10. This will be described later with reference to FIG. 4A and the like.

対応付け部165は、獲物画像取得部161によって取得された獲物画像に対し、獲物画像の撮像位置情報を対応付ける。具体的には、対応付け部165は、獲物画像が撮像されるときに端末装置10の位置情報が取得されたか否かによって実行する処理が異なる。 The associating unit 165 associates the prey image acquired by the prey image acquisition unit 161 with the imaging position information of the prey image. Specifically, the associating unit 165 performs different processes depending on whether or not the position information of the terminal device 10 is acquired when the prey image is captured.

例えば、対応付け部165は、獲物画像が撮像されるときに位置情報取得部162によって端末装置10の位置情報が取得された場合、かかる位置情報を撮像位置情報として獲物画像に対応付ける。詳しくは、対応付け部165は、撮像時の端末装置10の位置情報を撮像位置情報として、記憶部15に記憶された獲物画像に対応付けて付与する。 For example, when the position information acquisition unit 162 acquires the position information of the terminal device 10 when the prey image is captured, the association unit 165 associates the position information with the prey image as imaging position information. Specifically, the associating unit 165 assigns the position information of the terminal device 10 at the time of image capturing as image capturing position information in association with the prey image stored in the storage unit 15.

一方、対応付け部165は、獲物画像が撮像されるときに位置情報取得部162によって端末装置10の位置情報が取得されなかった場合、上記した移動軌跡に基づいて推定される獲物画像の撮像位置情報を獲物画像に対応付ける。なお、撮像位置情報の推定は、ユーザUによって行われてもよいし、対応付け部165によって行われてもよいが、以下では先ずユーザUによって行われる場合について説明する。 On the other hand, when the position information acquisition unit 162 does not acquire the position information of the terminal device 10 when the prey image is captured, the associating unit 165 estimates the capture position of the prey image that is estimated based on the above-described movement trajectory. Map information to prey images. It should be noted that the estimation of the imaging position information may be performed by the user U or may be performed by the associating unit 165, but hereinafter, the case where the user U performs the estimation will be described.

ここで、図4A,4Bを用いて、前述の生成部163、表示制御部164および対応付け部165による処理について説明する。図4A,4Bは、実施形態に係る端末装置10の入出力部14に表示される画面の一例を示す図である。 Here, the processing performed by the generation unit 163, the display control unit 164, and the association unit 165 described above will be described with reference to FIGS. 4A and 4B. 4A and 4B are diagrams illustrating an example of a screen displayed on the input/output unit 14 of the terminal device 10 according to the embodiment.

図4Aに示すように、対応付け部165は、獲物画像の撮像時に端末装置10の位置情報が取得されなかった場合、生成部163や表示制御部164を介して、撮像位置情報入力画面を端末装置10に表示させる。 As illustrated in FIG. 4A, when the position information of the terminal device 10 is not acquired when the prey image is captured, the associating unit 165 displays the image capturing position information input screen via the generation unit 163 and the display control unit 164. Display on the device 10.

例えば、生成部163は、ユーザUが狩猟を開始した地点Aから終了した地点Bに至るまでの端末装置10の移動軌跡Cを生成する。そして、表示制御部164は、生成された移動軌跡を端末装置10の入出力部14の画面(ここでは撮像位置情報入力画面)に表示させる。 For example, the generation unit 163 generates the movement trajectory C of the terminal device 10 from the point A at which the user U starts hunting to the point B at which the hunting ends. Then, the display control unit 164 displays the generated movement trajectory on the screen of the input/output unit 14 of the terminal device 10 (here, the imaging position information input screen).

なお、表示制御部164は、例えば、入出力部14の画面に「獲物を撮像した位置をタッチ入力してください」など、ユーザUに対し、撮像した位置を移動軌跡Cに基づいて推定して入力することを促すメッセージを表示させてもよい。また、表示制御部164は、例えば獲物画像を画面に表示させてもよい。 Note that the display control unit 164 estimates the imaged position for the user U based on the movement trajectory C, such as “Please touch-input the imaged position of the prey” on the screen of the input/output unit 14. A message prompting for input may be displayed. Further, the display control unit 164 may display a prey image on the screen, for example.

このように、本実施形態にあっては、生成された移動軌跡を端末装置10の画面に表示させるようにしたことから、例えばユーザUは、移動軌跡を見ながら容易に獲物画像の撮像位置を推定することが可能となる。 As described above, in the present embodiment, since the generated movement locus is displayed on the screen of the terminal device 10, for example, the user U can easily determine the image capturing position of the prey image while watching the movement locus. It is possible to estimate.

そして、表示制御部164は、例えばユーザUによって移動軌跡Cの一部がタッチ操作されるなどして、推定された撮像位置情報が入出力部14を介して入力されると、図4Bに示すように、タッチ操作された位置を撮像位置Dとして表示させることができる。これにより、撮像位置情報の入力を受け付けたことをユーザUに対して通知することができる。 Then, the display control unit 164, when the estimated imaging position information is input via the input/output unit 14 by, for example, touching a part of the movement trajectory C by the user U, the display control unit 164 is illustrated in FIG. 4B. As described above, the touched position can be displayed as the imaging position D. This allows the user U to be notified that the input of the imaging position information has been accepted.

図2の説明に戻ると、対応付け部165は、上記のようにしてユーザUによって推定される撮像位置情報を、獲物画像に対応付ける。詳しくは、対応付け部165は、推定される撮像位置情報を、記憶部15に記憶された獲物画像に対応付けて付与する(図3参照)。 Returning to the description of FIG. 2, the associating unit 165 associates the imaging position information estimated by the user U as described above with the prey image. Specifically, the associating unit 165 associates the estimated imaging position information with the prey image stored in the storage unit 15 (see FIG. 3).

このように、本実施形態にあっては、端末装置10の移動軌跡を生成し、移動軌跡に基づいて推定される獲物画像の撮像位置情報を獲物画像に対応付けるようにした。これにより、端末装置10の位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を対応付けて付与することができる。 As described above, in the present embodiment, the movement trajectory of the terminal device 10 is generated, and the imaging position information of the prey image estimated based on the movement trajectory is associated with the prey image. As a result, even if the prey image is captured at a location where the position information of the terminal device 10 cannot be acquired, the captured position information of the prey image can be associated and added.

また、上記したように、対応付け部165は、撮像時に端末装置10の位置情報が取得された場合、かかる位置情報を撮像位置情報として獲物画像に対応付ける一方、端末装置10の位置情報が取得されなかった場合、推定される撮像位置情報を獲物画像に対応付けるようにした。これにより、撮像時に端末装置10の位置情報が取得されたか否かにかかわらず、撮像位置情報を獲物画像に対応付けて付与することが可能になる。 Further, as described above, when the position information of the terminal device 10 is acquired at the time of image capturing, the associating unit 165 associates the position information with the prey image as the image capturing position information, while the position information of the terminal device 10 is acquired. If not, the estimated imaging position information is associated with the prey image. As a result, regardless of whether or not the position information of the terminal device 10 was acquired at the time of image capturing, the image capturing position information can be provided in association with the prey image.

なお、上記では、移動軌跡に基づいて推定される撮像位置情報を獲物画像に対応付ける処理を、撮像時に端末装置10の位置情報が取得されなかった場合に行うようにしたが、これに限られず、例えば撮像時に端末装置10の位置情報が取得された場合にも行うようにしてもよい。 In the above, the process of associating the imaging position information estimated based on the movement trajectory with the prey image is performed when the position information of the terminal device 10 is not acquired at the time of imaging, but is not limited to this. For example, it may be performed even when the position information of the terminal device 10 is acquired at the time of imaging.

また、上記では、ユーザUによって行われていた撮像位置情報の推定を、対応付け部165が行うようにしてもよい。例えば、対応付け部165は、獲物画像取得部161によって取得された撮像時間情報と、移動軌跡とに基づいて撮像位置情報を推定してもよい。 Further, in the above, the associating unit 165 may estimate the imaging position information performed by the user U. For example, the association unit 165 may estimate the imaging position information based on the imaging time information acquired by the prey image acquisition unit 161 and the movement trajectory.

具体的には、対応付け部165は、例えば定期的に取得され、移動軌跡上にある複数の端末装置10の位置情報のうち、獲物画像の撮像時間に最も近い時間に取得された位置情報を、撮像位置情報として推定することができる。 Specifically, the associating unit 165, for example, periodically acquires the position information acquired at the time closest to the image capturing time of the prey image among the position information of the plurality of terminal devices 10 on the movement trajectory. , And can be estimated as imaging position information.

また、上記に限られず、例えば、対応付け部165は、移動軌跡上にある複数の端末装置10の位置情報のうち、撮像時間の前後に取得された2つの位置情報を抽出し、抽出された2つの位置情報の間の位置(例えば移動軌跡上の中間点)を撮像位置情報として推定してもよい。 Further, without being limited to the above, for example, the associating unit 165 extracts and extracts two pieces of position information acquired before and after the imaging time from the position information of the plurality of terminal devices 10 on the movement trajectory. A position between two pieces of position information (for example, an intermediate point on the movement locus) may be estimated as the imaging position information.

また、例えば、対応付け部165は、抽出された2つの位置情報と、2つの位置情報が取得された取得時間の情報とに基づいて、端末装置10の移動速度を算出し、移動速度と撮像時間とから得られる、2つの位置情報の間の位置を、撮像位置情報として推定してもよい。なお、上記した撮像時間情報と移動軌跡とに基づいた撮像位置情報の推定手法は、あくまでも例示であって限定されるものではない。 In addition, for example, the associating unit 165 calculates the moving speed of the terminal device 10 based on the extracted two pieces of position information and the information of the acquisition time when the two pieces of position information are acquired, and the moving speed and the image pickup. A position between two pieces of position information obtained from time may be estimated as the imaging position information. It should be noted that the method for estimating the imaging position information based on the imaging time information and the movement trajectory described above is merely an example and is not limited.

そして、対応付け部165は、撮像時間情報と移動軌跡とに基づいて推定された撮像位置情報を獲物画像に対応付ける。このように、撮像位置情報の推定を端末装置10側で行うようにすることで、ユーザUによる撮像位置情報の入力操作を不要にすることが可能となり、よってユーザUが獲物画像等を提出する際の作業負担を軽減することができる。 Then, the associating unit 165 associates the image capturing position information estimated based on the image capturing time information and the movement trajectory with the prey image. As described above, by estimating the imaging position information on the terminal device 10 side, it is possible to eliminate the need for the user U to input the imaging position information, and thus the user U submits the prey image and the like. The work load at the time can be reduced.

また、対応付け部165は、撮像位置情報が推定された情報であるか否かを識別する識別情報(図3参照)を獲物画像に対応付けるようにしてもよい。これにより、獲物画像に対し、撮像位置情報の精度に関する情報を関連付けることが可能になる。 Further, the associating unit 165 may associate identification information (see FIG. 3) for identifying whether or not the imaging position information is estimated information with the prey image. This makes it possible to associate information about the accuracy of the imaging position information with the prey image.

詳しく説明すると、獲物画像に対応付けられる撮像位置情報には、推定された情報の場合と、推定された情報ではない場合、すなわちGPSから直接取得された端末装置10の位置情報である場合とがある。ここで、撮像位置情報の精度(言い換えると正確性)の点では、GPSから直接取得された位置情報の方が、推定された情報より高いことが多い。このように、識別情報は、撮像位置情報の精度の指標として機能する。 More specifically, the imaging position information associated with the prey image may be estimated information or non-estimated information, that is, the positional information of the terminal device 10 directly acquired from GPS. is there. Here, in terms of accuracy (in other words, accuracy) of the imaging position information, the position information obtained directly from the GPS is often higher than the estimated information. In this way, the identification information functions as an index of the accuracy of the imaging position information.

従って、対応付け部165が識別情報を獲物画像に対応付けることで、獲物画像に対し、撮像位置情報の精度に関する情報を関連付けることが可能になる。そして、例えば、獲物画像や識別情報を含む画像情報151が、報奨金の申請の際に証拠として提出される場合、上記した識別情報を、報奨金の支給を許可するか否かの判定材料の一つとして利用することも可能になる。 Therefore, the associating unit 165 associates the identification information with the prey image, so that the prey image can be associated with the information regarding the accuracy of the imaging position information. Then, for example, when the image information 151 including the prey image and the identification information is submitted as evidence at the time of the application for the bounty, the identification information described above is used as a material for determining whether to allow the bounty payment. It can be used as one.

図2の説明を続ける。修正部166は、対応付け部165によって獲物画像に対応付けられた撮像位置情報を、ユーザUの操作に応じて修正することができる。 The description of FIG. 2 will be continued. The correction unit 166 can correct the imaging position information associated with the prey image by the association unit 165 according to the operation of the user U.

具体的に説明すると、例えば、上記のように対応付け部165によって推定された撮像位置情報は、端末装置10の位置情報の取得状況などによっては、ユーザUが認識している撮像位置に対してずれが生じる場合がある。 More specifically, for example, the imaging position information estimated by the associating unit 165 as described above may be compared with the imaging position recognized by the user U depending on the acquisition status of the position information of the terminal device 10. Misalignment may occur.

そこで、本実施形態にあっては、対応付け部165によって推定された撮像位置情報をユーザUが確認できようにし、撮像位置情報がユーザUの認識している撮像位置とずれている場合、撮像位置情報を修正できるようにした。 Therefore, in the present embodiment, when the user U can confirm the imaging position information estimated by the associating unit 165, and the imaging position information is deviated from the imaging position recognized by the user U, the imaging is performed. The position information can be modified.

図5は、実施形態に係る端末装置10の入出力部14に表示される画面の一例を示す図である。図5に示すように、表示制御部164は、撮像位置情報確認画面を端末装置10に表示させる。 FIG. 5 is a diagram showing an example of a screen displayed on the input/output unit 14 of the terminal device 10 according to the embodiment. As illustrated in FIG. 5, the display control unit 164 causes the terminal device 10 to display the imaging position information confirmation screen.

例えば、撮像位置情報確認画面には、対応付け部165によって推定された撮像位置情報(撮像位置D)や移動軌跡Cなどが表示されるとともに、撮像位置情報を確定する確定ボタン14a、および、撮像位置情報を修正する修正ボタン14bが表示される。 For example, on the image pickup position information confirmation screen, the image pickup position information (image pickup position D) estimated by the associating unit 165, the movement trajectory C, and the like are displayed, and the confirm button 14a for confirming the image pickup position information, and the image pickup A correction button 14b for correcting the position information is displayed.

撮像位置情報等がユーザUによって確認され、確定ボタン14aが押下されると、獲物画像に対応付けられた撮像位置情報が確定する。 When the user U confirms the image capturing position information and the like and presses the confirm button 14a, the image capturing position information associated with the prey image is confirmed.

他方、修正ボタン14bが押下されると、例えば、修正部166は、表示制御部164を介して、撮像位置情報入力画面(図4A参照)を端末装置10に表示させる。そして、例えば、修正部166は、獲物画像に対応付けられていた撮像位置情報を、撮像位置情報入力画面の移動軌跡C上で、ユーザUによってタッチ操作された位置に修正する。 On the other hand, when the modification button 14b is pressed, for example, the modification unit 166 causes the terminal device 10 to display the imaging position information input screen (see FIG. 4A) via the display control unit 164. Then, for example, the correction unit 166 corrects the imaging position information associated with the prey image to the position touched by the user U on the movement trajectory C of the imaging position information input screen.

これにより、本実施形態にあっては、例えば、対応付け部165によって推定された撮像位置情報を、ユーザUの操作に応じて、ユーザUの認識している撮像位置に修正(編集)することができ、結果として撮像位置情報の精度を向上させることができる。 Thereby, in the present embodiment, for example, the image pickup position information estimated by the associating unit 165 is corrected (edited) to the image pickup position recognized by the user U according to the operation of the user U. As a result, the accuracy of the imaging position information can be improved.

送信部167は、上記した獲物画像や撮像位置情報を含む画像情報151を読み出し、画像情報151をサーバ20へ送信する。 The transmission unit 167 reads out the image information 151 including the above-mentioned prey image and the imaging position information, and transmits the image information 151 to the server 20.

図6は、実施形態に係るサーバ20の構成例を示すブロック図である。サーバ20は、単体の処理装置である必要はなく、クラウドシステム等の複数の処理装置が協調して動作することで実現されてもよい。図6に示すように、サーバ20は、通信部21、記憶部22および制御部23を有する。 FIG. 6 is a block diagram showing a configuration example of the server 20 according to the embodiment. The server 20 does not have to be a single processing device, and may be realized by a plurality of processing devices such as a cloud system operating in cooperation. As shown in FIG. 6, the server 20 has a communication unit 21, a storage unit 22, and a control unit 23.

通信部21は、無線通信処理や有線通信処理を行うためのネットワークデバイスである。例えば、通信部21は、ネットワーク2を介して端末装置10との間で各種情報を送受信する。 The communication unit 21 is a network device for performing wireless communication processing and wired communication processing. For example, the communication unit 21 transmits and receives various information to and from the terminal device 10 via the network 2.

記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部22は、サーバ20で実行される各処理で利用されるデータを記憶する。記憶部22は、捕獲情報221を記憶する。 The storage unit 22 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 22 according to the embodiment stores data used in each process executed by the server 20. The storage unit 22 stores the capture information 221.

捕獲情報221は、端末装置10によって送信された画像情報151に、ユーザUを識別するユーザIDを対応付けた情報である。なお、ユーザIDは、画像情報151とともに送信されるものであってもよい。 The capture information 221 is information in which the user ID for identifying the user U is associated with the image information 151 transmitted by the terminal device 10. The user ID may be transmitted together with the image information 151.

図7は、実施形態に係る捕獲情報221の一例を示す図である。図7に示すように、捕獲情報221には、ユーザID、獲物画像、撮像時間情報、撮像位置情報および識別情報が含まれる。 FIG. 7 is a diagram showing an example of the capture information 221 according to the embodiment. As shown in FIG. 7, the capture information 221 includes a user ID, a prey image, imaging time information, imaging position information, and identification information.

例えば、図7の捕獲情報221の1行目は、ユーザ「U001」が獲物画像を、時間「2019/1/20 15:10」に、位置「34°26'27.0"N 167°39'10.1"E」で撮像したことを示し、かかる撮像位置情報は推定された情報であることを示している。 For example, in the first line of the capture information 221 in FIG. 7, the user “U001” displays the prey image at the time “2019/1/20 15:10” at the position “34°26′27.0”N 167°39′10.1. "E" indicates that the image is captured, and the image capturing position information is estimated information.

図6の説明に戻ると、制御部23は、各種の処理手順等を規定したプログラム及び所要データを格納するための内部メモリやCPUを有し、これらによって種々の処理を実行するマイクロコンピュータを含む。制御部23は、受信部231、認証部232、格納部233及び送信部234を有する。 Returning to the description of FIG. 6, the control unit 23 has an internal memory and a CPU for storing programs that define various processing procedures and the like and required data, and includes a microcomputer that executes various processing by these. .. The control unit 23 includes a reception unit 231, an authentication unit 232, a storage unit 233, and a transmission unit 234.

受信部231は、端末装置10によって送信された画像情報151を受信する。また、認証部232はユーザUを認証する。例えば、認証部232はユーザIDおよびパスワードを使って認証を行う。また、ユーザIDおよびパスワードは、画像情報151とともに送信されるものであってもよい。 The receiving unit 231 receives the image information 151 transmitted by the terminal device 10. The authentication unit 232 also authenticates the user U. For example, the authentication unit 232 authenticates using the user ID and password. Further, the user ID and password may be transmitted together with the image information 151.

格納部233は、受信部231によって受信された画像情報151を記憶部22に捕獲情報221として格納する。詳しくは、格納部233は、端末装置10の対応付け部165によって対応付けられた獲物画像と撮像位置情報とを含む画像情報151の全部または一部を、記憶部22に捕獲情報221として格納する。 The storage unit 233 stores the image information 151 received by the receiving unit 231 in the storage unit 22 as capture information 221. Specifically, the storage unit 233 stores all or part of the image information 151 including the prey image and the imaging position information associated by the association unit 165 of the terminal device 10 in the storage unit 22 as the capture information 221. ..

送信部234は、例えば、認証済みのユーザUの要求に応じて、捕獲情報221を送信する。また、送信部234は、図示しない自治体の端末装置からの要求に応じて、捕獲情報221を送信してもよい。 The transmission unit 234 transmits the capture information 221 in response to a request from the authenticated user U, for example. Further, the transmission unit 234 may transmit the capture information 221 in response to a request from a terminal device of a local government (not shown).

[処理手順]
次に、図8を用いて、端末装置10の処理の流れについて説明する。図8は、実施形態に係る端末装置10の獲物画像に撮像位置情報を対応付ける処理の手順を示すフローチャートである。
[Processing procedure]
Next, a processing flow of the terminal device 10 will be described with reference to FIG. FIG. 8 is a flowchart illustrating a procedure of a process of associating the image capturing position information with the prey image of the terminal device 10 according to the embodiment.

図8に示すように、端末装置10は、例えば所定のアプリケーションの起動により、端末装置10の位置情報を定期的に取得する(ステップS101)。次いで、端末装置10は、取得された位置情報に基づいて、端末装置10の移動軌跡を生成する(ステップS102)。 As illustrated in FIG. 8, the terminal device 10 periodically acquires the position information of the terminal device 10 by, for example, starting a predetermined application (step S101). Next, the terminal device 10 generates a movement trajectory of the terminal device 10 based on the acquired position information (step S102).

次いで、端末装置10は、撮像部11によって撮像された獲物画像を取得する(ステップS103)。そして、端末装置10は、獲物画像が撮像されるときに、端末装置10の位置情報が取得されたか否かを判定する(ステップS104)。 Next, the terminal device 10 acquires the prey image captured by the image capturing unit 11 (step S103). Then, the terminal device 10 determines whether the position information of the terminal device 10 has been acquired when the prey image is captured (step S104).

端末装置10は、獲物画像が撮像されるときに端末装置10の位置情報が取得されていないと判定された場合(ステップS104,No)、移動軌跡に基づいて撮像位置情報の推定がなされる(ステップS105)。次いで、端末装置10は、移動軌跡に基づいて推定される撮像位置情報を獲物画像に対応付ける(ステップS106)。 When the terminal device 10 determines that the position information of the terminal device 10 has not been acquired when the prey image is captured (step S104, No), the imaging position information is estimated based on the movement locus ( Step S105). Next, the terminal device 10 associates the imaging position information estimated based on the movement trajectory with the prey image (step S106).

一方、端末装置10は、獲物画像が撮像されるときに端末装置10の位置情報が取得されていると判定された場合(ステップS104,Yes)、かかる位置情報を撮像位置情報として獲物画像に対応付ける(ステップS107)。 On the other hand, when it is determined that the position information of the terminal device 10 has been acquired when the prey image is captured (Yes in step S104), the terminal device 10 associates the position information with the prey image as the imaging position information. (Step S107).

このように、実施形態に係る端末装置(情報処理装置の一例)10は、獲物画像取得部161と、位置情報取得部162と、生成部163と、対応付け部165とを具備する。獲物画像取得部161は、捕獲した動物を撮像した獲物画像を取得する。位置情報取得部162は、端末装置の位置情報を取得する。生成部163は、位置情報取得部162によって取得された位置情報に基づいて、端末装置10の移動軌跡を生成する。対応付け部165は、獲物画像取得部161によって取得された獲物画像に対し、移動軌跡に基づいて推定される獲物画像の撮像位置情報を対応付ける。これにより、端末装置10の位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を獲物画像に対応付けて付与することができる。 As described above, the terminal device (an example of the information processing device) 10 according to the embodiment includes the prey image acquisition unit 161, the position information acquisition unit 162, the generation unit 163, and the association unit 165. The prey image acquisition part 161 acquires the prey image which imaged the captured animal. The position information acquisition unit 162 acquires the position information of the terminal device. The generation unit 163 generates the movement trajectory of the terminal device 10 based on the position information acquired by the position information acquisition unit 162. The associating unit 165 associates the prey image acquired by the prey image acquiring unit 161 with the imaging position information of the prey image estimated based on the movement trajectory. Accordingly, even if the prey image is captured at a location where the position information of the terminal device 10 cannot be acquired, the captured position information of the prey image can be provided in association with the prey image.

なお、上記した実施形態では、端末装置10が情報処理装置の一例である場合について説明したが、サーバ20が情報処理装置として機能してもよい。すなわち、例えば、サーバ20は、捕獲した動物を撮像した獲物画像を端末装置10から取得する。また、サーバ20は、端末装置10の位置情報を端末装置10から取得する。サーバ20は、端末装置10から取得された位置情報に基づいて、端末装置10の移動軌跡を生成する。そして、サーバ20は、端末装置10から取得された獲物画像に対し、移動軌跡に基づいて推定される獲物画像の撮像位置情報を対応付けるようにしてもよい。 In the above-described embodiment, the case where the terminal device 10 is an example of the information processing device has been described, but the server 20 may function as the information processing device. That is, for example, the server 20 acquires a prey image obtained by capturing the captured animal from the terminal device 10. The server 20 also acquires the position information of the terminal device 10 from the terminal device 10. The server 20 generates the movement trajectory of the terminal device 10 based on the position information acquired from the terminal device 10. Then, the server 20 may associate the prey image acquired from the terminal device 10 with the imaging position information of the prey image estimated based on the movement trajectory.

また、上記では、修正部166による撮像位置情報の修正は、ユーザUの操作に応じて行われるようしたが、例えば、修正可能なユーザが限定されるようにしてもよい。すなわち、撮像位置情報を修正可能なユーザが、例えば端末装置10によって獲物画像を撮像したユーザ、獲物画像を撮像したか否かにかかわらず端末装置10を操作するユーザ、サーバ20を管理するユーザ(オペレータ)などに予め設定されるようにしてもよい。 Further, in the above description, the correction of the imaging position information by the correction unit 166 is performed according to the operation of the user U, but, for example, the users who can be corrected may be limited. That is, a user who can correct the imaging position information is, for example, a user who has captured a prey image with the terminal device 10, a user who operates the terminal device 10 regardless of whether or not the prey image has been captured, a user who manages the server 20 ( It may be set in advance to an operator or the like.

本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although the embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof, as well as included in the scope and spirit of the invention.

1 情報処理システム
10 端末装置
20 サーバ
161 獲物画像取得部
162 位置情報取得部
163 生成部
164 表示制御部
165 対応付け部
166 修正部
233 格納部
DESCRIPTION OF SYMBOLS 1 Information processing system 10 Terminal device 20 Server 161 Prey image acquisition part 162 Position information acquisition part 163 Generation part 164 Display control part 165 Correspondence part 166 Correction part 233 Storage part

Claims (8)

捕獲した動物を撮像した獲物画像を取得する獲物画像取得部と;
端末装置の位置情報を取得する位置情報取得部と;
前記位置情報取得部によって取得された前記位置情報に基づいて、前記端末装置の移動軌跡を生成する生成部と;
前記獲物画像取得部によって取得された前記獲物画像に対し、前記移動軌跡に基づいて推定される前記獲物画像の撮像位置情報を対応付ける対応付け部と;
を具備する情報処理装置。
A prey image acquisition unit that acquires a prey image capturing the captured animal;
A position information acquisition unit for acquiring position information of the terminal device;
A generation unit that generates a movement trajectory of the terminal device based on the position information acquired by the position information acquisition unit;
An associating unit that associates the prey image acquired by the prey image acquisition unit with imaging position information of the prey image estimated based on the movement trajectory;
An information processing device comprising:
前記生成部によって生成された前記移動軌跡を前記端末装置の画面に表示させる表示制御部;
をさらに具備する請求項1に記載の情報処理装置。
A display control unit for displaying the movement locus generated by the generation unit on the screen of the terminal device;
The information processing apparatus according to claim 1, further comprising:
前記対応付け部は、
前記獲物画像が撮像されるときに前記位置情報取得部によって前記端末装置の位置情報が取得された場合、当該位置情報を前記撮像位置情報として前記獲物画像に対応付ける一方、前記獲物画像が撮像されるときに前記位置情報取得部によって前記端末装置の位置情報が取得されなかった場合、前記移動軌跡に基づいて推定される前記撮像位置情報を前記獲物画像に対応付ける
請求項1または2に記載の情報処理装置。
The associating unit,
When position information of the terminal device is acquired by the position information acquisition unit when the prey image is captured, the position information is associated with the prey image as the imaging position information while the prey image is captured. The information processing according to claim 1 or 2, wherein when the position information acquisition unit does not acquire the position information of the terminal device, the imaging position information estimated based on the movement trajectory is associated with the prey image. apparatus.
前記獲物画像取得部は、
前記獲物画像が撮像された時間を示す撮像時間情報を前記獲物画像とともに取得し、
前記対応付け部は、
前記獲物画像取得部によって取得された前記撮像時間情報と、前記移動軌跡とに基づいて前記撮像位置情報を推定し、推定された前記撮像位置情報を前記獲物画像に対応付ける
請求項1〜3のいずれか1つに記載の情報処理装置。
The prey image acquisition unit,
Acquiring imaging time information indicating the time when the prey image was captured together with the prey image,
The associating unit,
The imaging position information is estimated based on the imaging time information acquired by the prey image acquisition unit and the movement trajectory, and the estimated imaging position information is associated with the prey image. The information processing device according to one.
前記対応付け部によって前記獲物画像に対応付けられた前記撮像位置情報を、ユーザの操作に応じて修正する修正部;
をさらに具備する請求項1〜4のいずれか1つに記載の情報処理装置。
A correction unit that corrects the imaging position information associated with the prey image by the association unit according to a user operation;
The information processing apparatus according to claim 1, further comprising:
前記対応付け部は、
前記撮像位置情報が推定された情報であるか否かを識別する識別情報を前記獲物画像に対応付ける
請求項1〜5のいずれか1つに記載の情報処理装置。
The associating unit,
The information processing apparatus according to claim 1, wherein identification information that identifies whether or not the imaging position information is estimated information is associated with the prey image.
捕獲した動物を撮像した獲物画像を取得する獲物画像取得手順と;
端末装置の位置情報を取得する位置情報取得手順と;
前記位置情報取得手順によって取得された前記位置情報に基づいて、前記端末装置の移動軌跡を生成する生成手順と;
前記獲物画像取得手順によって取得された前記獲物画像に対し、前記移動軌跡に基づいて推定される前記獲物画像の撮像位置情報を対応付ける対応付け手順と;
をコンピュータに実行させる端末プログラム。
A prey image acquisition procedure for acquiring a prey image capturing the captured animal;
A position information acquisition procedure for acquiring the position information of the terminal device;
A generation procedure for generating a movement track of the terminal device based on the position information acquired by the position information acquisition procedure;
An associating procedure for associating the prey image acquired by the prey image acquisition procedure with imaging position information of the prey image estimated based on the movement trajectory;
A terminal program that causes a computer to execute.
捕獲した動物を撮像した獲物画像を取得する獲物画像取得部と;
端末装置の位置情報を取得する位置情報取得部と;
前記位置情報取得部によって取得された前記位置情報に基づいて、前記端末装置の移動軌跡を生成する生成部と;
前記獲物画像取得部によって取得された前記獲物画像に対し、前記移動軌跡に基づいて推定される前記獲物画像の撮像位置情報を対応付ける対応付け部と;
前記対応付け部によって対応付けられた前記獲物画像と前記撮像位置情報とを記憶部に格納する格納部と;
を具備する情報処理システム。
A prey image acquisition unit that acquires a prey image capturing the captured animal;
A position information acquisition unit for acquiring position information of the terminal device;
A generation unit that generates a movement trajectory of the terminal device based on the position information acquired by the position information acquisition unit;
An associating unit that associates the prey image acquired by the prey image acquisition unit with imaging position information of the prey image estimated based on the movement trajectory;
A storage unit that stores the prey image and the imaging position information associated by the association unit in a storage unit;
An information processing system including:
JP2019009358A 2019-01-23 2019-01-23 Information processing device, terminal program, and information processing system Pending JP2020119211A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019009358A JP2020119211A (en) 2019-01-23 2019-01-23 Information processing device, terminal program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019009358A JP2020119211A (en) 2019-01-23 2019-01-23 Information processing device, terminal program, and information processing system

Publications (1)

Publication Number Publication Date
JP2020119211A true JP2020119211A (en) 2020-08-06

Family

ID=71892066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019009358A Pending JP2020119211A (en) 2019-01-23 2019-01-23 Information processing device, terminal program, and information processing system

Country Status (1)

Country Link
JP (1) JP2020119211A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114615422A (en) * 2022-01-18 2022-06-10 深圳市恒天伟焱科技股份有限公司 Prey identification method, prey identification device, electronic equipment and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114615422A (en) * 2022-01-18 2022-06-10 深圳市恒天伟焱科技股份有限公司 Prey identification method, prey identification device, electronic equipment and storage medium
CN114615422B (en) * 2022-01-18 2023-07-11 深圳市恒天伟焱科技股份有限公司 Method and device for identifying prey, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
KR101899351B1 (en) Method and apparatus for performing video communication in a mobile terminal
CN110834327A (en) Robot control method and device
KR20160023628A (en) Method and device for verification using verification code
US9948819B2 (en) Information processing system, information processing apparatus, and data process control method
US11409857B2 (en) Recording medium, information processing method, information processing apparatus, and information processing terminal
US11522852B2 (en) Display system, display method, and recording medium
JP2017054507A (en) Information providing system and method for providing location information using image on communication session
US10440221B2 (en) Location tracking system for networked print devices in an environment
US10104091B2 (en) Authenticating apparatus, authenticating system and storage medium
US10028088B2 (en) Method for providing on-demand digital representations to mobile devices in other geographic locations
WO2016008364A1 (en) Star orbit shooting method, and object movement track shooting method, device and storage medium
US10305999B2 (en) Information processing system, terminal apparatus, and program for improving accuracy of read receipt statuses
JP2020119211A (en) Information processing device, terminal program, and information processing system
JP6504896B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND IMAGE TRANSFER SYSTEM
JP2021117822A (en) Information processing device, method, and program
KR20140135320A (en) System and method for photo sharing by face recognition
CN114240293B (en) Abnormal processing method, device and electronic equipment for logistics distribution
CN111147745B (en) Shooting method, shooting device, electronic equipment and storage medium
JP2010231450A (en) Imaging data authentication device, imaging data authentication system, imaging data authentication method and program
JP2020013419A (en) Information processing method, information processing device, and program
JP2013143750A (en) Image processing device, image processing method, and program
JP2016038682A (en) Information processing apparatus and control method thereof, server apparatus and control method thereof, and computer program
CN109640247B (en) Method, device, terminal, server and system for determining position information
US20250046119A1 (en) Method and system for managing watching service
JP2019114016A (en) Support system