JP2020119211A - Information processing device, terminal program, and information processing system - Google Patents
Information processing device, terminal program, and information processing system Download PDFInfo
- Publication number
- JP2020119211A JP2020119211A JP2019009358A JP2019009358A JP2020119211A JP 2020119211 A JP2020119211 A JP 2020119211A JP 2019009358 A JP2019009358 A JP 2019009358A JP 2019009358 A JP2019009358 A JP 2019009358A JP 2020119211 A JP2020119211 A JP 2020119211A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- unit
- prey
- image
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Catching Or Destruction (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明の実施形態は、情報処理装置、端末プログラムおよび情報処理システムに関する。 Embodiments of the present invention relate to an information processing device, a terminal program, and an information processing system.
農作物に被害を及ぼすイノシシやシカ等の害獣を捕獲した場合、害獣を捕獲したことを示す証拠を自治体等へ提出することで報奨金を得る制度がある。従来、かかる証拠の提出方法として、例えば捕獲した動物を撮像した獲物画像を提出する方法がある。 There is a system to obtain bounties by submitting evidence showing that the harmful beasts have been captured to local governments, etc., if the harmful insects such as wild boars and deer that damage crops are captured. Conventionally, as a method of submitting such evidence, for example, there is a method of submitting a prey image obtained by imaging a captured animal.
ところで、上記した獲物画像には、獲物画像を撮像した位置を示す撮像位置情報が対応付けられて付与される。具体的には、例えば獲物画像が端末装置で撮像される場合、端末装置は、GPS(Global Positioning System)などの測位システムを利用して端末装置の位置情報を取得し、取得された位置情報が撮像位置情報として獲物画像に付与される。 By the way, the above-mentioned prey image is provided in association with imaging position information indicating the position where the prey image is captured. Specifically, for example, when a prey image is captured by the terminal device, the terminal device acquires the position information of the terminal device using a positioning system such as GPS (Global Positioning System), and the acquired position information is It is added to the prey image as imaging position information.
しかしながら、獲物画像を撮像する場所によっては、GPSの衛星からの信号を受信できずに位置情報を取得できない場合があり、かかる場合、獲物画像に撮像位置情報を付与することができないおそれがあった。 However, depending on the location where the prey image is captured, the signal from the GPS satellite may not be received and the position information may not be acquired. In such a case, there is a possibility that the capture position information may not be added to the prey image. ..
本発明が解決しようとする課題は、端末装置の位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を獲物画像に対応付けて付与することができる情報処理装置、端末プログラムおよび情報処理システムを提供することである。 The problem to be solved by the present invention is information processing in which the captured position information of a prey image can be associated with the prey image even if the prey image is captured in a location where the position information of the terminal device cannot be acquired. To provide an apparatus, a terminal program, and an information processing system.
実施形態に係る情報処理装置は、獲物画像取得部と、位置情報取得部と、生成部と、対応付け部とを具備する。獲物画像取得部は、捕獲した動物を撮像した獲物画像を取得する。位置情報取得部は、端末装置の位置情報を取得する。生成部は、前記位置情報取得部によって取得された前記位置情報に基づいて、前記端末装置の移動軌跡を生成する。対応付け部は、前記獲物画像取得部によって取得された前記獲物画像に対し、前記移動軌跡に基づいて推定される前記獲物画像の撮像位置情報を対応付ける。 The information processing apparatus according to the embodiment includes a prey image acquisition unit, a position information acquisition unit, a generation unit, and an association unit. The prey image acquisition unit acquires a prey image obtained by capturing the captured animal. The position information acquisition unit acquires the position information of the terminal device. The generation unit generates a movement track of the terminal device based on the position information acquired by the position information acquisition unit. The associating unit associates with the prey image acquired by the prey image acquisition unit, the imaging position information of the prey image estimated based on the movement trajectory.
本発明によれば、端末装置の位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を獲物画像に対応付けて付与することができる。 ADVANTAGE OF THE INVENTION According to this invention, even if it is the prey image imaged in the place where the positional information on a terminal device cannot be acquired, the imaging position information on a prey image can be provided in association with a prey image.
以下に説明する実施形態に係る端末装置(情報処理装置の一例)10は、獲物画像取得部161と、位置情報取得部162と、生成部163と、対応付け部165とを具備する。獲物画像取得部161は、捕獲した動物を撮像した獲物画像を取得する。位置情報取得部162は、端末装置の位置情報を取得する。生成部163は、位置情報取得部162によって取得された位置情報に基づいて、端末装置10の移動軌跡を生成する。対応付け部165は、獲物画像取得部161によって取得された獲物画像に対し、移動軌跡に基づいて推定される獲物画像の撮像位置情報を対応付ける。
The terminal device (an example of an information processing device) 10 according to the embodiment described below includes a prey
また、以下に説明する実施形態に係る端末装置10は、表示制御部164をさらに具備する。表示制御部164は、生成部163によって生成された移動軌跡を端末装置10の画面に表示させる。
In addition, the
また、以下に説明する実施形態に係る対応付け部165は、獲物画像が撮像されるときに位置情報取得部162によって端末装置10の位置情報が取得された場合、当該位置情報を撮像位置情報として獲物画像に対応付ける一方、獲物画像が撮像されるときに位置情報取得部162によって端末装置10の位置情報が取得されなかった場合、移動軌跡に基づいて推定される撮像位置情報を前記獲物画像に対応付ける。
Further, when the position
また、以下に説明する実施形態に係る獲物画像取得部161は、獲物画像が撮像された時間を示す撮像時間情報を獲物画像とともに取得し、対応付け部165は、獲物画像取得部161によって取得された撮像時間情報と、移動軌跡とに基づいて撮像位置情報を推定し、推定された撮像位置情報を獲物画像に対応付ける。
In addition, the prey
また、以下に説明する実施形態に係る端末装置10は、修正部166をさらに具備する。修正部166は、対応付け部165によって獲物画像に対応付けられた撮像位置情報を、ユーザUの操作に応じて修正する。
In addition, the
また、以下に説明する実施形態に係る対応付け部165は、撮像位置情報が推定された情報であるか否かを識別する識別情報を獲物画像に対応付ける。
Further, the associating
以下、図面を参照して、実施形態に係る情報処理装置、端末プログラムおよび情報処理システムについて説明する。実施形態において同一の部位には同一の符号を付し、重複する説明は省略される場合がある。 Hereinafter, an information processing apparatus, a terminal program, and an information processing system according to the embodiments will be described with reference to the drawings. In the embodiments, the same reference numerals are given to the same parts, and duplicate description may be omitted.
なお、以下では、端末装置が情報処理装置の一例である場合について説明するが、これに限定されるものではない。すなわち、例えば後述するサーバが情報処理装置として機能してもよい。 In the following, a case where the terminal device is an example of an information processing device will be described, but the present invention is not limited to this. That is, for example, a server described later may function as the information processing device.
[情報処理システムの構成例]
まず、端末プログラムを実行する端末装置を含む情報処理システムの構成を説明する。図1は、実施形態に係る情報処理システムの構成例を示す図である。情報処理システム1は、例えば、猟師等のユーザUによって捕獲された動物30の捕獲状況などを管理するためのシステムである。
[Example of configuration of information processing system]
First, the configuration of an information processing system including a terminal device that executes a terminal program will be described. FIG. 1 is a diagram illustrating a configuration example of an information processing system according to the embodiment. The information processing system 1 is, for example, a system for managing the capture status of the
図1に示すように情報処理システム1は、端末装置10と、サーバ20とを有する。また、端末装置10およびサーバ20は、ネットワーク2を介して通信可能に接続されている。なお、ネットワーク2は、例えばインターネットなどである。
As shown in FIG. 1, the information processing system 1 includes a
例えば、端末装置10は、スマートフォン、タブレットおよびデジタルカメラ等の携帯型の端末装置であり、ユーザUによって利用される。端末装置10は、カメラ機能等を用いて、捕獲した動物30の画像(以下「獲物画像」という)を撮像することができる。また、端末装置10は、GPSなどの測位システムを利用して端末装置10の位置情報を取得することができる。また、端末装置10は、獲物画像を含む画像情報151をサーバ20へ送信することができる。
For example, the
なお、端末装置10には、例えば所定のアプリケーション(端末プログラムの一例)がインストールされ、かかるアプリケーションの起動によって上記した獲物画像の撮像や位置情報の取得、画像情報151の送信などの各種処理が実行されてもよい。
In addition, for example, a predetermined application (an example of a terminal program) is installed in the
サーバ20は、端末装置10から送信された画像情報151を記憶部に格納し、動物30の捕獲状況などを管理するが、これについては後述する。
The
ところで、端末装置10は、獲物画像に対し、獲物画像を撮像した位置を示す撮像位置情報を対応付けて付与して画像情報151を生成する。例えば、端末装置10は、獲物画像を撮像したときに端末装置10の位置情報を取得し、かかる位置情報を撮像位置情報として獲物画像に対応付けるようにする。
By the way, the
しかしながら、動物30の捕獲は、例えば山奥や山間部などで行われることがあるため、獲物画像を撮像する場所によっては、GPSの衛星からの信号を受信できずに位置情報を取得できない場合がある。
However, since the
そこで、本実施形態に係る端末装置10にあっては、位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を対応付けて付与することができるような構成とした。以下、その構成について詳しく説明する。
Therefore, in the
図2は、実施形態に係る端末装置10の構成例を示すブロック図である。図2に示すように、端末装置10は、撮像部11、通信部12、GPS受信部13、入出力部14、記憶部15および制御部16を有する。
FIG. 2 is a block diagram showing a configuration example of the
撮像部11は、ユーザUが捕獲した動物30の画像、すなわち獲物画像を撮像する。撮像部11は、例えばカメラである。撮像部11が撮像する画像は静止画であるが、これに限られず、例えば動画であってもよい。
The
通信部12は、無線通信処理や有線通信処理を行うためのネットワークデバイスである。例えば、通信部12は、ネットワーク2を介してサーバ20との間で各種情報を送受信する。
The communication unit 12 is a network device for performing wireless communication processing and wired communication processing. For example, the communication unit 12 transmits/receives various information to/from the
GPS受信部13は、GPSの衛星から送出される信号(電波)を受信し、受信した信号を制御部16へ出力する。 The GPS receiving unit 13 receives a signal (radio wave) sent from a GPS satellite and outputs the received signal to the control unit 16.
入出力部14は、ユーザUからの入力を受け付けたり、ユーザUに対して各種情報を画面に表示して出力したりする装置である。例えば、入出力部14は、タッチパネルディスプレイである。
The input/
記憶部15は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部15は、端末装置10で実行される各処理で利用されるデータを記憶する。
The storage unit 15 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 15 according to the embodiment stores data used in each process executed by the
また、記憶部15は、上記した画像情報151を記憶する。図3は、実施形態に係る画像情報151の一例を示す図である。
The storage unit 15 also stores the above-described
図3に示すように、画像情報151には、獲物画像151aと、付与情報151bとが含まれる。獲物画像151aは、後述する獲物画像取得部161によって取得された獲物画像である。
As shown in FIG. 3, the
付与情報151bは、獲物画像151aに対応付けて付与された情報である。例えば、付与情報151bには、撮像時間情報、撮像位置情報、識別情報など種々の情報が含まれる。撮像時間情報は、獲物画像が撮像された時間を示す情報であり、撮像位置情報は、獲物画像が撮像された位置を示す情報である。なお、識別情報については、後述する。
The attached
図2の説明に戻ると、制御部16は、例えば、各種の処理手順等を規定したプログラム及び所要データを格納するための内部メモリやCPU(Central Processing Unit)を有し、これらによって種々の処理を実行するマイクロコンピュータを含む。制御部16は、獲物画像取得部161、位置情報取得部162、生成部163、表示制御部164、対応付け部165、修正部166および送信部167を有する。
Returning to the description of FIG. 2, the control unit 16 has, for example, an internal memory and a CPU (Central Processing Unit) for storing a program defining various processing procedures and required data, and various processing by these. It includes a microcomputer for executing. The control unit 16 includes a prey
獲物画像取得部161は、撮像部11によって撮像された獲物画像を取得する。そして、獲物画像取得部161は、取得された獲物画像を記憶部15に記憶させる(図3参照)。また、獲物画像取得部161は、例えば端末装置10に内蔵された時計から、獲物画像が撮像された時間を示す撮像時間情報を獲物画像とともに取得してもよい。そして、獲物画像取得部161は、取得された撮像時間情報を獲物画像に対応付けて付与し、記憶部15に記憶させる(図3参照)。
The prey
位置情報取得部162は、端末装置10の現在地の位置情報を取得する。例えば、位置情報取得部162は、GPS受信部13から出力された信号に基づいて現在地の位置情報(例えば緯度経度)を取得する。
The position
また、位置情報取得部162は、端末装置10の位置情報を定期的に取得する。例えば、位置情報取得部162は、ユーザUが狩猟を開始した地点から終了した地点に至るまで定期的に、言い換えると所定時間ごとに端末装置10の位置情報を取得する。そして、位置情報取得部162は、定期的に取得された位置情報を生成部163へ出力する。
Further, the position
なお、上記した所定時間は、任意の時間に設定可能であるが、例えば端末装置10のバッテリ消費に過度な影響を与えない時間や、後述する端末装置10の移動軌跡を生成できるような時間に設定されてもよい。また、位置情報取得部162は、端末装置10の位置情報を不定期に取得するようにしてもよい。
The above-described predetermined time can be set to an arbitrary time, but for example, a time that does not excessively affect the battery consumption of the
また、位置情報取得部162は、獲物画像が撮像部11によって撮像されたときに、端末装置10の位置情報を取得する。そして、位置情報取得部162は、獲物画像が撮像されたときに取得された位置情報を対応付け部165へ出力する。但し、獲物画像を撮像する場所によっては、端末装置10の位置情報を取得できない場合があることは既に述べた通りである。
Further, the position
生成部163は、位置情報取得部162によって取得された端末装置10の位置情報に基づいて、端末装置10の移動軌跡を生成する。例えば、生成部163は、位置情報取得部162によって定期的に取得された位置情報を、地図データ上にプロットして時系列に沿ってつなげることで、端末装置10の移動軌跡を生成する。なお、上記した地図データは、記憶部15に予め記憶されてもよいし、図示しない外部のサーバなどから取得してもよい。
The generation unit 163 generates the movement trajectory of the
また、上記したように、ユーザUが狩猟を開始した地点から終了した地点に至るまで定期的に端末装置10の位置情報が取得されることから、生成部163は、狩猟の開始から終了までの端末装置10の移動軌跡、言い換えると、端末装置10を利用するユーザUの移動軌跡を生成することができる。
Further, as described above, since the position information of the
表示制御部164は、生成部163によって生成された移動軌跡を、端末装置10の入出力部14の画面に表示させる。これについては図4A等を参照して後述する。
The
対応付け部165は、獲物画像取得部161によって取得された獲物画像に対し、獲物画像の撮像位置情報を対応付ける。具体的には、対応付け部165は、獲物画像が撮像されるときに端末装置10の位置情報が取得されたか否かによって実行する処理が異なる。
The associating
例えば、対応付け部165は、獲物画像が撮像されるときに位置情報取得部162によって端末装置10の位置情報が取得された場合、かかる位置情報を撮像位置情報として獲物画像に対応付ける。詳しくは、対応付け部165は、撮像時の端末装置10の位置情報を撮像位置情報として、記憶部15に記憶された獲物画像に対応付けて付与する。
For example, when the position
一方、対応付け部165は、獲物画像が撮像されるときに位置情報取得部162によって端末装置10の位置情報が取得されなかった場合、上記した移動軌跡に基づいて推定される獲物画像の撮像位置情報を獲物画像に対応付ける。なお、撮像位置情報の推定は、ユーザUによって行われてもよいし、対応付け部165によって行われてもよいが、以下では先ずユーザUによって行われる場合について説明する。
On the other hand, when the position
ここで、図4A,4Bを用いて、前述の生成部163、表示制御部164および対応付け部165による処理について説明する。図4A,4Bは、実施形態に係る端末装置10の入出力部14に表示される画面の一例を示す図である。
Here, the processing performed by the generation unit 163, the
図4Aに示すように、対応付け部165は、獲物画像の撮像時に端末装置10の位置情報が取得されなかった場合、生成部163や表示制御部164を介して、撮像位置情報入力画面を端末装置10に表示させる。
As illustrated in FIG. 4A, when the position information of the
例えば、生成部163は、ユーザUが狩猟を開始した地点Aから終了した地点Bに至るまでの端末装置10の移動軌跡Cを生成する。そして、表示制御部164は、生成された移動軌跡を端末装置10の入出力部14の画面(ここでは撮像位置情報入力画面)に表示させる。
For example, the generation unit 163 generates the movement trajectory C of the
なお、表示制御部164は、例えば、入出力部14の画面に「獲物を撮像した位置をタッチ入力してください」など、ユーザUに対し、撮像した位置を移動軌跡Cに基づいて推定して入力することを促すメッセージを表示させてもよい。また、表示制御部164は、例えば獲物画像を画面に表示させてもよい。
Note that the
このように、本実施形態にあっては、生成された移動軌跡を端末装置10の画面に表示させるようにしたことから、例えばユーザUは、移動軌跡を見ながら容易に獲物画像の撮像位置を推定することが可能となる。
As described above, in the present embodiment, since the generated movement locus is displayed on the screen of the
そして、表示制御部164は、例えばユーザUによって移動軌跡Cの一部がタッチ操作されるなどして、推定された撮像位置情報が入出力部14を介して入力されると、図4Bに示すように、タッチ操作された位置を撮像位置Dとして表示させることができる。これにより、撮像位置情報の入力を受け付けたことをユーザUに対して通知することができる。
Then, the
図2の説明に戻ると、対応付け部165は、上記のようにしてユーザUによって推定される撮像位置情報を、獲物画像に対応付ける。詳しくは、対応付け部165は、推定される撮像位置情報を、記憶部15に記憶された獲物画像に対応付けて付与する(図3参照)。
Returning to the description of FIG. 2, the associating
このように、本実施形態にあっては、端末装置10の移動軌跡を生成し、移動軌跡に基づいて推定される獲物画像の撮像位置情報を獲物画像に対応付けるようにした。これにより、端末装置10の位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を対応付けて付与することができる。
As described above, in the present embodiment, the movement trajectory of the
また、上記したように、対応付け部165は、撮像時に端末装置10の位置情報が取得された場合、かかる位置情報を撮像位置情報として獲物画像に対応付ける一方、端末装置10の位置情報が取得されなかった場合、推定される撮像位置情報を獲物画像に対応付けるようにした。これにより、撮像時に端末装置10の位置情報が取得されたか否かにかかわらず、撮像位置情報を獲物画像に対応付けて付与することが可能になる。
Further, as described above, when the position information of the
なお、上記では、移動軌跡に基づいて推定される撮像位置情報を獲物画像に対応付ける処理を、撮像時に端末装置10の位置情報が取得されなかった場合に行うようにしたが、これに限られず、例えば撮像時に端末装置10の位置情報が取得された場合にも行うようにしてもよい。
In the above, the process of associating the imaging position information estimated based on the movement trajectory with the prey image is performed when the position information of the
また、上記では、ユーザUによって行われていた撮像位置情報の推定を、対応付け部165が行うようにしてもよい。例えば、対応付け部165は、獲物画像取得部161によって取得された撮像時間情報と、移動軌跡とに基づいて撮像位置情報を推定してもよい。
Further, in the above, the associating
具体的には、対応付け部165は、例えば定期的に取得され、移動軌跡上にある複数の端末装置10の位置情報のうち、獲物画像の撮像時間に最も近い時間に取得された位置情報を、撮像位置情報として推定することができる。
Specifically, the associating
また、上記に限られず、例えば、対応付け部165は、移動軌跡上にある複数の端末装置10の位置情報のうち、撮像時間の前後に取得された2つの位置情報を抽出し、抽出された2つの位置情報の間の位置(例えば移動軌跡上の中間点)を撮像位置情報として推定してもよい。
Further, without being limited to the above, for example, the associating
また、例えば、対応付け部165は、抽出された2つの位置情報と、2つの位置情報が取得された取得時間の情報とに基づいて、端末装置10の移動速度を算出し、移動速度と撮像時間とから得られる、2つの位置情報の間の位置を、撮像位置情報として推定してもよい。なお、上記した撮像時間情報と移動軌跡とに基づいた撮像位置情報の推定手法は、あくまでも例示であって限定されるものではない。
In addition, for example, the associating
そして、対応付け部165は、撮像時間情報と移動軌跡とに基づいて推定された撮像位置情報を獲物画像に対応付ける。このように、撮像位置情報の推定を端末装置10側で行うようにすることで、ユーザUによる撮像位置情報の入力操作を不要にすることが可能となり、よってユーザUが獲物画像等を提出する際の作業負担を軽減することができる。
Then, the associating
また、対応付け部165は、撮像位置情報が推定された情報であるか否かを識別する識別情報(図3参照)を獲物画像に対応付けるようにしてもよい。これにより、獲物画像に対し、撮像位置情報の精度に関する情報を関連付けることが可能になる。
Further, the associating
詳しく説明すると、獲物画像に対応付けられる撮像位置情報には、推定された情報の場合と、推定された情報ではない場合、すなわちGPSから直接取得された端末装置10の位置情報である場合とがある。ここで、撮像位置情報の精度(言い換えると正確性)の点では、GPSから直接取得された位置情報の方が、推定された情報より高いことが多い。このように、識別情報は、撮像位置情報の精度の指標として機能する。
More specifically, the imaging position information associated with the prey image may be estimated information or non-estimated information, that is, the positional information of the
従って、対応付け部165が識別情報を獲物画像に対応付けることで、獲物画像に対し、撮像位置情報の精度に関する情報を関連付けることが可能になる。そして、例えば、獲物画像や識別情報を含む画像情報151が、報奨金の申請の際に証拠として提出される場合、上記した識別情報を、報奨金の支給を許可するか否かの判定材料の一つとして利用することも可能になる。
Therefore, the associating
図2の説明を続ける。修正部166は、対応付け部165によって獲物画像に対応付けられた撮像位置情報を、ユーザUの操作に応じて修正することができる。
The description of FIG. 2 will be continued. The correction unit 166 can correct the imaging position information associated with the prey image by the
具体的に説明すると、例えば、上記のように対応付け部165によって推定された撮像位置情報は、端末装置10の位置情報の取得状況などによっては、ユーザUが認識している撮像位置に対してずれが生じる場合がある。
More specifically, for example, the imaging position information estimated by the associating
そこで、本実施形態にあっては、対応付け部165によって推定された撮像位置情報をユーザUが確認できようにし、撮像位置情報がユーザUの認識している撮像位置とずれている場合、撮像位置情報を修正できるようにした。
Therefore, in the present embodiment, when the user U can confirm the imaging position information estimated by the associating
図5は、実施形態に係る端末装置10の入出力部14に表示される画面の一例を示す図である。図5に示すように、表示制御部164は、撮像位置情報確認画面を端末装置10に表示させる。
FIG. 5 is a diagram showing an example of a screen displayed on the input/
例えば、撮像位置情報確認画面には、対応付け部165によって推定された撮像位置情報(撮像位置D)や移動軌跡Cなどが表示されるとともに、撮像位置情報を確定する確定ボタン14a、および、撮像位置情報を修正する修正ボタン14bが表示される。
For example, on the image pickup position information confirmation screen, the image pickup position information (image pickup position D) estimated by the associating
撮像位置情報等がユーザUによって確認され、確定ボタン14aが押下されると、獲物画像に対応付けられた撮像位置情報が確定する。
When the user U confirms the image capturing position information and the like and presses the
他方、修正ボタン14bが押下されると、例えば、修正部166は、表示制御部164を介して、撮像位置情報入力画面(図4A参照)を端末装置10に表示させる。そして、例えば、修正部166は、獲物画像に対応付けられていた撮像位置情報を、撮像位置情報入力画面の移動軌跡C上で、ユーザUによってタッチ操作された位置に修正する。
On the other hand, when the
これにより、本実施形態にあっては、例えば、対応付け部165によって推定された撮像位置情報を、ユーザUの操作に応じて、ユーザUの認識している撮像位置に修正(編集)することができ、結果として撮像位置情報の精度を向上させることができる。
Thereby, in the present embodiment, for example, the image pickup position information estimated by the associating
送信部167は、上記した獲物画像や撮像位置情報を含む画像情報151を読み出し、画像情報151をサーバ20へ送信する。
The transmission unit 167 reads out the
図6は、実施形態に係るサーバ20の構成例を示すブロック図である。サーバ20は、単体の処理装置である必要はなく、クラウドシステム等の複数の処理装置が協調して動作することで実現されてもよい。図6に示すように、サーバ20は、通信部21、記憶部22および制御部23を有する。
FIG. 6 is a block diagram showing a configuration example of the
通信部21は、無線通信処理や有線通信処理を行うためのネットワークデバイスである。例えば、通信部21は、ネットワーク2を介して端末装置10との間で各種情報を送受信する。
The communication unit 21 is a network device for performing wireless communication processing and wired communication processing. For example, the communication unit 21 transmits and receives various information to and from the
記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部22は、サーバ20で実行される各処理で利用されるデータを記憶する。記憶部22は、捕獲情報221を記憶する。
The storage unit 22 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 22 according to the embodiment stores data used in each process executed by the
捕獲情報221は、端末装置10によって送信された画像情報151に、ユーザUを識別するユーザIDを対応付けた情報である。なお、ユーザIDは、画像情報151とともに送信されるものであってもよい。
The
図7は、実施形態に係る捕獲情報221の一例を示す図である。図7に示すように、捕獲情報221には、ユーザID、獲物画像、撮像時間情報、撮像位置情報および識別情報が含まれる。
FIG. 7 is a diagram showing an example of the
例えば、図7の捕獲情報221の1行目は、ユーザ「U001」が獲物画像を、時間「2019/1/20 15:10」に、位置「34°26'27.0"N 167°39'10.1"E」で撮像したことを示し、かかる撮像位置情報は推定された情報であることを示している。
For example, in the first line of the
図6の説明に戻ると、制御部23は、各種の処理手順等を規定したプログラム及び所要データを格納するための内部メモリやCPUを有し、これらによって種々の処理を実行するマイクロコンピュータを含む。制御部23は、受信部231、認証部232、格納部233及び送信部234を有する。
Returning to the description of FIG. 6, the
受信部231は、端末装置10によって送信された画像情報151を受信する。また、認証部232はユーザUを認証する。例えば、認証部232はユーザIDおよびパスワードを使って認証を行う。また、ユーザIDおよびパスワードは、画像情報151とともに送信されるものであってもよい。
The receiving
格納部233は、受信部231によって受信された画像情報151を記憶部22に捕獲情報221として格納する。詳しくは、格納部233は、端末装置10の対応付け部165によって対応付けられた獲物画像と撮像位置情報とを含む画像情報151の全部または一部を、記憶部22に捕獲情報221として格納する。
The
送信部234は、例えば、認証済みのユーザUの要求に応じて、捕獲情報221を送信する。また、送信部234は、図示しない自治体の端末装置からの要求に応じて、捕獲情報221を送信してもよい。
The transmission unit 234 transmits the
[処理手順]
次に、図8を用いて、端末装置10の処理の流れについて説明する。図8は、実施形態に係る端末装置10の獲物画像に撮像位置情報を対応付ける処理の手順を示すフローチャートである。
[Processing procedure]
Next, a processing flow of the
図8に示すように、端末装置10は、例えば所定のアプリケーションの起動により、端末装置10の位置情報を定期的に取得する(ステップS101)。次いで、端末装置10は、取得された位置情報に基づいて、端末装置10の移動軌跡を生成する(ステップS102)。
As illustrated in FIG. 8, the
次いで、端末装置10は、撮像部11によって撮像された獲物画像を取得する(ステップS103)。そして、端末装置10は、獲物画像が撮像されるときに、端末装置10の位置情報が取得されたか否かを判定する(ステップS104)。
Next, the
端末装置10は、獲物画像が撮像されるときに端末装置10の位置情報が取得されていないと判定された場合(ステップS104,No)、移動軌跡に基づいて撮像位置情報の推定がなされる(ステップS105)。次いで、端末装置10は、移動軌跡に基づいて推定される撮像位置情報を獲物画像に対応付ける(ステップS106)。
When the
一方、端末装置10は、獲物画像が撮像されるときに端末装置10の位置情報が取得されていると判定された場合(ステップS104,Yes)、かかる位置情報を撮像位置情報として獲物画像に対応付ける(ステップS107)。
On the other hand, when it is determined that the position information of the
このように、実施形態に係る端末装置(情報処理装置の一例)10は、獲物画像取得部161と、位置情報取得部162と、生成部163と、対応付け部165とを具備する。獲物画像取得部161は、捕獲した動物を撮像した獲物画像を取得する。位置情報取得部162は、端末装置の位置情報を取得する。生成部163は、位置情報取得部162によって取得された位置情報に基づいて、端末装置10の移動軌跡を生成する。対応付け部165は、獲物画像取得部161によって取得された獲物画像に対し、移動軌跡に基づいて推定される獲物画像の撮像位置情報を対応付ける。これにより、端末装置10の位置情報を取得できない場所で撮像された獲物画像であっても、獲物画像の撮像位置情報を獲物画像に対応付けて付与することができる。
As described above, the terminal device (an example of the information processing device) 10 according to the embodiment includes the prey
なお、上記した実施形態では、端末装置10が情報処理装置の一例である場合について説明したが、サーバ20が情報処理装置として機能してもよい。すなわち、例えば、サーバ20は、捕獲した動物を撮像した獲物画像を端末装置10から取得する。また、サーバ20は、端末装置10の位置情報を端末装置10から取得する。サーバ20は、端末装置10から取得された位置情報に基づいて、端末装置10の移動軌跡を生成する。そして、サーバ20は、端末装置10から取得された獲物画像に対し、移動軌跡に基づいて推定される獲物画像の撮像位置情報を対応付けるようにしてもよい。
In the above-described embodiment, the case where the
また、上記では、修正部166による撮像位置情報の修正は、ユーザUの操作に応じて行われるようしたが、例えば、修正可能なユーザが限定されるようにしてもよい。すなわち、撮像位置情報を修正可能なユーザが、例えば端末装置10によって獲物画像を撮像したユーザ、獲物画像を撮像したか否かにかかわらず端末装置10を操作するユーザ、サーバ20を管理するユーザ(オペレータ)などに予め設定されるようにしてもよい。
Further, in the above description, the correction of the imaging position information by the correction unit 166 is performed according to the operation of the user U, but, for example, the users who can be corrected may be limited. That is, a user who can correct the imaging position information is, for example, a user who has captured a prey image with the
本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although the embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof, as well as included in the scope and spirit of the invention.
1 情報処理システム
10 端末装置
20 サーバ
161 獲物画像取得部
162 位置情報取得部
163 生成部
164 表示制御部
165 対応付け部
166 修正部
233 格納部
DESCRIPTION OF SYMBOLS 1
Claims (8)
端末装置の位置情報を取得する位置情報取得部と;
前記位置情報取得部によって取得された前記位置情報に基づいて、前記端末装置の移動軌跡を生成する生成部と;
前記獲物画像取得部によって取得された前記獲物画像に対し、前記移動軌跡に基づいて推定される前記獲物画像の撮像位置情報を対応付ける対応付け部と;
を具備する情報処理装置。 A prey image acquisition unit that acquires a prey image capturing the captured animal;
A position information acquisition unit for acquiring position information of the terminal device;
A generation unit that generates a movement trajectory of the terminal device based on the position information acquired by the position information acquisition unit;
An associating unit that associates the prey image acquired by the prey image acquisition unit with imaging position information of the prey image estimated based on the movement trajectory;
An information processing device comprising:
をさらに具備する請求項1に記載の情報処理装置。 A display control unit for displaying the movement locus generated by the generation unit on the screen of the terminal device;
The information processing apparatus according to claim 1, further comprising:
前記獲物画像が撮像されるときに前記位置情報取得部によって前記端末装置の位置情報が取得された場合、当該位置情報を前記撮像位置情報として前記獲物画像に対応付ける一方、前記獲物画像が撮像されるときに前記位置情報取得部によって前記端末装置の位置情報が取得されなかった場合、前記移動軌跡に基づいて推定される前記撮像位置情報を前記獲物画像に対応付ける
請求項1または2に記載の情報処理装置。 The associating unit,
When position information of the terminal device is acquired by the position information acquisition unit when the prey image is captured, the position information is associated with the prey image as the imaging position information while the prey image is captured. The information processing according to claim 1 or 2, wherein when the position information acquisition unit does not acquire the position information of the terminal device, the imaging position information estimated based on the movement trajectory is associated with the prey image. apparatus.
前記獲物画像が撮像された時間を示す撮像時間情報を前記獲物画像とともに取得し、
前記対応付け部は、
前記獲物画像取得部によって取得された前記撮像時間情報と、前記移動軌跡とに基づいて前記撮像位置情報を推定し、推定された前記撮像位置情報を前記獲物画像に対応付ける
請求項1〜3のいずれか1つに記載の情報処理装置。 The prey image acquisition unit,
Acquiring imaging time information indicating the time when the prey image was captured together with the prey image,
The associating unit,
The imaging position information is estimated based on the imaging time information acquired by the prey image acquisition unit and the movement trajectory, and the estimated imaging position information is associated with the prey image. The information processing device according to one.
をさらに具備する請求項1〜4のいずれか1つに記載の情報処理装置。 A correction unit that corrects the imaging position information associated with the prey image by the association unit according to a user operation;
The information processing apparatus according to claim 1, further comprising:
前記撮像位置情報が推定された情報であるか否かを識別する識別情報を前記獲物画像に対応付ける
請求項1〜5のいずれか1つに記載の情報処理装置。 The associating unit,
The information processing apparatus according to claim 1, wherein identification information that identifies whether or not the imaging position information is estimated information is associated with the prey image.
端末装置の位置情報を取得する位置情報取得手順と;
前記位置情報取得手順によって取得された前記位置情報に基づいて、前記端末装置の移動軌跡を生成する生成手順と;
前記獲物画像取得手順によって取得された前記獲物画像に対し、前記移動軌跡に基づいて推定される前記獲物画像の撮像位置情報を対応付ける対応付け手順と;
をコンピュータに実行させる端末プログラム。 A prey image acquisition procedure for acquiring a prey image capturing the captured animal;
A position information acquisition procedure for acquiring the position information of the terminal device;
A generation procedure for generating a movement track of the terminal device based on the position information acquired by the position information acquisition procedure;
An associating procedure for associating the prey image acquired by the prey image acquisition procedure with imaging position information of the prey image estimated based on the movement trajectory;
A terminal program that causes a computer to execute.
端末装置の位置情報を取得する位置情報取得部と;
前記位置情報取得部によって取得された前記位置情報に基づいて、前記端末装置の移動軌跡を生成する生成部と;
前記獲物画像取得部によって取得された前記獲物画像に対し、前記移動軌跡に基づいて推定される前記獲物画像の撮像位置情報を対応付ける対応付け部と;
前記対応付け部によって対応付けられた前記獲物画像と前記撮像位置情報とを記憶部に格納する格納部と;
を具備する情報処理システム。 A prey image acquisition unit that acquires a prey image capturing the captured animal;
A position information acquisition unit for acquiring position information of the terminal device;
A generation unit that generates a movement trajectory of the terminal device based on the position information acquired by the position information acquisition unit;
An associating unit that associates the prey image acquired by the prey image acquisition unit with imaging position information of the prey image estimated based on the movement trajectory;
A storage unit that stores the prey image and the imaging position information associated by the association unit in a storage unit;
An information processing system including:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019009358A JP2020119211A (en) | 2019-01-23 | 2019-01-23 | Information processing device, terminal program, and information processing system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019009358A JP2020119211A (en) | 2019-01-23 | 2019-01-23 | Information processing device, terminal program, and information processing system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2020119211A true JP2020119211A (en) | 2020-08-06 |
Family
ID=71892066
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019009358A Pending JP2020119211A (en) | 2019-01-23 | 2019-01-23 | Information processing device, terminal program, and information processing system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2020119211A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114615422A (en) * | 2022-01-18 | 2022-06-10 | 深圳市恒天伟焱科技股份有限公司 | Prey identification method, prey identification device, electronic equipment and storage medium |
-
2019
- 2019-01-23 JP JP2019009358A patent/JP2020119211A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114615422A (en) * | 2022-01-18 | 2022-06-10 | 深圳市恒天伟焱科技股份有限公司 | Prey identification method, prey identification device, electronic equipment and storage medium |
| CN114615422B (en) * | 2022-01-18 | 2023-07-11 | 深圳市恒天伟焱科技股份有限公司 | Method and device for identifying prey, electronic equipment and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101899351B1 (en) | Method and apparatus for performing video communication in a mobile terminal | |
| CN110834327A (en) | Robot control method and device | |
| KR20160023628A (en) | Method and device for verification using verification code | |
| US9948819B2 (en) | Information processing system, information processing apparatus, and data process control method | |
| US11409857B2 (en) | Recording medium, information processing method, information processing apparatus, and information processing terminal | |
| US11522852B2 (en) | Display system, display method, and recording medium | |
| JP2017054507A (en) | Information providing system and method for providing location information using image on communication session | |
| US10440221B2 (en) | Location tracking system for networked print devices in an environment | |
| US10104091B2 (en) | Authenticating apparatus, authenticating system and storage medium | |
| US10028088B2 (en) | Method for providing on-demand digital representations to mobile devices in other geographic locations | |
| WO2016008364A1 (en) | Star orbit shooting method, and object movement track shooting method, device and storage medium | |
| US10305999B2 (en) | Information processing system, terminal apparatus, and program for improving accuracy of read receipt statuses | |
| JP2020119211A (en) | Information processing device, terminal program, and information processing system | |
| JP6504896B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND IMAGE TRANSFER SYSTEM | |
| JP2021117822A (en) | Information processing device, method, and program | |
| KR20140135320A (en) | System and method for photo sharing by face recognition | |
| CN114240293B (en) | Abnormal processing method, device and electronic equipment for logistics distribution | |
| CN111147745B (en) | Shooting method, shooting device, electronic equipment and storage medium | |
| JP2010231450A (en) | Imaging data authentication device, imaging data authentication system, imaging data authentication method and program | |
| JP2020013419A (en) | Information processing method, information processing device, and program | |
| JP2013143750A (en) | Image processing device, image processing method, and program | |
| JP2016038682A (en) | Information processing apparatus and control method thereof, server apparatus and control method thereof, and computer program | |
| CN109640247B (en) | Method, device, terminal, server and system for determining position information | |
| US20250046119A1 (en) | Method and system for managing watching service | |
| JP2019114016A (en) | Support system |