JP2019174920A - Article management system and article management program - Google Patents
Article management system and article management program Download PDFInfo
- Publication number
- JP2019174920A JP2019174920A JP2018059646A JP2018059646A JP2019174920A JP 2019174920 A JP2019174920 A JP 2019174920A JP 2018059646 A JP2018059646 A JP 2018059646A JP 2018059646 A JP2018059646 A JP 2018059646A JP 2019174920 A JP2019174920 A JP 2019174920A
- Authority
- JP
- Japan
- Prior art keywords
- article
- dimensional
- image
- moving image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
【課題】対象とする空間内の物品を容易かつ適切に管理できるようにする。【解決手段】所定の空間に配置されている管理対象の物品を管理するための物品管理システム10において、プロセッサ部201を、所定の空間を撮影した動画像に基づいて、前記所定の空間における点群の3次元位置を特定可能な3次元位置情報を特定し、動画像における1以上のフレーム画像に基づいて、フレーム画像中の物品を認識し、認識された物品の所定の空間における3次元位置を特定可能な物品位置情報を特定するように構成する。【選択図】図2An object in an object space can be easily and appropriately managed. In an article management system for managing an article to be managed disposed in a predetermined space, a processor unit is configured to: The three-dimensional position information that can specify the three-dimensional position of the group is specified, the article in the frame image is recognized based on one or more frame images in the moving image, and the three-dimensional position of the recognized article in a predetermined space is determined. Is configured to specify the item position information that can specify the item position. [Selection] Figure 2
Description
本発明は、所定の空間に配置されている管理対象の物品を管理するための物品管理システム等に関する。 The present invention relates to an article management system for managing articles to be managed arranged in a predetermined space.
物品の位置と状態とを簡易に管理するための技術が求められている。例えば、オフィスを利用する一般企業においては、資産管理や、オフィスレイアウト変更や移転前の見積もりのために、備品や什器(PC、デスク、イス、棚等)の物品の位置と状態を、より正確かつ簡易に把握・管理したいというニーズがある。また、工場などにおいては、機器の位置と状態とを確認し、例えば、機器の管理者が、任意の位置にある機器が動作しているかを機器そのもの動作状態や外部のチェックランプを見て確認し、手作業でチェックリストに入力するといった作業を自動化したというニーズがある。 There is a demand for a technique for easily managing the position and state of an article. For example, in a general company that uses offices, the position and condition of equipment and fixtures (PCs, desks, chairs, shelves, etc.) are more accurate for asset management, office layout changes, and estimates before moving. And there is a need to grasp and manage easily. Also, in factories, etc., check the position and status of the device. For example, the device administrator can check whether the device at an arbitrary position is operating by checking the device's operating status or an external check lamp. However, there is a need to automate the task of manually entering the checklist.
現在のところ、こうした作業はPCや高額な機器を除いては、人間の目視確認によって行われているのが一般的であり、多大なコストがかかっている。また、PCや高額な機器においても、事前に管理用のソフトウェアをインストールする必要があり、管理のために多くのコストが必要である。さらに、ソフトウェアを用いるだけでは、PC等の正確な位置を自動で特定することは困難である。 At present, such work is generally performed by human visual confirmation, except for PCs and expensive equipment, which is very expensive. Even in a PC or an expensive device, it is necessary to install management software in advance, which requires a lot of costs for management. Furthermore, it is difficult to automatically specify an accurate position of a PC or the like only by using software.
このような物品管理においては、例えば、特許文献1に記載されているようなICタグを使って物品の位置管理を行う技術が知られている。 In such article management, for example, a technique for managing the position of an article using an IC tag as described in Patent Document 1 is known.
しかしながら、ICタグによる物品管理では、物品1つ1つにICタグを付与する必要があり、タグ付与に多大なコストがかかる。さらに、ICタグによる管理では、タグ管理を行っていない他の企業の物品状態を即時に知りたい場合、例えば、任意の企業がオフィスを移転する際に、物流業者が移転対象のオフィスの什器の状態を把握したい場合などには適用できない。 However, in the article management by IC tag, it is necessary to attach an IC tag to each article, and it takes a great deal of cost to attach the tag. Furthermore, in the management by IC tag, when it is desired to immediately know the state of goods of other companies that are not managing the tag, for example, when any company moves the office, the logistics company moves the equipment of the office to be moved. It is not applicable when you want to know the status.
例えば、個々の物品の個体を把握しなければならない状況では、ICタグを使った物品管理は効果的であるが、ユーザによっては、個体までの詳細の把握は必要なく、「PC」、「棚」、「机」、「イス」等の種類とそのサイズ程度を把握できればよい場合がある。 For example, in a situation where it is necessary to grasp an individual of an individual article, article management using an IC tag is effective, but depending on the user, it is not necessary to grasp details of the individual, and “PC”, “shelf” ”,“ Desk ”,“ chair ”, etc., and their size may be grasped.
このような場合においては、ICタグを物品に張り付ける程の事前コストをかけずに、より、即時性があり、かつ、低コストに物品の位置及び状態を把握・管理するための技術が要請されている。 In such a case, there is a need for a technique for grasping and managing the position and state of an article more immediately and at a low cost without incurring the advance cost of attaching an IC tag to the article. Has been.
本発明は、上記事情に鑑みなされたものであり、その目的は、対象とする空間内の物品を容易かつ適切に管理することのできる技術を提供することにある。 This invention is made | formed in view of the said situation, The objective is to provide the technique which can manage the article | item in the space made into object easily and appropriately.
上記目的を達成するため、一観点に係る物品管理システムは、所定の空間に配置されている管理対象の物品を管理するための物品管理システムであって、所定の空間を撮影した動画像に基づいて、所定の空間における点群の3次元位置を特定可能な3次元位置情報を特定する3次元位置特定部と、動画像における1以上のフレーム画像に基づいて、フレーム画像中の物品を認識する物品認識部と、認識された物品の所定の空間における3次元位置を特定可能な物品位置情報を特定する物品位置特定部と、を有する。 In order to achieve the above object, an article management system according to one aspect is an article management system for managing articles to be managed arranged in a predetermined space, and is based on a moving image obtained by photographing the predetermined space. The article in the frame image is recognized based on the three-dimensional position specifying unit that specifies the three-dimensional position information that can specify the three-dimensional position of the point group in the predetermined space and one or more frame images in the moving image. An article recognition unit; and an article position specifying unit that specifies article position information that can specify a three-dimensional position in a predetermined space of the recognized article.
本発明によれば、対象とする空間内の物品を容易かつ適切に管理することができる。 According to the present invention, articles in a target space can be managed easily and appropriately.
実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Embodiments will be described with reference to the drawings. The embodiments described below do not limit the invention according to the claims, and all the elements and combinations described in the embodiments are essential for the solution of the invention. Is not limited.
以下の説明では、「AAAテーブル」の表現にて情報を説明することがあるが、情報は、どのようなデータ構造で表現されていてもよい。すなわち、情報がデータ構造に依存しないことを示すために、「AAAテーブル」を「AAA情報」と呼ぶことができる。 In the following description, information may be described using the expression “AAA table”, but the information may be expressed in any data structure. That is, the “AAA table” can be referred to as “AAA information” to indicate that the information does not depend on the data structure.
また、以下の説明では、「プロセッサ部」は、1以上のプロセッサを含む。少なくとも1つのプロセッサは、典型的には、CPU(Central Processing Unit)である。プロセッサは、処理の一部または全部を行うハードウェア回路を含んでもよい。 In the following description, the “processor unit” includes one or more processors. The at least one processor is typically a CPU (Central Processing Unit). The processor may include hardware circuitry to perform some or all of the processing.
また、以下の説明では、「プログラム」(モジュール、ビューワ等も含む)を動作の主体として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU)によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)及び/又は通信インターフェース装置(例えばポート)を用いながら行うため、処理の主体がプロセッサとされてもよい。プログラムを動作の主体として説明された処理は、プロセッサを含む装置が行う処理としてもよい。また、プロセッサが行う処理の一部又は全部を行うハードウェア回路を含んでもよい。コンピュータプログラムは、プログラムソースから装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバ、又は、計算機が読み取り可能な記憶メディアであってもよい。 In the following description, the process may be described with “program” (including modules, viewers, etc.) as the subject of operation, but the program is defined by being executed by a processor (for example, CPU). Since the processing is appropriately performed using a storage resource (for example, a memory) and / or a communication interface device (for example, a port), the main body of the processing may be a processor. The process described with the program as the subject of the operation may be performed by an apparatus including a processor. In addition, a hardware circuit that performs part or all of the processing performed by the processor may be included. The computer program may be installed on the device from a program source. The program source may be, for example, a program distribution server or a storage medium that can be read by a computer.
<システム構成>
図1は、一実施形態に係る物品管理システムの全体構成図である。
<System configuration>
FIG. 1 is an overall configuration diagram of an article management system according to an embodiment.
物品管理システム10は、処理サーバの一例としての物品管理サーバ101と、撮影装置の一例としてのスマートフォン102と、物品管理端末103とを備える。物品管理サーバ101と、スマートフォン102と、物品管理端末103とは、ネットワーク105を介して通信可能に接続される。スマートフォン102は、後述する動画像撮影用のカメラ部504を備え、管理対象の物品が存在する所定の空間(例えば、オフィス104等)を撮影するために用いられる。ネットワーク105は、例えば、有線LAN(Local Area Network)、無線LAN、インターネットなどを含んでよい。 The article management system 10 includes an article management server 101 as an example of a processing server, a smartphone 102 as an example of a photographing apparatus, and an article management terminal 103. The article management server 101, the smartphone 102, and the article management terminal 103 are connected via a network 105 so that they can communicate with each other. The smartphone 102 includes a camera unit 504 for capturing a moving image, which will be described later, and is used to capture a predetermined space (for example, the office 104) where an article to be managed exists. The network 105 may include, for example, a wired LAN (Local Area Network), a wireless LAN, and the Internet.
<物品管理サーバ>
図2は、一実施形態に係る物品管理サーバの構成図である。
<Goods management server>
FIG. 2 is a configuration diagram of an article management server according to an embodiment.
物品管理サーバ101は、例えば、一般的なサーバマシンで構成され、プロセッサ部201と、記憶デバイス202と、ネットワーク部211とを備える。 The article management server 101 is configured by, for example, a general server machine, and includes a processor unit 201, a storage device 202, and a network unit 211.
ネットワーク部211は、例えば、有線LANカードや無線LANカードなどのインターフェースであり、ネットワーク105を介して他の装置(例えば、スマートフォン102、物品管理端末103)と通信する。 The network unit 211 is an interface such as a wired LAN card or a wireless LAN card, and communicates with other devices (for example, the smartphone 102 and the article management terminal 103) via the network 105.
プロセッサ部201は、記憶デバイス202に格納されているプログラムに従って各種処理を実行する。 The processor unit 201 executes various processes according to programs stored in the storage device 202.
記憶デバイス202は、例えば、ハードディスクドライブ、SSD(Solid State Drive)、RAM(Random Access Memory)などであり、プロセッサ部201で実行されるプログラムや、プロセッサ部201に利用されるデータを記憶する。本実施形態では、記憶デバイス202は、物品管理プログラム203と、地図データベース208と、物品データベース209と、動画ファイル210とを記憶する。 The storage device 202 is, for example, a hard disk drive, an SSD (Solid State Drive), a RAM (Random Access Memory), and the like, and stores a program executed by the processor unit 201 and data used by the processor unit 201. In the present embodiment, the storage device 202 stores an article management program 203, a map database 208, an article database 209, and a moving image file 210.
<物品管理プログラム>
物品管理プログラム203は、地図生成モジュール204と、自己位置推定モジュール205と、物品管理モジュール206と、物品検出モジュール207とを含む。
<Goods management program>
The article management program 203 includes a map generation module 204, a self-position estimation module 205, an article management module 206, and an article detection module 207.
物品管理プログラム203は、プロセッサ部201に実行されることにより、動画像のデータ(動画データ:例えば、スマートフォン102から送られてくる動画データ)に基づいて撮影しているカメラの位置(視点)と、その姿勢(視線)を推定する機能(自己位置推定機能)と、動画データに基づいて3次元地図を生成する機能と、動画に写っている物品(物品オブジェクト)の認識と、その物品の位置を特定する機能と、物品を3次元地図上にマッピングし、マッピングされた物品をユーザにより検索可能にする機能とを備える。 The article management program 203 is executed by the processor unit 201, and the position (viewpoint) of the camera that is shooting based on moving image data (moving image data: moving image data sent from the smartphone 102, for example). , A function (self-position estimation function) for estimating the posture (line of sight), a function for generating a three-dimensional map based on moving image data, recognition of an article (article object) shown in the moving picture, and the position of the article And a function of mapping an article on a three-dimensional map and making the mapped article searchable by a user.
物品管理プログラム203は、スマートフォン102から転送されてくる動画データの処理方法として、ストリーミング処理(リアルタイム処理)と、動画ファイル処理(非リアルタイム処理)の両方が可能である。動画データをストリーミング処理する場合には、所定以上のネットワーク帯域が必要なことと、スマートフォン102と物品管理プログラム203とがネットワーク105に接続済みの状態となっていることが必要である。場所を選ばずに利用することを想定する場合には、スマートフォン102のローカルストレージに動画データを保存し、安定したネットワーク105に接続できた時点でスマートフォン102から動画ファイルを物品管理サーバ101へ転送して、物品管理サーバ101内で動画処理をする非ストリーミング処理を行うようにすればよい。非ストリーミング処理を行う場合には、動画ファイルを転送する機能をスマートフォン102及び物品管理サーバ203に備えるようにする以外は、ストリーミング処理と同様な構成を用いることができる。 The article management program 203 can perform both streaming processing (real-time processing) and moving image file processing (non-real-time processing) as processing methods of moving image data transferred from the smartphone 102. When streaming video data, it is necessary that a network bandwidth of a predetermined level or more is required, and that the smartphone 102 and the article management program 203 are already connected to the network 105. When it is assumed to be used without choosing a place, the moving image data is stored in the local storage of the smartphone 102, and the moving image file is transferred from the smartphone 102 to the article management server 101 at the time when it can be connected to the stable network 105. Thus, non-streaming processing for moving image processing may be performed in the article management server 101. When performing non-streaming processing, the same configuration as streaming processing can be used except that the smartphone 102 and the article management server 203 have a function of transferring a moving image file.
<地図生成モジュール及び自己位置推定モジュール>
地図生成モジュール204と自己位置推定モジュール205は、連動して動作するモジュールであって、スマートフォン102で撮影された動画データ(2次元動画データ)から自己位置(撮影しているカメラの位置)を推定しつつ、空間における3次元地図を生成する機能を備えるモジュールである。これらモジュールは、リアルタイムに自己位置推定と地図生成を行うVisualSLAM(Visual Simultaneous Localization and Mapping)技術をベースにして実現することができる。使用する動画データは、単眼カメラやステレオカメラによる動画データを利用することができるが、低コストでの実現を想定する場合には、単眼カメラを用意し、その単眼カメラにより撮影された動画データを利用するようにすればよい。また、地図生成モジュール204と自己位置推定モジュール205とは、複数の動画データにおける特徴点をマッチングすることにより、複数の動画データによる3次元地図を1つの3次元地図に統合する機能を備えていてもよい。地図生成モジュール204により作成された3次元地図のデータ(3次元位置情報)は、地図データベース208に格納される。ここで、プロセッサ部201が地図モジュール204及び自己位置推定モジュール205を実行することにより、3次元位置特定部が構成される。
<Map generation module and self-position estimation module>
The map generation module 204 and the self-position estimation module 205 are modules that operate in conjunction with each other, and estimate the self-position (the position of the camera being photographed) from the video data (two-dimensional video data) photographed by the smartphone 102. However, it is a module having a function of generating a three-dimensional map in space. These modules can be realized based on Visual SLAM (Visual Simultaneous Localization and Mapping) technology that performs self-localization and map generation in real time. As the video data to be used, video data from a monocular camera or stereo camera can be used, but if it is to be realized at a low cost, a monocular camera is prepared and the video data shot by the monocular camera is used. Use it. The map generation module 204 and the self-position estimation module 205 have a function of integrating a three-dimensional map of a plurality of moving image data into one three-dimensional map by matching feature points in the plurality of moving image data. Also good. The three-dimensional map data (three-dimensional position information) created by the map generation module 204 is stored in the map database 208. Here, when the processor unit 201 executes the map module 204 and the self-position estimation module 205, a three-dimensional position specifying unit is configured.
<物品管理モジュール>
物品管理モジュール206は、動画のフレーム画像を読み込んで物品検出モジュール207に入力する機能、物品検出モジュール207により出力された結果(物品の情報)を物品データベース209に保存する機能、物品データベース209から物品の情報を読み出す機能、物品位置を3次元地図上にマッピングする機能等の物品情報を管理する機能を備える。
<Article management module>
The article management module 206 has a function of reading a frame image of a moving image and inputting it to the article detection module 207, a function of saving the result (article information) output by the article detection module 207 in the article database 209, and an article from the article database 209. A function of reading out the information of the article, and a function of managing article information such as a function of mapping the article position on the three-dimensional map.
<物品検出モジュール>
物品検出モジュール207は、フレーム画像のデータから物品の認識及び物品の位置検出する機能を備えている。物品検出モジュール207は、例えば、ニューラルネットワークをベースとして管理対象の物品の認識、及び、物品の位置検出を行う。即ち、物品検出モジュール207は、事前に管理対象(モデルによる認識対象)の物品についての多数の教師データによって学習された学習モデルを内部に備え、フレーム画像の画像データを入力することにより、フレーム画像内に写っている物品を認識し、かつ、その物品のフレーム画像中の位置情報(位置座標等)を算出する。ここで、プロセッサ部201が物品検出モジュール207を実行することにより、物品認識部が構成される。また、プロセッサ部201が物品検出モジュール207と物品管理モジュール206とを実行することにより、物品位置特定部が構成される。
<Article detection module>
The article detection module 207 has a function of recognizing an article and detecting the position of the article from frame image data. The article detection module 207 performs, for example, recognition of an article to be managed and position detection of an article based on a neural network. That is, the article detection module 207 internally includes a learning model that has been learned in advance by a large number of teacher data on articles to be managed (recognition targets by the model), and inputs the image data of the frame image to thereby obtain the frame image. The article in the frame is recognized, and position information (position coordinates, etc.) in the frame image of the article is calculated. Here, when the processor unit 201 executes the article detection module 207, an article recognition unit is configured. The processor unit 201 executes the article detection module 207 and the article management module 206 to configure an article position specifying unit.
<地図データベース>
図3は、一実施形態に係る地図データベースの構成図である。
<Map database>
FIG. 3 is a configuration diagram of a map database according to an embodiment.
地図データベース208は、地図生成モジュール204と自己位置推定モジュール205によって生成された3次元地図のデータを保存するためのデータベースであって、動画管理テーブル301と、地図データ管理テーブル306とを含む。 The map database 208 is a database for storing 3D map data generated by the map generation module 204 and the self-position estimation module 205, and includes a moving image management table 301 and a map data management table 306.
動画管理テーブル301は、動画ごとに対応するエントリを格納する。各エントリは、動画ID302、動画保存先ファイルパス303、撮影者情報304、及びタイムスタンプ305のカラムを含む。 The moving image management table 301 stores an entry corresponding to each moving image. Each entry includes columns of a moving image ID 302, a moving image storage destination file path 303, photographer information 304, and a time stamp 305.
動画ID302には、物品管理サーバ101の記憶デバイス202内で動画ファイル(スマートフォン102から送信されてくる動画データを格納する動画ファイル)を一意に識別するためのID(動画ID)が格納される。動画保存先ファイルパス303には、動画データを物品管理サーバ101のローカルストレージ内に保存する際のファイルパスが格納される。撮影者情報304には、エントリに対応する動画の撮影者を識別するためのIDや撮影者の名前が格納される。タイムスタンプ305には、エントリに対応する動画が撮影された日時が保存される。 The moving image ID 302 stores an ID (moving image ID) for uniquely identifying a moving image file (moving image file storing moving image data transmitted from the smartphone 102) in the storage device 202 of the article management server 101. The moving image storage destination file path 303 stores a file path for storing moving image data in the local storage of the article management server 101. The photographer information 304 stores an ID for identifying the photographer of the moving image corresponding to the entry and the photographer's name. The time stamp 305 stores the date and time when the moving image corresponding to the entry was taken.
地図データ管理テーブル306は、動画データのフレームごとのエントリを格納する。エントリは、動画ID307、フレーム番号308、自己位置情報309、及び3次元点群データ310のカラムを含む。 The map data management table 306 stores an entry for each frame of video data. The entry includes columns of a moving image ID 307, a frame number 308, self-location information 309, and 3D point cloud data 310.
動画ID307には、エントリに対応するフレームが属する動画の動画IDが格納される。フレーム番号308には、エントリに対応するフレームの動画内での番号(フレーム番号)が格納される。フレーム番号は、動画における最初のフレーム(開始フレーム)を1として、以降は、フレームごとにカウントアップされる。自己位置情報309には、エントリに対応するフレームの画像(フレーム画像)を撮影した時のカメラの位置と姿勢を示す情報(自己位置情報)が格納される。自己位置情報としては、例えば、3次元地図の空間における撮影位置(視点)の座標(X、Y、Z)と、カメラの撮影方向(視線)を示すベクトル(X’、Y’、Z’)としてもよい。3次元点群データ310には、3次元地図における点群(複数の点)のそれぞれの点の位置を示すデータ(点群データ)が格納される。点群データのデータ形式は種々のフォーマットが存在するが、例えば、各点を(X,Y、Z)のフォーマットで表したものとしてもよい。 The moving image ID 307 stores the moving image ID of the moving image to which the frame corresponding to the entry belongs. The frame number 308 stores the number (frame number) in the moving image of the frame corresponding to the entry. The frame number is incremented for each frame after the first frame (start frame) in the moving image is set to 1. The self-position information 309 stores information (self-position information) indicating the position and orientation of the camera when a frame image (frame image) corresponding to the entry is captured. As the self-position information, for example, coordinates (X, Y, Z) of the shooting position (viewpoint) in the space of the three-dimensional map, and vectors (X ′, Y ′, Z ′) indicating the shooting direction (line of sight) of the camera. It is good. The three-dimensional point group data 310 stores data (point group data) indicating the position of each point group (a plurality of points) on the three-dimensional map. There are various formats for the point cloud data. For example, each point may be represented in the (X, Y, Z) format.
<物品データベース>
図4は、一実施形態に係る物品データベースの構成図である。
<Article database>
FIG. 4 is a configuration diagram of an article database according to an embodiment.
物品データベース209は、動画(厳密には、動画中のフレーム画像)から検出された物品の情報(物品情報)を保存するためのデータベースである。物品データベース209は、物品ごとに対応するエントリを格納するテーブルを備える。物品データベース209のテーブルのエントリは、物品ID401、物品種類402、3次元座標403、動画ID404、及びフレーム番号405のカラムを含む The article database 209 is a database for storing article information (article information) detected from a moving image (strictly speaking, a frame image in the moving image). The article database 209 includes a table that stores an entry corresponding to each article. An entry in the table of the article database 209 includes columns of an article ID 401, an article type 402, a three-dimensional coordinate 403, a moving image ID 404, and a frame number 405.
物品ID401には、動画から検出された物品を一意に識別するためのID(物品ID)が格納される。物品種類402には、動画から検出された物品の種類を示す値(物品種類)が格納される。物品種類としては、例えば、「PC」、「イス」、「机」、「棚」等がある。3次元座標403には、エントリに対応する物品の3次元空間上の位置を示す座標(X,Y、Z)が格納される。動画ID404には、エントリに対応する物品が検出された動画データの動画IDが格納される。フレーム番号405には、エントリに対応する物品が検出された動画データにおけるフレーム番号が格納される。動画において、同一の物品が複数のフレームで検出された場合には、フレーム番号405には、この物品が検出された複数のフレームのフレーム番号が格納される。 The article ID 401 stores an ID (article ID) for uniquely identifying the article detected from the moving image. The item type 402 stores a value (article type) indicating the type of the item detected from the moving image. Examples of the item type include “PC”, “chair”, “desk”, and “shelf”. The three-dimensional coordinates 403 store coordinates (X, Y, Z) indicating the position of the article corresponding to the entry in the three-dimensional space. The moving image ID 404 stores the moving image ID of the moving image data in which the article corresponding to the entry is detected. The frame number 405 stores the frame number in the moving image data in which the article corresponding to the entry is detected. In the moving image, when the same article is detected in a plurality of frames, the frame number 405 stores the frame numbers of the plurality of frames in which the article is detected.
<スマートフォン>
図5は、一実施形態に係るスマートフォンの構成図である。
<スマートフォン>
スマートフォン102は、プロセッサ部501と、記憶デバイス502と、動画撮影を行う動画像撮影部の一例としてのカメラ部504と、表示部の一例としてのディスプレイ部505と、ネットワーク部506とを備える。
<Smartphone>
FIG. 5 is a configuration diagram of a smartphone according to an embodiment.
<Smartphone>
The smartphone 102 includes a processor unit 501, a storage device 502, a camera unit 504 as an example of a moving image shooting unit that performs moving image shooting, a display unit 505 as an example of a display unit, and a network unit 506.
ネットワーク部506は、例えば、有線LANカードや無線LANカードなどのインターフェースであり、ネットワーク105を介して他の装置(例えば、物品管理サーバ101、物品管理端末103)と通信する。プロセッサ部501は、記憶デバイス502に格納されているプログラムに従って各種処理を実行する。記憶デバイス502は、例えば、SSD、フラッシュメモリ、RAMなどであり、プロセッサ部501で実行されるプログラムや、プロセッサ部501に利用されるデータを記憶する。本実施形態では、記憶デバイス502は、プログラムとして地図アプリケーション503を格納する。ディスプレイ部505は、例えば、各種画像を表示するとともに、操作の入力を受け付けるためのタッチパネルである。 The network unit 506 is an interface such as a wired LAN card or a wireless LAN card, and communicates with other devices (for example, the article management server 101 and the article management terminal 103) via the network 105. The processor unit 501 executes various processes in accordance with programs stored in the storage device 502. The storage device 502 is, for example, an SSD, a flash memory, or a RAM, and stores a program executed by the processor unit 501 and data used by the processor unit 501. In the present embodiment, the storage device 502 stores the map application 503 as a program. The display unit 505 is, for example, a touch panel for displaying various images and receiving an operation input.
スマートフォン102は、撮影者により、物品を管理する対象の空間(管理対象空間)、例えば、オフィスや工場等において撮影するために用いられる。動画を撮影する時の撮影者の操作としては、地図アプリケーション503を起動し、ログインを行った後に、管理対象空間を撮影しながら移動するのみである。なお、このようにスマートフォン102のカメラで撮った動画を利用する場合には、スマートフォン102のカメラで撮影される範囲は、前方数メートルかつ視野角の範囲のみであるので、撮影者は、動画において管理対象空間内の管理対象の物品のすべてが写りこむように歩く必要がある。なお、スマートフォン102の撮影者が、自分の位置を確認しながら適切に撮影を行うようにするために、撮影した動画によって生成された3次元地図に基づく3次元画像をスマートフォン102のディスプレイ部505に表示させるようにしてもよい。例えば、スマートフォン102に3次元地図に基づく3次元画像を表示させる方法としては、物品管理サーバ101の物品管理プログラム203内の地図生成モジュール204と自己位置推定モジュール205を地図アプリケーション503に組み込むようにしてもよく、或いは、物品管理サーバ101で生成された3次元地図に基づく画像を、ネットワーク105を介して受信して表示するようにしてもよい。なお、ネットワーク105の通信速度が低い場合には、3次元地図に基づく画像の質を粗くして(すなわち、データ量を抑えて)送信するようにしてもよい。ここで、地図アプリケーション503に組み込まれた地図生成モジュール204と自己位置推定モジュール205とをプロセッサ部501が実行することにより、又は、地図生成モジュール204と自己位置推定モジュール205とをプロセッサ部201が実行することにより、撮影支援部が構成される。 The smartphone 102 is used by a photographer to take an image in a space (management target space) for managing articles, for example, in an office or factory. As a photographer's operation when shooting a moving image, the map application 503 is activated, and after logging in, the user only moves while shooting the management target space. In addition, when using the video taken with the camera of the smartphone 102 in this way, the range captured by the camera of the smartphone 102 is only a few meters ahead and the range of the viewing angle. It is necessary to walk so that all the articles to be managed in the management target space are reflected. Note that a 3D image based on the 3D map generated by the captured moving image is displayed on the display unit 505 of the smartphone 102 so that the photographer of the smartphone 102 appropriately captures the image while checking his / her position. You may make it display. For example, as a method of displaying a 3D image based on the 3D map on the smartphone 102, the map generation module 204 and the self-position estimation module 205 in the article management program 203 of the article management server 101 are incorporated in the map application 503. Alternatively, an image based on the three-dimensional map generated by the article management server 101 may be received via the network 105 and displayed. When the communication speed of the network 105 is low, the image quality based on the three-dimensional map may be roughened (that is, the data amount may be suppressed) and transmitted. Here, the processor unit 501 executes the map generation module 204 and the self-position estimation module 205 incorporated in the map application 503, or the processor unit 201 executes the map generation module 204 and the self-position estimation module 205. By doing so, a photographing support unit is configured.
<地図アプリケーション>
地図アプリケーション503は、スマートフォン102にあらかじめインストールされているプログラムであり、スマートフォン102による、動画撮影、及び撮影した動画データを物品管理サーバ101へ転送する機能を備えている。
<Map application>
The map application 503 is a program installed in the smartphone 102 in advance, and has a function of capturing moving images by the smartphone 102 and transferring the captured moving image data to the article management server 101.
<物品管理端末>
図6は、一実施形態に係る物品確認端末の構成図である。
<Goods management terminal>
FIG. 6 is a configuration diagram of an article confirmation terminal according to an embodiment.
物品管理端末103は、物品管理者や物品の監査を行う者(以下、これらを物品管理者という)が使用する端末であり、物品管理位置や状態を閲覧及び管理することが可能である。物品管理端末103は、例えば、一般的なPC(Personal Computer)で構成され、プロセッサ部601と、記憶デバイス602と、ディスプレイ部603と、マウス・キーボード部605と、ネットワーク部606とを備える。 The article management terminal 103 is a terminal used by an article manager or a person who audits articles (hereinafter referred to as an article manager), and can browse and manage the article management position and state. The article management terminal 103 is configured by, for example, a general PC (Personal Computer), and includes a processor unit 601, a storage device 602, a display unit 603, a mouse / keyboard unit 605, and a network unit 606.
ネットワーク部606は、例えば、有線LANカードや無線LANカードなどのインターフェースであり、ネットワーク105を介して他の装置(例えば、物品管理サーバ101)と通信する。プロセッサ部601は、記憶デバイス602に格納されているプログラムに従って各種処理を実行する。記憶デバイス602は、例えば、ハードディスクドライブ、SSD、RAMなどであり、プロセッサ部601で実行されるプログラムや、プロセッサ部601に利用されるデータを記憶する。本実施形態では、記憶デバイス602は、プログラムとして物品管理ビューア603を格納する。ディスプレイ部604は、例えば、各種画像を表示する。マウス・キーボード部605は、利用者から各種操作入力を受け付ける。 The network unit 606 is an interface such as a wired LAN card or a wireless LAN card, and communicates with another device (for example, the article management server 101) via the network 105. The processor unit 601 executes various processes according to a program stored in the storage device 602. The storage device 602 is, for example, a hard disk drive, SSD, RAM, or the like, and stores programs executed by the processor unit 601 and data used by the processor unit 601. In the present embodiment, the storage device 602 stores an article management viewer 603 as a program. The display unit 604 displays various images, for example. The mouse / keyboard unit 605 receives various operation inputs from the user.
<物品管理ビューア>
物品管理ビューア603は、3次元地図に基づく3次元画像上で、物品を管理・閲覧・検索することが可能な機能を備える。物品管理ビューア603は、例えば、物品管理サーバ101の物品管理プログラム203と通信を行うサーバ・クライアント型のアプリケーションである。物品管理ビューア601は、ユーザの操作に基づくリクエストを物品管理サーバ101に送信し、物品管理サーバ101の物品管理プログラム203内の各モジュールによるレスポンスを受信して結果を表示する。物品管理ビューア601に対する操作としては、俯瞰的な3次元画像を閲覧する操作や、3次元画像上の任意の点や範囲を拡大・縮小・回転して確認する等の操作が可能である。また、物品管理ビューア601は、3次元画像上で3次元領域が指定されると、その3次元領域内にどの種類の物品が何個あるかを検索する機能を持つ。さらに、物品管理ビューア601は、物品種類をテキスト検索することも可能である。また、物品管理ビューア601は、指定された物品の動画撮影時の状況を表示することもできる。これにより、例えば、指定されたサーバマシンの外部ランプの状態がどのような状態であったかを確認することができる。更に、物品管理ビューア601は、撮影者がスマートフォン102を持って歩いた移動履歴を表示させることもできる。ここで、プロセッサ部601が物品管理ビューア603を実行することにより、存在物品特定部、表示指定受付部、物品指定受付部、領域指定受付部、及び表示制御部を構成する。
<Article Management Viewer>
The article management viewer 603 has a function capable of managing, browsing, and searching for articles on a three-dimensional image based on a three-dimensional map. The article management viewer 603 is, for example, a server / client type application that communicates with the article management program 203 of the article management server 101. The article management viewer 601 transmits a request based on a user operation to the article management server 101, receives a response from each module in the article management program 203 of the article management server 101, and displays the result. As an operation for the article management viewer 601, an operation for browsing a bird's-eye view three-dimensional image, an operation for confirming an arbitrary point or range on the three-dimensional image by enlarging / reducing / rotating, and the like are possible. Further, the article management viewer 601 has a function of searching for what kind of articles are present in the three-dimensional area when a three-dimensional area is designated on the three-dimensional image. Furthermore, the article management viewer 601 can also perform a text search for the article type. In addition, the article management viewer 601 can display the situation at the time of moving image shooting of the designated article. Thereby, for example, it is possible to confirm the state of the external lamp of the designated server machine. Furthermore, the article management viewer 601 can also display a movement history of the photographer walking with the smartphone 102. Here, when the processor unit 601 executes the article management viewer 603, an existing article specifying unit, a display designation receiving unit, an article designation receiving unit, an area designation receiving unit, and a display control unit are configured.
次に、本実施形態に係る物品管理システムにおける処理動作について説明する。 Next, a description is given of processing operation in the article management system according to the present embodiment.
<システムの起動>
図7は、一実施形態に係るシステム利用開始時処理のフローチャートである。
<System startup>
FIG. 7 is a flowchart of a system use start process according to an embodiment.
システムの利用を開始する際には、撮影者が、管理対象の物品が存在する管理対象の空間にスマートフォン102を持って行き、スマートフォン102の地図アプリケーション501を起動する必要がある。 When starting to use the system, it is necessary for the photographer to bring the smartphone 102 to the management target space where the management target article exists and start the map application 501 of the smartphone 102.
スマートフォン102の地図アプリケーション503は、起動されると、撮影者からのログインを受付可能な状態となり、撮影者からログインを受け付け(S701)、物品管理サーバ101の物品管理プログラム203との通信を開始する(S702)。この時、地図アプリケーション501は、ログインの情報に基づいてスマートフォン102内の撮影者情報を取得し、撮影者情報を物品管理プログラム203に転送する(S703)。なお、撮影者情報については、物品管理サーバ101がログイン用のIDと対応付けて記憶しておき、ログインのIDに基づいて物品管理サーバ101が取得するようにしてもよい。なお、ログイン時には、ログインの認証が行われ、認証がされた後に以降の処理が実行される。 When the map application 503 of the smartphone 102 is activated, the map application 503 is ready to accept a login from the photographer, accepts the login from the photographer (S701), and starts communication with the article management program 203 of the article management server 101. (S702). At this time, the map application 501 acquires photographer information in the smartphone 102 based on the login information, and transfers the photographer information to the article management program 203 (S703). The photographer information may be stored in association with the login ID by the article management server 101 and acquired by the article management server 101 based on the login ID. At the time of login, login authentication is performed, and subsequent processing is executed after the authentication is performed.
地図アプリケーション503は、スマートフォン102のカメラ部504を起動させ、カメラ部504による撮影動画をディスプレイ部505に表示させて、動画撮影を開始する(S704)。次いで、地図アプリケーション503は、物品管理プログラム203への動画データの送信を開始する(S705)。 The map application 503 activates the camera unit 504 of the smartphone 102, displays a moving image shot by the camera unit 504 on the display unit 505, and starts moving image shooting (S704). Next, the map application 503 starts transmission of moving image data to the article management program 203 (S705).
物品管理サーバ101の物品管理プログラム203は、地図アプリケーション503からの動画データを受信すると、受信した動画の動画IDを発行し(S706)、地図生成・物品検出処理(図8参照)を開始する(S707)。 Upon receiving the moving image data from the map application 503, the item management program 203 of the item management server 101 issues a moving image ID of the received moving image (S706), and starts map generation / article detection processing (see FIG. 8) (see FIG. 8). S707).
<地図生成・物品検出処理>
図8は、一実施形態に係る地図生成・物品検出処理のフローチャートである。
<Map generation / article detection process>
FIG. 8 is a flowchart of map generation / article detection processing according to an embodiment.
ここで、図8では、動画データをスマートフォン102から物品管理サーバ101へストリーム処理する場合を例に説明するが、非ストリーム処理としてもよい。非ストリーム処理においては、動画データをスマートフォン102のローカルストレージ(記憶デバイス502)にファイルとして保存し、任意のタイミングで物品管理サーバ101にファイル転送するようにすればよい。 Here, in FIG. 8, a case where the moving image data is stream-processed from the smartphone 102 to the article management server 101 is described as an example, but non-stream processing may be performed. In the non-stream processing, the moving image data may be saved as a file in the local storage (storage device 502) of the smartphone 102 and transferred to the article management server 101 at an arbitrary timing.
まず、物品管理プログラム203は、動画管理テーブル301に新たなエントリを追加し、転送されている動画データの情報を登録する(S801)。具体的には、物品管理プログラム203は、追加したエントリの動画ID302に、発行された動画IDを格納し、動画保存先ファイルパス303に動画の保存先のファイルパス(予め決定されているパス、又は、ユーザから指定されたパス)を格納し、撮影者情報304に取得した撮影者情報を格納し、タイムスタンプ305に、撮影の開始日時を格納する。 First, the article management program 203 adds a new entry to the moving image management table 301 and registers information of the transferred moving image data (S801). Specifically, the article management program 203 stores the issued video ID in the video ID 302 of the added entry, and stores the video save destination file path (predetermined path, Or the path specified by the user), the photographer information 304 is stored in the photographer information 304, and the shooting start date and time is stored in the time stamp 305.
次いで、物品管理プログラム203は、ループAの動画処理(S802〜S810)を繰り返し実行する。 Next, the article management program 203 repeatedly executes the loop A moving image processing (S802 to S810).
動画処理においては、物品管理プログラム203の物品管理モジュール206が、動画の一つのフレーム画像を読み込み(S802)、フレーム画像を物品検出モジュール207に入力する(S803)。物品検出モジュール207は、フレーム画像内の物品を認識し、物品のフレーム内の位置検出を行う(S804)。次いで、物品検出モジュール207は、物品の種類と、フレーム内の位置を示す座標データとを含むエントリを記憶デバイス202の物品検出テーブル1101(図11参照)に出力する(S805)。 In the moving image processing, the article management module 206 of the article management program 203 reads one frame image of the moving image (S802), and inputs the frame image to the article detection module 207 (S803). The article detection module 207 recognizes the article in the frame image and detects the position of the article in the frame (S804). Next, the article detection module 207 outputs an entry including the article type and coordinate data indicating the position in the frame to the article detection table 1101 (see FIG. 11) of the storage device 202 (S805).
ここで、S803からS805までの物品検出処理を具体的に説明する。 Here, the article detection processing from S803 to S805 will be specifically described.
図9は、一実施形態に係るフレーム画像の一例を示す図である。図10は、一実施形態に係るフレーム画像における物品認識及び位置検出を説明する図である。図11は、一実施形態に係る物品検出テーブルの構成図である。 FIG. 9 is a diagram illustrating an example of a frame image according to an embodiment. FIG. 10 is a diagram illustrating article recognition and position detection in a frame image according to an embodiment. Figure 11 is a block diagram of an article detection table according to the embodiment.
例えば、物品検出モジュール207に、図9に示すフレーム画像901が入力されると(S803)、物品検出モジュール207は、図10に示すように、フレーム画像901において、応接ソファー1001、応接ソファー1002、応接テーブル1003、応接ソファー1004、植木1005等の管理対象の物品の種類を認識するとともに、その物品の位置として物品が含まれる矩形領域についての位置を検出する(S804)。その後、物品検出モジュール207は、各物品に対応するエントリを物品検出テーブル1101に出力する(S806)。 For example, when the frame image 901 shown in FIG. 9 is input to the article detection module 207 (S803), the article detection module 207 displays the reception sofa 1001, reception sofa 1002, and the like in the frame image 901 as shown in FIG. The types of articles to be managed such as the reception table 1003, the reception sofa 1004, the planting tree 1005, etc. are recognized, and the position of the rectangular area including the article is detected as the position of the article (S804). Thereafter, the article detection module 207 outputs an entry corresponding to each article to the article detection table 1101 (S806).
物品検出テーブル1101は、各物品に対応するエントリを含み、エントリは、物品種類1102と、フレーム内座標1103とを含む。物品種類1102には、エントリに対応する物品の種類を示す情報が格納される。物品の種類を示す情報としては、種類に対応するラベルとしてもよいが、図11の例では、物品の種類の名前としている。フレーム内座標1103には、フレーム画像における物品に対応する矩形の座標データが格納される。図11の例では、フレーム画像の左上の位置を原点(0,0)とした場合における物品に対応する矩形の左上の点のx座標及びy座標と、その矩形の横幅、その矩形の縦幅としている。S802〜S805の処理により、1フレーム内に存在する物品の種類と、物品の位置との特定が完了する。 The article detection table 1101 includes an entry corresponding to each article, and the entry includes an article type 1102 and in-frame coordinates 1103. The item type 1102 stores information indicating the type of item corresponding to the entry. The information indicating the type of the article may be a label corresponding to the type, but in the example of FIG. 11, the name of the article type is used. In the in-frame coordinates 1103, rectangular coordinate data corresponding to the article in the frame image is stored. In the example of FIG. 11, the x and y coordinates of the upper left point of the rectangle corresponding to the article when the upper left position of the frame image is the origin (0, 0), the horizontal width of the rectangle, and the vertical width of the rectangle It is said. The processing of S802 to S805 completes identification of the type of article existing in one frame and the position of the article.
次に、地図生成モジュール204がフレーム画像を読み込む(S806)。次いで、自己位置推定モジュール205と地図生成モジュール206とが3次元地図(3次元位置情報)の生成、及び自己位置の推定を行う(S807)。この3次元地図の生成においては、例えば、VisualSLAM技術を利用することができる。VisualSLAM技術には、様々な実現手法があるが、例えば、任意の複数のフレーム画像の特徴点をマッチングさせ、フレーム画像間のカメラの撮影位置(自己位置)と姿勢の変化と、3次元上での特徴点の位置とを、最適化計算によって求める方法や、フレーム画像の全ピクセルを対象に、輝度勾配の高い部分のフレーム画像間の輝度変化からそのピクセルの深度推定及び自己位置・姿勢推定を行い、3次元空間へのフレーム画像のピクセルのマッピングを行って3次元点群データを生成する方法などがある。ここでは、複数のフレーム画像から3次元空間上での点群を生成し、その点群を3次元地図の構成要素として利用する場合を例とする。なお、点群データにテクスチャ処理を施し、より人間にわかり易い3次元地図を生成するようにしてもよい。なお、S807とS808における3次元地図の生成及び自己位置の推定においては、複数のフレーム画像が必要であるので、例えば、図8の処理直後の最初のフレーム画像に対してはこれら処理を実行せずに、それ以降のフレーム画像に対しては、時間的に前のいずれかのフレーム画像を用いて処理を行うようにすればよい。 Next, the map generating module 204 reads the frame image (S806). Next, the self-position estimation module 205 and the map generation module 206 generate a three-dimensional map (three-dimensional position information) and estimate the self-position (S807). In generating the three-dimensional map, for example, VisualSLAM technology can be used. There are various realization methods in the VisualSLAM technology. For example, the feature points of a plurality of frame images are matched, and the shooting position (self-position) and the posture of the camera between the frame images are changed in three dimensions. The position of the feature point is calculated by optimization calculation, and for all pixels of the frame image, the depth estimation of the pixel and self-position / posture estimation are performed from the luminance change between the frame images of the part with high luminance gradient There is a method of generating 3D point cloud data by mapping pixels of a frame image to a 3D space. Here, as an example, a point cloud in a three-dimensional space is generated from a plurality of frame images, and the point cloud is used as a component of a three-dimensional map. Note that texture processing may be performed on the point cloud data to generate a three-dimensional map that is easier for humans to understand. Note that the generation of the three-dimensional map and the estimation of the self position in S807 and S808 require a plurality of frame images. For example, these processes are executed for the first frame image immediately after the processing in FIG. Instead, the subsequent frame images may be processed using one of the temporally previous frame images.
次に、物品管理モジュール206は、物品検出テーブル1101に格納された各物品について物品データベース207に登録する処理を実行する(S808)。具体的には、物品管理モジュール206は、新たな物品である場合には、物品データベース207に新たなエントリを追加し、物品を識別する物品IDを決定して物品ID401に格納し、検出された物品種類を物品種類402に格納し、物品の3次元座標を3次元座標403に格納し、動画データの動画IDを動画ID404に格納し、物品を検出したフレーム番号をフレーム番号405に追加する。ここで、物品管理モジュール206は、物品検出テーブル1101の位置座標1103に格納されているフレーム中の座標を、3次元地図の座標系に変換する。フレーム中の座標を、3次元地図の座標系に変換する方法としては、例えば、対応する1つの物品が存在する複数のフレーム画像から特定することができる。なお、同一の物品が既に検出されている場合、すなわち、過去に処理したフレーム画像において検出されている場合には、物品管理モジュール206は、その物品に対応する物品データベース207のエントリのフレーム番号405に処理対象のフレームのフレーム番号を追加する。ここで、同一の物品が検出されているか否かは、物品の3次元座標が所定の距離以内であるか否かにより判定するようにしてもよい。 Next, the article management module 206 executes processing for registering each article stored in the article detection table 1101 in the article database 207 (S808). Specifically, if it is a new article, the article management module 206 adds a new entry to the article database 207, determines an article ID for identifying the article, stores the article ID in the article ID 401, and is detected. The item type is stored in the item type 402, the three-dimensional coordinate of the item is stored in the three-dimensional coordinate 403, the moving image ID of the moving image data is stored in the moving image ID 404, and the frame number where the item is detected is added to the frame number 405. Here, the article management module 206 converts the coordinates in the frame stored in the position coordinates 1103 of the article detection table 1101 into the coordinate system of the three-dimensional map. As a method of converting the coordinates in the frame into the coordinate system of the three-dimensional map, for example, it can be specified from a plurality of frame images in which one corresponding article exists. If the same article has already been detected, that is, if it has been detected in a frame image processed in the past, the article management module 206 enters the frame number 405 of the entry in the article database 207 corresponding to the article. To the frame number of the frame to be processed. Here, whether or not the same article is detected may be determined based on whether or not the three-dimensional coordinates of the article are within a predetermined distance.
次いで、地図生成モジュール204は、地図データ管理テーブル306に、新たなエントリを追加し、エントリの動画ID307に処理対象の動画の動画IDを格納し、フレーム番号308に処理対象のフレームのフレーム番号を格納し、自己位置情報309にS804で検出した自己位置を格納し、3次元点群座標310にS807で生成した各点の3次元座標を格納する。(S809)。その後、地図生成モジュール204は、動画データを地図データベース208の動画に対応するエントリの動画保存先ファイルパス303によって指定されているパスのファイルに保存する(S810)。S802からS810までの動画処理は、スマートフォン102の地図アプリケーション503から動画データの転送が終了するまで繰り返し実行される。 Next, the map generation module 204 adds a new entry to the map data management table 306, stores the moving image ID of the processing target moving image in the moving image ID 307 of the entry, and stores the frame number of the processing target frame in the frame number 308. The self-position detected in S804 is stored in the self-position information 309, and the three-dimensional coordinates of each point generated in S807 are stored in the three-dimensional point group coordinates 310. (S809). Thereafter, the map generation module 204 stores the moving image data in a file of the path specified by the moving image storage destination file path 303 of the entry corresponding to the moving image in the map database 208 (S810). The moving image processing from S802 to S810 is repeatedly executed until transfer of moving image data from the map application 503 of the smartphone 102 is completed.
次に、スマートフォン102により動画撮影を行いながら撮影者が歩行した場合における、3次元地図の生成及び3次元地図に基づく3次元画像を説明する図である。 Next, it is a figure explaining the three-dimensional image based on the production | generation of a three-dimensional map when a photographer walks, performing video imaging | photography with the smart phone 102, and a three-dimensional map.
図12は、一実施形態に係る3次元地図の生成及び3次元地図に基づく3次元画像を説明する図である。図13は、一実施形態に係る3次元地図に基づく別視点の3次元画像を示す図である。 FIG. 12 is a diagram illustrating the generation of a 3D map and a 3D image based on the 3D map according to an embodiment. FIG. 13 is a diagram illustrating a three-dimensional image of another viewpoint based on a three-dimensional map according to an embodiment.
撮影者が地図アプリケーション503を起動させて、スマートフォンに102のカメラ部504で動画を撮影しながら歩行した場合においては、動画データ中には、例えば、フレーム画像1201〜1207が含まれる。なお、動画データ中には、実際には、フレーム画像1201〜1207よりも多くの連続的なフレーム画像が含まれることとなる。 When the photographer activates the map application 503 and walks on the smartphone while shooting a moving image with the camera unit 504 of the camera 102, the moving image data includes, for example, frame images 1201 to 1207. Note that the moving image data actually includes more continuous frame images than the frame images 1201 to 1207.
このような動画データは、地図アプリケーション503により、物品管理サーバ101の物品管理プログラム203に転送される。物品管理サーバ101の物品管理プログラム203においては、地図生成モジュール204と自己位置推定モジュール205とが連動して、撮影された空間における点群の3次元地図を生成する。生成された点群の3次元地図を用いると、或る視点から観察される空間を示す3次元画像1208を生成することができる。このような3次元画像は、物品確認端末103の物品管理ビューア603によって作成されて表示させることができる。3次元画像1208中には、撮影者の移動履歴(自己位置の履歴)を線でつなぐことによって移動履歴線1209を表示させるようにすることもできる。この3次元画像1208によると、撮影者が地点1210から地点1211に移動したことがわかる。なお、地点1210で撮影されたフレーム画像は、フレーム画像1201であり、地点1211で撮影されたフレーム画像は、フレーム画像1207である。 Such moving image data is transferred to the article management program 203 of the article management server 101 by the map application 503. In the article management program 203 of the article management server 101, the map generation module 204 and the self-position estimation module 205 work together to generate a three-dimensional map of the point cloud in the photographed space. By using the generated three-dimensional map of the point group, a three-dimensional image 1208 showing a space observed from a certain viewpoint can be generated. Such a three-dimensional image can be created and displayed by the article management viewer 603 of the article confirmation terminal 103. In the three-dimensional image 1208, the movement history line 1209 can be displayed by connecting the movement history of the photographer (history of the self position) with a line. This three-dimensional image 1208 shows that the photographer has moved from the point 1210 to the point 1211. Note that the frame image captured at the point 1210 is a frame image 1201, and the frame image captured at the point 1211 is a frame image 1207.
また、物品検出モジュール207は、管理対象の物品を認識し、その物品の3次元地図の座標系での位置を検出する。図12においては、管理対象の物品をPC(ディスプレイのみを含む)として、そのPCの画像を物品検出モジュール207に機械学習させた場合における表示例を示している。図12においては、認識されて位置が検出されたPC(PC1212等)は、3次元画像1208においては、「▲」で表示されている。なお、図11に示す物品検出テーブル1101では、物品の位置を矩形の位置情報として取得するようにしていたが、3次元地図上においては、例えば、物品の3次元位置を、矩形の中心に対応する3次元位置にマッピングしてもよい。例えば、3次元地図に基づいて3次元画像を生成する際における視点を変更してもよく、例えば、対象の空間を俯瞰的に見える視点に変更することにより、図13に示すような3次元画像1301を生成して表示させるようにしてもよい。このように、3次元地図に基づく3次元画像において物品の位置をマッピングすることにより、より効率的に空間における物品の位置を把握することが可能となる。 In addition, the article detection module 207 recognizes an article to be managed and detects the position of the article in the coordinate system of the three-dimensional map. FIG. 12 shows a display example when the article to be managed is a PC (including only a display) and the article detection module 207 causes the article detection module 207 to perform machine learning. In FIG. 12, the PC (PC 1212 or the like) that has been recognized and whose position has been detected is displayed as “▲” in the three-dimensional image 1208. In the article detection table 1101 shown in FIG. 11, the position of the article is acquired as rectangular position information. However, on the three-dimensional map, for example, the three-dimensional position of the article corresponds to the center of the rectangle. It may be mapped to a three-dimensional position. For example, the viewpoint at the time of generating a three-dimensional image based on a three-dimensional map may be changed. For example, a three-dimensional image as shown in FIG. 1301 may be generated and displayed. Thus, by mapping the position of the article in the three-dimensional image based on the three-dimensional map, the position of the article in the space can be grasped more efficiently.
<3次元画像表示処理>
図14は、一実施形態に係る3次元画像表示処理のフローチャートである。図15は、一実施形態に係る物品管理ビューア画面を示す図である。
<3D image display processing>
FIG. 14 is a flowchart of 3D image display processing according to an embodiment. FIG. 15 is a diagram illustrating an article management viewer screen according to an embodiment.
物品管理ビューア603は、プロセッサ部601により実行されると、物品管理ビューア画面1501(図15参照)に対象空間の3次元画像を表示し、かつ、可視領域(ディスプレイ上に表示されている領域)上の物品の種類と物品の数とを物品情報ウィンドウ1502に表示する。また、物品管理ビューア603は、撮影移動履歴ボタン1503が押下されると、この3次元画像の基となる3次元地図を生成するための動画を撮影した撮影者の移動履歴を物品管理ビューア画面1501の3次元画像上に表示する。この物品管理ビューア603により画面を表示する処理を以下に説明する。 When the article management viewer 603 is executed by the processor unit 601, the article management viewer 603 displays a three-dimensional image of the target space on the article management viewer screen 1501 (see FIG. 15) and a visible area (area displayed on the display). The item type and the number of items are displayed in the item information window 1502. In addition, when the photographing movement history button 1503 is pressed, the article management viewer 603 displays the movement history of the photographer who has photographed the moving image for generating the three-dimensional map that is the basis of the three-dimensional image. Are displayed on the three-dimensional image. The article management viewer 603 illustrating a process of displaying the screen below.
3次元画像表示処理は、物品管理装置103が、物品管理者により物品管理ビューア603の起動指示を受け付けて、物品管理ビューワ603を起動させることにより開始される。物品管理ビューア606は、物品管理プログラム203と通信し、地図データベース208から所定の領域(例えば、予め設定されている領域、又は、物品管理者により指定された領域)の3次元地図データを読み込む(S1401)。次いで、物品管理ビューア606は、物品データベース209からS1401で読み込んだ3次元地図データと同じ動画IDに対応するエントリの物品情報(物品ID、物品種類、3次元座標、及びフレーム番号)を読み込む(S1402)。 The three-dimensional image display process is started when the article management apparatus 103 accepts an activation instruction for the article management viewer 603 by the article manager and activates the article management viewer 603. The article management viewer 606 communicates with the article management program 203 and reads the three-dimensional map data of a predetermined area (for example, a preset area or an area designated by the article manager) from the map database 208 ( S1401). Next, the article management viewer 606 reads article information (article ID, article type, three-dimensional coordinates, and frame number) of an entry corresponding to the same moving image ID as the three-dimensional map data read in S1401 from the article database 209 (S1402). ).
次に、物品管理ビューア603は、物品管理端末103のディスプレイ部604の物品管理ビューア画面1501に表示させる3次元画像の領域(具体的には、3次元画像を生成する3次元空間上の視点及び視線方向)を決定し、3次元画像に表示される領域に対応する3次元空間内の物品種類と物品数をカウントする(S1403)。なお、3次元画像に表示される領域に対応する3次元空間内の物品については、3次元画像の視点及び視線方向により特定される3次元画像に表示される3次元空間に、物品の3次元座標が属することにより特定することができる。 Next, the article management viewer 603 displays a three-dimensional image area (specifically, a viewpoint in a three-dimensional space for generating a three-dimensional image and a viewpoint of a three-dimensional image displayed on the article management viewer screen 1501 of the display unit 604 of the article management terminal 103). (Gaze direction) is determined, and the article type and the number of articles in the three-dimensional space corresponding to the area displayed in the three-dimensional image are counted (S1403). For an article in a three-dimensional space corresponding to a region displayed in the three-dimensional image, the three-dimensional image of the article is displayed in the three-dimensional space displayed in the three-dimensional image specified by the viewpoint and the line-of-sight direction of the three-dimensional image. It can be specified by the coordinate belonging.
次いで、物品管理ビューア603は、取得した3次元地図データと、取得した物品情報とに基づいて、図15に示すような複数の点が含まれ、且つ、物品の位置を示すオブジェクトが含まれる3次元画像を物品管理ビューア画面1501に表示させる(S1404)。本実施形態では、物品の種類によって表示するオブジェクトを異ならせている。ここで、3次元画像における各点は、3次元点群データが示す3次元座標を、3次元画像の視点及び視線方向により特定される3次元画像の座標系に変換すること得られた位置に表示され、物品に対応するオブジェクトは、物品の3次元座標を3次元画像の視点及び視線方向により特定される3次元画像の座標系に変換することにより得られた位置に表示される。 Next, the article management viewer 603 includes a plurality of points as shown in FIG. 15 based on the acquired three-dimensional map data and the acquired article information, and includes an object indicating the position of the article 3 The three-dimensional image is displayed on the article management viewer screen 1501 (S1404). In the present embodiment, different objects are displayed depending on the type of article. Here, each point in the three-dimensional image is at a position obtained by converting the three-dimensional coordinates indicated by the three-dimensional point cloud data into the coordinate system of the three-dimensional image specified by the viewpoint and the line-of-sight direction of the three-dimensional image. The displayed object corresponding to the article is displayed at a position obtained by converting the three-dimensional coordinates of the article into the coordinate system of the three-dimensional image specified by the viewpoint and line-of-sight direction of the three-dimensional image.
この物品管理ビューア画面1501によると、物品管理者は、3次元画像上で物品の位置を閲覧・確認することができるとともに、表示されている領域における物品の種類及び物品の数を確認することができる。 According to the article management viewer screen 1501, the article manager can view and confirm the position of the article on the three-dimensional image, and can confirm the type of article and the number of articles in the displayed area. it can.
<物品管理者による操作時の物品管理ビューアによる表示変更処理>
図16は、一実施形態に係る表示変更処理のフローチャートである。図17は、一実施形態に係る領域指定検索を説明する図である。図18は、一実施形態に係る物品状態確認画面を示す図である。図19は、一実施形態に係る移動履歴を表示する物品管理ビューア画面を示す図である。
<Display change processing by the article management viewer when operated by the article manager>
FIG. 16 is a flowchart of a display change process according to an embodiment. FIG. 17 is a diagram illustrating region designation search according to an embodiment. FIG. 18 is a diagram illustrating an article state confirmation screen according to an embodiment. FIG. 19 is a diagram illustrating an article management viewer screen that displays a movement history according to an embodiment.
表示変更処理は、物品管理ビューア画面1501上で物品管理者がマウス・キーボード部605を使って操作した場合に実行される処理である。 The display change process is a process that is executed when the article manager operates on the article management viewer screen 1501 using the mouse / keyboard unit 605.
物品管理ビューア603は、物品管理者によるマウス・キーボード部605による操作を受け付け、その操作の種類を判定する(S1601)。 The article management viewer 603 receives an operation by the article manager using the mouse / keyboard unit 605 and determines the type of the operation (S1601).
操作の種類が、物品管理ビューア画面1501上の3次元画像に対して、マウス・キーボード部605を使って拡大・縮小・回転等の画像変更を指示する操作である場合(S1601:画像変更指示)には、物品管理ビューア603は、画像変更の指示に従った3次元画像を生成するとともに、新たに生成した3次元画像に表示されている領域内の物品種類と数とを取得する(S1602)。次に、物品管理ビューア603は、生成した3次元画像を表示するとともに、物品情報ウィンドウ1502に物品情報(物品の種別及び個数)を表示する(S1603)。この操作を行うことで、物品管理者は、種々の大きさ・角度で3次元空間に対応する3次元画像を表示させることができ、その3次元画像において物品の位置を適切に表示することができる。また、表示領域における物品の位置及びその数を容易に確認することができる。 When the operation type is an operation for instructing an image change such as enlargement / reduction / rotation using the mouse / keyboard unit 605 with respect to the three-dimensional image on the article management viewer screen 1501 (S1601: image change instruction). In step S1602, the article management viewer 603 generates a three-dimensional image in accordance with the image change instruction, and acquires the type and number of articles in the area displayed in the newly generated three-dimensional image. . Next, the article management viewer 603 displays the generated three-dimensional image and also displays article information (type and number of articles) in the article information window 1502 (S1603). By performing this operation, the article manager can display a three-dimensional image corresponding to the three-dimensional space with various sizes and angles, and can appropriately display the position of the article in the three-dimensional image. it can. In addition, the position and number of articles in the display area can be easily confirmed.
また、操作の種類が、物品管理ビューア画面1501上の3次元画像に対して、物品の種類及び数を検索する対象とする3次元領域(検索領域)を指定する操作である場合(S1601:領域指定検索)には、物品情報に基づいて、指定された検索領域に対応する3次元座標内に存在する物品の種類と数を取得・算出する(S1604)。ここで、物品管理ビューア画面1501上において3次元の検索領域を指定する方法としては、物品管理ビューア603は、例えば、図17に示すように、領域を指定するための3次元空間での直方体を表す検索領域1701を表示させ、この検索領域1701を変形させる指示(例えば、横方向の調整、縦方向の調整、奥行き方向の調整等)をマウス・キーボード部605から受け付けるようにしてもよい。 When the operation type is an operation for designating a three-dimensional area (search area) to be searched for the type and number of articles on the three-dimensional image on the article management viewer screen 1501 (S1601: area) In the designated search, the type and number of articles existing in the three-dimensional coordinates corresponding to the designated search area are acquired and calculated based on the article information (S1604). Here, as a method for designating a three-dimensional search area on the article management viewer screen 1501, for example, the article management viewer 603 uses a cuboid in a three-dimensional space for designating an area as shown in FIG. A search area 1701 to be displayed may be displayed, and an instruction to deform the search area 1701 (for example, horizontal adjustment, vertical adjustment, depth adjustment, etc.) may be received from the mouse / keyboard unit 605.
次いで、物品管理ビューア603は、物品情報ウィンドウ1502にS1604で得た物品情報(物品種類及び個数)を表示する(S1603)。 Next, the article management viewer 603 displays the article information (article type and number) obtained in S1604 in the article information window 1502 (S1603).
また、操作の種類が、物品管理ビューア画面1501上の3次元画像中のいずれかの物品の状態の詳細を表示させる操作(例えば、3次元画像中の物品に対するマウス・キーボード部によるクリック)である場合には、物品管理ビューア603は、物品管理サーバ101の物品管理プログラム203に、指定された物品の物品IDを転送する(S1605)。これに対して、物品管理プログラム203は、取得した物品IDにより物品データベース209を検索し、検索で得られたエントリの動画ID404から動画IDを取得し、フレーム番号405からフレーム番号を取得する(S1606)。次に、物品管理プログラム203は、地図データベース208の動画管理テーブル301から動画IDに対応するエントリを検索し、検索して得られたエントリの動画保存先ファイルバス303から動画ファイルのファイルパスを取得し、このファイルパスが示す動画ファイル210を取得し、この動画ファイル210のS1606で取得したフレーム番号に対応する静止画(フレーム画像)を取得し(S1607)、フレーム画像を物品管理ビューア603に返す(S1608)。なお、物品管理プログラム203は、フレーム画像とともに、撮影者情報と、撮影をした日時を物品管理ビューア603に返してもよい。 Also, the type of operation is an operation for displaying details of the state of any article in the three-dimensional image on the article management viewer screen 1501 (for example, a click on the article in the three-dimensional image by the mouse / keyboard unit). In this case, the article management viewer 603 transfers the article ID of the designated article to the article management program 203 of the article management server 101 (S1605). In response to this, the article management program 203 searches the article database 209 using the acquired article ID, acquires a moving picture ID from the moving picture ID 404 of the entry obtained by the search, and acquires a frame number from the frame number 405 (S1606). ). Next, the article management program 203 retrieves the entry corresponding to the movie ID from the movie management table 301 of the map database 208, and obtains the file path of the movie file from the movie storage destination file bus 303 of the entry obtained by the search. Then, the moving image file 210 indicated by the file path is acquired, the still image (frame image) corresponding to the frame number acquired in S1606 of the moving image file 210 is acquired (S1607), and the frame image is returned to the article management viewer 603. (S1608). Note that the article management program 203 may return the photographer information and the date and time of photographing together with the frame image to the article management viewer 603.
その後、物品管理ビューア603は、物品管理プログラム203から返されたフレーム画像に基づいて物品の画像と、物品の情報を表示する(S1609)。表示する物品の情報としては、物品の種類と、動画の撮影者の名前、撮影日時等を含んでもよい。なお、このように、物品の詳細を表示させるようにする場合には、動画撮影時において、物品の状態がよくわかるように近づいて撮影しておくことが好ましい。 Thereafter, the article management viewer 603 displays the article image and article information based on the frame image returned from the article management program 203 (S1609). The information on the article to be displayed may include the type of the article, the name of the photographer of the moving image, the shooting date and time, and the like. In addition, when displaying the details of an article in this way, it is preferable to take an image close to the article so that the state of the article can be clearly understood during movie shooting.
例えば、図15に示す物品管理ビューア画面1501の3次元画像上の五角形のオブジェクト(大型ディスプレイに対応するオブジェクト)をクリックすると、図18に示すように、大型ディスプレイの物品画像1802と物品の情報が含まれている物品情報ウィンドウ1803とを含む物品状態確認画面1801が表示される。 For example, when a pentagonal object (an object corresponding to a large display) on a three-dimensional image on the article management viewer screen 1501 shown in FIG. 15 is clicked, an article image 1802 on the large display and article information are displayed as shown in FIG. An article state confirmation screen 1801 including the contained article information window 1803 is displayed.
物品管理者は、物品状態確認画面1801を見ることにより、撮影時の物品の状態をより詳細に確認できる。また、物品情報ウィンドウ1802には、撮影者と撮影日時とが表示されているため、その日時の物品状態確認のエビデンスとしても利用できる。 By viewing the article status confirmation screen 1801, the article manager can confirm the status of the article at the time of photographing in more detail. In addition, since the photographer and the shooting date and time are displayed in the article information window 1802, the article information window 1802 can be used as evidence for checking the article status at that date and time.
なお、S1606において、フレーム番号405から複数のフレーム番号が取得される場合があるが、S1607においては、これらすべてのフレーム番号のフレーム画像を送信してもよく、そのうちの一部を送信してもよい。また、複数のフレーム画像が送信された場合には、S1609において、物品管理ビューア603は、複数のフレーム画像からいずれか一つのフレーム画像を選択して表示させてもよい。表示させるフレーム画像を選択する方法としては、例えば、画像における対象の物品のサイズが大きいフレーム画像を選択してもよく、フレーム画像の中心又はその近傍に対象の物品が位置するフレーム画像を選択してもよい。このようにすると、物品の状態を迅速にかつ詳細に確認することができる。また、複数のフレーム画像が送信された場合には、S1609において、物品管理ビューア603は、複数のフレーム画像を選択可能に表示するようにしてもよい。選択可能に表示する方法としては、いずれか一つを表示させるとともに、表示させるフレーム画像の変更の指示を受け付けるボタンを表示させるようにしてもよい。 In S1606, a plurality of frame numbers may be acquired from the frame number 405. In S1607, frame images of all these frame numbers may be transmitted, or some of them may be transmitted. Good. When a plurality of frame images are transmitted, the article management viewer 603 may select and display any one frame image from the plurality of frame images in S1609. As a method of selecting a frame image to be displayed, for example, a frame image in which the size of the target article in the image is large may be selected. A frame image in which the target article is located at or near the center of the frame image is selected. May be. In this way, the state of the article can be confirmed quickly and in detail. When a plurality of frame images are transmitted, the article management viewer 603 may display the plurality of frame images so as to be selectable in S1609. As a method of displaying in a selectable manner, any one of them may be displayed and a button for receiving an instruction to change the frame image to be displayed may be displayed.
また、操作の種類が、物品管理ビューア画面1501上の3次元画像中に移動履歴を表示させるための撮影移動履歴ボタン1503が押下された操作である場合には、物品管理ビューア603は、表示している3次元画像に対応する3次元地図データの基となっている動画の動画IDを物品管理サーバ101の物品管理プログラム203に転送する(S1610)。 When the operation type is an operation in which the shooting movement history button 1503 for displaying the movement history in the three-dimensional image on the article management viewer screen 1501 is pressed, the article management viewer 603 displays the operation history. The moving image ID of the moving image that is the basis of the three-dimensional map data corresponding to the three-dimensional image is transferred to the item management program 203 of the item management server 101 (S1610).
物品管理プログラム203は、地図データベース208の地図管理テーブル306の動画IDに対応するすべてのエントリの自己位置情報309の自己位置情報(移動履歴の時系列の自己位置情報のすべて)と、動画管理テーブル301の動画IDに対応するエントリの撮影者情報304の撮影者情報(撮影者、撮影日時等)とを取得し(S1611)、取得した情報を物品管理ビューア603に返す(S1612)。物品管理ビューア603は、受信した各自己位置情報に対応する3次元画像上の位置を特定し、それらの位置を時系列に線で結んだ撮影履歴1901を表示させるとともに、受信した撮影者情報を撮影情報ウィンドウ1902に表示させる(S1613)。例えば、図15に示す物品管理ビューア画面1501において、撮影移動履歴ボタン1503が押下された場合には、図19に示すように、撮影履歴1901が表示されるとともに、撮影情報ウィンドウ1902が表示される。この物品管理ビューア画面1501によると、物品管理者は、物品の撮影者がどのように移動して撮影を行ったかを確認することができ、いつの状態で、どのように作成されたかを容易に確認することができる。 The article management program 203 includes self-position information (all time-series self-position information of movement history) of self-position information 309 of all entries corresponding to the moving picture IDs of the map management table 306 of the map database 208, and a moving picture management table. The photographer information 304 (photographer, photographing date and time) of the photographer information 304 of the entry corresponding to the moving image ID 301 is acquired (S1611), and the acquired information is returned to the article management viewer 603 (S1612). The article management viewer 603 specifies a position on the three-dimensional image corresponding to each received self-position information, displays a shooting history 1901 in which those positions are connected by a line in time series, and receives received photographer information. It is displayed on the photographing information window 1902 (S1613). For example, when the shooting movement history button 1503 is pressed on the article management viewer screen 1501 shown in FIG. 15, a shooting history 1901 and a shooting information window 1902 are displayed as shown in FIG. . According to the article management viewer screen 1501, the article manager can confirm how the photographer of the article has moved and photographed, and easily confirms when and how the photographer was created. can do.
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で、適宜変形して実施することが可能である。 In addition, this invention is not limited to the above-mentioned embodiment, In the range which does not deviate from the meaning of this invention, it can change suitably and can implement.
例えば、上記実施形態では、物品管理システムを、スマートフォン102と、物品管理サーバ101と、物品管理端末103とを別体の装置により構成した例を示していたが、本発明はこれに限られず、いずれか複数の装置を一つの装置として構成してもよい。例えば、スマートフォンに、物品管理サーバ101と物品管理端末103とのすべての機能を含めるようにして、スマートフォンにより物品管理システムを実現してもよく、スマートフォンに物品管理端末103の機能を含めるようにして、スマートフォンと、物品管理サーバにより物品管理システムを実現するようにしてもよい。 For example, in the above embodiment, the article management system has been illustrated as an example in which the smartphone 102, the article management server 101, and the article management terminal 103 are configured as separate devices, but the present invention is not limited thereto, Any one of a plurality of devices may be configured as one device. For example, all functions of the article management server 101 and the article management terminal 103 may be included in the smartphone, and the article management system may be realized by the smartphone, and the function of the article management terminal 103 may be included in the smartphone. The article management system may be realized by a smartphone and an article management server.
また、上記実施形態において、物品管理ビューア603が3次元地図データに基づいて3次元画像を生成するようにしていたが、本発明はこれに限られず、表示させる3次元画像を物品管理サーバ101の物品管理プログラム203側で作成し、物品管理ビューア603には、作成された3次元画像を表示させるための処理を実行させるようにしてもよい。 In the above embodiment, the article management viewer 603 generates a three-dimensional image based on the three-dimensional map data. However, the present invention is not limited to this, and the three-dimensional image to be displayed is displayed on the article management server 101. It may be created on the article management program 203 side, and the article management viewer 603 may execute processing for displaying the created three-dimensional image.
また、上記実施形態において、プロセッサ部が行っていた処理の一部又は全部を、ハードウェア回路で行うようにしてもよい。また、上記実施形態におけるプログラムは、プログラムソースからインストールされてよい。プログラムソースは、プログラム配布サーバ又は記憶メディア(例えば可搬型の記憶メディア)であってもよい。 In the above embodiment, part or all of the processing performed by the processor unit may be performed by a hardware circuit. In addition, the program in the above embodiment may be installed from a program source. The program source may be a program distribution server or a storage medium (for example, a portable storage medium).
10…物品管理システム、101…物品管理サーバ、102…スマートフォン、103…物品管理端末、201,501,601…プロセッサ部、202,502,602…記憶デバイス、203…物品管理プログラム、208…地図データベース、209…物品データベース、210…動画ファイル、211,506,606…ネットワーク部、503…地図アプリケーション、504…カメラ部、603…物品管理ビューア
DESCRIPTION OF SYMBOLS 10 ... Goods management system 101 ... Goods management server 102 ... Smartphone 103 ... Goods management terminal 201,501,601 ... Processor part 202,502,602 ... Storage device 203 ... Goods management program 208 ... Map database 209: Article database 210: Video file 211, 506, 606 Network unit 503 Map application 504 Camera unit 603 Item management viewer
Claims (11)
前記所定の空間を撮影した動画像に基づいて、前記所定の空間における点群の3次元位置を特定可能な3次元位置情報を特定する3次元位置特定部と、
前記動画像における1以上のフレーム画像に基づいて、前記フレーム画像中の前記物品を認識する物品認識部と、
前記認識された物品の前記所定の空間における3次元位置を特定可能な物品位置情報を特定する物品位置特定部と、
を有する物品管理システム。 An article management system for managing articles to be managed arranged in a predetermined space,
A three-dimensional position specifying unit that specifies three-dimensional position information capable of specifying a three-dimensional position of a point group in the predetermined space based on a moving image obtained by photographing the predetermined space;
An article recognition unit that recognizes the article in the frame image based on one or more frame images in the moving image;
An article position specifying unit for specifying article position information capable of specifying a three-dimensional position of the recognized article in the predetermined space;
An article management system.
請求項1に記載の物品管理システム。 Based on the three-dimensional position information of the point group, a three-dimensional image from a predetermined viewpoint in the space is displayed, and the presence position of the article is displayed in the three-dimensional image based on the article position information. The article management system according to claim 1, further comprising a display control unit.
前記表示制御部は、特定された物品の種類及び物品の数を表示させる
請求項2に記載の物品管理システム。 A presence article specifying unit for specifying the type of article and the number of articles present in the region corresponding to the three-dimensional image;
The article management system according to claim 2, wherein the display control unit displays the specified kind of article and the number of articles.
前記表示制御部は、前記指定に基づいた3次元画像を表示させる
請求項2又は請求項3に記載の物品管理システム。 A display designation receiving unit for receiving a designation related to the display of the three-dimensional image;
The article management system according to claim 2, wherein the display control unit displays a three-dimensional image based on the designation.
前記表示制御部は、指定された前記物品が含まれる1以上のフレーム画像を特定し、特定した前記フレーム画像の少なくともいずれか一つに基づいて物品の画像を表示させる
請求項2から請求項4のいずれか一項に記載の物品管理システム。 An article designation receiving unit for accepting designation of articles in the three-dimensional image;
The display control unit identifies one or more frame images including the designated article, and displays an image of the article based on at least one of the identified frame images. The article management system according to any one of the above.
請求項5に記載の物品管理システム。 The article management system according to claim 5, wherein the display control unit displays a plurality of frame images so as to be selectable when there are a plurality of frame images including the identified article.
請求項5に記載の物品管理システム。 When there are a plurality of frame images including the specified article, the display control unit has a large range in which the article exists or a frame in which the article exists at or near the center from among the plurality of frame images. The article management system according to claim 5, wherein an image is selected and displayed.
前記存在物品特定部は、前記指定された3次元領域中に存在する物品の種類及び物品の数を特定し、
前記表示制御部は、前記指定された3次元領域中に存在すると特定された前記物品の種類及び前記物品の数を表示させる
請求項2から請求項7のいずれか一項に記載の物品管理システム。 An area designation accepting unit for accepting designation of a three-dimensional area in the space;
The existence article specifying unit specifies the type of article and the number of articles existing in the designated three-dimensional area,
The article management system according to any one of claims 2 to 7, wherein the display control unit displays a type of the article specified as being present in the designated three-dimensional region and a number of the articles. .
前記撮影装置は、前記所定の空間の動画像を撮影する動画像撮影部を備え、
前記動画像の撮影時に、前記撮影装置の表示部に、前記3次元位置特定部により特定された前記所定の空間における点群の3次元位置情報に基づく3次元画像を表示させる撮影支援部をさらに備える
請求項1から請求項8のいずれか一項に記載の物品管理システム。 Equipped with a photographic device,
The photographing apparatus includes a moving image photographing unit that photographs a moving image of the predetermined space,
A photographing support unit for displaying a three-dimensional image based on the three-dimensional position information of the point group in the predetermined space identified by the three-dimensional position identifying unit on the display unit of the photographing apparatus when photographing the moving image; The article management system according to any one of claims 1 to 8, further comprising:
前記撮影装置は、
前記所定の空間の動画像を撮影する動画像撮影部を備え、
前記処理サーバは、
前記3次元位置特定部と、前記物品認識部と、前記物品位置特定部とを備える
請求項1から請求項9のいずれか一項に記載の物品管理システム。 A photographing device and a processing server;
The imaging device
A moving image shooting unit for shooting a moving image of the predetermined space;
The processing server
The article management system according to any one of claims 1 to 9, comprising the three-dimensional position specifying unit, the article recognizing unit, and the article position specifying unit.
前記コンピュータを、
前記所定の空間を撮影した動画像に基づいて、前記所定の空間における点群の3次元位置情報を特定する3次元位置特定部と、
前記動画像における1以上のフレーム画像に基づいて、前記フレーム画像中の前記物品を認識する物品認識部と、
前記認識された物品の前記所定の空間における3次元位置である物品位置情報を特定する物品位置特定部と、
して機能させる物品管理プログラム。
An article management program for causing a computer constituting an article management system for managing articles to be managed arranged in a predetermined space to execute the program,
The computer,
A three-dimensional position specifying unit for specifying three-dimensional position information of a point group in the predetermined space based on a moving image obtained by photographing the predetermined space;
An article recognition unit that recognizes the article in the frame image based on one or more frame images in the moving image;
An article position specifying unit that specifies article position information that is a three-dimensional position of the recognized article in the predetermined space;
Goods management program to make it function.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018059646A JP2019174920A (en) | 2018-03-27 | 2018-03-27 | Article management system and article management program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018059646A JP2019174920A (en) | 2018-03-27 | 2018-03-27 | Article management system and article management program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019174920A true JP2019174920A (en) | 2019-10-10 |
Family
ID=68168743
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018059646A Pending JP2019174920A (en) | 2018-03-27 | 2018-03-27 | Article management system and article management program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019174920A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021111613A1 (en) * | 2019-12-06 | 2021-06-10 | 三菱電機株式会社 | Three-dimensional map creation device, three-dimensional map creation method, and three-dimensional map creation program |
| JPWO2021149262A1 (en) * | 2020-01-24 | 2021-07-29 | ||
| JPWO2021149261A1 (en) * | 2020-01-24 | 2021-07-29 | ||
| CN114332663A (en) * | 2021-12-30 | 2022-04-12 | 歌尔科技有限公司 | Article management and control method, device, equipment and storage medium |
| WO2023203849A1 (en) * | 2022-04-21 | 2023-10-26 | 株式会社日立製作所 | Space visualization system and space visualization method |
-
2018
- 2018-03-27 JP JP2018059646A patent/JP2019174920A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021111613A1 (en) * | 2019-12-06 | 2021-06-10 | 三菱電機株式会社 | Three-dimensional map creation device, three-dimensional map creation method, and three-dimensional map creation program |
| JPWO2021111613A1 (en) * | 2019-12-06 | 2021-12-09 | 三菱電機株式会社 | 3D map creation device, 3D map creation method, and 3D map creation program |
| JPWO2021149262A1 (en) * | 2020-01-24 | 2021-07-29 | ||
| JPWO2021149261A1 (en) * | 2020-01-24 | 2021-07-29 | ||
| WO2021149261A1 (en) * | 2020-01-24 | 2021-07-29 | 日本電信電話株式会社 | Display system and display method |
| JP7310935B2 (en) | 2020-01-24 | 2023-07-19 | 日本電信電話株式会社 | Display system and display method |
| JP7435631B2 (en) | 2020-01-24 | 2024-02-21 | 日本電信電話株式会社 | Display system and display method |
| CN114332663A (en) * | 2021-12-30 | 2022-04-12 | 歌尔科技有限公司 | Article management and control method, device, equipment and storage medium |
| WO2023203849A1 (en) * | 2022-04-21 | 2023-10-26 | 株式会社日立製作所 | Space visualization system and space visualization method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9639988B2 (en) | Information processing apparatus and computer program product for processing a virtual object | |
| US9661214B2 (en) | Depth determination using camera focus | |
| JP2019174920A (en) | Article management system and article management program | |
| US10360572B2 (en) | Image processing system, method and computer program product for evaluating level of interest based on direction of human action | |
| US20150046299A1 (en) | Inventory Assessment with Mobile Devices | |
| CN108520552A (en) | Image processing method, image processing device, storage medium and electronic equipment | |
| CN103248810A (en) | Image processing device, image processing method, and program | |
| CN111652103B (en) | Indoor positioning methods, devices, equipment and storage media | |
| US9600720B1 (en) | Using available data to assist in object recognition | |
| TW201814552A (en) | Method and system for sorting a search result with space objects, and a computer-readable storage device | |
| US12211150B2 (en) | System and method of object detection and interactive 3D models | |
| Heya et al. | Image processing based indoor localization system for assisting visually impaired people | |
| CN115278014A (en) | Target tracking method, system, computer equipment and readable medium | |
| TWI712903B (en) | Commodity information inquiry method and system | |
| JP2016194784A (en) | Image management system, communication terminal, communication system, image management method, and program | |
| JP6304305B2 (en) | Image processing apparatus, image processing method, and program | |
| WO2018103544A1 (en) | Method and device for presenting service object data in image | |
| US11182421B2 (en) | System and method for using an image to obtain search results | |
| CN108896035B (en) | Method and equipment for realizing navigation through image information and navigation robot | |
| JP2021086355A (en) | Information processing method, program, and information processing device | |
| CN114723923B (en) | Transmission solution simulation display system and method | |
| KR101618308B1 (en) | Panoramic image acquisition and Object Detection system for Product of Interactive Online Store based Mirror World. | |
| TW201913262A (en) | Object delivery systems and methods thereof | |
| WO2022089548A1 (en) | Service robot and control method therefor, and mobile robot and control method therefor | |
| WO2022168515A1 (en) | Information processing device, information processing method, and program |