JP6451511B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP6451511B2 JP6451511B2 JP2015113720A JP2015113720A JP6451511B2 JP 6451511 B2 JP6451511 B2 JP 6451511B2 JP 2015113720 A JP2015113720 A JP 2015113720A JP 2015113720 A JP2015113720 A JP 2015113720A JP 6451511 B2 JP6451511 B2 JP 6451511B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- target
- pointing object
- pointing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
現場で作業を行う作業者を支援するために、熟練者等の支援者が作業現場の動画像を遠隔地において閲覧しながら、作業者に対して音声による指示を送信可能なシステムが有る。 In order to support a worker who performs work on the site, there is a system in which a supporter such as an expert can transmit a voice instruction to the worker while browsing a moving image of the work site at a remote place.
作業内容によっては、両手が必要とされるため、作業者は、両手を自由な状態にしておく必要が有る。このような場合、作業現場の画像を撮像するためのカメラとは、作業者の身体の一部に装着される。例えば、作業者の視線の方向と、カメラの撮像方向とをできるだけ一致させるために、作業者の目の横等に、カメラが装着される。 Since both hands are required depending on the work contents, the operator needs to keep both hands free. In such a case, the camera for capturing an image of the work site is attached to a part of the worker's body. For example, in order to make the direction of the operator's line of sight and the imaging direction of the camera coincide as much as possible, a camera is mounted next to the eyes of the operator.
しかしながら、作業者の目の横にカメラが装着されている場合、カメラのレンズの位置は、作業者の視点に対してずれを有する。したがって、例えば、作業者の手が届かない範囲に配置されている物を作業者が指差している場合、支援者は、作業者が指差している物を、画像からでは正しく認識できない可能性が有る。 However, when the camera is mounted next to the eyes of the worker, the position of the lens of the camera has a deviation from the viewpoint of the worker. Therefore, for example, when the worker points at an object that is out of the reach of the worker, the supporter may not be able to correctly recognize the object pointed by the worker from the image. There is.
図1は、カメラの位置が作業者の視点に対してずれを有する場合における問題点を説明するための図である。図1の(1)に示されるように、作業者の目の横にカメラが装着されている状況において、作業者が遠方に有る物体o1を指差した場合、作業者の指は、カメラの方向からは、破線の矢印が示す方向に位置する。その結果、支援者が閲覧する画面には、(2)に示されるように、物体o1からずれた位置に、作業者の指が表示される。 FIG. 1 is a diagram for explaining a problem in the case where the position of the camera has a deviation from the operator's viewpoint. As shown in (1) of FIG. 1, in the situation where the camera is mounted next to the operator's eyes, when the operator points to an object o1 located far away, the operator's finger is From the direction, it is located in the direction indicated by the dashed arrow. As a result, the operator's finger is displayed at a position shifted from the object o1 on the screen viewed by the supporter as shown in (2).
そこで、一側面では、対象物から離れて該対象物を指示する指示物体を撮像した画像上において指示者の意図した指示位置を特定可能とすることを目的とする。 In view of the above, an object of one aspect is to make it possible to specify an indication position intended by an instructor on an image obtained by imaging an indication object that points away from the object and indicates the object.
一つの案では、情報処理装置は、対象物と、前記対象物から離れて当該対象物を指示する指示物体とが撮像部によって撮像された画像を受信する受信部と、前記指示物体について、前記画像における位置を特定する特定部と、前記指示物体を用いて前記対象物を指示する指示者の視点と、前記撮像部と、前記指示物体と、前記対象物との実空間における相対的な位置関係を示す情報に基づいて、前記画像における前記指示物体の位置について、前記対象物に対するずれを算出する算出部と、前記画像に対して、前記指示物体の位置に対して前記ずれを有する位置から所定の範囲内に、所定の記号が付加された画像を出力する出力部と、を有する。 In one plan, the information processing apparatus includes: a receiving unit that receives an image of an object and an instruction object that points away from the object and points to the object; The relative position in the real space of the specifying unit for specifying the position in the image, the viewpoint of the instructor who instructs the target using the pointing object, the imaging unit, the pointing object, and the target Based on information indicating a relationship, a calculation unit that calculates a deviation of the pointing object in the image with respect to the target, and a position having the deviation with respect to the position of the pointing object with respect to the image And an output unit that outputs an image to which a predetermined symbol is added within a predetermined range.
一側面によれば、対象物から離れて該対象物を指示する指示物体を撮像した画像上において指示者の意図した指示位置を特定可能とすることができる。 According to one aspect, it is possible to specify an indication position intended by an instructor on an image obtained by imaging an indication object that points away from the object and indicates the object.
以下、図面に基づいて本発明の実施の形態を説明する。図2は、本発明の実施の形態における作業支援システムの構成例を示す図である。図2において、作業支援システム1は、作業者端末20、作業支援サーバ10、及び支援者端末30等を含む。作業支援サーバ10は、作業者端末20及び支援者端末30と、ネットワークを介して通信可能に接続される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 2 is a diagram illustrating a configuration example of the work support system according to the embodiment of the present invention. In FIG. 2, the work support system 1 includes a worker terminal 20, a
作業者端末20は、作業者によって装着される端末である。作業者とは、作業現場において作業を行う者をいう。本実施の形態では、作業者端末20が、作業者の頭部に固定される例について説明するが、作業者端末20は、作業者の身体の他の部分に装着されてもよい。 The worker terminal 20 is a terminal worn by the worker. An operator means a person who performs work at a work site. In the present embodiment, an example in which the worker terminal 20 is fixed to the worker's head will be described. However, the worker terminal 20 may be attached to another part of the worker's body.
作業者端末20は、測距部21、撮像部22、及び作業画像送信部23等を含む。撮像部22は、作業者が注目している物体(以下、「対象物」という。)を含む動画像を撮像するカメラである。測距部21は、例えば、赤外線等を利用して、対象物と作業者端末20(すなわち、撮像部22)との距離を計測する測距センサである。対象物と撮像部22との距離とは、対象物と作業者の視点を結ぶ直線上に、対象物と撮像部との2点を射影した場合の2点間の距離をいう。 The worker terminal 20 includes a distance measuring unit 21, an imaging unit 22, a work image transmitting unit 23, and the like. The imaging unit 22 is a camera that captures a moving image including an object (hereinafter, referred to as “target object”) that the operator is paying attention to. The distance measuring unit 21 is a distance measuring sensor that measures the distance between the object and the operator terminal 20 (that is, the imaging unit 22) using, for example, infrared rays. The distance between the object and the imaging unit 22 refers to the distance between the two points when the two points of the object and the imaging unit are projected on a straight line connecting the object and the viewpoint of the worker.
作業画像送信部23は、撮像部22によって撮像される画像と、測距部21によって計測される距離を示す情報(以下、「距離情報」という。)と、作業者端末20の識別情報とを作業支援サーバ10に送信する。本実施の形態では、撮像部22によって撮像される画像が動画像である例について説明するが、当該画像は静止画像でもよい。また、作業者端末20の識別情報は、作業者の識別情報として利用可能である。したがって、本実施の形態では、当該識別情報を、「作業者ID」という。作業者IDは、例えば、作業者端末20に記憶されている。
The work image transmission unit 23 includes an image captured by the imaging unit 22, information indicating a distance measured by the distance measurement unit 21 (hereinafter referred to as “distance information”), and identification information of the worker terminal 20. It transmits to the
作業支援サーバ10は、作業者端末20の撮像部22によって撮像される動画像を支援者端末30に中継する1以上のコンピュータである。作業支援サーバ10は、作業画像受信部11、指示位置特定部12、誤差算出部13、画像中継部14、及び補正値受信部15等を有する。これら各部は、作業支援サーバ10にインストールされた1以上のプログラムが、作業支援サーバ10のCPUに実行させる処理により実現される。作業支援サーバ10は、また、パラメータ記憶部16を利用する。パラメータ記憶部16は、例えば、作業支援サーバ10の補助記憶装置、又は作業支援サーバ10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。
The
作業画像受信部11は、作業者端末20から送信される動画像と距離情報とを受信する。作業画像受信部11は、受信した距離情報を、パラメータ記憶部16に記憶する。指示位置特定部12は、作業者端末20からの動画像の中から、対象物の指示物体を抽出し、動画像内における指示物体の位置を特定する。指示位置特定部12は、特定された位置を示す座標値を、誤差算出部13に入力する。
The work image receiving unit 11 receives a moving image and distance information transmitted from the worker terminal 20. The work image receiving unit 11 stores the received distance information in the
誤差算出部13は、パラメータ記憶部16に記憶されているパラメータ群と、指示位置特定部12から入力される座標値とに基づいて、動画像上における、指示物体の位置について、作業者が意図した指示位置との誤差(すなわち、動画像上における対象物の位置とのずれ)を算出する。パラメータ記憶部16には、実空間における作業者の視点と、撮像部22と、指示物体と、対象物との相対的な位置関係を特定可能なパラメータ群が記憶されている。
Based on the parameter group stored in the
画像中継部14は、作業者端末20から受信された動画像を、支援者端末30に転送する。画像中継部14は、動画像を単に作業者端末20に転送するのではなく、誤差算出部13によって算出される誤差に基づいて、作業者端末20から受信された動画像に対して、作業者が意図した指示位置を示す記号を付加する。 The image relay unit 14 transfers the moving image received from the worker terminal 20 to the supporter terminal 30. The image relay unit 14 does not simply transfer the moving image to the worker terminal 20, but applies the worker to the moving image received from the worker terminal 20 based on the error calculated by the error calculation unit 13. A symbol indicating the intended pointing position is added.
補正値受信部15は、誤差の算出結果の妥当性について、支援者によって入力される補正値を支援者端末30から受信する。補正値は、誤差に基づいて付加された記号の位置を補正するためのパラメータである。 The correction value receiving unit 15 receives a correction value input by the supporter from the supporter terminal 30 for the validity of the error calculation result. The correction value is a parameter for correcting the position of the added symbol based on the error.
支援者端末30は、支援者が利用する端末である。支援者とは、作業支援サーバ10から転送される動画像を閲覧しつつ、作業者による作業を遠隔から支援する者をいう。支援者端末30は、PC(Personal Computer)、タブレット端末、又はスマートフォン等でもよい。図2において、支援者端末30は、表示制御部31、補正値受付部32、及び補正値送信部33等を有する。これら各部は、支援者端末30にインストールされた1以上のプログラムが、支援者端末30のCPUに実行させる処理により実現される。
The supporter terminal 30 is a terminal used by the supporter. The supporter refers to a person who remotely supports the work performed by the worker while browsing the moving image transferred from the
表示制御部31は、作業支援サーバ10から転送される動画像について、支援者端末30の表示装置への表示を制御する。補正値受付部32は、動画像に付加されている、作業者が意図した指示位置を示す記号の位置に対する補正値の入力を、支援者から受け付ける。例えば、支援者は、作業者との音声等を利用したコミュニケーション(例えば、会話)に基づいて、作業者が意図した指示位置を把握することができる。支援者は、このようにして把握した指示位置に記号が表示されるようにするための補正値を入力する。補正値送信部33は、補正値受付部32によって受け付けられた補正値を、作業支援サーバ10に送信する。
The display control unit 31 controls the display of the supporter terminal 30 on the display device for the moving image transferred from the
なお、図2においては、支援者端末30から作業者端末20への音声を中継するための機構は省略されているが、支援者による作業者への指示は、音声によって作業者端末20に伝達される。音声の伝達は、作業支援サーバ10によって中継されてもよいし、電話通信網によって中継されてもよい。また、音声ではなく、画像(動画)が、支援者端末30から作業者端末20へ伝達されてもよい。
In FIG. 2, a mechanism for relaying voice from the supporter terminal 30 to the worker terminal 20 is omitted, but instructions to the worker by the supporter are transmitted to the worker terminal 20 by voice. Is done. The voice transmission may be relayed by the
なお、作業者支援システム1には、複数の作業者端末20と複数の支援者端末30とが含まれてもよい。また、各支援者端末30が、作業支援サーバ10の機能を有していてもよい。
The worker support system 1 may include a plurality of worker terminals 20 and a plurality of supporter terminals 30. Each supporter terminal 30 may have the function of the
図3は、本発明の実施の形態における作業支援サーバのハードウェア構成例を示す図である。図3の作業支援サーバ10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。
FIG. 3 is a diagram illustrating a hardware configuration example of the work support server according to the embodiment of the present invention. The
作業支援サーバ10での処理を実現するプログラムは、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
A program that realizes processing in the
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って作業支援サーバ10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。
The
なお、記録媒体101の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。
An example of the
以下、作業支援システム1において実行される処理手順について説明する。図4は、作業支援サーバが実行する処理手順の一例を説明するためのフローチャートである。 Hereinafter, a processing procedure executed in the work support system 1 will be described. FIG. 4 is a flowchart for explaining an example of a processing procedure executed by the work support server.
ステップS101において、作業画像受信部11は、作業者端末20から送信された、作業者ID、動画像、及び距離情報を受信する。続いて、作業画像受信部11は、当該距離情報を、当該作業者IDに対応付けてパラメータ記憶部16に記憶する(S102)。続いて、指示位置特定部12は、動画像から指の検出を試みる(S103)。本実施の形態では、対象物の指示物体が、作業者の指である例について説明する。但し、指示棒等、指以外の物体が指示物体であってもよい。なお、動画像における指示物体の検出は、公知の画像処理技術を用いて行われればよい。
In step S <b> 101, the work image receiving unit 11 receives the worker ID, the moving image, and the distance information transmitted from the worker terminal 20. Subsequently, the work image receiving unit 11 stores the distance information in the
指が検出された場合(S103でYes)、指示位置特定部12は、動画像上における当該指の位置を特定し、特定された位置を示す座標値を、誤差算出部13に入力する(S104)。 When a finger is detected (Yes in S103), the designated position specifying unit 12 specifies the position of the finger on the moving image, and inputs a coordinate value indicating the specified position to the error calculating unit 13 (S104). ).
続いて、誤差算出部13は、パラメータ記憶部16に記憶されているパラメータ群(実空間における作業者の視点と、撮像部22と、指示物体と、対象物との相対的な位置関係を示す情報)に基づいて、動画像上における指の位置の座標値について、作業者が意図した指示位置との誤差を算出する(S105)。 Subsequently, the error calculation unit 13 indicates a relative group of parameters stored in the parameter storage unit 16 (the worker's viewpoint in real space, the imaging unit 22, the pointing object, and the target object). Based on (information), an error between the coordinate value of the finger position on the moving image and the designated position intended by the operator is calculated (S105).
図5は、パラメータ記憶部の構成例を示す図である。図5において、パラメータ記憶部16は、作用者IDごとに、名前、パラメータp1〜p5、及び補正値等を記憶する。
FIG. 5 is a diagram illustrating a configuration example of the parameter storage unit. In FIG. 5, the
名前は、作業者IDに対応する作業者の名前である。パラメータp1〜p5については、図6を参照して説明する。 The name is the name of the worker corresponding to the worker ID. The parameters p1 to p5 will be described with reference to FIG.
図6は、各パラメータを説明するための図である。図6には、各パラメータの名前(p1〜p5)が、当該パラメータを表現する記号に対して割り当てられている。 FIG. 6 is a diagram for explaining each parameter. In FIG. 6, the names (p1 to p5) of the parameters are assigned to the symbols representing the parameters.
パラメータp1は、作業者の視点から指先までの距離を示す。例えば、パラメータp1は、作業者の腕の長さを計測することで求められてもよい。パラメータp2は、作業者の目(瞳)の中心の間隔である。パラメータp3は、撮像部22の基準位置(例えば、撮像部22のレンズの中心(光軸))と、撮像部22に近い方の目(瞳)の中心との距離である。当該距離は、例えば、撮像部22の基準位置と撮像部22に近い方の目(瞳)の中心との2点が、作業者の視点と対象物o2とを結ぶ直線に直交する平面上に射影された場合の当該2点間の距離である。 The parameter p1 indicates the distance from the operator's viewpoint to the fingertip. For example, the parameter p1 may be obtained by measuring the length of the operator's arm. The parameter p2 is the distance between the centers of the operator's eyes (pupils). The parameter p3 is the distance between the reference position of the imaging unit 22 (for example, the center of the lens (optical axis) of the imaging unit 22) and the center of the eye (pupil) closer to the imaging unit 22. The distance is, for example, on a plane in which two points of the reference position of the imaging unit 22 and the center of the eye (pupil) closer to the imaging unit 22 are orthogonal to a straight line connecting the operator's viewpoint and the object o2. This is the distance between the two points when projected.
パラメータp4は、作業者の視点と、撮像部22の基準位置との距離である。本字しSの形態では、作業者の眉間の中心が、作業者の視点としてみなされる。したがって、p4=p2÷2+p3の関係が成立する。よって、パラメータp2及びp3が設定される場合には、パラメータp4は設定されなくてもよい。反対に、パラメータp4が設定される場合には、パラメータp2及びp3は設定されなくてもよい。 The parameter p4 is a distance between the worker's viewpoint and the reference position of the imaging unit 22. In the form of the main character S, the center between the eyebrows of the worker is regarded as the worker's viewpoint. Therefore, the relationship p4 = p2 ÷ 2 + p3 is established. Therefore, parameter p4 does not need to be set when parameters p2 and p3 are set. On the other hand, when the parameter p4 is set, the parameters p2 and p3 may not be set.
パラメータp5は、撮像部22から対象物o2までの距離(対象物と作業者の視点を結ぶ直線上に、対象物と撮像部との2点を射影した場合の2点間の距離)である。すなわち、パラメータp5は、ステップS102において、作業画像受信部11によって記憶される値である。作業画像受信部11は、受信された作業者IDに対応するレコードのパラメータp5の値として、受信された距離情報をパラメータ記憶部16に記憶する。
The parameter p5 is a distance from the imaging unit 22 to the object o2 (a distance between two points when the two points of the object and the imaging unit are projected on a straight line connecting the object and the viewpoint of the worker). . That is, the parameter p5 is a value stored by the work image receiving unit 11 in step S102. The work image receiving unit 11 stores the received distance information in the
なお、パラメータp1〜p4は、予め設定される設定値である。パラメータp1〜p4は、作業者の該当箇所を計測することで、設定されてもよい。又は、パラメータp1〜p4は、各作業者に対して共通な値として、一般的な値が設定されてもよい。一般的な値は、例えば、統計情報等から取得されてもよい。また、撮像部22の装着位置が定まっていない場合には、パラメータp3及びp4は、統計情報が設定されてもよい。但し、パラメータp1〜p4についても、パラメータp5と同様に、各種のセンサ等を用いてリアルタイムに計測されてもよい。一方、パラメータp5の値が、或る程度安定している場合には、パラメータp5の値が予め設定されていてもよい。 Parameters p1 to p4 are preset values. The parameters p1 to p4 may be set by measuring a corresponding part of the worker. Alternatively, general values may be set for the parameters p1 to p4 as common values for each worker. The general value may be acquired from statistical information or the like, for example. Further, when the mounting position of the imaging unit 22 is not fixed, statistical information may be set for the parameters p3 and p4. However, the parameters p1 to p4 may also be measured in real time using various sensors or the like, similarly to the parameter p5. On the other hand, when the value of the parameter p5 is stable to some extent, the value of the parameter p5 may be set in advance.
誤差算出部13は、例えば、動画像と共に受信された作業者IDに対応付けられているパラメータp1〜p5を用いて、以下のように誤差を算出する。図7は、誤差の算出方法の一例を説明するための図である。図7では、図5に示されるレコードのうち、作業者IDが、0001であるレコードのパラメータが当てはめられている。また、誤差は、xによって示されている。 For example, the error calculation unit 13 calculates the error as follows using the parameters p1 to p5 associated with the worker ID received together with the moving image. FIG. 7 is a diagram for explaining an example of an error calculation method. In FIG. 7, the parameter of the record whose worker ID is 0001 among the records shown in FIG. 5 is applied. The error is indicated by x.
なお、本実施の形態では、便宜上、以下の状態を仮定する。
(1)対象物o2、撮像部22(のレンズ)、及び作業者の目は、同一水平面上に有るとする。
(2)対象物o2を指す指先は、作業者の眉間の中心と対象物とを結ぶ直線上に有るとする。
In the present embodiment, the following state is assumed for convenience.
(1) It is assumed that the object o2, the imaging unit 22 (the lens thereof), and the operator's eyes are on the same horizontal plane.
(2) It is assumed that the fingertip pointing to the object o2 is on a straight line connecting the center of the operator's eyebrows and the object.
そうすると、図7に示される直角三角形ABCと直角三角形DBEとの相似比に基づいて、以下の関係が成立する。
70:130=6:x
上記の式を解くと、x≒11が得られる。したがって、この場合、11cmが、誤差として算出される。
Then, the following relationship is established based on the similarity ratio between the right triangle ABC and the right triangle DBE shown in FIG.
70: 130 = 6: x
Solving the above equation yields x≈11. Therefore, in this case, 11 cm is calculated as an error.
なお、誤差に関する上記の算出例は、必ずしも上記の(1)及び(2)が満たされる場合にのみ有効であることを意図するものではない。(1)及び(2)が、厳密には満たされない場合であっても、上記の算出例が適用されてもよい。この場合、誤差の精度が多少劣化するが、後述されるように、本実施の形態では、誤差の精度の劣化が或る程度許容可能であり、また、誤差の精度の劣化を補正(是正)することも可能であるからである。 It should be noted that the above calculation example regarding the error is not necessarily intended to be effective only when the above (1) and (2) are satisfied. Even if (1) and (2) are not strictly satisfied, the above calculation example may be applied. In this case, the accuracy of the error slightly deteriorates. However, as described later, in this embodiment, the accuracy of the error is allowed to be deteriorated to some extent, and the error accuracy deterioration is corrected (corrected). It is also possible to do.
続いて、画像中継部14は、動画像における指の位置から誤差分ずれた位置を中心とする円を、当該動画像に対して描画(付加)する(S106)。具体的には、図7における頂点Eを始点として、頂点Dとは逆の方向に11cmずれた位置を中心とする円が描画される。当該円は、作業者が指している対象物の配置位置の範囲を推測する円である。以下、当該円を、「範囲円」という。なお、実空間上における距離と、動画像上における距離との換算は、公知技術を用いて適宜行われればよい。 Subsequently, the image relay unit 14 draws (adds) a circle centered on a position shifted by an error from the position of the finger in the moving image (S106). Specifically, a circle centered at a position shifted by 11 cm in the direction opposite to the vertex D is drawn starting from the vertex E in FIG. The circle is a circle for estimating the range of the arrangement position of the object pointed by the worker. Hereinafter, the circle is referred to as a “range circle”. Note that the conversion between the distance in the real space and the distance on the moving image may be appropriately performed using a known technique.
続いて、画像中継部14は、範囲円が付加された動画像を、当該動画像に係る作業者IDと共に、支援者端末30に転送(出力)する(S107)。 Subsequently, the image relay unit 14 transfers (outputs) the moving image to which the range circle is added, together with the worker ID related to the moving image, to the supporter terminal 30 (S107).
続いて、支援者端末30が実行する処理手順について説明する。図8は、支援者端末が実行する処理手順の一例を説明するためのフローチャートである。 Subsequently, a processing procedure executed by the supporter terminal 30 will be described. FIG. 8 is a flowchart for explaining an example of a processing procedure executed by the supporter terminal.
ステップS301において、表示制御部31は、作業支援サーバ10から転送された動画像を受信する。続いて、表示制御部31は、当該動画像を表示する(S302)。
In step S <b> 301, the display control unit 31 receives the moving image transferred from the
図9は、範囲円が付加された画像の表示例を示す図である。図9において、範囲円c1は、対象物o2囲む様に表示されている。その結果、支援者は、作業者が指示している物体が、物体o3ではなく、物体o2であることを認識することができる。 FIG. 9 is a diagram illustrating a display example of an image to which a range circle is added. In FIG. 9, the range circle c1 is displayed so as to surround the object o2. As a result, the supporter can recognize that the object designated by the worker is not the object o3 but the object o2.
なお、円以外の記号によって、範囲円が代替されてもよい。例えば、多角形や楕円等によって、対象物の範囲が示されてもよい。この場合、用いられる記号は、範囲を示すことができる記号であることが望ましい。斯かる記号が、範囲を有することによって、上記の(1)及び(2)の状態が完全に満たされない場合や、パラメータp1〜p4が、正確でない場合又はパラメータp1〜p4に統計情報が用いられている場合等における、誤差の算出結果の精度の劣化を許容することができるからである。例えば、本実施の形態では、作業者の眉間の中心が、作業者の視点(対象物を見る立脚点)として扱われているが、実際には、作業者の利き目によって、作業者の視点は、当該中心に対して多少のずれを有する。このような事実は、誤差の算出結果の精度に対して多少の影響を及ぼす可能性が有る。そこで、例えば、パラメータp1〜p4の精度が低い場合には、範囲円の大きさ(例えば、範囲円の半径)が大きくされてもよい。また、撮像部22から対象物までの距離が長くなればなるほど、誤差の算出結果の精度は低くなることが考えられる。そこで、画像中継部14は、パラメータp5の大きさに応じて、範囲円の大きさを変化させてもよい。具体的には、パラメータp5が大きくなればなるほど、範囲円が大きくされてもよい。 The range circle may be replaced by a symbol other than a circle. For example, the range of the object may be indicated by a polygon, an ellipse, or the like. In this case, the symbol used is preferably a symbol that can indicate a range. When such a symbol has a range, statistical information is used when the above conditions (1) and (2) are not completely satisfied, or when the parameters p1 to p4 are not accurate or the parameters p1 to p4 are used. This is because it is possible to allow the accuracy of the error calculation result to be deteriorated in such a case. For example, in the present embodiment, the center of the operator's eyebrows is treated as the operator's viewpoint (a stance point for viewing the object), but in reality, the operator's viewpoint depends on the operator's dominant eye. , With a slight deviation from the center. Such a fact may have some influence on the accuracy of the error calculation result. Therefore, for example, when the accuracy of the parameters p1 to p4 is low, the size of the range circle (for example, the radius of the range circle) may be increased. Further, it is conceivable that the accuracy of the error calculation result decreases as the distance from the imaging unit 22 to the object increases. Therefore, the image relay unit 14 may change the size of the range circle according to the size of the parameter p5. Specifically, the larger the parameter p5, the larger the range circle.
支援者は、動画像を参照しつつ、作業者とコミュニケーションをとることにより、範囲円の位置が、作業者の指示した位置に表示されているか否かを確認することができる。その結果、範囲円が、作業者の指示した位置に表示されていないことが判明すると、支援者は、当該範囲円の位置についての補正値を入力する。補正値は、例えば、ずれの方向とずれの長さとを含む値である。 The supporter can confirm whether or not the position of the range circle is displayed at the position designated by the worker by communicating with the worker while referring to the moving image. As a result, when it is determined that the range circle is not displayed at the position designated by the operator, the supporter inputs a correction value for the position of the range circle. The correction value is a value including, for example, the direction of deviation and the length of deviation.
補正値受付部32が、当該補正値の入力を受け付けると(S203でYes)、補正値送信部33は、当該補正値と、ステップS201において受信された作業者IDとを、作業支援サーバ10に送信する(S204)。
When the correction value receiving unit 32 receives the input of the correction value (Yes in S203), the correction value transmitting unit 33 sends the correction value and the worker ID received in step S201 to the
なお、作業支援サーバ10の補正値受信部15は、当該補正値と当該作業者IDとを受信すると、パラメータ記憶部16において当該作業者IDに対応するレコードに対して、当該補正値を記憶する。
When the correction value receiving unit 15 of the
また、図4のステップS105において、誤差算出部13は、動画像と共に受信された作業者IDに対する補正値が、パラメータ記憶部16に記憶されている場合には、算出された誤差を、当該補正値によって補正する。例えば、補正値が「右30」である場合には、誤差に基づいて特定される範囲円の位置が、右方向に30cm分ずらされる。その結果、範囲円の表示位置の精度を向上させることができる。
In step S105 in FIG. 4, when the correction value for the worker ID received together with the moving image is stored in the
なお、上記では、撮像部22が、作業者の目に対して略水平に装着される例について説明したが、撮像部22が、作業者の頭の上に装着される場合には、垂直方向の平面に関して、図7において説明した計算方法が適用されればよい。 In the above description, the example in which the imaging unit 22 is mounted substantially horizontally on the operator's eyes has been described. However, when the imaging unit 22 is mounted on the operator's head, the vertical direction is used. The calculation method described with reference to FIG.
上述したように、本実施の形態によれば、実空間における作業者の視点と、撮像部22と、指示物体と、対象物との相対的な位置関係に基づいて、画像上における指示物体の位置について、対象物に対するずれ(誤差)が算出される。また、当該ずれに基づいて、指示位置の推定範囲に範囲円が描画される。したがって、対象物から離れて該対象物を指示する指示物体を撮像した画像上において指示者(作業者)の意図した指示位置を特定可能とすることができる。 As described above, according to the present embodiment, based on the relative viewpoints of the worker's viewpoint in real space, the imaging unit 22, the pointing object, and the target object, the pointing object on the image is displayed. For the position, a deviation (error) with respect to the object is calculated. Further, based on the deviation, a range circle is drawn in the estimated range of the indicated position. Therefore, it is possible to specify the designated position intended by the instructor (operator) on the image obtained by imaging the designated object that points away from the object and points to the object.
なお、撮像部22は、作業者の体の一部に装着されていなくてもよい。例えば、作業者の場所が固定的である場合、撮像部22は、作業者の体以外の所定の位置に配置されてもよい。 The imaging unit 22 may not be attached to a part of the worker's body. For example, when the location of the worker is fixed, the imaging unit 22 may be arranged at a predetermined position other than the worker's body.
なお、本実施の形態において、作業支援サーバ10は、情報処理装置の一例である。指示位置特定部12は、特定部の一例である。誤差算出部13は、算出部の一例である。画像中継部14は、出力部の一例である。補正値受信部15は、受付部の一例である。
In the present embodiment, the
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.
以上の説明に関し、更に以下の項を開示する。
(付記1)
対象物と、前記対象物から離れて当該対象物を指示する指示物体とが撮像部によって撮像された画像を受信する受信部と、
前記指示物体について、前記画像における位置を特定する特定部と、
前記指示物体を用いて前記対象物を指示する指示者の視点と、前記撮像部と、前記指示物体と、前記対象物との実空間における相対的な位置関係を示す情報に基づいて、前記画像における前記指示物体の位置について、前記対象物に対するずれを算出する算出部と、
前記画像に対して、前記指示物体の位置に対して前記ずれを有する位置から所定の範囲内に、所定の記号が付加された画像を出力する出力部と、
を有することを特徴とする情報処理装置。
(付記2)
前記ずれに対する補正値の入力を受け付ける受付部を有し、
前記出力部は、前記ずれに対して前記補正値が適用されることにより特定される位置から所定の範囲内に、前記所定の記号が付加された画像を出力する、
ことを特徴とする付記1記載の情報処理装置。
(付記3)
前記出力部は、前記撮像部と前記指示物体との距離に応じて、前記所定の記号の大きさを変更する、
ことを特徴とする付記1又は2記載の情報処理装置。
(付記4)
コンピュータが、
対象物と、前記対象物から離れて当該対象物を指示する指示物体とが撮像部によって撮像された画像を受信しと、
前記指示物体について、前記画像における位置を特定し、
前記指示物体を用いて前記対象物を指示する指示者の視点と、前記撮像部と、前記指示物体と、前記対象物との実空間における相対的な位置関係を示す情報に基づいて、前記画像における前記指示物体の位置について、前記対象物に対するずれを算出し、
前記画像に対して、前記指示物体の位置に対して前記ずれを有する位置から所定の範囲内に、所定の記号が付加された画像を出力する、
処理を実行することを特徴とする情報処理方法。
(付記5)
前記コンピュータが、前記ずれに対する補正値の入力を受け付ける処理を実行し、
前記出力する処理は、前記ずれに対して前記補正値が適用されることにより特定される位置から所定の範囲内に、前記所定の記号が付加された画像を出力する、
ことを特徴とする付記4記載の情報処理方法。
(付記6)
前記出力する処理は、前記撮像部と前記指示物体との距離に応じて、前記所定の記号の大きさを変更する、
ことを特徴とする付記4又は5記載の情報処理方法。
(付記7)
コンピュータに、
対象物と、前記対象物から離れて当該対象物を指示する指示物体とが撮像部によって撮像された画像を受信しと、
前記指示物体について、前記画像における位置を特定し、
前記指示物体を用いて前記対象物を指示する指示者の視点と、前記撮像部と、前記指示物体と、前記対象物との実空間における相対的な位置関係を示す情報に基づいて、前記画像における前記指示物体の位置について、前記対象物に対するずれを算出し、
前記画像に対して、前記指示物体の位置に対して前記ずれを有する位置から所定の範囲内に、所定の記号が付加された画像を出力する、
処理を実行させることを特徴とするプログラム。
(付記8)
前記コンピュータに、前記ずれに対する補正値の入力を受け付ける処理を実行させ、
前記出力する処理は、前記ずれに対して前記補正値が適用されることにより特定される位置から所定の範囲内に、前記所定の記号が付加された画像を出力する、
ことを特徴とする付記7記載のプログラム。
(付記9)
前記出力する処理は、前記撮像部と前記指示物体との距離に応じて、前記所定の記号の大きさを変更する、
ことを特徴とする付記7又は8記載のプログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
A receiving unit that receives an image of an object and an instruction object that points away from the object and points to the object;
For the pointing object, a specifying unit for specifying a position in the image;
Based on information indicating a relative positional relationship in real space between the viewpoint of the instructor who instructs the target using the pointing object, the imaging unit, the pointing object, and the target. A calculation unit that calculates a deviation from the target with respect to the position of the pointing object in
An output unit for outputting an image to which a predetermined symbol is added within a predetermined range from a position having the deviation from the position of the pointing object with respect to the image;
An information processing apparatus comprising:
(Appendix 2)
A reception unit that receives an input of a correction value for the deviation;
The output unit outputs an image to which the predetermined symbol is added within a predetermined range from a position specified by applying the correction value to the shift;
The information processing apparatus according to appendix 1, wherein
(Appendix 3)
The output unit changes a size of the predetermined symbol according to a distance between the imaging unit and the pointing object;
The information processing apparatus according to
(Appendix 4)
Computer
Receiving an image of the target object and the pointing object that points away from the target object and points to the target object;
Identifying the position of the pointing object in the image,
Based on information indicating a relative positional relationship in real space between the viewpoint of the instructor who instructs the target using the pointing object, the imaging unit, the pointing object, and the target. Calculating a deviation from the object with respect to the position of the pointing object in
Outputting an image to which a predetermined symbol is added within a predetermined range from a position having the deviation relative to the position of the pointing object with respect to the image;
An information processing method characterized by executing processing.
(Appendix 5)
The computer executes a process of receiving an input of a correction value for the deviation,
The output processing outputs an image in which the predetermined symbol is added within a predetermined range from a position specified by applying the correction value to the deviation.
The information processing method according to
(Appendix 6)
The output processing changes the size of the predetermined symbol according to the distance between the imaging unit and the pointing object.
The information processing method according to
(Appendix 7)
On the computer,
Receiving an image of the target object and the pointing object that points away from the target object and points to the target object;
Identifying the position of the pointing object in the image,
Based on information indicating a relative positional relationship in real space between the viewpoint of the instructor who instructs the target using the pointing object, the imaging unit, the pointing object, and the target. Calculating a deviation from the object with respect to the position of the pointing object in
Outputting an image to which a predetermined symbol is added within a predetermined range from a position having the deviation relative to the position of the pointing object with respect to the image;
A program characterized by causing processing to be executed.
(Appendix 8)
Causing the computer to execute a process of receiving an input of a correction value for the deviation;
The output processing outputs an image in which the predetermined symbol is added within a predetermined range from a position specified by applying the correction value to the deviation.
The program according to appendix 7, characterized by:
(Appendix 9)
The output processing changes the size of the predetermined symbol according to the distance between the imaging unit and the pointing object.
The program according to appendix 7 or 8, characterized by the above.
1 作業支援システム
10 作業支援サーバ
11 作業画像受信部
12 指示位置特定部
13 誤差算出部
14 画像中継部
15 補正値受信部
16 パラメータ記憶部
20 作業者端末
21 測距部
22 撮像部
23 作業画像送信部
30 支援者端末
31 表示制御部
32 補正値受付部
33 補正値送信部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
B バス
DESCRIPTION OF SYMBOLS 1
105 Interface device B bus
Claims (5)
前記指示物体について、前記画像における位置を特定する特定部と、
前記指示物体を用いて前記対象物を指示する指示者の視点と、前記撮像部と、前記指示物体と、前記対象物との実空間における相対的な位置関係を示す情報に基づいて、前記画像における前記指示物体の位置について、前記対象物に対するずれを算出する算出部と、
前記画像に対して、前記指示物体の位置に対して前記ずれを有する位置から所定の範囲内に、所定の記号が付加された画像を出力する出力部と、
を有することを特徴とする情報処理装置。 A receiving unit that receives an image of an object and an instruction object that points away from the object and points to the object;
For the pointing object, a specifying unit for specifying a position in the image;
Based on information indicating a relative positional relationship in real space between the viewpoint of the instructor who instructs the target using the pointing object, the imaging unit, the pointing object, and the target. A calculation unit that calculates a deviation from the target with respect to the position of the pointing object in
An output unit for outputting an image to which a predetermined symbol is added within a predetermined range from a position having the deviation from the position of the pointing object with respect to the image;
An information processing apparatus comprising:
前記出力部は、前記ずれに対して前記補正値が適用されることにより特定される位置から所定の範囲内に、前記所定の記号が付加された画像を出力する、
ことを特徴とする請求項1記載の情報処理装置。 A reception unit that receives an input of a correction value for the deviation;
The output unit outputs an image to which the predetermined symbol is added within a predetermined range from a position specified by applying the correction value to the shift;
The information processing apparatus according to claim 1.
ことを特徴とする請求項1又は2記載の情報処理装置。 The output unit changes a size of the predetermined symbol according to a distance between the imaging unit and the pointing object;
The information processing apparatus according to claim 1 or 2.
対象物と、前記対象物から離れて当該対象物を指示する指示物体とが撮像部によって撮像された画像を受信しと、
前記指示物体について、前記画像における位置を特定し、
前記指示物体を用いて前記対象物を指示する指示者の視点と、前記撮像部と、前記指示物体と、前記対象物との実空間における相対的な位置関係を示す情報に基づいて、前記画像における前記指示物体の位置について、前記対象物に対するずれを算出し、
前記画像に対して、前記指示物体の位置に対して前記ずれを有する位置から所定の範囲内に、所定の記号が付加された画像を出力する、
処理を実行することを特徴とする情報処理方法。 Computer
Receiving an image of the target object and the pointing object that points away from the target object and points to the target object;
Identifying the position of the pointing object in the image,
Based on information indicating a relative positional relationship in real space between the viewpoint of the instructor who instructs the target using the pointing object, the imaging unit, the pointing object, and the target. Calculating a deviation from the object with respect to the position of the pointing object in
Outputting an image to which a predetermined symbol is added within a predetermined range from a position having the deviation relative to the position of the pointing object with respect to the image;
An information processing method characterized by executing processing.
対象物と、前記対象物から離れて当該対象物を指示する指示物体とが撮像部によって撮像された画像を受信しと、
前記指示物体について、前記画像における位置を特定し、
前記指示物体を用いて前記対象物を指示する指示者の視点と、前記撮像部と、前記指示物体と、前記対象物との実空間における相対的な位置関係を示す情報に基づいて、前記画像における前記指示物体の位置について、前記対象物に対するずれを算出し、
前記画像に対して、前記指示物体の位置に対して前記ずれを有する位置から所定の範囲内に、所定の記号が付加された画像を出力する、
処理を実行させることを特徴とするプログラム。 On the computer,
Receiving an image of the target object and the pointing object that points away from the target object and points to the target object;
Identifying the position of the pointing object in the image,
Based on information indicating a relative positional relationship in real space between the viewpoint of the instructor who instructs the target using the pointing object, the imaging unit, the pointing object, and the target. Calculating a deviation from the object with respect to the position of the pointing object in
Outputting an image to which a predetermined symbol is added within a predetermined range from a position having the deviation relative to the position of the pointing object with respect to the image;
A program characterized by causing processing to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015113720A JP6451511B2 (en) | 2015-06-04 | 2015-06-04 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015113720A JP6451511B2 (en) | 2015-06-04 | 2015-06-04 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016224890A JP2016224890A (en) | 2016-12-28 |
JP6451511B2 true JP6451511B2 (en) | 2019-01-16 |
Family
ID=57748279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015113720A Expired - Fee Related JP6451511B2 (en) | 2015-06-04 | 2015-06-04 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6451511B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4288843B2 (en) * | 2000-10-25 | 2009-07-01 | 沖電気工業株式会社 | Remote work support system |
JP5521727B2 (en) * | 2010-04-19 | 2014-06-18 | ソニー株式会社 | Image processing system, image processing apparatus, image processing method, and program |
US8934015B1 (en) * | 2011-07-20 | 2015-01-13 | Google Inc. | Experience sharing |
JP2013168120A (en) * | 2012-01-19 | 2013-08-29 | Panasonic Corp | Stereoscopic image processing apparatus, stereoscopic image processing method, and program |
-
2015
- 2015-06-04 JP JP2015113720A patent/JP6451511B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016224890A (en) | 2016-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2898749A1 (en) | Systems and methods for authenticating a user based on a biometric model associated with the user | |
US10962738B2 (en) | Information processing apparatus and information processing method to calibrate line-of-sight of a user | |
JP7078568B2 (en) | Display device, display control method, and display system | |
WO2016103621A1 (en) | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method | |
JPWO2013132886A1 (en) | Information processing apparatus, information processing method, and program | |
US20170220105A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5868128B2 (en) | Information processing apparatus and control method thereof | |
JPWO2014147715A1 (en) | Information processing apparatus, control method, and program | |
WO2015111655A1 (en) | Head-mounted display device | |
JP5771508B2 (en) | Display device, imaging device, and video display system | |
JP6319220B2 (en) | Transparent wearable terminal, data processing apparatus, and data processing system | |
JP6451511B2 (en) | Information processing apparatus, information processing method, and program | |
JP2017130047A (en) | Information processing apparatus, information processing system, and program | |
US10447996B2 (en) | Information processing device and position information acquisition method | |
US20190041649A1 (en) | Display system, information processor, information processing method and program | |
WO2021002263A1 (en) | Gas detection terminal device | |
US11947119B2 (en) | Display control device, display control method, and recording medium | |
KR101549031B1 (en) | Apparatuses, methods and recording medium for providing pointing function | |
US20180176446A1 (en) | Motion capture system | |
KR102010782B1 (en) | Method for correcting position of controller into recognizable range of multimedia device and the multimedia device therefor and target tracking device | |
CN112540673A (en) | Virtual environment interaction method and equipment | |
JP2014082648A (en) | Electronic apparatus, image correction method, and program | |
CN111158146A (en) | Head mounted device, control method thereof, and computer-readable storage medium | |
CN113311937A (en) | Calibration method for eyeball tracking and related device | |
JP6505354B2 (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6451511 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |