[go: up one dir, main page]

JP7629735B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7629735B2
JP7629735B2 JP2021009898A JP2021009898A JP7629735B2 JP 7629735 B2 JP7629735 B2 JP 7629735B2 JP 2021009898 A JP2021009898 A JP 2021009898A JP 2021009898 A JP2021009898 A JP 2021009898A JP 7629735 B2 JP7629735 B2 JP 7629735B2
Authority
JP
Japan
Prior art keywords
unit
image
dimensional
cloud data
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021009898A
Other languages
Japanese (ja)
Other versions
JP2022113575A (en
Inventor
成広 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2021009898A priority Critical patent/JP7629735B2/en
Publication of JP2022113575A publication Critical patent/JP2022113575A/en
Application granted granted Critical
Publication of JP7629735B2 publication Critical patent/JP7629735B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

特許文献1には、複数のオブジェクトが存在する対象空間を撮影して、複数のオブジェクトの三次元位置を測定する距離測定装置を利用して、複数のオブジェクトをトラッキングするトラッキング装置が開示されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2019-205060号公報
Patent Literature 1 discloses a tracking device that tracks a plurality of objects by using a distance measuring device that captures an image of a target space in which the plurality of objects exist and measures the three-dimensional positions of the plurality of objects.
[Prior Art Literature]
[Patent Documents]
[Patent Document 1] JP 2019-205060 A

本発明の第1の態様においては、情報処理装置が提供される。上記の情報処理装置は、例えば、三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得部を備える。上記の情報処理装置は、例えば、点群データ取得部が取得した三次元点群データに基づいて、第1物体の三次元モデルを含む仮想空間を構築するモデリング部を備える。上記の情報処理装置は、例えば、第1ユーザからの指示であって、仮想空間に配された第1物体の三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付部を備える。上記の情報処理装置は、例えば、画像を投影する投影装置を制御して、第1物体の表面における指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御部を備える。 In a first aspect of the present invention, an information processing device is provided. The information processing device includes, for example, a point cloud data acquisition unit that acquires three-dimensional point cloud data of a first object arranged in a three-dimensional space. The information processing device includes, for example, a modeling unit that constructs a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired by the point cloud data acquisition unit. The information processing device includes, for example, an instruction receiving unit that receives a first instruction from a first user to specify a designated position that is a point or area arranged on the surface of the three-dimensional model of the first object arranged in the virtual space. The information processing device includes, for example, a projection control unit that controls a projection device that projects an image to project the first image at a projection position that is a point or area corresponding to the designated position on the surface of the first object.

上記の情報処理装置において、投影制御部は、三次元空間において第1物体が移動した場合、第1物体に投影される第1画像が第1物体の移動に追従するように、投影装置を制御してよい。上記の情報処理装置において、指示受付部は、第1ユーザからの指示であって、第1画像の属性を特定するための第2指示を受け付けてよい。上記の情報処理装置において、投影制御部は、(i)第2指示により示される第1画像の属性が第1属性である場合、三次元空間において第1物体が移動したときに、第1物体に投影される第1画像が第1物体の移動に追従するように、第1画像の投影方向、並びに、第1画像の形状及び大きさの少なくとも1つを調整してよい。投影制御部は、(ii)第2指示により示される第1画像の属性が第2属性である場合、三次元空間において第1物体が移動しても、第1画像の投影方向、並びに、第1画像の形状及び大きさを調整しなくてもよい。 In the above information processing device, the projection control unit may control the projection device so that, when the first object moves in three-dimensional space, the first image projected onto the first object follows the movement of the first object. In the above information processing device, the instruction receiving unit may receive a second instruction from the first user, the second instruction being for identifying an attribute of the first image. In the above information processing device, the projection control unit may (i) adjust at least one of the projection direction of the first image and the shape and size of the first image so that, when the first object moves in three-dimensional space, the first image projected onto the first object follows the movement of the first object when the attribute of the first image indicated by the second instruction is the first attribute. The projection control unit may (ii) not adjust the projection direction of the first image and the shape and size of the first image even when the first object moves in three-dimensional space when the attribute of the first image indicated by the second instruction is the second attribute.

上記の情報処理装置において、指示受付部は、第1ユーザからの指示であって、(i)第1物体の三次元モデルの基準点に対する指示位置の相対位置、又は、(ii)仮想空間の基準点に対する指示位置の相対位置を固定するための第3指示を受け付けてよい。上記の情報処理装置において、投影制御部は、(i)指示受付部が第3指示を受け付け、且つ、第2指示により示される第1画像の属性が第1属性である場合、三次元空間において第1物体が移動したときに、第1物体に投影される第1画像が第1物体の移動に追従するように、第1画像の投影方向、並びに、第1画像の形状及び大きさの少なくとも1つを調整してよい。投影制御部は、(ii)指示受付部が第3指示を受け付け、且つ、第2指示により示される第1画像の属性が第2属性である場合、三次元空間において第1物体が移動しても、第1画像の投影方向、並びに、第1画像の形状及び大きさを調整しなくてもよい。 In the above information processing device, the instruction receiving unit may receive an instruction from the first user, which is (i) a relative position of the indicated position with respect to a reference point of the three-dimensional model of the first object, or (ii) a third instruction for fixing the relative position of the indicated position with respect to a reference point of the virtual space. In the above information processing device, the projection control unit may adjust at least one of the projection direction of the first image and the shape and size of the first image so that the first image projected onto the first object follows the movement of the first object when the first object moves in the three-dimensional space when the instruction receiving unit receives the third instruction and the attribute of the first image indicated by the second instruction is the first attribute. The projection control unit may not adjust the projection direction of the first image and the shape and size of the first image even if the first object moves in the three-dimensional space when the instruction receiving unit receives the third instruction and the attribute of the first image indicated by the second instruction is the second attribute.

上記の情報処理装置において、指示受付部は、第1ユーザからの指示であって、第1画像の投影の開始又は停止に関する第4指示を受け付けてよい。上記の情報処理装置において、投影制御部は、第4指示に基づいて、第1画像を第1物体に投影するか否かを決定してよい。上記の情報処理装置は、第1ユーザが仮想空間における指示位置を指定するために用いられるポインティングデバイス又はコントローラが出力した制御信号に基づいて、仮想空間の特定の点を指し示すマークの動きを制御する指示マーク制御部を備えてよい。上記の情報処理装置において、指示マーク制御部は、第1物体の三次元モデルの境界近傍におけるマークの動き方を規定する第1設定情報に基づいて、マークの動きを制御してよい。 In the above information processing device, the instruction receiving unit may receive a fourth instruction from the first user, which is related to starting or stopping the projection of the first image. In the above information processing device, the projection control unit may determine whether or not to project the first image onto the first object based on the fourth instruction. The above information processing device may include an indication mark control unit that controls the movement of a mark indicating a specific point in the virtual space based on a control signal output by a pointing device or a controller used by the first user to specify an indication position in the virtual space. In the above information processing device, the indication mark control unit may control the movement of the mark based on first setting information that specifies how the mark moves near the boundary of the three-dimensional model of the first object.

上記の情報処理装置は、第1物体の画像データを取得する画像データ取得部を備えてよい。上記の情報処理装置は、画像データ取得部が取得した画像データに基づいて、第1物体の種類を推定する物体推定部を備えてよい。上記の情報処理装置は、1以上の物体のそれぞれの種類を示す情報と、各物体の表面上の1以上の位置のそれぞれに対応する各物体の三次元モデルの1以上の位置のそれぞれにおけるマークの動き方を規定する第2設定情報とを対応付けて格納する設定格納部を参照して、物体推定部が推定した第1物体の種類に応じた第2設定情報を抽出する設定抽出部を備えてよい。上記の情報処理装置において、指示マーク制御部は、設定抽出部が抽出した第2設定情報に基づいて、マークの動きを制御してよい。 The information processing device may include an image data acquisition unit that acquires image data of the first object. The information processing device may include an object estimation unit that estimates the type of the first object based on the image data acquired by the image data acquisition unit. The information processing device may include a setting extraction unit that extracts second setting information corresponding to the type of the first object estimated by the object estimation unit by referring to a setting storage unit that stores information indicating the type of each of the one or more objects in association with second setting information that specifies the movement of the mark at each of one or more positions of a three-dimensional model of each object corresponding to each of one or more positions on the surface of each object. In the information processing device, the indication mark control unit may control the movement of the mark based on the second setting information extracted by the setting extraction unit.

上記の情報処理装置において、点群データ取得部は、第1物体に光を照射して得られた光の反射光に基づいて第1物体の三次元点群データを出力する測定装置から、第1物体の三次元点群データを取得してよい。上記の情報処理装置において、測定装置は、第1物体を撮像する撮像部を有してよい。上記の情報処理装置は、測定装置と、投影装置との位置関係を決定する較正部を備えてよい。上記の情報処理装置において、投影装置は、互いの相対位置が既知である少なくとも3つの線分を含む較正画像を、三次元空間に投影してよい。上記の情報処理装置において、撮像部は、投影装置が三次元空間に投影した較正画像を撮像してよい。上記の情報処理装置において、較正部は、撮像部が撮像した較正画像に基づいて、測定装置と、投影装置との位置関係を決定してよい。 In the above information processing device, the point cloud data acquisition unit may acquire three-dimensional point cloud data of the first object from a measuring device that outputs three-dimensional point cloud data of the first object based on reflected light obtained by irradiating the first object with light. In the above information processing device, the measuring device may have an imaging unit that images the first object. The above information processing device may include a calibration unit that determines the positional relationship between the measuring device and the projection device. In the above information processing device, the projection device may project a calibration image including at least three line segments whose relative positions are known into three-dimensional space. In the above information processing device, the imaging unit may image the calibration image projected into three-dimensional space by the projection device. In the above information processing device, the calibration unit may determine the positional relationship between the measuring device and the projection device based on the calibration image imaged by the imaging unit.

本発明の第2の態様においては、情報処理方法が提供される。上記の情報処理方法は、例えば、三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得段階を有する。上記の情報処理方法は、例えば、点群データ取得段階において取得された三次元点群データに基づいて、第1物体の三次元モデルを含む仮想空間を構築するモデリング段階を有する。上記の情報処理方法は、例えば、第1ユーザからの指示であって、仮想空間に配された第1物体の三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付段階を有する。上記の情報処理方法は、例えば、画像を投影する投影装置を制御して、第1物体の表面における指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御段階を有する。 In a second aspect of the present invention, an information processing method is provided. The information processing method includes, for example, a point cloud data acquisition step of acquiring three-dimensional point cloud data of a first object arranged in a three-dimensional space. The information processing method includes, for example, a modeling step of constructing a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired in the point cloud data acquisition step. The information processing method includes, for example, an instruction receiving step of receiving a first instruction from a first user for specifying a designated position, which is a point or area arranged on the surface of the three-dimensional model of the first object arranged in the virtual space. The information processing method includes, for example, a projection control step of controlling a projection device that projects an image to project the first image at a projection position, which is a point or area corresponding to the designated position on the surface of the first object.

本発明の第3の態様においては、プログラムが提供される。上記のプログラムは、コンピュータを、上記の第1の実施形態に係る情報処理装置として機能させるためのプログラムであってよい。上記のプログラムは、コンピュータに、上記の第2の実施形態に係る情報処理方法を実行させるためのプログラムであってもよい。上記のプログラムを格納するコンピュータ可読媒体が提供されてもよい。コンピュータ可読媒体は、非一時的なコンピュータ可読媒体であってもよい。コンピュータ可読媒体は、コンピュータ可読記録媒体であってもよい。 In a third aspect of the present invention, a program is provided. The program may be a program for causing a computer to function as the information processing device according to the first embodiment. The program may be a program for causing a computer to execute the information processing method according to the second embodiment. A computer-readable medium for storing the program may be provided. The computer-readable medium may be a non-transitory computer-readable medium. The computer-readable medium may be a computer-readable recording medium.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.

作業支援システム100のシステム構成の一例を概略的に示す。1 shows an example of a system configuration of a work support system 100. 作業対象102の一例を概略的に示す。An example of a work object 102 is shown diagrammatically. 支援画像20の一例を概略的に示す。An example of a support image 20 is shown diagrammatically. 支援画像20を操作するための操作画面400の一例を概略的に示す。13 shows an example of an operation screen 400 for operating the support image 20. ライダー124の内部構成の一例を概略的に示す。2 illustrates an example of the internal configuration of the lidar 124. 作業室制御部162の内部構成の一例を概略的に示す。2 shows an example of an internal configuration of a work chamber control unit 162. 較正画像700の一例を概略的に示す。An example of a calibration image 700 is shown diagrammatically. 支援端末制御部164の内部構成の一例を概略的に示す。2 shows an example of the internal configuration of a support terminal control unit 164. 点群データ出力部540の内部構成の一例を概略的に示す。13 shows an example of the internal configuration of the point cloud data output unit 540. バラツキ指標算出部926における情報処理の概要を示す。13 shows an overview of information processing in the variation index calculation unit 926. 第1補正部932における情報処理の概要を示す。13 shows an overview of information processing in the first correction unit 932. 第2補正部934及び第3補正部936における情報処理の概要を示す。13 shows an overview of information processing in the second correction unit 934 and the third correction unit 936. バラツキ指標の値に基づいて生成された画像1300の一例を示す。13 shows an example of an image 1300 generated based on the value of the variability index. コンピュータ3000のシステム構成の一例を概略的に示す。An example of the system configuration of a computer 3000 is shown in schematic form.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention. In the drawings, the same reference numbers are used for the same or similar parts, and duplicate explanations may be omitted.

[作業支援システム100の概要]
図1は、作業支援システム100のシステム構成の一例を概略的に示す。本実施形態においては、作業者32が、作業室110の内部で、作業対象102に対して特定の作業を実施するときに、支援者34が、遠隔地から作業者32の作業を支援する場合を例として、作業支援システム100の詳細が説明される。上記の特定の作業の詳細は限定されるものではないが、上記の作業としては、書類の作成作業、物品の製造作業、物品の保守作業、物品の修理作業などが例示される。
[Overview of work support system 100]
1 shows an example of a system configuration of a work support system 100. In this embodiment, the details of the work support system 100 will be described using as an example a case in which a worker 32 performs a specific task on a work target 102 inside a workroom 110 and a supporter 34 supports the worker 32 from a remote location. Although the details of the specific task are not limited, examples of the task include document creation, product manufacturing, product maintenance, and product repair.

具体的には、本実施形態によれば、支援者34が、作業室110から離れた場所に配された支援端末140を操作して、作業室110に配されたプロジェクタ126から、作業対象102の表面又は近傍の適切な位置に向かって、作業対象102に対する作業を支援するための支援画像20を投影させる。これにより、作業者32は、(i)支援画像20が照射された位置、(ii)支援画像20の色、形状及び模様の少なくとも1つ、(iii)支援画像20により提示された情報などを参照して、作業を実施することができる。 Specifically, according to this embodiment, the support person 34 operates the support terminal 140 located away from the work room 110 to project the support image 20 for supporting the work on the work object 102 from the projector 126 located in the work room 110 toward an appropriate position on the surface of the work object 102 or in its vicinity. This allows the worker 32 to perform the work by referring to (i) the position where the support image 20 is projected, (ii) at least one of the color, shape, and pattern of the support image 20, and (iii) information presented by the support image 20.

例えば、店舗を訪問した顧客(作業者32の一例である。)が、当該店舗から離れた他の店舗で働く店員(支援者34の一例である。)の支援を受けながら、契約書、申込書などの書類(作業対象102の一例である。)を作成するときに、顧客が押印箇所を認識することができない場合がある。このような場合において、上記の他の店舗で働く店員が、当該他の店舗に配された端末を利用して作業支援システム100にアクセスし、当該端末の画面中で押印箇所の位置を指定すると、顧客の書類の当該押印箇所に、当該押印箇所の位置を協調するための画像が投影される。例えば、顧客の書類の押印箇所に、赤いドーナツ状の図形が投影される。その後、店員が、顧客に対して「赤い丸の位置に印鑑を押してください」と伝えることで、顧客は、押印箇所を容易に認識することができる。 For example, when a customer (an example of a worker 32) visiting a store prepares a document such as a contract or application form (an example of a work target 102) with the assistance of a clerk (an example of a supporter 34) working at another store away from the store, the customer may not be able to recognize the location where the seal should be placed. In such a case, when the clerk working at the other store accesses the work support system 100 using a terminal provided at the other store and specifies the location of the seal on the screen of the terminal, an image is projected onto the customer's document at the location where the seal should be placed to highlight the location. For example, a red donut-shaped figure is projected onto the customer's document at the location where the seal should be placed. The clerk then tells the customer, "Please put your seal in the red circle," and the customer can easily recognize the location where the seal should be placed.

また、本実施形態によれば、作業支援システム100は、支援者34による支援画像20の投影位置の指定を支援するために、仮想空間上に、作業対象102の周辺の三次元モデルを構築する。これにより、支援者34は、作業対象102の三次元モデルを利用して、作業対象102の表面又は近傍の任意の点又は領域に支援画像20を投影することを指示することができる。例えば、支援者34は、仮想空間上で作業対象102の三次元モデルを回転させることができる。そのため、支援者34は、作業対象102を真上から見た状態で、作業対象102上の任意の位置を容易に指定することができる。 According to this embodiment, the work support system 100 constructs a three-dimensional model of the periphery of the work object 102 in a virtual space to support the supporter 34 in specifying the projection position of the support image 20. This allows the supporter 34 to use the three-dimensional model of the work object 102 to instruct the support image 20 to be projected onto any point or area on or near the surface of the work object 102. For example, the supporter 34 can rotate the three-dimensional model of the work object 102 in the virtual space. Therefore, the supporter 34 can easily specify any position on the work object 102 while viewing the work object 102 from directly above.

また、作業支援システム100が、画像認識処理により作業対象102を検出したり、作業対象102の種類を推定する場合に、作業支援システム100は、特定の方向から作業対象102を撮像して得られた教師画像と、特定の方向から作業対象102の三次元モデルを観察して得られた画像とを比較して、上記の画像認識処理を実行することができる。そのため、作業対象102の二次元画像と、作業対象102の教師画像とを比較して上記の画像認識処理を実行する場合と比較して、当該画像認識処理の負荷が軽減したり、当該画像認識処理の精度が向上したりする。 In addition, when the work support system 100 detects the work object 102 or estimates the type of the work object 102 by image recognition processing, the work support system 100 can perform the above image recognition processing by comparing a teacher image obtained by capturing an image of the work object 102 from a specific direction with an image obtained by observing a three-dimensional model of the work object 102 from a specific direction. Therefore, the load of the image recognition processing is reduced and the accuracy of the image recognition processing is improved compared to when the above image recognition processing is performed by comparing a two-dimensional image of the work object 102 with a teacher image of the work object 102.

さらに、本実施形態によれば、作業支援システム100は、(i)作業室110の内部の少なくとも一部に配された1以上の物体に光を照射し、(ii)1以上の物体の表面の複数の点のそれぞれにおいて散乱又は反射して戻ってきた光(反射光と称される場合がある。)に基づいて、作業室110の内部の少なくとも一部の三次元点群データを出力する測定装置を利用して、仮想空間上に、作業対象102の周辺の三次元モデルを構築する。作業支援システム100は、上記の複数の点のそれぞれからの反射光の受光強度に基づいて、各点の深度を算出する。このとき、作業支援システム100は、各点における反射光の受光強度のバラツキ具合を示す指標(バラツキ指標と称される場合がある。)を算出する。 Furthermore, according to this embodiment, the work support system 100 (i) irradiates light onto one or more objects arranged in at least a part of the interior of the work room 110, and (ii) uses a measuring device that outputs three-dimensional point cloud data of at least a part of the interior of the work room 110 based on the light that is scattered or reflected back from each of a plurality of points on the surface of the one or more objects (sometimes referred to as reflected light), to construct a three-dimensional model of the periphery of the work target 102 in a virtual space. The work support system 100 calculates the depth of each point based on the light intensity of the reflected light from each of the above-mentioned plurality of points. At this time, the work support system 100 calculates an index (sometimes referred to as a variation index) that indicates the degree of variation in the light intensity of the reflected light at each point.

本発明者は、各点における反射光の強度のバラツキ具合が、物体の材質に大きく依存することを見出した。そのメカニズムは下記に限定されるものではないが、物体の材質によって、光の反射率又は吸収率、拡散反射及び/又は正反射に関する特性などが異なることから、上記の反射光の強度のバラツキ具合が物体の材質に大きく依存するものと推定される。 The inventors have found that the degree of variation in the intensity of reflected light at each point depends greatly on the material of the object. Although the mechanism is not limited to the following, it is presumed that the degree of variation in the intensity of reflected light depends greatly on the material of the object, since the reflectance or absorptance of light, and the characteristics related to diffuse reflection and/or regular reflection, vary depending on the material of the object.

本実施形態によれば、上記の知見に基づいて、作業支援システム100は、作業室110の内部の少なくとも一部の三次元点群データから作業対象102を検出するときに、上記のバラツキ指標を利用する。これにより、例えば、RGB画像又は距離画像を利用して作業対象102を検出することが困難な場合であっても、作業支援システム100は、作業室110の内部の少なくとも一部の三次元点群データから作業対象102を比較的容易に検出することができる。 According to this embodiment, based on the above knowledge, the work support system 100 uses the above-mentioned variation index when detecting the work object 102 from the three-dimensional point cloud data of at least a part of the interior of the workroom 110. As a result, even if it is difficult to detect the work object 102 using, for example, an RGB image or a distance image, the work support system 100 can relatively easily detect the work object 102 from the three-dimensional point cloud data of at least a part of the interior of the workroom 110.

例えば、作業室110の室内が暗い場合、作業対象102の周辺に強い光が差し込んでいる場合、作業対象102の周辺が他の物体の影により覆われている場合、又は、作業対象102の模様と、作業対象102の周辺の模様とが類似する場合、作業台112の上に配された作業対象102のRGB画像から、作業対象102の境界を検出することが難しい。一方、例えば、作業対象102及び作業台112の材質が異なる場合、作業対象102の表面上の点と、作業台112の表面上の点とで、上記のバラツキ指標の値が異なる。そこで、RGB画像に代えて、又は、RGB画像とともに、上記のバラツキ指標を利用することで、上記のような場合であっても、作業対象102の境界を比較的容易に検出することができる。 For example, when the workroom 110 is dark, when strong light is shining around the work object 102, when the area around the work object 102 is covered by the shadow of another object, or when the pattern of the work object 102 is similar to the pattern around the work object 102, it is difficult to detect the boundary of the work object 102 from the RGB image of the work object 102 placed on the work table 112. On the other hand, when the work object 102 and the work table 112 are made of different materials, the above-mentioned variation index value differs between the points on the surface of the work object 102 and the points on the surface of the work table 112. Therefore, by using the above-mentioned variation index instead of or together with the RGB image, the boundary of the work object 102 can be detected relatively easily even in such cases.

同様に、例えば、作業対象102の厚さが非常に小さい場合、作業台112の上に配された作業対象102の距離画像から、作業対象102の境界を検出することが難しい。一方、距離画像に代えて、又は、距離画像とともに、上記のバラツキ指標を利用することで、上記のような場合であっても、作業対象102の境界を比較的容易に検出することができる。 Similarly, for example, if the thickness of the work object 102 is very small, it is difficult to detect the boundary of the work object 102 from the distance image of the work object 102 placed on the work table 112. On the other hand, by using the above-mentioned variation index instead of or in addition to the distance image, the boundary of the work object 102 can be detected relatively easily even in such a case.

[作業支援システム100のシステム構成の概要]
本実施形態において、作業支援システム100は、作業室110と、支援端末140と、支援サーバ160とを備える。本実施形態において、作業室110の内部には、作業台112が配され、作業台112の周囲には、作業領域114が設定される。また、本実施形態において、作業室110の内部には、ディスプレイ122と、ライダー124と、プロジェクタ126とが配される。
[Overview of the system configuration of the work support system 100]
In this embodiment, the work support system 100 includes a work room 110, a support terminal 140, and a support server 160. In this embodiment, a work table 112 is provided inside the work room 110, and a work area 114 is set around the work table 112. In this embodiment, a display 122, a lidar 124, and a projector 126 are also provided inside the work room 110.

本実施形態において、作業対象102は、作業者32が実施する作業の対象となる有体物である。作業対象102の表面には、正反射率と比較して拡散反射率の大きな物質が配されることが好ましい。作業対象102の表面には、紙、金属又は金属酸化物の薄膜、合成高分子又は天然高分子の薄膜、植物の葉、菌類などが配されてよい。菌類としては、カビ、キノコなどが例示される。作業対象102は、紙、金属又は金属酸化物の薄膜、合成高分子又は天然高分子の薄膜、樹脂の薄膜、植物、植物の葉、食品、及び、菌類の少なくとも1つを含んでよい。作業対象102は、紙、金属又は金属酸化物の薄膜、合成高分子又は天然高分子の薄膜、樹脂の薄膜、及び、これらの組み合わせ又は集合体であってよい。作業対象102は、植物の葉又は食品であってよい。 In this embodiment, the work object 102 is a tangible object that is the target of work performed by the worker 32. It is preferable that a material with a large diffuse reflectance compared to the regular reflectance is arranged on the surface of the work object 102. The surface of the work object 102 may be arranged with paper, a thin film of metal or metal oxide, a thin film of synthetic polymer or natural polymer, a plant leaf, a fungus, or the like. Examples of fungi include mold and mushrooms. The work object 102 may include at least one of paper, a thin film of metal or metal oxide, a thin film of synthetic polymer or natural polymer, a thin film of resin, a plant, a plant leaf, food, and a fungus. The work object 102 may be paper, a thin film of metal or metal oxide, a thin film of synthetic polymer or natural polymer, a thin film of resin, or a combination or aggregate thereof. The work object 102 may be a plant leaf or a food.

作業対象102の厚さは、3mm未満であってもよく、1mm未満であってもよく、0.5mm未満であってもよく、0.3mm未満であってもよく、0.1mm未満であってもよい。作業対象102は、厚さが3mm未満の物体の集合体であってもよく、厚さが1mm未満の物体の集合体であってもよく、厚さが0.5mm未満の物体の集合体であってもよく、厚さが0.3mm未満の物体の集合体であってもよく、厚さが0.1mm未満の物体の集合体であってもよい。 The thickness of the work object 102 may be less than 3 mm, less than 1 mm, less than 0.5 mm, less than 0.3 mm, or less than 0.1 mm. The work object 102 may be a collection of objects less than 3 mm thick, a collection of objects less than 1 mm thick, a collection of objects less than 0.5 mm thick, a collection of objects less than 0.3 mm thick, or a collection of objects less than 0.1 mm thick.

作業対象102が、紙、金属又は金属酸化物の薄膜、合成高分子又は天然高分子の薄膜、及び、これらの組み合わせ又は集合体である場合、作業対象102の厚さが非常に小さい。そのため、例えば、距離画像により示される深度情報に基づいて、作業対象102を検出又は認識することは、比較的困難である。しかしながら、後述されるとおり、作業支援システム100の一実施形態によれば、作業対象102の厚さが非常に小さい場合であっても、作業対象102の表面における光の反射特性又は拡散特性と、作業対象102の周囲の物体の表面における光の反射特性又は拡散特性との違いを利用して、作業対象102を検出又は認識することができる。 When the work object 102 is paper, a thin film of metal or metal oxide, a thin film of synthetic or natural polymer, or a combination or aggregate of these, the thickness of the work object 102 is very small. Therefore, for example, it is relatively difficult to detect or recognize the work object 102 based on the depth information shown by the distance image. However, as described below, according to one embodiment of the work support system 100, even if the thickness of the work object 102 is very small, the work object 102 can be detected or recognized by utilizing the difference between the light reflection or diffusion characteristics on the surface of the work object 102 and the light reflection or diffusion characteristics on the surfaces of objects surrounding the work object 102.

また、作業対象102が、植物の葉である場合、病気により、葉の表面が変色したり、葉の表面に菌が繁殖したりすることがある。ところが、例えば、葉の色は撮像条件(例えば、撮像時の明るさである。)によって大きく変動するので、葉のRGB画像に基づいて、葉の健康状態を推定したり、健康な葉及び病気の葉を区別することは、比較的困難である。しかしながら、作業支援システム100の一実施形態によれば、健康な葉の表面における光の反射特性又は拡散特性と、病気の葉の表面における光の反射特性又は拡散特性との違いを利用して、葉の健康状態を推定したり、健康な葉及び病気の葉を区別することができる。 Furthermore, when the work object 102 is a plant leaf, the leaf surface may become discolored or bacteria may grow on the leaf surface due to disease. However, for example, the color of the leaf varies greatly depending on the imaging conditions (e.g., the brightness at the time of imaging), so it is relatively difficult to estimate the health state of the leaf or distinguish between healthy and diseased leaves based on the RGB image of the leaf. However, according to one embodiment of the work support system 100, it is possible to estimate the health state of the leaf and distinguish between healthy and diseased leaves by utilizing the difference between the light reflection or diffusion characteristics of the surface of a healthy leaf and the light reflection or diffusion characteristics of the surface of a diseased leaf.

さらに、作業対象102が食品である場合、腐敗又は発酵により、食品の性質が変化することがある。ところが、腐敗又は発酵による色の変化は必ずしも大きくはなく、食品のRGB画像に基づいて、当該食品の腐敗又は発酵の進行具合を検出することは、比較的困難である。しかしながら、作業支援システム100の一実施形態によれば、腐敗又は発酵していない食品の表面における光の反射特性又は拡散特性と、腐敗又は発酵が進行した食品の表面における光の反射特性又は拡散特性との違いを利用して、食品の腐敗又は発酵の進行具合を検出することができる。 Furthermore, when the work object 102 is food, the properties of the food may change due to spoilage or fermentation. However, the color change due to spoilage or fermentation is not necessarily large, and it is relatively difficult to detect the progress of spoilage or fermentation of the food based on an RGB image of the food. However, according to one embodiment of the work support system 100, the progress of spoilage or fermentation of food can be detected by utilizing the difference between the light reflection or diffusion characteristics of the surface of food that is not spoiled or fermented and the light reflection or diffusion characteristics of the surface of food that is spoiled or fermented.

本実施形態において、支援端末140は、支援端末142と、支援端末142の入力装置の一部として機能するコントローラ144とを含む。また、本実施形態において、支援端末140は、支援端末146と、支援端末146の入力装置の一部として機能するポインティングデバイス148とを含む。 In this embodiment, the support terminal 140 includes a support terminal 142 and a controller 144 that functions as part of the input device of the support terminal 142. In this embodiment, the support terminal 140 also includes a support terminal 146 and a pointing device 148 that functions as part of the input device of the support terminal 146.

本実施形態において、支援サーバ160は、作業室制御部162と、支援端末制御部164とを備える。作業室110に配された各種の機器、支援端末140、及び、支援サーバ160は、通信ネットワーク10を介して、互いに情報を送受することができる。 In this embodiment, the support server 160 includes a workroom control unit 162 and a support terminal control unit 164. The various devices arranged in the workroom 110, the support terminal 140, and the support server 160 can send and receive information to each other via the communication network 10.

[作業支援システム100に関連する各部の概要]
本実施形態において、通信ネットワーク10は、有線通信の伝送路であってもよく、無線通信の伝送路であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。通信ネットワーク10は、無線パケット通信網、インターネット、P2Pネットワーク、専用回線、VPN、電力線通信回線などを含んでもよい。
[Overview of each part related to the work support system 100]
In this embodiment, the communication network 10 may be a transmission path for wired communication, a transmission path for wireless communication, or a combination of a transmission path for wireless communication and a transmission path for wired communication. The communication network 10 may include a wireless packet communication network, the Internet, a P2P network, a dedicated line, a VPN, a power line communication line, etc.

通信ネットワーク10は、(i)携帯電話回線網などの移動体通信網を含んでもよく、(ii)無線MAN(例えば、WiMAX(登録商標)である。)、無線LAN(例えば、WiFi(登録商標)である。)、Bluetooth(登録商標)、Zigbee(登録商標)、NFC(Near Field Communication)などの無線通信網を含んでもよい。無線LAN、Bluetooth(登録商標)、Zigbee(登録商標)、及び、NFCは、近距離無線通信の一例であってもよい。 The communication network 10 may include (i) a mobile communication network such as a mobile phone network, or (ii) a wireless communication network such as a wireless MAN (e.g., WiMAX (registered trademark)), a wireless LAN (e.g., WiFi (registered trademark)), Bluetooth (registered trademark), Zigbee (registered trademark), or NFC (Near Field Communication). Wireless LAN, Bluetooth (registered trademark), Zigbee (registered trademark), and NFC may be examples of short-range wireless communication.

本実施形態において、支援画像20は、図形を含んでもよく、文字列を含んでもよい。本実施形態において、支援画像20は、作業者32に対するメッセージを含んでもよい。 In this embodiment, the support image 20 may include a graphic or may include a character string. In this embodiment, the support image 20 may include a message for the worker 32.

本実施形態において、作業室110及び作業台112は、作業者32が作業を実施するために利用される。例えば、作業対象102は、作業台112の上に配される。作業台112の材質は、作業対象102の材質とは異なることが好ましい。本実施形態において、作業領域114は、少なくとも作業対象102の一部を含む。作業領域114は、作業対象102の全体と、作業台112の少なくとも一部とを含む空間であってよい。 In this embodiment, the work chamber 110 and the work table 112 are used by the worker 32 to perform work. For example, the work object 102 is placed on the work table 112. It is preferable that the material of the work table 112 is different from the material of the work object 102. In this embodiment, the work area 114 includes at least a portion of the work object 102. The work area 114 may be a space including the entire work object 102 and at least a portion of the work table 112.

本実施形態において、ディスプレイ122は、作業者32に対して情報を提示する。ディスプレイ122は、画像及び/又は音声により、作業者32に情報を提示してよい。例えば、ディスプレイ122は、支援者34の映像及び/又は音声を出力する。これにより、作業者32は、テレビ会議又はWeb会議のように、支援者34と会話しながら作業を実施することができる。 In this embodiment, the display 122 presents information to the worker 32. The display 122 may present information to the worker 32 by image and/or sound. For example, the display 122 outputs video and/or audio of the supporter 34. This allows the worker 32 to carry out work while talking with the supporter 34, as in a video conference or web conference.

本実施形態において、ライダー124は、作業室110の内部の三次元点群データを取得する。ライダー124は、作業領域114の内部の三次元点群データを取得してよい。例えば、ライダー124は、作業領域114の内部に配された1以上の物体に光を照射し、当該光の反射光を受光する。ライダー124は、上記の反射光に基づいて、作業領域114の内部に配された1以上の物体の三次元点群データを出力する。ライダー124の詳細は後述される。 In this embodiment, the LIDAR 124 acquires three-dimensional point cloud data of the interior of the work room 110. The LIDAR 124 may acquire three-dimensional point cloud data of the interior of the work area 114. For example, the LIDAR 124 irradiates light onto one or more objects disposed within the work area 114 and receives reflected light of the light. The LIDAR 124 outputs three-dimensional point cloud data of one or more objects disposed within the work area 114 based on the reflected light. Details of the LIDAR 124 will be described later.

本実施形態において、プロジェクタ126は、作業対象102の表面又近傍に支援画像20を投影する。プロジェクタ126は、支援サーバ160からの指示に従って、作業対象102の表面又近傍に支援画像20を投影してよい。プロジェクタ126は、支援サーバ160からの指示に従って、支援画像20の投影のON/OFFを切り替えてよい。 In this embodiment, the projector 126 projects the support image 20 onto or near the surface of the work object 102. The projector 126 may project the support image 20 onto or near the surface of the work object 102 in accordance with instructions from the support server 160. The projector 126 may switch the projection of the support image 20 ON/OFF in accordance with instructions from the support server 160.

本実施形態において、支援端末140は、支援者34により利用される。支援端末140は、支援者34が作業支援システム100にアクセスする場合におけるユーザインタフェースとして機能してよい。例えば、支援端末140は、支援者34が支援画像20の投影位置を指示するために利用される。支援端末140としては、パーソナルコンピュータ、携帯端末などが例示される。携帯端末としては、携帯電話、スマートフォン、PDA、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータなどが例示される。 In this embodiment, the support terminal 140 is used by the supporter 34. The support terminal 140 may function as a user interface when the supporter 34 accesses the work support system 100. For example, the support terminal 140 is used by the supporter 34 to indicate the projection position of the support image 20. Examples of the support terminal 140 include a personal computer and a mobile terminal. Examples of the mobile terminal include a mobile phone, a smartphone, a PDA, a tablet, a notebook computer or laptop computer, and a wearable computer.

本実施形態において、支援端末142は、VR(仮想現実)ゴーグルのような、ユーザに対してXR体験を提供する機器を含む。XRは、VR(仮想現実)、AR(拡張現実)、MR(複合現実)、SR(代替現実)などの総称であってよい。支援者34は、コントローラ144を利用して、支援端末142のディスプレイに表示される仮想空間の画像上で、支援画像20の投影位置を指定することができる。 In this embodiment, the support terminal 142 includes equipment that provides the user with an XR experience, such as VR (virtual reality) goggles. XR may be a general term for VR (virtual reality), AR (augmented reality), MR (mixed reality), SR (alternative reality), etc. The support person 34 can use the controller 144 to specify the projection position of the support image 20 on the image of the virtual space displayed on the display of the support terminal 142.

本実施形態において、支援端末146は、ユーザに対してXR体験を提供する機器を含まない。支援端末146がユーザに対してXR体験を提供する機器を含まない場合であっても、支援端末146は、そのディスプレイ上に仮想空間の画像を表示することができる。また、支援者34は、ポインティングデバイス148を利用して、支援端末146のディスプレイに表示される仮想空間の画像上で、支援画像20の投影位置を指定することができる。 In this embodiment, the support terminal 146 does not include equipment that provides an XR experience to the user. Even if the support terminal 146 does not include equipment that provides an XR experience to the user, the support terminal 146 can display an image of a virtual space on its display. In addition, the supporter 34 can use the pointing device 148 to specify the projection position of the support image 20 on the image of the virtual space displayed on the display of the support terminal 146.

本実施形態において、支援サーバ160は、支援者34からの指示に基づいて、プロジェクタ126を制御し、支援者34により指定された位置に支援画像20を投影させる。また、支援サーバ160は、ライダー124が出力した作業領域114の三次元点群データに基づいて、作業領域114の内部に配された1以上の物体のそれぞれを認識する。例えば、支援サーバ160は、ライダー124が出力した作業領域114の三次元点群データに基づいて、作業対象102を検出する。 In this embodiment, the support server 160 controls the projector 126 based on instructions from the supporter 34 to project the support image 20 at a position specified by the supporter 34. The support server 160 also recognizes each of the one or more objects arranged inside the work area 114 based on the three-dimensional point cloud data of the work area 114 output by the rider 124. For example, the support server 160 detects the work target 102 based on the three-dimensional point cloud data of the work area 114 output by the rider 124.

一実施形態において、支援サーバ160は、例えば、作業領域114に配置された1以上の物体の三次元点群データを取得する。支援サーバ160は、上記の三次元点群データに基づいて、作業領域114に配置された1以上の物体の三次元モデルを含む仮想空間を構築する。また、支援サーバ160は、支援端末140を介して、支援者34からの各種の指示を受け付ける。例えば、支援サーバ160は、支援者34が利用する支援端末140から、上記の三次元モデルのの表面に配された点又は領域(指示位置と称される場合がある。)を特定するための指示(第1指示と称される場合がある。)を受け付ける。支援サーバ160は、プロジェクタ126を制御して、作業領域114の内部において、上記の指示位置に対応する点又は領域(投影位置と称される場合がある。)に、支援画像20を投影させる。 In one embodiment, the support server 160 acquires, for example, three-dimensional point cloud data of one or more objects placed in the working area 114. The support server 160 constructs a virtual space including a three-dimensional model of one or more objects placed in the working area 114 based on the three-dimensional point cloud data. The support server 160 also accepts various instructions from the supporter 34 via the support terminal 140. For example, the support server 160 accepts an instruction (sometimes referred to as a first instruction) from the support terminal 140 used by the supporter 34 to specify a point or area (sometimes referred to as a designated position) arranged on the surface of the three-dimensional model. The support server 160 controls the projector 126 to project the support image 20 onto a point or area (sometimes referred to as a projection position) corresponding to the designated position within the working area 114.

他の実施形態において、支援サーバ160は、例えば、ライダー124から、作業領域114に配置された1以上の物体の三次元点群データを取得する。上記の作業領域114の三次元点群データは、作業領域114の内部に配された1以上の物体の表面上の複数の点のそれぞれの三次元位置を示す三次元位置情報を含む。また、上記の作業領域114の三次元点群データは、作業領域114の内部に配された1以上の物体の表面上の複数の点のそれぞれからの反射光の強度のバラツキ具合を示すバラツキ情報を含む。支援サーバ160は、上記の作業領域114の三次元点群データに基づいて、作業対象102を検出する。例えば、支援サーバ160は、三次元位置情報及びバラツキ情報に基づいて、作業対象102の境界の少なくとも一部を検出する。 In another embodiment, the support server 160 acquires, for example, from the lidar 124, three-dimensional point cloud data of one or more objects placed in the work area 114. The three-dimensional point cloud data of the work area 114 includes three-dimensional position information indicating the three-dimensional positions of each of a plurality of points on the surface of one or more objects placed inside the work area 114. The three-dimensional point cloud data of the work area 114 also includes variation information indicating the degree of variation in the intensity of reflected light from each of a plurality of points on the surface of one or more objects placed inside the work area 114. The support server 160 detects the work object 102 based on the three-dimensional point cloud data of the work area 114. For example, the support server 160 detects at least a portion of the boundary of the work object 102 based on the three-dimensional position information and the variation information.

本実施形態において、作業室制御部162は、作業室110に配された各機器の動作を制御する。また、作業室制御部162は、作業室110に配された各機器から各種の情報を取得する。作業室制御部162の詳細は後述される。 In this embodiment, the workroom control unit 162 controls the operation of each device arranged in the workroom 110. The workroom control unit 162 also acquires various information from each device arranged in the workroom 110. Details of the workroom control unit 162 will be described later.

本実施形態において、支援端末制御部164は、支援端末140を制御する。支援端末制御部164は、支援端末140からの要求を処理する。例えば、支援端末制御部164は、支援端末140からの要求を受け付け、支援端末140からの要求に応じて、当該要求により示される情報を取得、生成又は抽出する。支援端末制御部164は、上記の情報を支援端末140に送信する。 In this embodiment, the support terminal control unit 164 controls the support terminal 140. The support terminal control unit 164 processes requests from the support terminal 140. For example, the support terminal control unit 164 accepts a request from the support terminal 140, and in response to the request from the support terminal 140, acquires, generates, or extracts information indicated by the request. The support terminal control unit 164 transmits the above information to the support terminal 140.

また、支援端末制御部164は、支援端末140から、作業室110に配された各機器から情報を取得するための要求、又は、作業室110に配された各機器の動作を制御するための要求を受け付ける。支援端末制御部164は、これらの要求を作業室制御部162に出力する。支援端末制御部164は、作業室制御部162から上記の要求の結果を示す情報を取得し、当該情報を支援端末140に送信してもよい。支援端末制御部164の詳細は後述される。 The support terminal control unit 164 also receives requests from the support terminal 140 to obtain information from each device arranged in the workroom 110, or requests to control the operation of each device arranged in the workroom 110. The support terminal control unit 164 outputs these requests to the workroom control unit 162. The support terminal control unit 164 may obtain information indicating the results of the above requests from the workroom control unit 162, and transmit the information to the support terminal 140. Details of the support terminal control unit 164 will be described later.

[作業支援システム100の各部の具体的な構成]
作業支援システム100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよく、ハードウエア及びソフトウエアにより実現されてもよい。作業支援システム100の各部は、その少なくとも一部が、単一のサーバによって実現されてもよく、複数のサーバによって実現されてもよい。作業支援システム100の各部は、その少なくとも一部が、仮想マシン上又はクラウドシステム上で実現されてもよい。作業支援システム100の各部は、その少なくとも一部が、パーソナルコンピュータ又は携帯端末によって実現されてもよい。携帯端末としては、携帯電話、スマートフォン、PDA、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータなどを例示することができる。作業支援システム100の各部は、ブロックチェーンなどの分散型台帳技術又は分散型ネットワークを利用して、情報を格納してもよい。
[Specific configuration of each part of the work support system 100]
Each part of the work support system 100 may be realized by hardware, software, or hardware and software. Each part of the work support system 100 may be realized, at least in part, by a single server or by multiple servers. Each part of the work support system 100 may be realized, at least in part, on a virtual machine or a cloud system. Each part of the work support system 100 may be realized, at least in part, by a personal computer or a mobile terminal. Examples of mobile terminals include mobile phones, smartphones, PDAs, tablets, notebook computers or laptop computers, and wearable computers. Each part of the work support system 100 may store information using a distributed ledger technology such as a blockchain or a distributed network.

作業支援システム100を構成する構成要素の少なくとも一部がソフトウエアにより実現される場合、当該ソフトウエアにより実現される構成要素は、一般的な構成の情報処理装置において、当該構成要素に関する動作を規定したソフトウエア又はプログラムを起動することにより実現されてよい。上記の一般的な構成の情報処理装置は、(i)CPU、GPUなどのプロセッサ、ROM、RAM、通信インタフェースなどを有するデータ処理装置と、(ii)キーボード、ポインティングデバイス、タッチパネル、カメラ、音声入力装置、ジェスチャ入力装置、各種センサ、GPS受信機などの入力装置と、(iii)表示装置、音声出力装置、振動装置などの出力装置と、(iv)メモリ、HDD、SSDなどの記憶装置(外部記憶装置を含む。)とを備えてよい。 When at least some of the components constituting the work assistance system 100 are realized by software, the components realized by the software may be realized by starting software or a program that defines the operation of the components in an information processing device of a general configuration. The information processing device of the general configuration described above may include (i) a data processing device having a processor such as a CPU or GPU, a ROM, a RAM, a communication interface, etc., (ii) input devices such as a keyboard, a pointing device, a touch panel, a camera, a voice input device, a gesture input device, various sensors, a GPS receiver, etc., (iii) output devices such as a display device, a voice output device, a vibration device, etc., and (iv) storage devices such as memory, HDD, SSD, etc. (including external storage devices).

上記の一般的な構成の情報処理装置において、上記のデータ処理装置又は記憶装置は、上記のソフトウエア又はプログラムを記憶してよい。上記のソフトウエア又はプログラムは、プロセッサによって実行されることにより、上記の情報処理装置に、当該ソフトウエア又はプログラムによって規定された動作を実行させる。上記のソフトウエア又はプログラムは、非一時的なコンピュータ可読記録媒体に格納されていてもよい。上記のソフトウエア又はプログラムは、コンピュータを、作業支援システム100又はその一部として機能させるためのプログラムであってよい。上記のソフトウエア又はプログラムは、コンピュータに、作業支援システム100又はその一部における情報処理方法を実行させるためのプログラムであってよい。 In the information processing device of the above general configuration, the above data processing device or storage device may store the above software or program. The above software or program, when executed by a processor, causes the above information processing device to execute the operation defined by the software or program. The above software or program may be stored in a non-transitory computer-readable recording medium. The above software or program may be a program for causing a computer to function as the work support system 100 or a part thereof. The above software or program may be a program for causing a computer to execute an information processing method in the work support system 100 or a part thereof.

上記の情報処理方法は、支援サーバ160における情報処理方法であってもよい。上記の情報処理方法は、作業室制御部162における情報処理方法であってもよい。上記の情報処理方法は、支援端末制御部164における情報処理方法であってもよい。上記の情報処理方法は、ライダー124における情報処理方法であってもよい。上記の情報処理方法は、プロジェクタ126における情報処理方法であってもよい。 The above information processing method may be an information processing method in the support server 160. The above information processing method may be an information processing method in the workroom control unit 162. The above information processing method may be an information processing method in the support terminal control unit 164. The above information processing method may be an information processing method in the rider 124. The above information processing method may be an information processing method in the projector 126.

一実施形態において、上記の情報処理方法は、例えば、三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得段階を有する。上記の情報処理方法は、例えば、点群データ取得段階において取得された三次元点群データに基づいて、第1物体の三次元モデルを含む仮想空間を構築するモデリング段階を有する。上記の情報処理方法は、例えば、第1ユーザからの指示であって、仮想空間に配された第1物体の三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付段階を有する。上記の情報処理方法は、例えば、画像を投影する投影装置を制御して、第1物体の表面における指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御段階を有する。 In one embodiment, the information processing method includes, for example, a point cloud data acquisition step of acquiring three-dimensional point cloud data of a first object arranged in a three-dimensional space. The information processing method includes, for example, a modeling step of constructing a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired in the point cloud data acquisition step. The information processing method includes, for example, an instruction receiving step of receiving a first instruction from a first user for identifying a designated position, which is a point or area arranged on the surface of the three-dimensional model of the first object arranged in the virtual space. The information processing method includes, for example, a projection control step of controlling a projection device that projects an image to project the first image at a projection position, which is a point or area corresponding to the designated position on the surface of the first object.

他の実施形態において、上記の情報処理方法は、例えば、1以上の物体が配置された三次元空間の三次元点群データを取得する点群データ取得段階を有する。上記の情報処理方法は、例えば、点群データ取得段階において取得された三次元空間の三次元点群データに基づいて、1以上の物体に含まれる第1物体の境界の少なくとも一部を検出する物体検出段階を有する。上記の情報処理方法において、点群データ取得段階は、例えば、1以上の物体に光を照射して得られた光の反射光に基づいて三次元空間の三次元点群データを出力する測定装置から、三次元空間の三次元点群データを取得する段階を含む。上記の情報処理方法において、三次元空間の三次元点群データは、例えば、1以上の物体の表面上の複数の点のそれぞれの三次元位置を示す三次元位置情報を含む。上記の情報処理方法において、三次元空間の三次元点群データは、例えば、複数の点のそれぞれからの反射光の強度のバラツキ具合を示すバラツキ情報を含む。上記の情報処理方法において、物体検出段階は、例えば、三次元位置情報及びバラツキ情報に基づいて、第1物体の境界の少なくとも一部を検出する段階を含む。 In another embodiment, the information processing method includes, for example, a point cloud data acquisition step of acquiring three-dimensional point cloud data of a three-dimensional space in which one or more objects are arranged. The information processing method includes, for example, an object detection step of detecting at least a part of a boundary of a first object included in one or more objects based on the three-dimensional point cloud data of the three-dimensional space acquired in the point cloud data acquisition step. In the information processing method, the point cloud data acquisition step includes, for example, a step of acquiring three-dimensional point cloud data of the three-dimensional space from a measuring device that outputs three-dimensional point cloud data of the three-dimensional space based on reflected light obtained by irradiating light on one or more objects. In the information processing method, the three-dimensional point cloud data of the three-dimensional space includes, for example, three-dimensional position information indicating the three-dimensional positions of each of a plurality of points on the surface of one or more objects. In the information processing method, the three-dimensional point cloud data of the three-dimensional space includes, for example, variation information indicating the degree of variation in the intensity of reflected light from each of the plurality of points. In the information processing method, the object detection step includes, for example, a step of detecting at least a part of the boundary of the first object based on the three-dimensional position information and the variation information.

支援画像20は、第1画像の一例であってよい。支援者34は、第1ユーザの一例であってよい。作業対象102は、第1物体、又は、1以上の物体の一例であってよい。作業対象102は、1以上の物体に含まれる第1物体の一例であってよい。作業室110は、三次元空間の一例であってよい。作業台112は、第1物体、又は、1以上の物体の一例であってよい。作業領域114は、三次元空間の一例であってよい。作業領域114の内部に配された1以上の物体は、第1物体の一例であってよい。ライダー124は、測定装置の一例であってよい。プロジェクタ126は、投影装置の一例であってよい。コントローラ144は、第1ユーザが使用するコントローラの一例であってよい。ポインティングデバイス148は、第1ユーザが使用するコントローラの一例であってよい。支援サーバ160は、情報処理装置又は検出装置の一例であってよい。作業室制御部162は、情報処理装置又は検出装置の一例であってよい。 The support image 20 may be an example of a first image. The supporter 34 may be an example of a first user. The work target 102 may be an example of a first object or one or more objects. The work target 102 may be an example of a first object included in one or more objects. The work room 110 may be an example of a three-dimensional space. The work table 112 may be an example of a first object or one or more objects. The work area 114 may be an example of a three-dimensional space. One or more objects arranged inside the work area 114 may be an example of a first object. The lidar 124 may be an example of a measuring device. The projector 126 may be an example of a projection device. The controller 144 may be an example of a controller used by the first user. The pointing device 148 may be an example of a controller used by the first user. The support server 160 may be an example of an information processing device or a detection device. The work room control unit 162 may be an example of an information processing device or a detection device.

[作業支援システム100を利用して作業を支援する方法の概要]
図2、図3及び図4を用いて、作業支援システム100を利用して作業を支援する方法の概要が説明される。本実施形態においては、作業対象102が、契約書、申込書などの書類である場合を例として、作業支援システム100を利用して作業を支援する方法の一例が説明される。上述されたとおり、作業対象102が書類、フィルムのように厚さの小さな物体である場合、距離画像に基づいて作業対象102を検出することが難しい。
[Overview of a method for supporting work using the work support system 100]
An overview of a method for supporting work using the work support system 100 will be described with reference to Figures 2, 3, and 4. In this embodiment, an example of a method for supporting work using the work support system 100 will be described, taking as an example a case where the work object 102 is a document such as a contract or an application form. As described above, when the work object 102 is an object with a small thickness such as a document or a film, it is difficult to detect the work object 102 based on a distance image.

図2は、作業対象102の一例を概略的に示す。図3は、支援画像20の一例を概略的に示す。図4は、支援画像20を操作するための操作画面400の一例を概略的に示す。 Figure 2 shows an example of a work object 102. Figure 3 shows an example of a support image 20. Figure 4 shows an example of an operation screen 400 for operating the support image 20.

図2に示されるとおり、作業対象102の表面には、タイトル210と、符号化コード212とが印刷されている。タイトル210は、作業対象102の種類を識別するための識別情報の一例であってよい。符号化コード212は、作業対象102の種類を識別するための識別情報が符号化されて生成される。符号化コード212としては、バーコード、QRコード(登録商標)などが例示される。 As shown in FIG. 2, a title 210 and an encoded code 212 are printed on the surface of the work object 102. The title 210 may be an example of identification information for identifying the type of work object 102. The encoded code 212 is generated by encoding the identification information for identifying the type of work object 102. Examples of the encoded code 212 include a barcode and a QR code (registered trademark).

作業対象102の表面には、記入欄214と、署名欄216と、押印欄218とが印刷されている。記入欄214は、作業者32が文字列を記入するために用いられる。署名欄216は、作業者32が署名するために用いられる。押印欄218は、作業者32が押印するために用いられる。記入欄214への記入、署名欄216への署名、及び、押印欄218への押印は、作業の一例であってよい。 A writing field 214, a signature field 216, and a seal field 218 are printed on the surface of the work object 102. The writing field 214 is used by the worker 32 to write a character string. The signature field 216 is used by the worker 32 to sign. The seal field 218 is used by the worker 32 to affix a seal. Writing in the writing field 214, signing in the signature field 216, and affixing a seal in the seal field 218 may be examples of work.

次に、図3及び図4を用いて、作業対象102の表面に支援画像20を投影させる手順の概要が説明される。図3に示されるとおり、本実施形態においては、支援者34が、作業対象102における署名欄216の位置を作業者32に伝えることを目的として、作業対象102の署名欄216の左上の位置に、矢印型の形状を有するマーカ322が投影される。また、支援者34が、作業台112における作業対象102の載置位置を作業者32に伝えることを目的として、作業対象102の符号化コード212の位置に、符号化コード212よりも少し大きな枠型の形状を有するポインタ324が表示される。 Next, an overview of the procedure for projecting the support image 20 onto the surface of the work object 102 will be described with reference to Figures 3 and 4. As shown in Figure 3, in this embodiment, an arrow-shaped marker 322 is projected at the upper left position of the signature field 216 of the work object 102 so that the supporter 34 can inform the worker 32 of the position of the signature field 216 on the work object 102. In addition, a pointer 324 having a frame shape slightly larger than the encoded code 212 is displayed at the position of the encoded code 212 of the work object 102 so that the supporter 34 can inform the worker 32 of the position of the work object 102 on the workbench 112.

本実施形態において、マーカ322は、作業対象102における署名欄216の位置を示す。そのため、作業対象102が移動した場合、マーカ322の投影位置も、作業対象102の移動に追従して移動することが好ましい。また、実空間において作業対象102が移動した場合、当該実空間における変化が仮想空間にも反映される。このとき、仮想空間におけるマーカ322の位置も、仮想空間における作業対象102の移動に追従して移動してよい。 In this embodiment, the marker 322 indicates the position of the signature section 216 on the work object 102. Therefore, when the work object 102 moves, it is preferable that the projection position of the marker 322 also moves to follow the movement of the work object 102. Furthermore, when the work object 102 moves in the real space, the change in the real space is also reflected in the virtual space. At this time, the position of the marker 322 in the virtual space may also move to follow the movement of the work object 102 in the virtual space.

一方、本実施形態において、ポインタ324は、作業台112における作業対象102の載置位置を示す。そのため、作業対象102が移動しても、ポインタ324の投影位置は変わらないことが好ましい。実空間におけるポインタ324の投影位置は、例えば、支援者34が仮想空間におけるポインタ324の位置を変更するための操作を実行することで変更される。 In this embodiment, the pointer 324 indicates the position where the work target 102 is placed on the workbench 112. Therefore, it is preferable that the projection position of the pointer 324 does not change even if the work target 102 moves. The projection position of the pointer 324 in real space is changed, for example, when the supporter 34 executes an operation to change the position of the pointer 324 in the virtual space.

そこで、本実施形態において、支援サーバ160は、作業者32が作業対象102を移動させると、マーカ322が作業対象102の移動に追従するように、プロジェクタ126を制御する。一方、支援サーバ160は、作業者32が作業対象102を移動させた場合であっても、現在の投影条件(例えば、ポインタ324の投影方向、並びに、ポインタ324の形状及び大きさの少なくとも1つである。)を変更することなく、ポインタ324の投影を継続するように、プロジェクタ126を制御する。支援サーバ160は、プロジェクタ126に、ポインタ324の投影条件に関する変更を指示しなくてもよい。 Therefore, in this embodiment, when the worker 32 moves the work object 102, the support server 160 controls the projector 126 so that the marker 322 follows the movement of the work object 102. On the other hand, even when the worker 32 moves the work object 102, the support server 160 controls the projector 126 so that the projection of the pointer 324 continues without changing the current projection conditions (e.g., at least one of the projection direction of the pointer 324 and the shape and size of the pointer 324). The support server 160 does not need to instruct the projector 126 to change the projection conditions of the pointer 324.

図4は、支援者34が、支援サーバ160に対する指示を入力するための操作画面400の一例を示す。図4を用いて、支援サーバ160が支援者34を支援する態様の一例が説明される。 Figure 4 shows an example of an operation screen 400 for the supporter 34 to input instructions to the support server 160. An example of a manner in which the support server 160 supports the supporter 34 is described using Figure 4.

例えば、支援者34が、署名欄216の位置を作業者32に伝えたいと考えた場合、支援者34は、支援端末140を利用して支援サーバ160にアクセスする。支援者34が支援サーバ160にアクセスすると、支援端末140の表示装置に、図4に示される操作画面400が表示される。支援者34が、支援端末140を利用して操作画面400に各種の指示を入力すると、支援端末140は、支援者34の指示の内容を示す情報を、例えば、支援端末制御部164に送信する。支援端末制御部164は、支援者34の指示(要求と称される場合がある。)に応じて、各種の処理を実行し、実行結果を示す情報を、作業室制御部162又は支援端末140に出力する。 For example, if the supporter 34 wants to inform the worker 32 of the position of the signature field 216, the supporter 34 uses the support terminal 140 to access the support server 160. When the supporter 34 accesses the support server 160, the operation screen 400 shown in FIG. 4 is displayed on the display device of the support terminal 140. When the supporter 34 inputs various instructions into the operation screen 400 using the support terminal 140, the support terminal 140 transmits information indicating the content of the instructions of the supporter 34 to, for example, the support terminal control unit 164. The support terminal control unit 164 executes various processes according to the instructions (sometimes referred to as requests) of the supporter 34, and outputs information indicating the execution results to the workroom control unit 162 or the support terminal 140.

本実施形態によれば、支援者34が、コントローラ144又はポインティングデバイス148を利用して、操作画面400上で、仮想空間に配された作業対象102の三次元モデルの表面に配された点又は領域(指定位置と称される場合)を指定する。これにより、実空間に配された作業対象102の表面に配された点又は領域(投影位置と称される場合がある)に、例えば、マーカ322が投影される。 According to this embodiment, the assistant 34 uses the controller 144 or the pointing device 148 to specify a point or area (sometimes called a specified position) on the surface of the three-dimensional model of the work object 102 placed in the virtual space on the operation screen 400. As a result, for example, a marker 322 is projected onto a point or area (sometimes called a projection position) on the surface of the work object 102 placed in the real space.

具体的には、支援者34は、コントローラ144又はポインティングデバイス148を利用して、操作画面400上に表示されるカーソル402を操作することで、マーカ322に対応するオブジェクト404の指定位置を決定する。また、支援者34は、同様にして、オブジェクト404に関する各種の設定を決定することができる。本実施形態において、カーソル402は、仮想空間表示領域440に表示される仮想空間中の特定の点を指し示す。本実施形態において、オブジェクト404は、仮想空間において、実空間に投影される支援画像20に対応する。オブジェクト404の形状、色彩、模様及び属性は、支援画像20の形状、色彩、模様及び属性に対応する。 Specifically, the support person 34 uses the controller 144 or the pointing device 148 to operate the cursor 402 displayed on the operation screen 400 to determine the designated position of the object 404 corresponding to the marker 322. Similarly, the support person 34 can determine various settings related to the object 404. In this embodiment, the cursor 402 indicates a specific point in the virtual space displayed in the virtual space display area 440. In this embodiment, the object 404 corresponds to the support image 20 in the virtual space that is projected into the real space. The shape, color, pattern, and attributes of the object 404 correspond to the shape, color, pattern, and attributes of the support image 20.

例えば、支援者34は、操作画面400を利用して、(i)作業対象102上における支援画像20の位置、(ii)作業対象102上における支援画像20の大きさ、(iii)支援画像20の形状、色彩、及び、模様の少なくとも1つ、並びに、(iv)支援画像20の属性の少なくとも1つに関する指示を入力することができる。支援画像20の属性としては、(i)作業対象102が移動した場合に、支援画像20が、作業対象102の移動に追従して移動するか否か、(ii)支援者34が操作画面400上で支援画像20を操作している期間中も、支援画像20が、作業対象102の表面に投影されるか否かなどが例示される。 For example, the support person 34 can use the operation screen 400 to input instructions regarding (i) the position of the support image 20 on the work object 102, (ii) the size of the support image 20 on the work object 102, (iii) at least one of the shape, color, and pattern of the support image 20, and (iv) at least one of the attributes of the support image 20. Examples of the attributes of the support image 20 include (i) whether the support image 20 moves in conjunction with the movement of the work object 102 when the work object 102 moves, and (ii) whether the support image 20 is projected onto the surface of the work object 102 even during the period when the support person 34 is operating the support image 20 on the operation screen 400.

図4に示されるとおり、本実施形態において、操作画面400は、メニューバー420と、仮想空間表示領域440と、オブジェクト設定領域460とを有する。本実施形態においては、支援者34が操作画面400上で支援画像20を操作している期間中は、支援画像20が、作業対象102の表面に投影されない場合を例として、操作画面400の一例が説明される。 As shown in FIG. 4, in this embodiment, the operation screen 400 has a menu bar 420, a virtual space display area 440, and an object setting area 460. In this embodiment, an example of the operation screen 400 will be described using as an example a case in which the support image 20 is not projected onto the surface of the work target 102 while the supporter 34 is operating the support image 20 on the operation screen 400.

本実施形態において、メニューバー420は、1以上の操作メニューを表示する。操作としては、ファイルに関する操作、3Dモデルに関する操作、操作画面400中で3Dモデルを閲覧する際の視点に関する操作、実空間の投影される画像(例えば、マーカ322、ポインタ324などである。)に関する操作、各種の設定に関する操作などが例示される。3Dモデルに関する操作としては、実空間の最新の点群データに基づいて3Dモデルの再構築又は更新するための操作などが例示される。 In this embodiment, the menu bar 420 displays one or more operation menus. Examples of operations include operations related to files, operations related to 3D models, operations related to the viewpoint when viewing a 3D model on the operation screen 400, operations related to images projected in real space (e.g., marker 322, pointer 324, etc.), and operations related to various settings. Examples of operations related to 3D models include operations for reconstructing or updating a 3D model based on the latest point cloud data in real space.

本実施形態において、仮想空間表示領域440には、作業領域114の三次元モデルが表示される。例えば、仮想空間表示領域440には、作業台112の三次元モデル442と、作業対象102の三次元モデル444とが表示される。そして、例えば、支援者34は、コントローラ144又はポインティングデバイス148を利用して、操作画面400上に表示されるカーソル402の位置を操作することで、マーカ322に対応するオブジェクト404の指定位置を決定する。 In this embodiment, a three-dimensional model of the work area 114 is displayed in the virtual space display area 440. For example, a three-dimensional model 442 of the workbench 112 and a three-dimensional model 444 of the work target 102 are displayed in the virtual space display area 440. Then, for example, the supporter 34 uses the controller 144 or the pointing device 148 to operate the position of the cursor 402 displayed on the operation screen 400, thereby determining the designated position of the object 404 corresponding to the marker 322.

本実施形態によれば、仮想空間表示領域440において、カーソル402による位置の指定を支援するための機能が提供される。例えば、支援端末制御部164は、一実施形態において、作業対象102の近傍において、支援者34によるカーソル402の移動を支援する。他の実施形態において、オブジェクト404の近傍において、支援者34によるオブジェクト404の操作を支援する。カーソル402による位置の指定を支援するための機能の詳細は後述される。 According to this embodiment, a function for supporting the specification of a position by the cursor 402 in the virtual space display area 440 is provided. For example, in one embodiment, the support terminal control unit 164 supports the movement of the cursor 402 by the supporter 34 in the vicinity of the work target 102. In another embodiment, the support terminal control unit 164 supports the operation of the object 404 by the supporter 34 in the vicinity of the object 404. Details of the function for supporting the specification of a position by the cursor 402 will be described later.

オブジェクト設定領域460は、仮想空間中に配置されるオブジェクト404に関する各種の設定を入力するために用いられる。本実施形態において、オブジェクト設定領域460には、オブジェクト404の属性を選択するためのプルダウンリスト462と、オブジェクト404の形状、色彩及び模様を選択するためのプルダウンリスト464と、支援画像20を作業対象102に投影したり、支援画像20に関する変更を反映したりするための指示を入力するためのボタン466とが配される。 The object setting area 460 is used to input various settings related to the object 404 placed in the virtual space. In this embodiment, the object setting area 460 is provided with a pull-down list 462 for selecting the attributes of the object 404, a pull-down list 464 for selecting the shape, color, and pattern of the object 404, and a button 466 for inputting instructions for projecting the support image 20 onto the work target 102 and for reflecting changes related to the support image 20.

本実施形態によれば、支援者34は、作業対象102の三次元モデルを利用して、指定位置を特定することができる。そのため、二次元画像上で指定位置を特定する場合と比較して、指定位置と投影位置とを対応付けるための処理が簡略化される。例えば、支援者34は、支援端末140の画面上で作業対象102の三次元モデルを回転させたり、支援端末140の画面上で当該三次元モデルの一部を拡大させたりすることができる。また、支援サーバ160は、作業者32が身体の一部を使って指し示す対象を検出してもよい。作業者32の身体の一部としては、顔、目、腕、手、指などが例示される。支援サーバ160は、例えば、作業対象102の三次元モデルが表示されている画面の一部に、当該対象の画像又は拡大画像を表示させる。支援サーバ160は、上記の対象の画像又は拡大画像をポップアップウインドウに表示させてもよい。 According to this embodiment, the supporter 34 can specify the designated position by using the three-dimensional model of the work object 102. Therefore, the process for associating the designated position with the projection position is simplified compared to the case of specifying the designated position on a two-dimensional image. For example, the supporter 34 can rotate the three-dimensional model of the work object 102 on the screen of the support terminal 140, or enlarge a part of the three-dimensional model on the screen of the support terminal 140. The support server 160 may also detect an object pointed to by the worker 32 using a part of his/her body. Examples of the part of the body of the worker 32 include the face, eyes, arms, hands, and fingers. For example, the support server 160 displays an image or an enlarged image of the object in a part of the screen on which the three-dimensional model of the work object 102 is displayed. The support server 160 may display the image or the enlarged image of the object in a pop-up window.

作業対象102上における支援画像20の位置に関する指示は、第1指示の一例であってよい。支援画像20の属性に関する指示は、第2指示の一例であってよい。カーソル402は、マークの一例であってよい。 An instruction regarding the position of the support image 20 on the work object 102 may be an example of a first instruction. An instruction regarding the attributes of the support image 20 may be an example of a second instruction. The cursor 402 may be an example of a mark.

図5は、ライダー124の内部構成の一例を概略的に示す。本実施形態において、ライダー124は、測距部520と、撮像部530と、点群データ出力部540とを備える。本実施形態において、測距部520は、照射部522と、受光部524とを有する。 Figure 5 shows an example of the internal configuration of the LIDAR 124. In this embodiment, the LIDAR 124 includes a distance measurement unit 520, an image capture unit 530, and a point cloud data output unit 540. In this embodiment, the distance measurement unit 520 includes an irradiation unit 522 and a light receiving unit 524.

本実施形態において、測距部520は、作業領域114に配された1以上の物体の表面上の複数の点のそれぞれについて、測距部520の基準点からの距離及び角度を導出するための情報を出力する。測距部520は、例えば、作業領域114に配された1以上の物体の表面上の複数の点のそれぞれからの反射光の強度を示す情報(強度情報と称される場合がある。)を出力する。測距部520は、作業領域114に配された1以上の物体の表面上の複数の点のそれぞれについて、上記のバラツキ指標を導出するための情報を出力してもよい。 In this embodiment, the distance measuring unit 520 outputs information for deriving the distance and angle from the reference point of the distance measuring unit 520 for each of a plurality of points on the surface of one or more objects arranged in the working area 114. The distance measuring unit 520 outputs, for example, information indicating the intensity of reflected light from each of a plurality of points on the surface of one or more objects arranged in the working area 114 (sometimes referred to as intensity information). The distance measuring unit 520 may output information for deriving the above-mentioned variation index for each of a plurality of points on the surface of one or more objects arranged in the working area 114.

本実施形態において、照射部522は、作業領域114に配された1以上の物体に光を照射する。上記の光としては、紫外線、可視光、近赤外線などが例示される。上記の光は、レーザーであってよい。上記の光は、パルス光であってよい。照射部522は、例えば、アレイ状に配列された複数の発光素子と、複数の発光素子が出射した光を走査位置の方向に向ける光学系とを備える。複数の発光素子のそれぞれは、照射部522の基準面に対して予め定められた角度で光を出射するように構成される。 In this embodiment, the irradiation unit 522 irradiates light onto one or more objects arranged in the working area 114. Examples of the light include ultraviolet light, visible light, and near-infrared light. The light may be a laser. The light may be pulsed light. The irradiation unit 522 includes, for example, a plurality of light-emitting elements arranged in an array, and an optical system that directs the light emitted by the plurality of light-emitting elements toward the scanning position. Each of the plurality of light-emitting elements is configured to emit light at a predetermined angle with respect to a reference plane of the irradiation unit 522.

照射部522は、例えば、パルス光が出射された時刻と、当該時刻における走査位置とを示す情報を出力する。上記の走査位置を示す情報は、各光の進行方向を示すベクトルと、照射部522の基準面に配された基準点を通過する当該基準面の法線ベクトルとのなす角度であってもよい。なお、2つのベクトルのなす角は、2つのベクトルの少なくとも一方を平行移動して一方のベクトルの始点を他方のベクトルの始点に重ねた場合に、2つのベクトルで作られる角のうち180°以下となる角の角度を示す。 The irradiation unit 522 outputs, for example, information indicating the time when the pulsed light was emitted and the scanning position at that time. The information indicating the scanning position may be the angle between a vector indicating the traveling direction of each light and a normal vector of a reference plane of the irradiation unit 522 that passes through a reference point arranged on the reference plane. Note that the angle between two vectors indicates an angle of 180° or less made by the two vectors when at least one of the two vectors is translated and the starting point of one vector is superimposed on the starting point of the other vector.

本実施形態において、受光部524は、照射部522の近傍に配される。照射部522が上記の1以上の物体に照射した光は、上記の1以上の物体の表面で散乱又は反射して、受光部524に戻ってくる。受光部524は、上記の1以上の物体の表面で散乱又は反射して戻ってきた光(物体からの反射光と称される場合がある。)を受光する。 In this embodiment, the light receiving unit 524 is disposed near the irradiation unit 522. The light irradiated by the irradiation unit 522 to the one or more objects is scattered or reflected by the surface of the one or more objects and returns to the light receiving unit 524. The light receiving unit 524 receives the light that is scattered or reflected by the surface of the one or more objects and returns (sometimes referred to as reflected light from the object).

受光部524は、上記の反射光の受光強度の変動を出力する。受光部524は、例えば、時刻と、当該時刻における上記の反射光の受光強度とを示す情報を出力する。 The light receiving unit 524 outputs the fluctuation in the received light intensity of the reflected light. The light receiving unit 524 outputs, for example, information indicating the time and the received light intensity of the reflected light at that time.

本実施形態において、撮像部530は、作業領域114を撮像する。撮像部530は、作業領域114に配された1以上の物体を撮像してもよい。撮像部530は、作業領域114に配された1以上の物体の表面上の複数の点のそれぞれについて、各点の色を示す色情報を取得してよい。 In this embodiment, the imaging unit 530 images the working area 114. The imaging unit 530 may image one or more objects arranged in the working area 114. The imaging unit 530 may acquire color information indicating the color of each of a plurality of points on the surface of the one or more objects arranged in the working area 114.

本実施形態において、点群データ出力部540は、測距部520が出力した情報と、撮像部530が出力した情報とに基づいて、色点群データ560を生成する。図5に示されるとおり、色点群データ560は、作業領域114に配された1以上の物体の表面上の複数の点のそれぞれについて、各点の識別情報と、各点の三次元位置情報と、各点の色情報と、各点のバラツキ情報とを対応付けて格納する。色点群データ560は、作業領域114に配された1以上の物体の表面上の複数の点のそれぞれからの反射光の強度を示す強度情報をさらに対応付けて格納してもよい。 In this embodiment, the point cloud data output unit 540 generates color point cloud data 560 based on the information output by the distance measurement unit 520 and the information output by the imaging unit 530. As shown in FIG. 5, the color point cloud data 560 stores, for each of a plurality of points on the surface of one or more objects arranged in the working area 114, identification information of each point, three-dimensional position information of each point, color information of each point, and variation information of each point in association with each other. The color point cloud data 560 may further store intensity information indicating the intensity of reflected light from each of a plurality of points on the surface of one or more objects arranged in the working area 114 in association with each other.

具体的には、例えば、点群データ出力部540は、測距部520が出力した情報に基づいて、作業領域114に配された1以上の物体の表面上の複数の点のそれぞれについて、測距部520の基準点からの距離を示す深度を算出する。点群データ出力部540は、測距部520が光を照射した時刻と、受光部524が当該光の反射光を受光した時刻とに基づいて、上記の複数の点のそれぞれについて、測距部520の基準点からの距離を示す深度を算出してよい。点群データ出力部540は、上記の深度に基づいて、上記の複数の点のそれぞれの三次元位置を導出してよい。 Specifically, for example, the point cloud data output unit 540 calculates a depth indicating the distance from a reference point of the distance measuring unit 520 for each of a plurality of points on the surface of one or more objects arranged in the working area 114 based on the information output by the distance measuring unit 520. The point cloud data output unit 540 may calculate a depth indicating the distance from a reference point of the distance measuring unit 520 for each of the above-mentioned plurality of points based on the time when the distance measuring unit 520 irradiates light and the time when the light receiving unit 524 receives the reflected light of the light. The point cloud data output unit 540 may derive the three-dimensional position of each of the above-mentioned plurality of points based on the above-mentioned depth.

また、点群データ出力部540は、予め定められた長さを有する単位期間における深度の変動に基づいて、上記の複数の点のそれぞれからの反射光の強度のバラツキ具合を示すバラツキ指標の値を算出する。上記の指標としては、分散、偏差、標準偏差などが例示される。 The point cloud data output unit 540 also calculates a variation index value that indicates the degree of variation in the intensity of reflected light from each of the above-mentioned multiple points based on the depth fluctuation in a unit period having a predetermined length. Examples of the above-mentioned index include variance, deviation, and standard deviation.

点群データ出力部540は、上記の各点の識別情報と、各点の三次元位置を示す三次元位置情報と、各点のバラツキ指標の値を示すバラツキ情報と、各点の色情報とを対応付けて、色点群データ560を生成する。点群データ出力部540は、色点群データ560を支援サーバ160に出力してよい。これにより、ライダー124は、受光部524が受光した反射光に基づいて、作業領域114に配された1以上の物体の三次元点群データを出力することができる。 The point cloud data output unit 540 generates color point cloud data 560 by associating the identification information of each point, the three-dimensional position information indicating the three-dimensional position of each point, the variation information indicating the value of the variation index of each point, and the color information of each point. The point cloud data output unit 540 may output the color point cloud data 560 to the support server 160. This allows the LIDAR 124 to output three-dimensional point cloud data of one or more objects placed in the working area 114 based on the reflected light received by the light receiving unit 524.

[別実施形態の一例]
本実施形態においては、ライダー124の内部で、受光部524が出力した強度情報に基づいてバラツキ情報が生成される場合を例として、作業支援システム100の一例が説明された。しかしながら、作業支援システム100は、本実施形態に限定されない。他の実施形態において、支援サーバ160が、受光部524が出力した強度情報を取得し、当該強度情報に基づいて、バラツキ情報を生成してよい。
[An example of another embodiment]
In the present embodiment, an example of the work support system 100 has been described by taking as an example a case in which variation information is generated inside the LIDAR 124 based on the intensity information output by the light receiving unit 524. However, the work support system 100 is not limited to this embodiment. In other embodiments, the support server 160 may acquire the intensity information output by the light receiving unit 524 and generate variation information based on the intensity information.

点群データ出力部540は、深度算出部又は指標算出部の一例であってよい。色点群データ560は、三次元点群データの一例であってよい。作業領域114に配された1以上の物体の表面上の複数の点のそれぞれと、測距部520の基準点との距離は、作業領域114に配された1以上の物体の表面上の複数の点のそれぞれと、照射部522又は受光部524との距離の一例であってよい。 The point cloud data output unit 540 may be an example of a depth calculation unit or an index calculation unit. The color point cloud data 560 may be an example of three-dimensional point cloud data. The distance between each of the multiple points on the surface of one or more objects arranged in the working area 114 and the reference point of the distance measurement unit 520 may be an example of the distance between each of the multiple points on the surface of one or more objects arranged in the working area 114 and the irradiation unit 522 or the light receiving unit 524.

図6は、作業室制御部162の内部構成の一例を概略的に示す。本実施形態において、作業室制御部162は、点群データ取得部622と、物体検出部632と、モデリング部634と、種類推定部636と、指示受付部642と、投影制御部644と、較正部650と、格納部660とを備える。 Figure 6 shows an example of the internal configuration of the workroom control unit 162. In this embodiment, the workroom control unit 162 includes a point cloud data acquisition unit 622, an object detection unit 632, a modeling unit 634, a type estimation unit 636, an instruction reception unit 642, a projection control unit 644, a calibration unit 650, and a storage unit 660.

本実施形態において、点群データ取得部622は、ライダー124が出力した三次元点群データを取得する。例えば、点群データ取得部622は、作業領域114の内部に配された1以上の物体に関する色点群データ560を取得する。 In this embodiment, the point cloud data acquisition unit 622 acquires the three-dimensional point cloud data output by the LIDAR 124. For example, the point cloud data acquisition unit 622 acquires color point cloud data 560 related to one or more objects disposed within the working area 114.

物体検出部632は、点群データ取得部622が取得した三次元点群データに基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つ(例えば、作業対象102である。)を検出する。上述されたとおり、三次元点群データは、作業領域114の内部に配された1以上の物体の表面上の複数の点のそれぞれに関する(i)三次元位置情報又は深度情報と、(ii)色情報、バラツキ情報及び強度情報の少なくとも1つとを含む。一実施形態において、物体検出部632は、三次元位置情報又は深度情報に基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。他の実施形態において、物体検出部632は、色情報に基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。さらに他の実施形態に基づいて、物体検出部632は、バラツキ情報に基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。 The object detection unit 632 detects at least one of the one or more objects (e.g., the work target 102) arranged inside the working area 114 based on the three-dimensional point cloud data acquired by the point cloud data acquisition unit 622. As described above, the three-dimensional point cloud data includes (i) three-dimensional position information or depth information and (ii) at least one of color information, variation information, and intensity information regarding each of a plurality of points on the surface of the one or more objects arranged inside the working area 114. In one embodiment, the object detection unit 632 may detect at least one of the one or more objects arranged inside the working area 114 based on the three-dimensional position information or depth information. In another embodiment, the object detection unit 632 may detect at least one of the one or more objects arranged inside the working area 114 based on the color information. In yet another embodiment, the object detection unit 632 may detect at least one of the one or more objects arranged inside the working area 114 based on the variation information.

さらに他の実施形態において、物体検出部632は、(i)三次元位置情報又は深度情報と、(ii)色情報、バラツキ情報及び強度情報の少なくとも1つとに基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。例えば、物体検出部632は、まず、三次元位置情報又は深度情報に基づいて物体の検出処理を実行する。少なくとも一部の物体の検出精度が予め定められた値よりも小さい場合、物体検出部632は、色情報、バラツキ情報及び強度情報の少なくとも1つに基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。 In yet another embodiment, the object detection unit 632 may detect at least one of the one or more objects disposed within the working area 114 based on (i) three-dimensional position information or depth information, and (ii) at least one of color information, variation information, and intensity information. For example, the object detection unit 632 first performs an object detection process based on the three-dimensional position information or depth information. If the detection accuracy of at least some objects is lower than a predetermined value, the object detection unit 632 may detect at least one of the one or more objects disposed within the working area 114 based on at least one of color information, variation information, and intensity information.

さらに他の実施形態において、物体検出部632は、(i)色情報と、(ii)三次元位置情報又は深度情報、バラツキ情報及び強度情報の少なくとも1つとに基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。例えば、物体検出部632は、まず、色情報に基づいて物体の検出処理を実行する。少なくとも一部の物体の検出精度が予め定められた値よりも小さい場合、物体検出部632は、三次元位置情報又は深度情報、バラツキ情報及び強度情報の少なくとも1つに基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。 In yet another embodiment, the object detection unit 632 may detect at least one of the one or more objects disposed within the working area 114 based on (i) color information and (ii) at least one of the three-dimensional position information or depth information, the variation information, and the intensity information. For example, the object detection unit 632 first performs an object detection process based on the color information. If the detection accuracy of at least some objects is lower than a predetermined value, the object detection unit 632 may detect at least one of the one or more objects disposed within the working area 114 based on at least one of the three-dimensional position information or depth information, the variation information, and the intensity information.

さらに他の実施形態において、物体検出部632は、(i)バラツキ情報と、(ii)三次元位置情報又は深度情報、色情報及び強度情報の少なくとも1つとに基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。例えば、物体検出部632は、まず、バラツキ情報に基づいて物体の検出処理を実行する。少なくとも一部の物体の検出精度が予め定められた値よりも小さい場合、物体検出部632は、三次元位置情報又は深度情報、色情報及び強度情報の少なくとも1つに基づいて、作業領域114の内部に配された1以上の物体の少なくとも1つを検出してよい。 In yet another embodiment, the object detection unit 632 may detect at least one of the one or more objects arranged inside the working area 114 based on (i) the variation information and (ii) at least one of the three-dimensional position information or depth information, color information, and intensity information. For example, the object detection unit 632 first performs an object detection process based on the variation information. If the detection accuracy of at least some objects is lower than a predetermined value, the object detection unit 632 may detect at least one of the one or more objects arranged inside the working area 114 based on at least one of the three-dimensional position information or depth information, color information, and intensity information.

本実施形態において、作業領域114の内部に配された1以上の物体のうち、少なくとも作業対象102及び作業台112の表面が平坦であることが既知である場合、物体検出部632は、下記の手順に従って、作業対象102を検出してもよい。まず、物体検出部632は、作業台112の上に作業対象102が配置される前に点群データ取得部622が取得した三次元点群データを用いて、作業台112の周辺の点群を、任意の平面式(近似平面式と称される場合がある。)で近似する。 In this embodiment, when it is known that the surfaces of at least the work target 102 and the work table 112 among one or more objects arranged inside the work area 114 are flat, the object detection unit 632 may detect the work target 102 according to the following procedure. First, the object detection unit 632 uses the three-dimensional point cloud data acquired by the point cloud data acquisition unit 622 before the work target 102 is placed on the work table 112 to approximate the point cloud around the work table 112 with an arbitrary plane formula (sometimes referred to as an approximate plane formula).

次に、作業台112の上に作業対象102が配置された後、物体検出部632は、点群データ取得部622が取得した三次元点群データを読み込む。物体検出部632は、作業台112が平面であること、及び、作業対象102が平面であることを仮定して、点群データ取得部622が取得した三次元点群データの中で、作業台112付近の三次元点群データを、上述された近似平面式に投影変換する。投影変換とは、作業対象102が反り繰り返った紙幣などのときでも、アイロンを掛けたように、物理的に曲面や凹凸、折れ曲がりのある紙幣の分子間距離を保ったまま、平たく伸ばした状態に点群データを座標変換することであり、これにより、物体検出部632及び/又は種類推定部636による分類又は推定の精度が向上する。 Next, after the work target 102 is placed on the work table 112, the object detection unit 632 reads the three-dimensional point cloud data acquired by the point cloud data acquisition unit 622. Assuming that the work table 112 and the work target 102 are flat, the object detection unit 632 performs projection transformation of the three-dimensional point cloud data near the work table 112 among the three-dimensional point cloud data acquired by the point cloud data acquisition unit 622 into the above-mentioned approximate plane formula. Projection transformation is a coordinate transformation of the point cloud data into a flat and stretched state while maintaining the intermolecular distance of the physically curved, uneven, or bent banknote, as if it has been ironed, even when the work target 102 is a repeatedly curled banknote, etc., thereby improving the accuracy of classification or estimation by the object detection unit 632 and/or type estimation unit 636.

本実施形態において、物体検出部632は、点群データ取得部622が取得した三次元点群データに基づいて、例えば、作業対象102を検出する。物体検出部632は、上記の色点群データ560に基づいて、作業対象102の境界の少なくとも一部を検出することで、作業対象102を検出してよい。 In this embodiment, the object detection unit 632 detects, for example, the work object 102 based on the three-dimensional point cloud data acquired by the point cloud data acquisition unit 622. The object detection unit 632 may detect the work object 102 by detecting at least a portion of the boundary of the work object 102 based on the above-mentioned color point cloud data 560.

物体検出部632は、色点群データ560に含まれる三次元位置情報及びバラツキ情報に基づいて、作業対象102の境界の少なくとも一部を検出してよい。物体検出部632は、色点群データ560に含まれる三次元位置情報、バラツキ情報及び色情報に基づいて、作業対象102の境界の少なくとも一部を検出してもよい。 The object detection unit 632 may detect at least a portion of the boundary of the work object 102 based on the three-dimensional position information and variation information included in the color point cloud data 560. The object detection unit 632 may detect at least a portion of the boundary of the work object 102 based on the three-dimensional position information, variation information, and color information included in the color point cloud data 560.

例えば、物体検出部632は、色点群データ560に含まれるバラツキ情報により示される複数の点のそれぞれにおけるバラツキ指標の値に基づいて、上記の複数の点の中から、作業対象102の表面上の点を抽出する。上述されたとおり、バラツキ指標の値は、物体の材質により異なる。そのため、物体検出部632は、各点のバラツキ指標の値を利用することで、作業対象102と、作業領域114に配された他の物体(例えば、作業台112である。)との材質の違いに基づいて、作業対象102と、作業領域114に配された他の物体とを区別することができる。これにより、物体検出部632は、作業領域114に配された1以上の物体の中から、作業対象102を検出することができる。 For example, the object detection unit 632 extracts points on the surface of the work object 102 from among the multiple points indicated by the variation information included in the color point cloud data 560, based on the value of the variation index for each of the multiple points. As described above, the value of the variation index differs depending on the material of the object. Therefore, by using the value of the variation index for each point, the object detection unit 632 can distinguish the work object 102 from other objects (e.g., the workbench 112) placed in the work area 114 based on the difference in material between the work object 102 and other objects placed in the work area 114. This allows the object detection unit 632 to detect the work object 102 from one or more objects placed in the work area 114.

より具体的には、物体検出部632は、まず、上記の複数の点の中から、バラツキ指標の値が予め定められた第1範囲の範囲内である少なくとも1つの点を抽出する。作業対象102のバラツキ指標の値の取り得る範囲が既知である場合、物体検出部632は、作業対象102のバラツキ指標の値の取り得る範囲として既知の範囲を、第1範囲として利用してよい。拡散反射特性が作業対象102と類似する物質について、上記のバラツキ指標の値の取り得る範囲が既知である場合、物体検出部632は、当該既知の範囲を、第1範囲として利用してもよい。 More specifically, the object detection unit 632 first extracts at least one point from the above multiple points, the value of which for the variation index is within a predetermined first range. If the range of possible values for the variation index of the work object 102 is known, the object detection unit 632 may use the known range as the first range for the possible values of the variation index of the work object 102. If the range of possible values for the above variation index for a material whose diffuse reflectance characteristics are similar to those of the work object 102 is known, the object detection unit 632 may use the known range as the first range.

特に、検出対象となる作業対象102の拡散反射率が、作業対象102の正反射率と比較して十分に大きい場合、バラツキ指標は、拡散反射率に比例することが想定される。上記の第1範囲は、物体検出部632の検出対象となる作業対象102の拡散反射率を考慮して決定されてもよい。 In particular, when the diffuse reflectance of the work object 102 to be detected is sufficiently large compared to the specular reflectance of the work object 102, the variation index is expected to be proportional to the diffuse reflectance. The above first range may be determined taking into account the diffuse reflectance of the work object 102 to be detected by the object detection unit 632.

次に、物体検出部632は、抽出された少なくとも1つの点のそれぞれについて、各点のバラツキ指標の値と、各点に隣接する点のバラツキ指標の値とを比較する。両者の差の絶対値が予め定められた値よりも小さい場合、物体検出部632は、両者が同一の物体の表面上の点であると判定する。一方。両者の差の絶対値が予め定められた値よりも大きい場合、物体検出部632は、両者が異なる物体の表面上の点であると判定する。これにより、物体検出部632は、作業領域114の内部に配された1以上の物体に含まれる少なくとも2つの物体を区別することができる。 Next, for each of the at least one extracted point, the object detection unit 632 compares the value of the variance index of each point with the value of the variance index of a point adjacent to each point. If the absolute value of the difference between the two is smaller than a predetermined value, the object detection unit 632 determines that the two are points on the surface of the same object. On the other hand, if the absolute value of the difference between the two is greater than a predetermined value, the object detection unit 632 determines that the two are points on the surface of different objects. This allows the object detection unit 632 to distinguish between at least two objects included in one or more objects arranged inside the working area 114.

なお、物質の種類と、バラツキ指標の値の取り得る数値範囲とを対応づけて格納するデータベースが利用可能である場合、物体検出部632は、上記の隣接する2つの点におけるバラツキ指標の値の比較処理を簡略化してもよい。例えば、物体検出部632は、まず、作業対象102の材料をキーとして、上記のデータベースを参照して、作業対象102のバラツキ指標の値の取り得る数値範囲を抽出する。次に、物体検出部632は、作業領域114に配された1以上の物体の表面上の複数の点のうち、バラツキ指標の値が、上記の抽出された数値範囲の範囲内に含まれる1以上の点を抽出する。次に、物体検出部632は、抽出された1以上の点の中から、作業対象102の表面上の点を抽出する。物体検出部632は、(i)抽出された1以上の点のそれぞれについて、上記と同様の比較処理を実行してもよく、(ii)抽出された1以上の点の少なくとも一部により形成される閉じた図形を、作業対象102として検出してもよい。 If a database that stores the type of material in association with the range of values that the variation index can take is available, the object detection unit 632 may simplify the comparison process of the values of the variation index at the two adjacent points. For example, the object detection unit 632 first uses the material of the work object 102 as a key, refers to the database, and extracts the range of values that the variation index of the work object 102 can take. Next, the object detection unit 632 extracts one or more points whose variation index values are included in the range of the extracted range of values from among a plurality of points on the surface of one or more objects arranged in the work area 114. Next, the object detection unit 632 extracts a point on the surface of the work object 102 from the extracted one or more points. The object detection unit 632 may (i) perform a comparison process similar to the above for each of the extracted one or more points, or (ii) detect a closed figure formed by at least a part of the extracted one or more points as the work object 102.

物体検出部632は、作業領域114の内部に配された1以上の物体のそれぞれについて輪郭を検出し、上記の1以上の物体を検出してよい。物体検出部632は、検出された1以上の物体のそれぞれに識別情報を付与してよい。物体検出部632は、各物体の識別情報と、各物体の外観の特徴情報とを対応付けて格納してよい。各物体の外観の特徴情報は、例えば、撮像部530が各物体を撮像した画像に基づいて決定される。これにより、例えば、作業領域114の内部に同じ種類の振込伝票が2枚存在する場合、物体検出部632は、上記の2枚の振込伝票を異なる2つのインスタンスとして認識することができる。例えば、作業者32が一方の振込伝票に文字を記入すると、文字が記入された振込伝票の特徴情報と、文字が記入されていない振込伝票の特徴情報とが相違する。そのため、物体検出処理が実行された最新の時刻である第1時刻と、第1時刻よりも前に物体検出処理が実行された最後のの時刻である第2時刻との間に、2枚の振込伝票の位置が移動していたとしても、物体検出部632は、上記の特徴情報の相違に基づいて、2枚の振込伝票を識別することができる。 The object detection unit 632 may detect the contour of one or more objects arranged inside the working area 114 and detect the one or more objects. The object detection unit 632 may assign identification information to each of the detected one or more objects. The object detection unit 632 may store the identification information of each object in association with the characteristic information of the appearance of each object. The characteristic information of the appearance of each object is determined, for example, based on an image of each object captured by the imaging unit 530. As a result, for example, when there are two transfer slips of the same type inside the working area 114, the object detection unit 632 can recognize the two transfer slips as two different instances. For example, when the worker 32 writes characters on one of the transfer slips, the characteristic information of the transfer slip with the characters written on it differs from the characteristic information of the transfer slip without the characters written on it. Therefore, even if the positions of the two transfer slips have changed between the first time, which is the most recent time that the object detection process was performed, and the second time, which is the last time that the object detection process was performed before the first time, the object detection unit 632 can identify the two transfer slips based on the differences in the above-mentioned characteristic information.

本実施形態において、モデリング部634は、点群データ取得部622が取得した三次元点群データに基づいて、作業領域114の内部に配された1以上の物体の三次元モデルを含む仮想空間を構築する。モデリング部634は、物体検出部632が検出した物体のそれぞれの三次元モデルを生成してよい。例えば、モデリング部634は、作業対象102の三次元モデルを含む仮想空間を構築する。モデリング部634は、作業対象102の三次元モデルと、作業台112の三次元モデルとを含む仮想空間を構築してもよい。 In this embodiment, the modeling unit 634 constructs a virtual space including a three-dimensional model of one or more objects arranged inside the work area 114 based on the three-dimensional point cloud data acquired by the point cloud data acquisition unit 622. The modeling unit 634 may generate a three-dimensional model of each of the objects detected by the object detection unit 632. For example, the modeling unit 634 constructs a virtual space including a three-dimensional model of the work object 102. The modeling unit 634 may also construct a virtual space including a three-dimensional model of the work object 102 and a three-dimensional model of the workbench 112.

本実施形態において、種類推定部636は、物体検出部632が検出した物体の種類を分類又は推定する。種類推定部636は、公知の機械学習手法を用いて、物体検出部632が検出した物体の種類を分類又は推定してよい。種類推定部636はディープラーニングなどのニューラルネットワーク系の分類器を用いて、物体の種類を分類又は推定してよい。種類推定部636は、撮像部530が撮像した上記の物体の画像に基づいて、当該物体の種類を分類又は推定してよい。種類推定部636は、物体検出部632が検出した上記の物体の境界と、撮像部530が撮像した上記の物体の画像とに基づいて、当該物体の種類を分類又は推定してよい。 In this embodiment, the type estimation unit 636 classifies or estimates the type of the object detected by the object detection unit 632. The type estimation unit 636 may classify or estimate the type of the object detected by the object detection unit 632 using a known machine learning method. The type estimation unit 636 may classify or estimate the type of the object using a neural network classifier such as deep learning. The type estimation unit 636 may classify or estimate the type of the object based on an image of the object captured by the imaging unit 530. The type estimation unit 636 may classify or estimate the type of the object based on the boundary of the object detected by the object detection unit 632 and the image of the object captured by the imaging unit 530.

本実施形態によれば、物体検出部632が、バラツキ指標の値に基づいて、作業領域114に配された1以上の物体のそれぞれの境界を検出する。種類推定部636が、各物体の境界の内部の画像を利用して各物体の種類を分類又は推定することで、当該分類又は推定の精度が向上する。 According to this embodiment, the object detection unit 632 detects the boundaries of one or more objects arranged in the working area 114 based on the value of the variation index. The type estimation unit 636 classifies or estimates the type of each object using an image of the inside of the boundary of each object, thereby improving the accuracy of the classification or estimation.

本実施形態において、指示受付部642は、支援者34からの各種の指示を受け付ける。指示受付部642は、支援者34が支援端末140を利用して操作画面400上に入力した指示を受け付けてよい。 In this embodiment, the instruction receiving unit 642 receives various instructions from the supporter 34. The instruction receiving unit 642 may receive instructions that the supporter 34 inputs onto the operation screen 400 using the support terminal 140.

指示受付部642は、上述された指示位置を特定するための指示(第1指示と称される場合がある。)を受け付けてよい。例えば、支援者34は、操作画面400上でオブジェクト404に対してドラック・アンド・ドロップ操作又はそれに類する操作を実行することにより、オブジェクト404を、三次元モデルの任意の位置に配置することができる。 The instruction receiving unit 642 may receive an instruction (sometimes referred to as a first instruction) for identifying the indicated position described above. For example, the support person 34 can place the object 404 at any position on the three-dimensional model by performing a drag-and-drop operation or a similar operation on the object 404 on the operation screen 400.

支援者34によるオブジェクト404の配置操作が完了すると、指示受付部642は、支援端末140から、オブジェクト404が、操作画面400の仮想空間表示領域440に表示されている三次元モデルの特定の位置に配置されたことを示す情報を取得する。例えば、支援者34が、オブジェクト404のドラック・アンド・ドロップ操作中にポインティングデバイス148のボタンを離す操作を実行することにより、オブジェクト404の配置操作が完了する。これにより、指示受付部642は、上記の三次元モデル上でオブジェクト404が配置された位置を、上記の指示位置として特定するための指示を受け付ける。 When the supporter 34 has completed the placement operation of the object 404, the instruction receiving unit 642 acquires information from the support terminal 140 indicating that the object 404 has been placed at a specific position of the three-dimensional model displayed in the virtual space display area 440 of the operation screen 400. For example, the supporter 34 completes the placement operation of the object 404 by performing an operation of releasing the button of the pointing device 148 during a drag-and-drop operation of the object 404. As a result, the instruction receiving unit 642 receives an instruction to specify the position where the object 404 has been placed on the three-dimensional model as the above-mentioned designated position.

指示受付部642は、支援画像20の属性を特定するための指示(第2指示と称される場合がある。)を受け付けてよい。例えば、支援者34は、操作画面400上でオブジェクト404の属性を選択するためのプルダウンリスト462を操作して、オブジェクト404の属性を選択する。支援者34によるオブジェクト404の属性の選択操作が完了すると、指示受付部642は、支援端末140から、オブジェクト404の属性が決定されたことを示す情報を取得する。これにより、指示受付部642は、操作画面400上で選択された属性を、支援画像20の属性として特定するための指示を受け付ける。 The instruction receiving unit 642 may receive an instruction (sometimes referred to as a second instruction) to identify the attribute of the support image 20. For example, the supporter 34 operates the pull-down list 462 for selecting the attribute of the object 404 on the operation screen 400 to select the attribute of the object 404. When the supporter 34 completes the selection operation of the attribute of the object 404, the instruction receiving unit 642 acquires information from the support terminal 140 indicating that the attribute of the object 404 has been determined. As a result, the instruction receiving unit 642 receives an instruction to identify the attribute selected on the operation screen 400 as the attribute of the support image 20.

指示受付部642は、例えば、(i)作業対象102の三次元モデルのおける基準点に対する、上記指示位置の相対位置、又は、(ii)仮想空間の基準点に対する、上記指示位置の相対位置を固定するための指示(第3指示と称される場合がある。)を受け付ける。第3指示は、(i)オブジェクト404の配置が完了したことを示す明確な指示であってもよく、(ii)オブジェクト404を配置するための操作が終了したことであってもよい。オブジェクト404のドラック・アンド・ドロップ操作は、オブジェクト404を配置するための操作の一例であってよい。この場合、支援者34が、オブジェクト404のドラック・アンド・ドロップ操作中にポインティングデバイス148のボタンを離す操作は、上記の第3指示の一例であってよい。オブジェクト404の配置が完了したことを示す明確な指示としては、ボタン466が押下されたことなどが例示される。 The instruction receiving unit 642 receives, for example, (i) the relative position of the indicated position with respect to a reference point in the three-dimensional model of the work target 102, or (ii) an instruction to fix the relative position of the indicated position with respect to a reference point in the virtual space (sometimes referred to as a third instruction). The third instruction may be (i) a clear instruction indicating that the placement of the object 404 is complete, or (ii) that the operation for placing the object 404 is completed. The drag-and-drop operation of the object 404 may be an example of an operation for placing the object 404. In this case, the operation of the assistant 34 releasing the button of the pointing device 148 during the drag-and-drop operation of the object 404 may be an example of the third instruction. An example of a clear instruction indicating that the placement of the object 404 is completed is pressing the button 466.

上述されたとおり、オブジェクト404の属性によっては、支援者34が操作画面400上で支援画像20を操作している期間中は、支援画像20が、作業対象102の表面に投影されない。第3指示は、このような場合において、オブジェクト404の位置又は設定に関する変更を支援画像20に反映させるための指示であってよい。なお、支援者34が操作画面400上で支援画像20を操作している期間中も、支援画像20が、作業対象102の表面に投影されるか否かは、操作画面400の設定によって決定されてもよい。 As described above, depending on the attributes of the object 404, the support image 20 is not projected onto the surface of the work target 102 while the support person 34 is operating the support image 20 on the operation screen 400. In such a case, the third instruction may be an instruction for reflecting a change in the position or setting of the object 404 in the support image 20. Note that whether or not the support image 20 is projected onto the surface of the work target 102 while the support person 34 is operating the support image 20 on the operation screen 400 may be determined by the settings of the operation screen 400.

指示受付部642は、支援画像20の投影の開始又は停止に関する指示(第4指示と称される場合がある。)を受け付けてよい。第4指示としては、ボタン466が押下されたことなどが例示される。 The instruction receiving unit 642 may receive an instruction (sometimes referred to as a fourth instruction) regarding starting or stopping the projection of the support image 20. An example of the fourth instruction is when the button 466 is pressed.

本実施形態において、投影制御部644は、プロジェクタ126の動作を制御する。投影制御部644は、プロジェクタ126を制御して、例えば、作業対象102の表面において、作業対象102の三次元モデル上の指示位置に対応する点又は領域(投影位置と称される場合がある。)に、支援画像20を投影させる。 In this embodiment, the projection control unit 644 controls the operation of the projector 126. The projection control unit 644 controls the projector 126 to project the support image 20, for example, on the surface of the work object 102, onto a point or area (sometimes referred to as a projection position) that corresponds to a designated position on the three-dimensional model of the work object 102.

投影制御部644は、支援画像20の投影方向、並びに、支援画像20の形状及び大きさの少なくとも1つを制御してよい。上述されたとおり、投影制御部644は、例えば、実空間において作業対象102が移動した場合、作業対象102に投影される支援画像20が、作業対象102の移動に追従するように、プロジェクタ126を制御する。 The projection control unit 644 may control at least one of the projection direction of the support image 20 and the shape and size of the support image 20. As described above, for example, when the work object 102 moves in real space, the projection control unit 644 controls the projector 126 so that the support image 20 projected onto the work object 102 follows the movement of the work object 102.

より具体的には、指示受付部642が受け付けた第2指示により示される支援画像20の属性が第1属性である場合、投影制御部644は、実空間において作業対象102が移動した場合に、作業対象102に投影される支援画像20が、作業対象102の移動に追従するように、プロジェクタ126における支援画像20の投影方向、並びに、支援画像20の形状及び大きさの少なくとも1つを調整する。投影制御部644は、指示受付部642が第3指示を受け付け、且つ、第2指示により示される支援画像20の属性が第1属性である場合に、上記のとおりプロジェクタ126を制御してもよい。 More specifically, when the attribute of the support image 20 indicated by the second instruction received by the instruction receiving unit 642 is the first attribute, the projection control unit 644 adjusts the projection direction of the support image 20 in the projector 126 and at least one of the shape and size of the support image 20 so that the support image 20 projected onto the work object 102 follows the movement of the work object 102 when the work object 102 moves in real space. The projection control unit 644 may control the projector 126 as described above when the instruction receiving unit 642 receives a third instruction and the attribute of the support image 20 indicated by the second instruction is the first attribute.

一方、指示受付部642が受け付けた第2指示により示される支援画像20の属性が第1属性である場合、投影制御部644は、実空間において作業対象102が移動しても、プロジェクタ126における支援画像20の投影方向、並びに、支援画像20の形状及び大きさを調整しない。投影制御部644は、指示受付部642が第3指示を受け付け、且つ、第2指示により示される支援画像20の属性が第2属性である場合に、上記のとおりプロジェクタ126を制御してもよい。 On the other hand, if the attribute of the support image 20 indicated by the second instruction received by the instruction receiving unit 642 is the first attribute, the projection control unit 644 does not adjust the projection direction of the support image 20 in the projector 126 or the shape and size of the support image 20, even if the work object 102 moves in real space. The projection control unit 644 may control the projector 126 as described above when the instruction receiving unit 642 receives a third instruction and the attribute of the support image 20 indicated by the second instruction is the second attribute.

投影制御部644は、支援画像20の投影の開始又は停止を制御してもよい。例えば、指示受付部642が上記の第4指示を受け付けた場合、投影制御部644は、第4指示に基づいて、支援画像20を作業対象102に投影するか否かを決定してよい。投影制御部644は、上記の決定に基づいて、プロジェクタ126の動作を制御してよい。 The projection control unit 644 may control the start or stop of projection of the support image 20. For example, when the instruction receiving unit 642 receives the above-mentioned fourth instruction, the projection control unit 644 may decide whether or not to project the support image 20 onto the work target 102 based on the fourth instruction. The projection control unit 644 may control the operation of the projector 126 based on the above-mentioned decision.

投影制御部644は、支援画像20の明るさを制御してもよい。一実施形態において、投影制御部644は、実空間における投影位置の周囲の明るさに基づいて、支援画像20の明るさを調整する。例えば、投影制御部644は、撮像部530が出力した画像データに基づいて、投影位置の周囲の明るさが予め定められた程度よりも明るいか否かを判定する。投影位置の周囲の明るさが予め定められた程度よりも明るいと判定された場合、投影制御部644は、支援画像20の投影光の強度を小さくする。投影位置の周囲の明るさが予め定められた程度よりも暗いと判定された場合、投影制御部644は、支援画像20の投影光の強度を大きくする。 The projection control unit 644 may control the brightness of the support image 20. In one embodiment, the projection control unit 644 adjusts the brightness of the support image 20 based on the brightness of the surroundings of the projection position in real space. For example, the projection control unit 644 determines whether the brightness of the surroundings of the projection position is brighter than a predetermined level based on the image data output by the imaging unit 530. If it is determined that the brightness of the surroundings of the projection position is brighter than a predetermined level, the projection control unit 644 reduces the intensity of the projection light of the support image 20. If it is determined that the brightness of the surroundings of the projection position is darker than a predetermined level, the projection control unit 644 increases the intensity of the projection light of the support image 20.

他の実施形態において、投影制御部644は、種類推定部636の動作に連動して、支援画像20の少なくとも一部の明るさを制御する。投影制御部644は、種類推定部636の動作に連動して、支援画像20の一部の明るさを制御してもよく、支援画像20の全体の明るさを制御してもよい。例えば、投影制御部644は、支援画像20のうち、種類推定部636による推定処理の対象物上に投影される部分の明るさを制御する。これにより、種類推定部636による推定処理の対象物に支援画像20が投影されることによる、推定精度の低下が抑制される。 In another embodiment, the projection control unit 644 controls the brightness of at least a portion of the support image 20 in conjunction with the operation of the type estimation unit 636. The projection control unit 644 may control the brightness of a portion of the support image 20 in conjunction with the operation of the type estimation unit 636, or may control the brightness of the entire support image 20. For example, the projection control unit 644 controls the brightness of the portion of the support image 20 that is projected onto the object of the estimation process by the type estimation unit 636. This suppresses a decrease in estimation accuracy caused by the support image 20 being projected onto the object of the estimation process by the type estimation unit 636.

例えば、種類推定部636が撮像部530が出力した画像データに基づいて作業対象102の種類を推定する処理を実行する場合、投影制御部644は、支援画像20の投影を中止する、又は、支援画像20の投影光の強度を小さくする。なお、上記の支援画像20の投影が中止される期間、又は、支援画像20の投影光の強度が小さくされる期間の長さは、撮像部530が作業対象102を撮像することができればよく、例えば、1秒未満であってよい。 For example, when the type estimation unit 636 executes a process of estimating the type of the work object 102 based on the image data output by the imaging unit 530, the projection control unit 644 stops the projection of the support image 20 or reduces the intensity of the projection light of the support image 20. Note that the length of the period during which the projection of the support image 20 is stopped or the period during which the intensity of the projection light of the support image 20 is reduced may be as long as the imaging unit 530 can image the work object 102, and may be, for example, less than one second.

これにより、種類推定部636は、支援画像20が投影されていない状態で撮像された作業対象102の画像データに基づいて、作業対象102の種類を推定することができる。例えば、作業対象102がトランプのカードである場合において、マーカ322又はポインタ324の形状がハート型であるとき、種類推定部636が、マーカ322又はポインタ324が作業対象102に投影された状態で撮像された画像データに基づいて作業対象102の種類を推定すると、推定精度が低下する可能性がある。本実施形態によれば、種類推定部636が上記の推定処理を実行する場合には、例えば支援画像20の投影が中止されるので、種類推定部636による推定精度が向上する。 This allows the type estimation unit 636 to estimate the type of the work object 102 based on image data of the work object 102 captured without the support image 20 being projected. For example, if the work object 102 is a playing card and the shape of the marker 322 or pointer 324 is heart-shaped, the estimation accuracy may decrease if the type estimation unit 636 estimates the type of the work object 102 based on image data captured with the marker 322 or pointer 324 projected onto the work object 102. According to this embodiment, when the type estimation unit 636 executes the above estimation process, for example, the projection of the support image 20 is stopped, and therefore the estimation accuracy by the type estimation unit 636 is improved.

なお、投影制御部644は、種類推定部636による推定処理の対象物と、支援画像20が投影される物体とが同一である場合に、支援画像20の投影を中止したり、支援画像20の少なくとも一部の投影光の強度を小さくしたりしてよい。種類推定部636による推定処理の対象物と、支援画像20が投影される物体とが異なる場合、投影制御部644は、支援画像20の投影を中止したり、支援画像20の投影光の強度を小さくしたりしなくてもよい。 Note that the projection control unit 644 may stop the projection of the support image 20 or reduce the intensity of the projection light of at least a part of the support image 20 when the object of the estimation process by the type estimation unit 636 is the same as the object onto which the support image 20 is projected. When the object of the estimation process by the type estimation unit 636 is different from the object onto which the support image 20 is projected, the projection control unit 644 may not stop the projection of the support image 20 or reduce the intensity of the projection light of the support image 20.

例えば、作業領域114の内部に、物体A及び物体Bを含む5つの物体が配置されており、支援画像20の一部が、物体Aには投影されており、物体Bには投影されていない場合において、種類推定部636が物体Aの種類を推定するために、撮像部530が作業領域114の内部を撮像している期間中、投影制御部644は、支援画像20の投影を中止したり、支援画像20の少なくとも一部の投影光の強度を小さくしたりする。一方、上記の場合において、種類推定部636が物体Bの種類を推定するために、撮像部530が作業領域114の内部を撮像している期間中、投影制御部644は、支援画像20の投影を中止したり、支援画像20の少なくとも一部の投影光の強度を小さくしたりしなくてもよい。 For example, in a case where five objects including object A and object B are arranged inside the working area 114, and part of the support image 20 is projected onto object A but not onto object B, during a period in which the imaging unit 530 is imaging the inside of the working area 114 in order for the type estimation unit 636 to estimate the type of object A, the projection control unit 644 stops projecting the support image 20 or reduces the intensity of the projection light of at least a part of the support image 20. On the other hand, in the above case, during a period in which the imaging unit 530 is imaging the inside of the working area 114 in order for the type estimation unit 636 to estimate the type of object B, the projection control unit 644 does not need to stop projecting the support image 20 or reduce the intensity of the projection light of at least a part of the support image 20.

本実施形態において、較正部650は、ライダー124と、プロジェクタ126との位置関係を決定するためのキャリブレーションを実行する。例えば、較正部650は、まず、プロジェクタ126を制御して、互いの相対位置が既知である少なくとも3つの線分を含む較正画像を、実空間の任意の平面上に投影させる。次に、較正部650は、ライダー124の撮像部530を制御して、上記の較正画像を撮像する。較正部650は、撮像部530が撮像した較正画像に基づいて、ライダー124と、プロジェクタ126との位置関係を決定する。 In this embodiment, the calibration unit 650 performs calibration to determine the positional relationship between the LIDAR 124 and the projector 126. For example, the calibration unit 650 first controls the projector 126 to project a calibration image including at least three line segments whose relative positions are known, onto any plane in real space. Next, the calibration unit 650 controls the imaging unit 530 of the LIDAR 124 to capture the above-mentioned calibration image. The calibration unit 650 determines the positional relationship between the LIDAR 124 and the projector 126 based on the calibration image captured by the imaging unit 530.

本実施形態において、格納部660は、各種のデータを格納する。格納部660は、支援サーバ160における情報処理に用いられる各種のデータを格納してよい。格納部660は、支援サーバ160における情報処理により生成された各種のデータを格納してよい。格納部660は、作業領域114の内部に配された1以上の物体の三次元モデルのデータを格納してよい。格納部660は、操作画面400の表示に利用される各種のデータを格納してよい。格納部660は、操作画面400を利用して決定された各種の設定に関するデータを格納してよい。 In this embodiment, the storage unit 660 stores various types of data. The storage unit 660 may store various types of data used for information processing in the support server 160. The storage unit 660 may store various types of data generated by information processing in the support server 160. The storage unit 660 may store three-dimensional model data of one or more objects arranged inside the working area 114. The storage unit 660 may store various types of data used for displaying the operation screen 400. The storage unit 660 may store data related to various settings determined using the operation screen 400.

[別実施形態の一例]
本実施形態においては、支援者34が、コントローラ144又はポインティングデバイス148を利用して、支援端末140に指示を入力し、指示受付部642が、支援端末140から、当該指示の内容を示す情報(要求と称される場合がある。)を受信する場合を例として、作業室制御部162の一例が説明された。しかしながら、作業室制御部162は、本実施形態に限定されない。他の実施形態において、支援者34の指示は、コントローラ144又はポインティングデバイス148とは異なる機器により取得されてよい。例えば、支援者34が装着するメガネのフレームに配された単一又は複数のカメラが、支援者34の腕、手又は指の形状又は動きを検出することで、支援者34の指示が支援端末140に入力される。
[An example of another embodiment]
In the present embodiment, an example of the workroom control unit 162 has been described, taking as an example a case where the supporter 34 inputs an instruction to the support terminal 140 using the controller 144 or the pointing device 148, and the instruction receiving unit 642 receives information indicating the content of the instruction (sometimes referred to as a request) from the support terminal 140. However, the workroom control unit 162 is not limited to the present embodiment. In other embodiments, the instruction of the supporter 34 may be acquired by a device other than the controller 144 or the pointing device 148. For example, a single or multiple cameras arranged on the frame of glasses worn by the supporter 34 detect the shape or movement of the arm, hand, or finger of the supporter 34, and the instruction of the supporter 34 is input to the support terminal 140.

図7は、較正画像700の一例を概略的に示す。図7に示されたとおり、較正画像700は、T字型の図形を含む。図7に示されるとおり、上記のT字型の図形は、線分AB、線分BC及び線分BDという、互いの相対位置が既知である3つの線分を含む。これにより、較正部650は、(i)ABと、プロジェクタ126の基準点Oとのなす角AOBの大きさ、(ii)BCと、プロジェクタ126の基準点Oとのなす角BOCの大きさ、(iii)BDと、プロジェクタ126の基準点Oとのなす角BODの大きさに基づいて、プロジェクタ126の位置を特定することができる。 FIG. 7 shows a schematic diagram of an example of a calibration image 700. As shown in FIG. 7, the calibration image 700 includes a T-shaped figure. As shown in FIG. 7, the T-shaped figure includes three line segments, AB, BC, and BD, whose relative positions are known. This allows the calibration unit 650 to identify the position of the projector 126 based on (i) the size of the angle AOB between AB and the reference point O of the projector 126, (ii) the size of the angle BOC between BC and the reference point O of the projector 126, and (iii) the size of the angle BOD between BD and the reference point O of the projector 126.

図8は、支援端末制御部164の内部構成の一例を概略的に示す。本実施形態においては、支援者34が、支援端末140の画面上の特定の点を指し示すためのマーク(ポインタ、カーソルなどと称される場合がある。)を操作する場合に、支援端末制御部164が、支援者34によるマークの操作を支援する場合を例として、支援端末制御部164の詳細の一例が説明される。 Figure 8 shows an example of the internal configuration of the support terminal control unit 164. In this embodiment, when the supporter 34 operates a mark (which may be called a pointer, cursor, etc.) to point to a specific point on the screen of the support terminal 140, an example of the details of the support terminal control unit 164 is described using as an example a case in which the supporter 34 operates a mark (which may be called a pointer, cursor, etc.) to point to a specific point on the screen of the support terminal 140, and the support terminal control unit 164 supports the supporter 34 in operating the mark.

本実施形態において、支援端末制御部164は、設定格納部810と、指示マーク制御部820と、画像データ取得部832と、物体推定部834と、設定抽出部836とを備える。本実施形態において、設定格納部810は、第1設定情報格納部812と、第2設定情報格納部814とを備える。 In this embodiment, the support terminal control unit 164 includes a setting storage unit 810, an indication mark control unit 820, an image data acquisition unit 832, an object estimation unit 834, and a setting extraction unit 836. In this embodiment, the setting storage unit 810 includes a first setting information storage unit 812 and a second setting information storage unit 814.

本実施形態において、設定格納部810は、指示マーク制御部820における情報処理により用いられる各種の設定に関する情報を格納する。三次元仮想空間中でカーソル402を移動させる操作は、二次元画面上でマウスカーソルを移動させる操作と比較して困難な場合が多い。上記の設定が適用されることで、三次元仮想空間中におけるカーソル402の操作が容易になり得る。 In this embodiment, the setting storage unit 810 stores information about various settings used by the information processing in the indication mark control unit 820. The operation of moving the cursor 402 in a three-dimensional virtual space is often more difficult than the operation of moving a mouse cursor on a two-dimensional screen. By applying the above settings, it can become easier to operate the cursor 402 in the three-dimensional virtual space.

本実施形態において、第1設定情報格納部812は、例えば、作業対象102の三次元モデルの境界近傍におけるカーソル402の動き方を規定する第1設定情報を格納する。第1設定情報格納部812は、作業対象102の種類ごとに上記の設定情報を格納してもよく、初作業対象102の種類によらず適用される初期設定として、上記の設定情報を格納してもよい。第1設定情報としては、(i)上記の境界との距離と、コントローラ144又はポインティングデバイス148のDPIとの対応関係に関する設定、(ii)上記の境界近傍において、カーソル402がバウンドするような動作を行うか否かに関する設定、(iii)カーソル402をバウンドさせる場合のバウンド態様に関する設定、(iv)上記の境界近傍において、カーソル402が境界に到達してから予め定められた期間、カーソル402を境界に沿って移動させるか否かに関する設定、(v)カーソル402を境界に沿って移動させる場合の移動態様に関する設定などが例示される。 In this embodiment, the first setting information storage unit 812 stores, for example, first setting information that specifies the movement of the cursor 402 near the boundary of the three-dimensional model of the work target 102. The first setting information storage unit 812 may store the above setting information for each type of work target 102, or may store the above setting information as an initial setting that is applied regardless of the type of the initial work target 102. Examples of the first setting information include (i) a setting regarding the correspondence between the distance from the boundary and the DPI of the controller 144 or the pointing device 148, (ii) a setting regarding whether or not the cursor 402 performs a bouncing action near the boundary, (iii) a setting regarding the bouncing mode when the cursor 402 is bounced, (iv) a setting regarding whether or not the cursor 402 is moved along the boundary for a predetermined period after the cursor 402 reaches the boundary near the boundary, and (v) a setting regarding the movement mode when the cursor 402 is moved along the boundary.

本実施形態において、第2設定情報格納部814は、1以上の物体のそれぞれの種類を示す情報と、各物体の表面上の1以上の位置のそれぞれに対応する各物体の三次元モデルの1以上の位置のそれぞれにおけるカーソル402の動き方を規定する第2設定情報を格納する。図2及び図3に関連して説明された作業対象102を例とすると、各物体の表面上の1以上の位置としては、記入欄214、署名欄216、押印欄218などが例示される。記入欄214、署名欄216及び押印欄218の利用頻度は比較的大きい。そのため、上記の指定位置としてこれらの位置を容易に指定することができれば、支援者34の負担が大きく軽減される。第2設定情報としては、(i)上記の位置と、コントローラ144又はポインティングデバイス148のDPIとの対応関係に関する設定、(ii)カーソル402が上記の位置に到達したら、予め定められた期間、カーソル402を上記の位置又は予め定められた他の位置に固定するか否かに関する設定などが例示される。 In this embodiment, the second setting information storage unit 814 stores information indicating the type of each of the one or more objects, and second setting information that specifies the movement of the cursor 402 at one or more positions of the three-dimensional model of each object corresponding to one or more positions on the surface of each object. Taking the work target 102 described in relation to FIG. 2 and FIG. 3 as an example, the one or more positions on the surface of each object are exemplified as the entry field 214, the signature field 216, the seal field 218, etc. The entry field 214, the signature field 216, and the seal field 218 are used relatively frequently. Therefore, if these positions can be easily specified as the above-mentioned specified positions, the burden on the supporter 34 will be greatly reduced. Examples of the second setting information include (i) a setting regarding the correspondence between the above-mentioned positions and the DPI of the controller 144 or the pointing device 148, and (ii) a setting regarding whether or not to fix the cursor 402 at the above-mentioned position or another predetermined position for a predetermined period when the cursor 402 reaches the above-mentioned position.

指示マーク制御部820は、仮想空間表示領域440において、カーソル402による位置の指定を支援するための機能を提供する。例えば、指示マーク制御部820は、コントローラ144又はポインティングデバイス148が出力した制御信号に基づいて、カーソル402の動きを制御する。 The indication mark control unit 820 provides a function for supporting the specification of a position by the cursor 402 in the virtual space display area 440. For example, the indication mark control unit 820 controls the movement of the cursor 402 based on a control signal output by the controller 144 or the pointing device 148.

一実施形態において、指示マーク制御部820は、作業対象102の近傍における、支援者34によるカーソル402の移動を支援する。指示マーク制御部820は、カーソル402が三次元モデルの境界近傍の位置に存在する場合と、カーソル402が三次元モデルの境界近傍以外の位置に存在する場合とで、制御方法を切り替えてよい。例えば、カーソル402が三次元モデルの境界近傍の位置に存在する場合、指示マーク制御部820は、第1設定情報に基づいて、カーソル402の動きを制御する。例えば、オブジェクト404の位置が、作業対象102の3Dモデルの境界に近づくと、指示マーク制御部820は、コントローラ144又はポインティングデバイス148のDPIに関する設定を変更して、カーソル402の感度を下げる。 In one embodiment, the indication mark control unit 820 supports the movement of the cursor 402 by the assistant 34 near the work target 102. The indication mark control unit 820 may switch the control method depending on whether the cursor 402 is located near the boundary of the three-dimensional model or not. For example, when the cursor 402 is located near the boundary of the three-dimensional model, the indication mark control unit 820 controls the movement of the cursor 402 based on the first setting information. For example, when the position of the object 404 approaches the boundary of the 3D model of the work target 102, the indication mark control unit 820 changes the setting related to the DPI of the controller 144 or the pointing device 148 to reduce the sensitivity of the cursor 402.

また、指示マーク制御部820は、カーソル402が三次元モデルの予め定められた位置に存在する場合と、カーソル402が三次元モデルの予め定められた位置以外の位置に存在する場合とで、制御方法を切り替えてよい。例えば、カーソル402が三次元モデルの予め定められた位置に存在する場合、指示マーク制御部820は、設定抽出部836が抽出した第2設定情報に基づいて、カーソル402の動きを制御する。例えば、オブジェクト404の位置が、作業対象102の3Dモデル上の署名欄216に対応する位置に近づくと、指示マーク制御部820は、カーソル402を署名欄216の左上の位置に移動させる。 The indication mark control unit 820 may switch the control method depending on whether the cursor 402 is at a predetermined position on the three-dimensional model or at a position other than the predetermined position on the three-dimensional model. For example, when the cursor 402 is at a predetermined position on the three-dimensional model, the indication mark control unit 820 controls the movement of the cursor 402 based on the second setting information extracted by the setting extraction unit 836. For example, when the position of the object 404 approaches a position corresponding to the signature field 216 on the 3D model of the work target 102, the indication mark control unit 820 moves the cursor 402 to the upper left position of the signature field 216.

他の実施形態において、指示マーク制御部820は、オブジェクト404の近傍において、支援者34によるオブジェクト404の操作を支援する。指示マーク制御部820は、カーソル402が既に配置されたオブジェクト404の近傍に近づくと、作業室制御部162のモードを、オブジェクト404の属性に応じた操作を実行するためのモードに変更してよい。また、カーソル402が上記のオブジェクト404から離れると、作業室制御部162のモードを、初期設定により定められたモードに変更してよい。 In another embodiment, the instruction mark control unit 820 supports the assistant 34 in operating the object 404 in the vicinity of the object 404. When the cursor 402 approaches the vicinity of an already placed object 404, the instruction mark control unit 820 may change the mode of the workroom control unit 162 to a mode for performing an operation according to the attributes of the object 404. When the cursor 402 moves away from the object 404, the instruction mark control unit 820 may change the mode of the workroom control unit 162 to a mode determined by initial settings.

例えば、既存のオブジェクト404がマーカ322である場合、カーソル402が当該オブジェクトに近づくと、指示マーク制御部820は、操作画面400のオブジェクト設定領域460に、マーカに関する各種の設定を入力するための画面を表示させる。一方、既存のオブジェクト404がポインタ324である場合、カーソル402が当該オブジェクトに近づくと、指示マーク制御部820は、操作画面400のオブジェクト設定領域460に、ポインタに関する各種の設定を入力するための画面を表示させる。 For example, if the existing object 404 is a marker 322, when the cursor 402 approaches the object, the indication mark control unit 820 causes the object setting area 460 of the operation screen 400 to display a screen for inputting various settings related to the marker. On the other hand, if the existing object 404 is a pointer 324, when the cursor 402 approaches the object, the indication mark control unit 820 causes the object setting area 460 of the operation screen 400 to display a screen for inputting various settings related to the pointer.

本実施形態において、画像データ取得部832は、作業領域114に配された1以上の物体の画像データを取得する。画像データ取得部832は、作業領域114に配された1以上の物体の色点群データ560の色情報を、当該物体の画像データとして取得してよい。本実施形態において、物体推定部834は、画像データ取得部832が取得した画像データに基づいて、作業領域114に配された1以上の物体のそれぞれの種類を推定する。 In this embodiment, the image data acquisition unit 832 acquires image data of one or more objects arranged in the working area 114. The image data acquisition unit 832 may acquire color information of the color point cloud data 560 of one or more objects arranged in the working area 114 as image data of the objects. In this embodiment, the object estimation unit 834 estimates the type of each of the one or more objects arranged in the working area 114 based on the image data acquired by the image data acquisition unit 832.

本実施形態において、設定抽出部836は、設定格納部810の第2設定情報格納部814を参照して、物体推定部834が推定した各物体の種類に応じた第2設定情報を抽出する。上述されたとおり、第2設定情報は、1以上の物体のそれぞれの種類を示す情報と、各物体の表面上の1以上の位置のそれぞれに対応する各物体の三次元モデルの1以上の位置のそれぞれにおけるカーソル402の動き方を規定する第2設定情報とが対応付けられて格納されている。 In this embodiment, the setting extraction unit 836 refers to the second setting information storage unit 814 of the setting storage unit 810 to extract second setting information corresponding to the type of each object estimated by the object estimation unit 834. As described above, the second setting information is stored in association with information indicating the type of each of the one or more objects and second setting information that specifies the movement of the cursor 402 at each of one or more positions of the three-dimensional model of each object that corresponds to each of one or more positions on the surface of each object.

図9は、点群データ出力部540の内部構成の一例を概略的に示す。本実施形態において、点群データ出力部540は、深度算出部922と、三次元位置情報算出部924と、バラツキ指標算出部926と、バラツキ補正部930とを備える。本実施形態において、バラツキ補正部930は、第1補正部932と、第2補正部934と、第3補正部936と、第4補正部938とを有する。 Figure 9 shows an example of the internal configuration of the point cloud data output unit 540. In this embodiment, the point cloud data output unit 540 includes a depth calculation unit 922, a three-dimensional position information calculation unit 924, a variation index calculation unit 926, and a variation correction unit 930. In this embodiment, the variation correction unit 930 includes a first correction unit 932, a second correction unit 934, a third correction unit 936, and a fourth correction unit 938.

本実施形態において、深度算出部922は、照射部522が出射した光を散乱又は反射した複数の点のそれぞれからの反射光の強度を示す情報に基づいて、上記の複数の点のそれぞれについて、測距部520の基準点と、各点との距離を示す深度を算出する。例えば、深度算出部922は、測距部520が光を照射した時刻と、受光部524が当該光の反射光を受光した時刻とに基づいて、上記の複数の点のそれぞれの深度を算出する。例えば、測距部520が作業領域114の内部を走査した場合、深度算出部922は、作業領域114の内部に配された1以上の物体の表面上の複数の点のそれぞれについて、上記の深度を算出する。 In this embodiment, the depth calculation unit 922 calculates a depth indicating the distance between each point and the reference point of the distance measurement unit 520 for each of the multiple points based on information indicating the intensity of reflected light from each of the multiple points that scatter or reflect the light emitted by the irradiation unit 522. For example, the depth calculation unit 922 calculates the depth of each of the multiple points based on the time when the distance measurement unit 520 irradiates light and the time when the light receiving unit 524 receives the reflected light of the light. For example, when the distance measurement unit 520 scans the inside of the working area 114, the depth calculation unit 922 calculates the above-mentioned depth for each of the multiple points on the surface of one or more objects arranged inside the working area 114.

本実施形態において、三次元位置情報算出部924は、深度算出部922が算出した複数の点のそれぞれの深度に基づいて、複数の点のそれぞれの三次元位置を算出する。上述されたとおり、照射部522は、パルス光が出射された時刻と、当該時刻における走査位置とを示す情報を出力する。三次元位置情報算出部924は、上記の走査位置を示す情報と、深度算出部922が算出した深度とに基づいて、上記の複数の点のそれぞれについて、測距部520の基準点からの距離及び角度を算出する。 In this embodiment, the three-dimensional position information calculation unit 924 calculates the three-dimensional position of each of the multiple points based on the depth of each of the multiple points calculated by the depth calculation unit 922. As described above, the irradiation unit 522 outputs information indicating the time when the pulsed light is emitted and the scanning position at that time. The three-dimensional position information calculation unit 924 calculates the distance and angle from the reference point of the distance measurement unit 520 for each of the multiple points based on the information indicating the scanning position and the depth calculated by the depth calculation unit 922.

一実施形態において、三次元位置情報算出部924は、測距部520の基準点からの距離及び角度に基づいて、上記の複数の点のそれぞれについて、測距部520の基準点を基準とする三次元位置を出力する。他の実施形態において、測距部520の基準点の絶対座標が既知である場合、三次元位置情報算出部924は、測距部520の基準点からの距離及び角度と、測距部520の基準点の絶対座標とに基づいて、上記の複数の点のそれぞれの絶対座標を出力してもよい。 In one embodiment, the three-dimensional position information calculation unit 924 outputs a three-dimensional position of each of the above multiple points based on the reference point of the distance measurement unit 520, based on the distance and angle from the reference point of the distance measurement unit 520. In another embodiment, if the absolute coordinates of the reference point of the distance measurement unit 520 are known, the three-dimensional position information calculation unit 924 may output the absolute coordinates of each of the above multiple points based on the distance and angle from the reference point of the distance measurement unit 520 and the absolute coordinates of the reference point of the distance measurement unit 520.

本実施形態において、バラツキ指標算出部926は、深度算出部922が算出した複数の点のそれぞれの深度に基づいて、当該複数の点のそれぞれからの反射光の強度のバラツキ具合を示すバラツキ指標の値を算出する。バラツキ指標算出部926は、各点における深度の変動に基づいて、各点におけるバラツキ指標の値を算出してもよい。例えば、バラツキ指標算出部926は、上記の複数の点のそれぞれについて、予め定められた長さを有する単位期間における深度の変動に基づいて、バラツキ指標の値を算出する。上記の指標としては、分散、偏差、標準偏差などが例示される。 In this embodiment, the variation index calculation unit 926 calculates a variation index value indicating the degree of variation in the intensity of reflected light from each of the multiple points based on the depth of each of the multiple points calculated by the depth calculation unit 922. The variation index calculation unit 926 may calculate the variation index value at each point based on the fluctuation in depth at each point. For example, the variation index calculation unit 926 calculates the variation index value for each of the multiple points based on the fluctuation in depth in a unit period having a predetermined length. Examples of the above index include variance, deviation, and standard deviation.

本実施形態において、バラツキ補正部930は、バラツキ指標算出部926が算出したバラツキ指標の値を補正する。上述されたとおり、測距部520から出射され、作業対象102の表面で散乱又は反射して戻ってくる反射光の強度は、作業対象102の材質の影響を大きく受ける。これは、作業対象102の表面に配される物質の種類、当該表面の構造などにより、拡散反射率、正反射率、特定の波長を有する光に対する吸収率などが異なることに起因するものと推定される。 In this embodiment, the variance correction unit 930 corrects the value of the variance index calculated by the variance index calculation unit 926. As described above, the intensity of the reflected light emitted from the distance measurement unit 520 and scattered or reflected on the surface of the work object 102 and returned is significantly affected by the material of the work object 102. This is presumably due to differences in the diffuse reflectance, specular reflectance, and absorptance for light having a specific wavelength, depending on the type of material placed on the surface of the work object 102 and the structure of the surface.

作業対象102の材質以外にも、バラツキ指標の値の誤差の要因となる事項(誤差要因と称される場合がある。)が存在する。バラツキ補正部930は、上記の誤差要因を考慮して、バラツキ指標の値を補正する。一実施形態において、バラツキ補正部930は、バラツキ指標算出部926が算出したバラツキ指標の値Sを補正するための補正係数kを導出する。バラツキ補正部930は、補正係数kを目的変数とし、1以上の誤差要因とを説明変数とする関数を用いて、上記の補正係数kを算出してもよい。また、バラツキ補正部930は、上記の値Sと補正係数kとを乗算することで、補正後のバラツキ指標の値Sdを算出する。他の実施形態において、バラツキ補正部930は、補正後のバラツキ指標の値Sdを目的変数とし、上記の値Sと、1以上の誤差要因とを説明変数とする関数を導出する。バラツキ補正部930は、当該関数に基づいて、補正後のバラツキ指標の値Sdを算出する。 In addition to the material of the work object 102, there are other factors (sometimes referred to as error factors) that can cause errors in the value of the variation index. The variation correction unit 930 corrects the value of the variation index taking into account the above error factors. In one embodiment, the variation correction unit 930 derives a correction coefficient k for correcting the value S of the variation index calculated by the variation index calculation unit 926. The variation correction unit 930 may calculate the above correction coefficient k using a function in which the correction coefficient k is the objective variable and one or more error factors are explanatory variables. In addition, the variation correction unit 930 calculates the corrected value Sd of the variation index by multiplying the above value S by the correction coefficient k. In another embodiment, the variation correction unit 930 derives a function in which the corrected value Sd of the variation index is the objective variable and the above value S and one or more error factors are explanatory variables. The variance correction unit 930 calculates the corrected variance index value Sd based on the function.

本実施形態において、第1補正部932は、測距部520の基準点と、作業対象102の表面の測定対象面との距離に基づいて、バラツキ指標算出部926が算出したバラツキ指標の値を補正する。第1補正部932は、上記の距離が大きいほど、補正前のバラツキ指標の値Sから補正後のバラツキ指標の値Sdを引いた値(補正による減少量と称される場合がある。)が大きくなるように、補正処理を実行してよい。 In this embodiment, the first correction unit 932 corrects the value of the variation index calculated by the variation index calculation unit 926 based on the distance between the reference point of the distance measurement unit 520 and the measurement target surface of the surface of the work target 102. The first correction unit 932 may perform a correction process such that the value obtained by subtracting the variation index value Sd after correction from the variation index value S before correction (sometimes referred to as the reduction amount due to correction) becomes larger as the above distance increases.

例えば、第1補正部932は、深度算出部922が算出した複数の点のそれぞれの深度に基づいて、バラツキ指標算出部926が算出した当該複数の点のそれぞれのバラツキ指標の値を補正する。上記の複数の点のそれぞれは、測定対象面の一例であってよい。 For example, the first correction unit 932 corrects the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on the depth of each of the multiple points calculated by the depth calculation unit 922. Each of the multiple points may be an example of a measurement target surface.

測距部520の基準点と、作業対象102の表面の測定対象面との距離が大きくなるにつれて、測定対象面の面積が大きくなる。そのため、測定対象面からの反射光の強度のバラツキ具合も大きくなり得る。測定対象面からの反射光のバラツキの強度は、反射面の着目点を中心とし、対象との距離を半径とする球の表面からの距離の二乗に比例すると想定され得る。実験的にも、測定対象面からの反射光のバラツキの強度を目的変数とし、上記の距離を説明変数とする関数は、二次方程式により近似可能であることが確認された。そこで、第1補正部932は、例えば、バラツキ指標算出部926が算出したバラツキ指標の値Sを、測距部520の基準点と、作業対象102の表面の測定対象面との距離を二乗した値で除算することで、補正後のバラツキ指標の値Sdを算出する。 As the distance between the reference point of the distance measuring unit 520 and the measurement target surface of the work target 102 increases, the area of the measurement target surface increases. Therefore, the degree of variation in the intensity of reflected light from the measurement target surface may also increase. It can be assumed that the intensity of variation in reflected light from the measurement target surface is proportional to the square of the distance from the surface of a sphere whose center is the point of interest on the reflecting surface and whose radius is the distance to the target. It has been experimentally confirmed that a function with the intensity of variation in reflected light from the measurement target surface as the objective variable and the above distance as the explanatory variable can be approximated by a quadratic equation. Therefore, the first correction unit 932, for example, calculates the corrected variation index value Sd by dividing the variation index value S calculated by the variation index calculation unit 926 by the square of the distance between the reference point of the distance measuring unit 520 and the measurement target surface of the work target 102.

これにより、測距部520及び作業対象102の距離がバラツキ指標の値に与える影響を小さくすることができる。その結果、例えば、物体検出部632が、バラツキ指標を利用して、作業領域114に配された1以上の物体の中から作業対象102を検出する場合において、作業対象102の材質と、他の物体の材質との違いによるバラツキ指標の相違がより明確になる。 This reduces the effect of the distance between the distance measuring unit 520 and the work object 102 on the value of the variation index. As a result, for example, when the object detection unit 632 uses the variation index to detect the work object 102 from one or more objects arranged in the work area 114, the difference in the variation index due to the difference between the material of the work object 102 and the material of other objects becomes clearer.

本実施形態において、第2補正部934は、受光部524を構成する受光素子の大きさに基づいて、バラツキ指標算出部926が算出した複数の点のそれぞれのバラツキ指標の値を補正する。第2補正部934は、受光素子の大きさが大きいほど、補正による減少量が大きくなるように、補正処理を実行してよい。 In this embodiment, the second correction unit 934 corrects the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on the size of the light receiving element that constitutes the light receiving unit 524. The second correction unit 934 may perform the correction process such that the amount of reduction due to the correction increases as the size of the light receiving element increases.

例えば、受光素子の形状を四角形とみなすことができる場合、第2補正部934は、受光素子の長辺の長さに基づいて、バラツキ指標算出部926が算出した複数の点のそれぞれのバラツキ指標の値を補正する。例えば、受光部524が複数の受光素子により構成されており、少なくとも2つの受光素子の大きさが異なる場合、第2補正部934は、複数の点のそれぞれからの反射光の受光強度を出力した受光素子の大きさに基づいて、バラツキ指標算出部926が算出した複数の点のそれぞれのバラツキ指標の値を補正する。 For example, if the shape of the light receiving element can be considered to be a rectangle, the second correction unit 934 corrects the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on the length of the long side of the light receiving element. For example, if the light receiving unit 524 is composed of multiple light receiving elements and at least two of the light receiving elements have different sizes, the second correction unit 934 corrects the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on the size of the light receiving element that outputs the light receiving intensity of the reflected light from each of the multiple points.

受光素子の大きさが大きくなるにつれて、測定対象面の面積が大きくなる。また、受光素子の大きさが大きくなるにつれて、測距部520及び作業対象102の距離による誤差の影響を受けやすくなる。同様に、受光素子の大きさが大きくなるにつれて、測距部520の基準面と、作業対象102の測定対象面との傾きによる誤差の影響を受けやすくなる。そのため、測定対象面からの反射光の強度のバラツキ具合も大きくなり得る。 As the size of the light receiving element increases, the area of the surface to be measured increases. In addition, as the size of the light receiving element increases, it becomes more susceptible to errors due to the distance between the distance measuring unit 520 and the work object 102. Similarly, as the size of the light receiving element increases, it becomes more susceptible to errors due to the inclination between the reference surface of the distance measuring unit 520 and the surface to be measured of the work object 102. Therefore, the variation in the intensity of the reflected light from the surface to be measured may also increase.

本実施形態によれば、第2補正部934における補正処理により、受光素子の大きさがバラツキ指標の値に与える影響を小さくすることができる。その結果、例えば、物体検出部632が、バラツキ指標を利用して、作業領域114に配された1以上の物体の中から作業対象102を検出する場合において、作業対象102の材質と、他の物体の材質との違いによるバラツキ指標の相違がより明確になる。 According to this embodiment, the correction process in the second correction unit 934 can reduce the effect of the size of the light receiving element on the value of the variation index. As a result, for example, when the object detection unit 632 uses the variation index to detect the work target 102 from one or more objects arranged in the work area 114, the difference in the variation index due to the difference between the material of the work target 102 and the material of the other objects becomes clearer.

本実施形態において、第3補正部936は、測距部520の基準面と、作業対象102の測定対象面との傾きに基づいて、バラツキ指標算出部926が算出したバラツキ指標の値を補正する。第3補正部936は、測距部520の基準面と、作業対象102の測定対象面とが平行でなくなるにつれて、補正前のバラツキ指標の値Sから補正後のバラツキ指標の値Sdを引いた値(補正による減少量と称される場合がある。)が大きくなるように、補正処理を実行してよい。 In this embodiment, the third correction unit 936 corrects the value of the variation index calculated by the variation index calculation unit 926 based on the inclination between the reference surface of the distance measurement unit 520 and the measurement target surface of the work target 102. The third correction unit 936 may perform a correction process so that the value obtained by subtracting the variation index value Sd after correction from the variation index value S before correction (sometimes referred to as the reduction amount due to correction) becomes larger as the reference surface of the distance measurement unit 520 and the measurement target surface of the work target 102 become less parallel.

例えば、第3補正部936は、受光部524を構成する受光素子の受光面の法線ベクトルと、測定対象となる1以上の物体の表面上において、照射部522からの光が照射された測定対象面の法線ベクトルとがなす角度に基づいて、バラツキ指標算出部926が算出した複数の点のそれぞれのバラツキ指標の値を補正する。 For example, the third correction unit 936 corrects the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on the angle between the normal vector of the light receiving surface of the light receiving element that constitutes the light receiving unit 524 and the normal vector of the measurement target surface on the surface of one or more objects to be measured, where the light from the irradiation unit 522 is irradiated.

第3補正部936は、(i)受光部524を構成する受光素子の受光面の法線ベクトルと、測定対象となる1以上の物体の表面上において、照射部522からの光が照射された測定対象面の法線ベクトルとがなす角度、及び、(ii)受光部524を構成する受光素子の受光面の法線ベクトルと、上記の測定対象面に照射された光の光軸の進行方向を示すベクトルとがなす角度に基づいて、バラツキ指標算出部926が算出した複数の点のそれぞれのバラツキ指標の値を補正してもよい。 The third correction unit 936 may correct the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on (i) the angle between the normal vector of the light receiving surface of the light receiving element constituting the light receiving unit 524 and the normal vector of the measurement target surface irradiated with light from the irradiation unit 522 on the surface of one or more objects to be measured, and (ii) the angle between the normal vector of the light receiving surface of the light receiving element constituting the light receiving unit 524 and the vector indicating the traveling direction of the optical axis of the light irradiated onto the measurement target surface.

第3補正部936は、(i)受光部524を構成する受光素子の受光面の法線ベクトルと、測定対象となる1以上の物体の表面上において、照射部522からの光が照射された測定対象面の法線ベクトルとがなす角度、及び、(ii)受光部524を構成する受光素子の受光面の法線ベクトルと、上記の測定対象面に照射された光の光軸の進行方向を示すベクトルとがなす角度と、(iii)受光部524を構成する受光素子の大きさとに基づいて、バラツキ指標算出部926が算出した複数の点のそれぞれのバラツキ指標の値を補正してもよい。 The third correction unit 936 may correct the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on (i) the angle between the normal vector of the light receiving surface of the light receiving element constituting the light receiving unit 524 and the normal vector of the measurement target surface irradiated with light from the irradiation unit 522 on the surface of one or more objects to be measured, (ii) the angle between the normal vector of the light receiving surface of the light receiving element constituting the light receiving unit 524 and the vector indicating the traveling direction of the optical axis of the light irradiated to the measurement target surface, and (iii) the size of the light receiving element constituting the light receiving unit 524.

測距部520の基準面と、作業対象102の測定対象面とが平行でなくなるにつれて、測定対象面の一端からの反射光が受光素子に到達する時間と、測定対象面の他端からの反射光が受光素子に到達する時間との差が大きくなる。また、測距部520の基準面と、作業対象102の測定対象面とが平行でなくなるにつれて、反射光に含まれる正反射成分が減少し、反射光の受光強度が小さくなる。そのため、両者の傾き具合は、バラツキ指標の誤差の要因となり得る。 As the reference surface of the distance measuring unit 520 and the measurement surface of the work object 102 become less parallel, the difference between the time when reflected light from one end of the measurement surface reaches the light receiving element and the time when reflected light from the other end of the measurement surface reaches the light receiving element increases. Also, as the reference surface of the distance measuring unit 520 and the measurement surface of the work object 102 become less parallel, the regular reflection component contained in the reflected light decreases, and the received light intensity of the reflected light decreases. Therefore, the degree of inclination of the two can be a factor in errors in the variation index.

本実施形態によれば、第3補正部936における補正処理により、上記の傾き具合がバラツキ指標の値に与える影響を小さくすることができる。その結果、例えば、物体検出部632が、バラツキ指標を利用して、作業領域114に配された1以上の物体の中から作業対象102を検出する場合において、作業対象102の材質と、他の物体の材質との違いによるバラツキ指標の相違がより明確になる。 According to this embodiment, the correction process in the third correction unit 936 can reduce the effect of the above-mentioned tilt on the value of the variation index. As a result, for example, when the object detection unit 632 uses the variation index to detect the work target 102 from one or more objects arranged in the work area 114, the difference in the variation index due to the difference between the material of the work target 102 and the material of the other objects becomes clearer.

本実施形態において、第4補正部938は、測定対象面における照射部522が出射した光の吸収率に基づいて、バラツキ指標算出部926が算出したバラツキ指標の値を補正する。第4補正部938は、測定対象面の色、又は、反射光の強度に基づいて、バラツキ指標算出部926が算出したバラツキ指標の値を補正してもよい。第4補正部938は、光の吸収率が大きいほど、補正後のバラツキ指標の値Sdから補正前のバラツキ指標の値Sからを引いた値(補正による増加量と称される場合がある。)が大きくなるように、補正処理を実行してよい。 In this embodiment, the fourth correction unit 938 corrects the value of the variation index calculated by the variation index calculation unit 926 based on the absorptance of the light emitted by the irradiation unit 522 on the surface to be measured. The fourth correction unit 938 may correct the value of the variation index calculated by the variation index calculation unit 926 based on the color of the surface to be measured or the intensity of the reflected light. The fourth correction unit 938 may perform a correction process such that the value obtained by subtracting the variation index value S before correction from the variation index value Sd after correction (sometimes referred to as the increase due to correction) becomes larger as the absorptance of light increases.

例えば、第4補正部938は、(i)撮像部530が取得した複数の点のそれぞれの色、又は、(ii)受光部524が受光した複数の点のそれぞれからの反射光の強度に基づいて、バラツキ指標算出部926が算出した複数の点のそれぞれのバラツキ指標の値を補正する。第4補正部938は、受光部524が受光した複数の点のそれぞれからの反射光の強度と、深度算出部922が算出した複数の点のそれぞれの深度とに基づいて、バラツキ指標算出部926が算出した複数の点のそれぞれのバラツキ指標の値を補正してもよい。 For example, the fourth correction unit 938 corrects the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on (i) the color of each of the multiple points acquired by the imaging unit 530, or (ii) the intensity of reflected light from each of the multiple points received by the light receiving unit 524. The fourth correction unit 938 may correct the value of the variation index for each of the multiple points calculated by the variation index calculation unit 926 based on the intensity of reflected light from each of the multiple points received by the light receiving unit 524 and the depth of each of the multiple points calculated by the depth calculation unit 922.

第4補正部938は、物体検出部632の検出対象となる1以上の物体の材質又は色が既知である場合に、上記の補正処理を実行してもよい。第4補正部938は、(i)作業領域114の大きさが既知であり、且つ、(ii)受光部524が受光した複数の点のそれぞれからの反射光の強度が、作業領域114の大きさを考慮して決定された閾値よりも小さい場合に、上記の補正処理を実行してもよい。 The fourth correction unit 938 may perform the above correction process when the material or color of one or more objects to be detected by the object detection unit 632 is known. The fourth correction unit 938 may perform the above correction process when (i) the size of the working area 114 is known, and (ii) the intensity of the reflected light from each of the multiple points received by the light receiving unit 524 is smaller than a threshold value determined in consideration of the size of the working area 114.

[別実施形態の一例]
本実施形態においては、ライダー124に配された点群データ出力部540が、バラツキ指標を算出する場合を例として、作業支援システム100の一例が説明された。しかしながら、作業支援システム100は、本実施形態に限定されない。他の実施形態において、点群データ出力部540の機能の少なくとも一部が、支援端末140又は支援サーバ160により実現されてよい。例えば、バラツキ指標算出部926及びバラツキ補正部930の少なくとも一方が、支援端末140又は支援サーバ160に配される。
[An example of another embodiment]
In the present embodiment, an example of the work support system 100 has been described by taking as an example a case where the point cloud data output unit 540 arranged in the LIDAR 124 calculates the variation index. However, the work support system 100 is not limited to the present embodiment. In other embodiments, at least a part of the function of the point cloud data output unit 540 may be realized by the support terminal 140 or the support server 160. For example, at least one of the variation index calculation unit 926 and the variation correction unit 930 is arranged in the support terminal 140 or the support server 160.

[別実施形態の一例]
本実施形態においては、バラツキ補正部930において、第1補正部932、第2補正部934、第3補正部936及び第4補正部938が、それぞれ独立に補正処理を実行する場合を例として、バラツキ補正部930の一例が説明された。しかしながら、バラツキ補正部930は、本実施形態に限定されない。
[An example of another embodiment]
In the present embodiment, an example of the variation correction unit 930 has been described in which the first correction unit 932, the second correction unit 934, the third correction unit 936, and the fourth correction unit 938 each perform the correction process independently. However, the variation correction unit 930 is not limited to the present embodiment.

他の実施形態において、バラツキ補正部930において、第1補正部932、第2補正部934、第3補正部936及び第4補正部938の機能が統合して実行されてもよい。例えば、バラツキ補正部930は、第1補正部932において補正対象となる誤差要因、第2補正部934において補正対象となる誤差要因、第3補正部936において補正対象となる誤差要因、及び、第4補正部938のにおいて補正対象となる誤差要因の少なくとも2つの組み合わせに基づいて、バラツキ指標算出部926が算出したバラツキ指標の値を補正する。 In another embodiment, the variance correction unit 930 may execute the functions of the first correction unit 932, the second correction unit 934, the third correction unit 936, and the fourth correction unit 938 in an integrated manner. For example, the variance correction unit 930 corrects the value of the variance index calculated by the variance index calculation unit 926 based on at least two combinations of the error factors to be corrected in the first correction unit 932, the error factors to be corrected in the second correction unit 934, the error factors to be corrected in the third correction unit 936, and the error factors to be corrected in the fourth correction unit 938.

図10を用いて、バラツキ指標算出部926における情報処理の概要が説明される。図10は、作業対象102の表面上の単一の測定対象面(例えば、上記の複数の点の1つである。)について、深度算出部922が算出した深度の変動1020の一例を示す。図10において、測定期間Tsは、測定対象面に複数のパルス光が照射された期間を示す。評価期間Δtは、バラツキ指標算出部926がバラツキ指標を算出するために用いられるサンプルの抽出期間を示す。 The information processing in the variance index calculation unit 926 will be outlined with reference to FIG. 10. FIG. 10 shows an example of the depth variation 1020 calculated by the depth calculation unit 922 for a single measurement target surface (e.g., one of the above-mentioned multiple points) on the surface of the work target 102. In FIG. 10, the measurement period Ts indicates the period during which multiple pulsed lights are irradiated onto the measurement target surface. The evaluation period Δt indicates the extraction period of samples used by the variance index calculation unit 926 to calculate the variance index.

バラツキ指標算出部926は、評価期間Δtに受光部524が受光した反射光に基づいて算出された深度Dを統計処理することにより、深度Dのバラツキ指標を算出する。上述されたとおり、バラツキ指標としては、分散、偏差、標準偏差などが例示される。バラツキ指標算出部926は、評価期間Δtにおける深度Dの平均値Daを算出してもよい。 The variation index calculation unit 926 calculates a variation index of the depth D by statistically processing the depth D calculated based on the reflected light received by the light receiving unit 524 during the evaluation period Δt. As described above, examples of the variation index include variance, deviation, and standard deviation. The variation index calculation unit 926 may calculate the average value Da of the depth D during the evaluation period Δt.

図11を用いて、第1補正部932における情報処理の概要が説明される。図11は、測距部520の受光面上の基準面1122に設定された基準点1124からの距離(例えば、深度Dである)と、図9に関連して説明された測定期間Tsにおける深度Dの変動具合との関係を概略的に示す。図11に示されるとおり、深度D1における深度Dの変動1142と、深度D2における深度Dの変動1144と、深度D3における深度Dの変動1146とを比較すると、この順に変動幅が大きくなることがわかる。 The information processing in the first correction unit 932 will be outlined with reference to FIG. 11. FIG. 11 shows a schematic relationship between the distance (e.g., depth D) from a reference point 1124 set on a reference surface 1122 on the light receiving surface of the distance measuring unit 520 and the degree of variation in depth D during the measurement period Ts described in relation to FIG. 9. As shown in FIG. 11, a comparison of the variation 1142 of depth D at depth D1, the variation 1144 of depth D at depth D2, and the variation 1146 of depth D at depth D3 shows that the range of variation increases in this order.

図12を用いて、第2補正部934及び第3補正部936における情報処理の概要が説明される。本実施形態において、測距部520は、受光素子1222と、光学系1224とを備える。説明を簡単にすることを目的として、本実施形態において、測距部520は単一の受光素子1222を備え、また、受光素子1222は、一辺の長さがcである略正方形の形状を有する。 The information processing in the second correction unit 934 and the third correction unit 936 will be outlined with reference to FIG. 12. In this embodiment, the distance measurement unit 520 includes a light receiving element 1222 and an optical system 1224. For the purpose of simplifying the explanation, in this embodiment, the distance measurement unit 520 includes a single light receiving element 1222, and the light receiving element 1222 has a substantially square shape with a side length of c.

図12においては、基準点1124を通過する基準面1122の法線ベクトル1226と、パルス光1240の光軸の進行方向を示すベクトル1242とが平行でない場合を例として、第2補正部934及び第3補正部936における情報処理の概要が説明される。また、図12においては、測距部520の基準面1122の法線ベクトル1226と、作業対象102の表面1260に配された測定対象面1270の法線ベクトル1272とが平行でない場合を例として、第2補正部934及び第3補正部936における情報処理の概要が説明される。 12, the information processing in the second correction unit 934 and the third correction unit 936 is explained by taking as an example a case where the normal vector 1226 of the reference surface 1122 passing through the reference point 1124 and the vector 1242 indicating the traveling direction of the optical axis of the pulsed light 1240 are not parallel. Also, in FIG. 12, the information processing in the second correction unit 934 and the third correction unit 936 is explained by taking as an example a case where the normal vector 1226 of the reference surface 1122 of the distance measurement unit 520 and the normal vector 1272 of the measurement target surface 1270 arranged on the surface 1260 of the work target 102 are not parallel.

表面1260の走査が進行するにつれて、表面1260上の複数の測定対象面1270の深度又は三次元位置が判明する。そこで、特定の測定対象面1270の法線ベクトル1272は、例えば、当該特定の測定対象面1270の深度と、当該特定の測定対象面1270の近傍に配された複数の測定対象面1270の深度とに基づいて、当該特定の測定対象面1270近傍における表面1260の傾きを算出することで、導出され得る。なお、本実施形態において、基準面1122は光学系1224の表面に設定される。しかしながら、基準面1122は、受光素子の受光面の一例であってもよい。 As the scanning of the surface 1260 progresses, the depth or three-dimensional position of multiple measurement target surfaces 1270 on the surface 1260 becomes clear. The normal vector 1272 of a specific measurement target surface 1270 can then be derived, for example, by calculating the inclination of the surface 1260 near the specific measurement target surface 1270 based on the depth of the specific measurement target surface 1270 and the depths of multiple measurement target surfaces 1270 arranged near the specific measurement target surface 1270. In this embodiment, the reference surface 1122 is set on the surface of the optical system 1224. However, the reference surface 1122 may be an example of a light receiving surface of a light receiving element.

図12に示されるとおり、受光素子1222の一辺の長さcが大きくなるほど、(i)単一の測定対象面1270の一方の端部1274と、基準点1124との距離、及び、(i)当該単一の測定対象面1270の他方の端部1276と、基準点1124との距離の差が大きくなる。また、上記の差は、測定対象面1270の法線ベクトル1272と、パルス光1240の光軸の進行方向を示すベクトル1242とのなす角に応じて変動することがわかる。測定対象面1270の法線ベクトル1272と、パルス光1240の光軸の進行方向を示すベクトル1242とのなす角は、例えば、(i)基準面1122の法線ベクトル1226と、測定対象面1270の法線ベクトル1272とのなす角、及び、(ii)基準面1122の法線ベクトル1226と、パルス光1240の光軸の進行方向を示すベクトル1242とのなす角に基づいて決定され得る。 12, the larger the length c of one side of the light receiving element 1222, the larger the difference in (i) the distance between one end 1274 of the single measurement target surface 1270 and the reference point 1124, and (i) the distance between the other end 1276 of the single measurement target surface 1270 and the reference point 1124. It can also be seen that the difference varies depending on the angle between the normal vector 1272 of the measurement target surface 1270 and the vector 1242 indicating the traveling direction of the optical axis of the pulsed light 1240. The angle between the normal vector 1272 of the measurement surface 1270 and the vector 1242 indicating the traveling direction of the optical axis of the pulsed light 1240 can be determined based on, for example, (i) the angle between the normal vector 1226 of the reference surface 1122 and the normal vector 1272 of the measurement surface 1270, and (ii) the angle between the normal vector 1226 of the reference surface 1122 and the vector 1242 indicating the traveling direction of the optical axis of the pulsed light 1240.

図13は、バラツキ指標の値に基づいて生成された画像1300の一例を示す。画像1300は、測定対象面における深度Dの標準偏差Sを256段階のグレースケールで表現した画像の一例である。画像1300の作成手順は、下記のとおりである。 Figure 13 shows an example of an image 1300 generated based on the value of the variation index. Image 1300 is an example of an image that represents the standard deviation S of the depth D on the measurement target surface in 256 grayscale levels. The procedure for creating image 1300 is as follows.

まず、Microsoft社のAzure Kinect DKを用いて、暗闇の中で、円形状の木製の天板を有するテーブル(イケア社製、クヴィストブロー、青色)の上に載置された千円札、五千円札及び一万円札を撮像し、色点群データを取得した。なお、テーブルの天板はアクリル塗装により、青色に塗装されていた。 First, using Microsoft's Azure Kinect DK, 1,000 yen, 5,000 yen, and 10,000 yen bills were captured in the dark on a table with a circular wooden top (Kvistbro, IKEA, blue color) to obtain color point cloud data. The table top was painted blue with acrylic paint.

また、Azure Kinect DKから色点群データを取得するとき、Azure Kinect DKから、各測定対象面からの反射光の受光強度の出力を取り出した。Azure Kinect DKから出力された上記の反射光の受光強度の変動に基づいて、複数の測定対象面のそれぞれについて、深度Dの標準偏差Sを算出した。算出された各測定対象面の標準偏差の値を256段階のグレースケールに変換することで、画像1300を作成した。 When acquiring color point cloud data from Azure Kinect DK, the output of the light intensity of reflected light from each measurement target surface was extracted from Azure Kinect DK. Based on the fluctuation in the light intensity of the reflected light output from Azure Kinect DK, the standard deviation S of the depth D was calculated for each of the multiple measurement target surfaces. The calculated standard deviation value of each measurement target surface was converted into a 256-level grayscale to create image 1300.

上述されたとおり、特定の点における標準偏差Sは、当該特定の点からの反射光の受光強度のバラツキ具合を示す。また、Azure Kinect DKが出力する各点の距離値が安定している期間のデータを利用して、各点における標準偏差Sを算出した。具体的には、下記の手順に従って、標準偏差Sを算出した。 As described above, the standard deviation S at a particular point indicates the degree of variation in the received light intensity of reflected light from that particular point. In addition, the standard deviation S at each point was calculated using data from a period in which the distance values for each point output by the Azure Kinect DK were stable. Specifically, the standard deviation S was calculated according to the following procedure.

まず、所定の期間にわたって、当該特定の点又は当該特定の点の周囲の点の深度D(つまり、Azure Kinect DKからの距離である。)の変動を観察した。次に、上記の変動幅が予め定められた値よりも小さな期間における深度Dのデータを抽出した。次に、抽出された深度Dのデータを統計処理して、深度Dの標準偏差Sを算出した。なお、上記の変動幅が予め定められた値よりも大きな期間については、値を正常に取得することができなかった場合の固定値を戻す処理を実行した。本実施例においては、上記の固定値として0が採用された。 First, the fluctuation of the depth D (i.e., the distance from the Azure Kinect DK) of the specific point or points surrounding the specific point was observed over a predetermined period of time. Next, data on the depth D during a period in which the above fluctuation range was smaller than a predetermined value was extracted. Next, the extracted data on the depth D was statistically processed to calculate the standard deviation S of the depth D. Note that for periods in which the above fluctuation range was larger than a predetermined value, a process was performed to return a fixed value in cases where a value could not be obtained normally. In this embodiment, 0 was adopted as the above fixed value.

図13に示されるとおり、画像1300によれば、目視によっても、テーブルと、千円札、五千円札及び一万円札のそれぞれとの境界を検出することができる。一方、暗闇で撮影したことから、点群データから作成したRGB画像に基づいて、テーブル、千円札、五千円札及び一万円札の境界を検出することはできなかった。また、千円札、五千円札及び一万円札は非常に薄いことから、点群データから作成した距離画像に基づいて、テーブルと、千円札、五千円札及び一万円札のそれぞれとの境界を検出することはできなかった。 As shown in FIG. 13, in image 1300, the boundaries between the table and each of the 1,000 yen, 5,000 yen, and 10,000 yen notes can be detected visually. However, because the image was taken in the dark, it was not possible to detect the boundaries between the table and each of the 1,000 yen, 5,000 yen, and 10,000 yen notes based on the RGB image created from the point cloud data. In addition, because the 1,000 yen, 5,000 yen, and 10,000 yen notes are very thin, it was not possible to detect the boundaries between the table and each of the 1,000 yen, 5,000 yen, and 10,000 yen notes based on the distance image created from the point cloud data.

図14は、本発明の複数の態様が全体的又は部分的に具現化されてよいコンピュータ3000の一例を示す。作業支援システム100の少なくとも一部は、コンピュータ3000により実現されてよい。例えば、支援サーバ160の少なくとも一部が、コンピュータ3000により実現される。 Figure 14 shows an example of a computer 3000 in which aspects of the present invention may be embodied in whole or in part. At least a part of the work support system 100 may be realized by the computer 3000. For example, at least a part of the support server 160 is realized by the computer 3000.

コンピュータ3000にインストールされたプログラムは、コンピュータ3000に、本発明の実施形態に係る装置に関連付けられるオペレーション又は当該装置の1又は複数の「部」として機能させ、又は当該オペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ3000に、本発明の実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ3000に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU3012によって実行されてよい。 A program installed on the computer 3000 may cause the computer 3000 to function as or perform operations associated with an apparatus according to an embodiment of the present invention or one or more "parts" of the apparatus, and/or to perform a process or steps of the process according to an embodiment of the present invention. Such a program may be executed by the CPU 3012 to cause the computer 3000 to perform certain operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ3000は、CPU3012、RAM3014、GPU3016、及びディスプレイデバイス3018を含み、それらはホストコントローラ3010によって相互に接続されている。コンピュータ3000はまた、通信インタフェース3022、ハードディスクドライブ3024、DVD-ROMドライブ3026、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ3020を介してホストコントローラ3010に接続されている。コンピュータはまた、ROM3030及びキーボード3042のようなレガシの入出力ユニットを含み、それらは入出力チップ3040を介して入出力コントローラ3020に接続されている。 The computer 3000 according to this embodiment includes a CPU 3012, a RAM 3014, a GPU 3016, and a display device 3018, which are interconnected by a host controller 3010. The computer 3000 also includes input/output units such as a communication interface 3022, a hard disk drive 3024, a DVD-ROM drive 3026, and an IC card drive, which are connected to the host controller 3010 via an input/output controller 3020. The computer also includes legacy input/output units such as a ROM 3030 and a keyboard 3042, which are connected to the input/output controller 3020 via an input/output chip 3040.

CPU3012は、ROM3030及びRAM3014内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。GPU3016は、RAM3014内に提供されるフレームバッファ等又はそれ自体の中に、CPU3012によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス3018上に表示されるようにする。 The CPU 3012 operates according to the programs stored in the ROM 3030 and the RAM 3014, thereby controlling each unit. The GPU 3016 acquires image data generated by the CPU 3012 into a frame buffer or the like provided in the RAM 3014 or into itself, and causes the image data to be displayed on the display device 3018.

通信インタフェース3022は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ3024は、コンピュータ3000内のCPU3012によって使用されるプログラム及びデータを格納する。DVD-ROMドライブ3026は、プログラム又はデータをDVD-ROM3001から読み取り、ハードディスクドライブ3024にRAM3014を介してプログラム又はデータを提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 The communication interface 3022 communicates with other electronic devices via a network. The hard disk drive 3024 stores programs and data used by the CPU 3012 in the computer 3000. The DVD-ROM drive 3026 reads programs or data from the DVD-ROM 3001 and provides the programs or data to the hard disk drive 3024 via the RAM 3014. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.

ROM3030はその中に、アクティブ化時にコンピュータ3000によって実行されるブートプログラム等、及び/又はコンピュータ3000のハードウエアに依存するプログラムを格納する。入出力チップ3040はまた、様々な入出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ3020に接続してよい。 The ROM 3030 stores therein a boot program or the like that is executed by the computer 3000 upon activation, and/or a program that depends on the hardware of the computer 3000. The input/output chip 3040 may also connect various input/output units to the input/output controller 3020 via a parallel port, a serial port, a keyboard port, a mouse port, etc.

プログラムが、DVD-ROM3001又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもあるハードディスクドライブ3024、RAM3014、又はROM3030にインストールされ、CPU3012によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ3000に読み取られ、プログラムと、上記様々なタイプのハードウエアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ3000の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The programs are provided by a computer-readable storage medium such as a DVD-ROM 3001 or an IC card. The programs are read from the computer-readable storage medium, installed in the hard disk drive 3024, RAM 3014, or ROM 3030, which are also examples of computer-readable storage media, and executed by the CPU 3012. The information processing described in these programs is read by the computer 3000, and brings about cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be constructed by realizing the operation or processing of information in accordance with the use of the computer 3000.

例えば、通信がコンピュータ3000及び外部デバイス間で実行される場合、CPU3012は、RAM3014にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース3022に対し、通信処理を命令してよい。通信インタフェース3022は、CPU3012の制御の下、RAM3014、ハードディスクドライブ3024、DVD-ROM3001、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between computer 3000 and an external device, CPU 3012 may execute a communication program loaded into RAM 3014 and instruct communication interface 3022 to perform communication processing based on the processing described in the communication program. Under the control of CPU 3012, communication interface 3022 reads transmission data stored in a transmission buffer area provided in RAM 3014, hard disk drive 3024, DVD-ROM 3001, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.

また、CPU3012は、ハードディスクドライブ3024、DVD-ROMドライブ3026(DVD-ROM3001)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM3014に読み取られるようにし、RAM3014上のデータに対し様々なタイプの処理を実行してよい。CPU3012は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 3012 may also cause all or a necessary portion of a file or database stored on an external recording medium such as the hard disk drive 3024, the DVD-ROM drive 3026 (DVD-ROM 3001), an IC card, etc. to be read into the RAM 3014, and perform various types of processing on the data on the RAM 3014. The CPU 3012 may then write back the processed data to the external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU3012は、RAM3014から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM3014に対しライトバックする。また、CPU3012は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU3012は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored on the recording medium and may undergo information processing. The CPU 3012 may perform various types of processing on the data read from the RAM 3014, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the instruction sequence of the program, and writes back the results to the RAM 3014. The CPU 3012 may also search for information in a file, database, etc. in the recording medium. For example, when multiple entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 3012 may search for an entry whose attribute value of the first attribute matches a specified condition from among the multiple entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.

上で説明したプログラム又はソフトウエアモジュールは、コンピュータ3000上又はコンピュータ3000近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それにより、上記のプログラムを、ネットワークを介してコンピュータ3000に提供する。 The above-described program or software module may be stored in a computer-readable storage medium on the computer 3000 or in the vicinity of the computer 3000. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the above-described program to the computer 3000 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using an embodiment, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications or improvements can be made to the above embodiment. Furthermore, the details described for a specific embodiment can be applied to other embodiments to the extent that they are not technically inconsistent. It is clear from the claims that such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.

本願明細書には、例えば、下記の事項が開示されている。
[項目A-1]
三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得部と、
上記点群データ取得部が取得した上記三次元点群データに基づいて、上記第1物体の三次元モデルを含む仮想空間を構築するモデリング部と、
第1ユーザからの指示であって、上記仮想空間に配された上記第1物体の上記三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付部と、
画像を投影する投影装置を制御して、上記第1物体の表面における上記指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御部と、
を備える、情報処理装置。
[項目A-2]
上記投影制御部は、上記三次元空間において上記第1物体が移動した場合、上記第1物体に投影される上記第1画像が上記第1物体の移動に追従するように、上記投影装置を制御する、
項目A-1に記載の情報処理装置。
[項目A-3]
上記指示受付部は、上記第1ユーザからの指示であって、上記第1画像の属性を特定するための第2指示を受け付け、
上記投影制御部は、
(i)上記第2指示により示される上記第1画像の属性が第1属性である場合、上記三次元空間において上記第1物体が移動したときに、上記第1物体に投影される上記第1画像が上記第1物体の移動に追従するように、上記第1画像の投影方向、並びに、上記第1画像の形状及び大きさの少なくとも1つを調整し、
(ii)上記第2指示により示される上記第1画像の属性が第2属性である場合、上記三次元空間において上記第1物体が移動しても、上記第1画像の投影方向、並びに、上記第1画像の形状及び大きさを調整しない、
項目A-1又は項目A-2に記載の情報処理装置。
[項目A-4]
上記指示受付部は、上記第1ユーザからの指示であって、(i)上記第1物体の上記三次元モデルの基準点に対する上記指示位置の相対位置、又は、(ii)上記仮想空間の基準点に対する上記指示位置の相対位置を固定するための第3指示を受け付け、
上記投影制御部は、
(i)上記指示受付部が上記第3指示を受け付け、且つ、上記第2指示により示される上記第1画像の属性が第1属性である場合、上記三次元空間において上記第1物体が移動したときに、上記第1物体に投影される上記第1画像が上記第1物体の移動に追従するように、上記第1画像の投影方向、並びに、上記第1画像の形状及び大きさの少なくとも1つを調整し、
(ii)上記指示受付部が上記第3指示を受け付け、且つ、上記第2指示により示される上記第1画像の属性が第2属性である場合、上記三次元空間において上記第1物体が移動しても、上記第1画像の投影方向、並びに、上記第1画像の形状及び大きさを調整しない、
項目A-3に記載の情報処理装置。
[項目A-5]
上記指示受付部は、上記第1ユーザからの指示であって、上記第1画像の投影の開始又は停止に関する第4指示を受け付け、
上記投影制御部は、上記第4指示に基づいて、上記第1画像を上記第1物体に投影するか否かを決定する、
項目A-1から項目A-4までの何れか一項に記載の情報処理装置。
[項目A-6]
上記第1ユーザが上記仮想空間における上記指示位置を指定するために用いられるポインティングデバイス又はコントローラが出力した制御信号に基づいて、上記仮想空間の特定の点を指し示すマークの動きを制御する指示マーク制御部をさらに備える、
項目A-1から項目A-5までの何れか一項に記載の情報処理装置。
[項目A-7]
上記指示マーク制御部は、上記第1物体の上記三次元モデルの境界近傍における上記マークの動き方を規定する第1設定情報に基づいて、上記マークの動きを制御する、
項目A-6に記載の情報処理装置。
[項目A-8]
上記第1物体の画像データを取得する画像データ取得部と、
上記画像データ取得部が取得した上記画像データに基づいて、上記第1物体の種類を推定する物体推定部と、
1以上の物体のそれぞれの種類を示す情報と、各物体の表面上の1以上の位置のそれぞれに対応する各物体の三次元モデルの1以上の位置のそれぞれにおける上記マークの動き方を規定する第2設定情報とを対応付けて格納する設定格納部を参照して、上記物体推定部が推定した上記第1物体の上記種類に応じた上記第2設定情報を抽出する設定抽出部と、
をさらに備え、
上記指示マーク制御部は、上記設定抽出部が抽出した上記第2設定情報に基づいて、上記マークの動きを制御する、
項目A-6又は項目A-7に記載の情報処理装置。
[項目A-9]
上記点群データ取得部は、上記第1物体に光を照射して得られた上記光の反射光に基づいて上記第1物体の上記三次元点群データを出力する測定装置から、上記第1物体の上記三次元点群データを取得し、
上記測定装置は、上記第1物体を撮像する撮像部を有し、
上記情報処理装置は、上記測定装置と、上記投影装置との位置関係を決定する較正部をさらに備え、
上記投影装置は、互いの相対位置が既知である少なくとも3つの線分を含む較正画像を、上記三次元空間に投影し、
上記撮像部は、上記投影装置が上記三次元空間に投影した上記較正画像を撮像し、
上記較正部は、上記撮像部が撮像した上記較正画像に基づいて、上記測定装置と、上記投影装置との位置関係を決定する、
項目A-1から項目A-9までの何れか一項に記載の情報処理装置。
[項目A-10]
コンピュータを、項目A-1から項目A-10までの何れか一項に記載の情報処理装置として機能させるためのプログラム。
[項目A-11]
三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得段階と、
上記点群データ取得段階において取得された上記三次元点群データに基づいて、上記第1物体の三次元モデルを含む仮想空間を構築するモデリング段階と、
第1ユーザからの指示であって、上記仮想空間に配された上記第1物体の上記三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付段階と、
画像を投影する投影装置を制御して、上記第1物体の表面における上記指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御段階と、
を有する、情報処理方法。
[項目B-1]
1以上の物体が配置された三次元空間の三次元点群データを取得する点群データ取得部と、
上記点群データ取得部が取得した上記三次元空間の上記三次元点群データに基づいて、上記1以上の物体に含まれる第1物体の境界の少なくとも一部を検出する物体検出部と、
を備え、
上記点群データ取得部は、上記1以上の物体に光を照射して得られた上記光の反射光に基づいて上記三次元空間の上記三次元点群データを出力する測定装置から、上記三次元空間の上記三次元点群データを取得し、
上記三次元空間の上記三次元点群データは、
上記1以上の物体の表面上の複数の点のそれぞれの三次元位置を示す三次元位置情報と、
上記複数の点のそれぞれからの上記反射光の強度のバラツキ具合を示すバラツキ情報と、
を含み、
上記物体検出部は、上記三次元位置情報及び上記バラツキ情報に基づいて、上記第1物体の上記境界の上記少なくとも一部を検出する、
検出装置。
[項目B-2]
上記物体検出部は、
上記複数の点のそれぞれにおける上記バラツキ具合を示す指標の値に基づいて、上記複数の点の中から上記第1物体の表面上の点を抽出する、
項目B-1に記載の検出装置。
[項目B-3]
上記物体検出部は、
上記複数の点の中から、上記バラツキ具合を示す指標の値が予め定められた第1範囲の範囲内である少なくとも1つの点を抽出し、
抽出された上記少なくとも1つの点のそれぞれについて、各点の上記バラツキ具合を示す指標の値と、各点に隣接する点の上記バラツキ具合を示す指標の値とを比較し、
両者の差の絶対値が予め定められた値よりも小さい場合には、両者が同一の物体の表面上の点であると判定し、両者の差の絶対値が予め定められた値よりも大きい場合には、両者が異なる物体の表面上の点であると判定することで、上記1以上の物体に含まれる少なくとも2つの物体を区別する、
項目B-2に記載の検出装置。
[項目B-4]
上記物体検出部は、上記複数の点のうち、上記バラツキ具合を示す指標の値が上記第1物体の材質に基づいて定められる数値範囲の範囲内に含まれる1以上の点の中から、上記第1物体の表面上の点を抽出する、
項目B-2又は項目B-3に記載の検出装置。
[項目B-5]
上記三次元空間の上記三次元点群データは、上記複数の点のそれぞれの色を示す色情報をさらに含み、
上記物体検出部は、上記三次元位置情報、上記バラツキ情報及び上記色情報に基づいて、上記第1物体の上記境界の上記少なくとも一部を検出する、
項目B-1から項目B-4までの何れか一項に記載の検出装置。
[項目B-6]
上記測定装置は、
上記三次元空間に配置された上記1以上の物体に上記光を照射する照射部と、
上記照射部の近傍に配され、上記1以上の物体からの上記光の反射光を受光する受光部と、
を備え、
上記検出装置又は上記測定装置は、
上記照射部が上記光を照射した時刻、及び、上記受光部が上記反射光を受光した時刻に基づいて、上記1以上の物体の表面上の上記複数の点のそれぞれについて、上記照射部又は上記受光部からの距離を示す深度を算出する深度算出部と、
予め定められた長さを有する単位期間における上記深度の変動に基づいて、上記複数の点のそれぞれからの上記反射光の強度のバラツキ具合を示す指標を算出する指標算出部と、
をさらに備える、
項目B-1から項目B-5までの何れか一項に記載の検出装置。
[項目B-7]
上記検出装置又は上記測定装置は、
上記深度算出部が算出した上記複数の点のそれぞれの深度に基づいて、上記複数の点のそれぞれからの上記反射光の強度のバラツキ具合を示す指標を補正する第1補正部をさらに備える、
項目B-6に記載の検出装置。
[項目B-8]
上記検出装置又は上記測定装置は、
上記受光部を構成する受光素子の大きさに基づいて、上記複数の点のそれぞれからの上記反射光の強度のバラツキ具合を示す指標を補正する第2補正部をさらに備える、
項目B-6又は項目B-7に記載の検出装置。
[項目B-9]
上記検出装置又は上記測定装置は、
上記受光部を構成する受光素子の受光面の法線ベクトルと、上記1以上の物体の表面上の上記光が照射された測定対象面の法線ベクトルとがなす角度に基づいて、上記複数の点のそれぞれからの上記反射光の強度のバラツキ具合を示す指標を補正する第3補正部をさらに備える、
項目B-6から項目B-8までの何れか一項に記載の検出装置。
[項目B-10]
上記検出装置又は上記測定装置は、
上記受光部が受光した上記複数の点のそれぞれからの上記反射光の強度に基づいて、上記複数の点のそれぞれからの上記反射光の強度のバラツキ具合を示す指標を補正する第4補正部をさらに備える、
項目B-6から項目B-9までの何れか一項に記載の検出装置。
[項目B-11]
コンピュータを、項目B-1から項目B-10までの何れか一項に記載の検出装置として機能させるためのプログラム。
[項目B-12]
1以上の物体が配置された三次元空間の三次元点群データを取得する点群データ取得段階と、
上記点群データ取得段階において取得された上記三次元空間の上記三次元点群データに基づいて、上記1以上の物体に含まれる第1物体の境界の少なくとも一部を検出する物体検出段階と、
を有し、
上記点群データ取得段階は、上記1以上の物体に光を照射して得られた上記光の反射光に基づいて上記三次元空間の上記三次元点群データを出力する測定装置から、上記三次元空間の上記三次元点群データを取得する段階を含み、
上記三次元空間の上記三次元点群データは、
上記1以上の物体の表面上の複数の点のそれぞれの三次元位置を示す三次元位置情報と、
上記複数の点のそれぞれからの上記反射光の強度のバラツキ具合を示すバラツキ情報と、
を含み、
上記物体検出段階は、上記三次元位置情報及び上記バラツキ情報に基づいて、上記第1物体の上記境界の上記少なくとも一部を検出する段階を含む、
検出方法。
[項目C]
三次元空間に配置された1以上の物体に光を照射する照射部と、
上記照射部の近傍に配され、上記1以上の物体からの上記光の反射光を受光する受光部と、
上記照射部が上記光を照射した時刻、及び、上記受光部が上記反射光を受光した時刻に基づいて、上記1以上の物体の表面上の上記複数の点のそれぞれについて、上記照射部又は上記受光部からの距離を示す深度を算出する深度算出部と、
予め定められた長さを有する単位期間における上記深度の変動に基づいて、上記複数の点のそれぞれからの上記反射光の強度のバラツキ具合を示す指標を算出する指標算出部と、
を備える、測定装置。
For example, the present specification discloses the following:
[Item A-1]
a point cloud data acquisition unit that acquires three-dimensional point cloud data of a first object disposed in a three-dimensional space;
a modeling unit that constructs a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired by the point cloud data acquisition unit;
an instruction receiving unit that receives a first instruction from a first user to specify a pointed position that is a point or an area arranged on a surface of the three-dimensional model of the first object arranged in the virtual space;
a projection control unit that controls a projection device that projects an image to project a first image onto a projection position that is a point or area corresponding to the designated position on a surface of the first object;
An information processing device comprising:
[Item A-2]
the projection control unit controls the projection device such that, when the first object moves in the three-dimensional space, the first image projected onto the first object follows the movement of the first object.
The information processing device according to item A-1.
[Item A-3]
the instruction receiving unit receives a second instruction from the first user to identify an attribute of the first image;
The projection control unit includes:
(i) when the attribute of the first image indicated by the second instruction is a first attribute, adjusting at least one of a projection direction of the first image and a shape and a size of the first image so that the first image projected onto the first object follows the movement of the first object when the first object moves in the three-dimensional space;
(ii) when the attribute of the first image indicated by the second instruction is a second attribute, even if the first object moves in the three-dimensional space, a projection direction of the first image and a shape and a size of the first image are not adjusted;
The information processing device according to item A-1 or A-2.
[Item A-4]
the instruction receiving unit receives, as an instruction from the first user, (i) a relative position of the designated position with respect to a reference point of the three-dimensional model of the first object, or (ii) a third instruction for fixing a relative position of the designated position with respect to a reference point of the virtual space;
The projection control unit includes:
(i) when the instruction receiving unit receives the third instruction and the attribute of the first image indicated by the second instruction is a first attribute, when the first object moves in the three-dimensional space, adjusting at least one of a projection direction of the first image and a shape and a size of the first image so that the first image projected onto the first object follows the movement of the first object;
(ii) when the instruction receiving unit receives the third instruction and the attribute of the first image indicated by the second instruction is the second attribute, even if the first object moves in the three-dimensional space, a projection direction of the first image and a shape and a size of the first image are not adjusted;
The information processing device according to item A-3.
[Item A-5]
the instruction receiving unit receives a fourth instruction from the first user regarding starting or stopping the projection of the first image;
The projection control unit determines whether or not to project the first image onto the first object based on the fourth instruction.
The information processing device according to any one of items A-1 to A-4.
[Item A-6]
Further, an indication mark control unit controls the movement of a mark indicating a specific point in the virtual space based on a control signal output by a pointing device or a controller used by the first user to specify the indication position in the virtual space.
The information processing device according to any one of items A-1 to A-5.
[Item A-7]
the indication mark control unit controls a movement of the mark based on first setting information that defines a manner of movement of the mark in the vicinity of a boundary of the three-dimensional model of the first object;
The information processing device according to item A-6.
[Item A-8]
an image data acquisition unit that acquires image data of the first object;
an object estimation unit that estimates a type of the first object based on the image data acquired by the image data acquisition unit;
a setting extraction unit that refers to a setting storage unit that stores information indicating the type of each of the one or more objects in association with second setting information that specifies how the mark moves at each of one or more positions of a three-dimensional model of each object corresponding to each of one or more positions on a surface of each object, and extracts the second setting information corresponding to the type of the first object estimated by the object estimation unit;
Further equipped with
The indication mark control unit controls the movement of the mark based on the second setting information extracted by the setting extraction unit.
The information processing device according to item A-6 or A-7.
[Item A-9]
the point cloud data acquisition unit acquires the three-dimensional point cloud data of the first object from a measurement device that outputs the three-dimensional point cloud data of the first object based on reflected light of the light obtained by irradiating the first object with light;
The measuring device has an imaging unit that images the first object,
the information processing device further includes a calibration unit that determines a positional relationship between the measurement device and the projection device;
The projection device projects a calibration image including at least three line segments whose relative positions to each other are known into the three-dimensional space;
the imaging unit captures the calibration image projected into the three-dimensional space by the projection device;
the calibration unit determines a positional relationship between the measurement device and the projection device based on the calibration image captured by the imaging unit.
The information processing device according to any one of items A-1 to A-9.
[Item A-10]
A program for causing a computer to function as the information processing device according to any one of items A-1 to A-10.
[Item A-11]
A point cloud data acquisition step of acquiring three-dimensional point cloud data of a first object disposed in a three-dimensional space;
a modeling step of constructing a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired in the point cloud data acquisition step;
an instruction receiving step of receiving a first instruction from a first user for specifying a pointed position which is a point or an area arranged on a surface of the three-dimensional model of the first object arranged in the virtual space;
a projection control step of controlling a projection device that projects an image to project a first image onto a projection position that is a point or area on a surface of the first object corresponding to the designated position;
An information processing method comprising the steps of:
[Item B-1]
a point cloud data acquisition unit that acquires three-dimensional point cloud data of a three-dimensional space in which one or more objects are arranged;
an object detection unit that detects at least a portion of a boundary of a first object included in the one or more objects based on the three-dimensional point cloud data of the three-dimensional space acquired by the point cloud data acquisition unit;
Equipped with
the point cloud data acquisition unit acquires the three-dimensional point cloud data of the three-dimensional space from a measurement device that outputs the three-dimensional point cloud data of the three-dimensional space based on reflected light of the light obtained by irradiating the one or more objects with light;
The three-dimensional point cloud data of the three-dimensional space is
Three-dimensional position information indicating a three-dimensional position of each of a plurality of points on a surface of the one or more objects;
Variation information indicating a degree of variation in the intensity of the reflected light from each of the plurality of points; and
Including,
the object detection unit detects at least the part of the boundary of the first object based on the three-dimensional position information and the variation information.
Detection device.
[Item B-2]
The object detection unit is
extracting points on the surface of the first object from the plurality of points based on the value of the index indicating the degree of variation at each of the plurality of points;
The detection device according to item B-1.
[Item B-3]
The object detection unit is
extracting at least one point, the value of which of the indexes indicating the degree of variation is within a predetermined first range, from the plurality of points;
For each of the at least one extracted points, a value of an index indicating the degree of variation of the point is compared with a value of an index indicating the degree of variation of a point adjacent to the point;
When the absolute value of the difference between the two is smaller than a predetermined value, it is determined that the two are points on the surface of the same object, and when the absolute value of the difference between the two is greater than the predetermined value, it is determined that the two are points on the surface of different objects, thereby distinguishing at least two objects included in the one or more objects.
The detection device according to item B-2.
[Item B-4]
The object detection unit extracts a point on the surface of the first object from one or more points, among the plurality of points, where a value of an index indicating the degree of variation is included within a numerical range determined based on a material of the first object.
The detection device according to item B-2 or B-3.
[Item B-5]
the three-dimensional point cloud data of the three-dimensional space further includes color information indicating the color of each of the plurality of points;
the object detection unit detects at least the part of the boundary of the first object based on the three-dimensional position information, the variation information, and the color information.
The detection device according to any one of items B-1 to B-4.
[Item B-6]
The measuring device is
an irradiation unit that irradiates the light onto the one or more objects arranged in the three-dimensional space;
a light receiving unit disposed near the irradiating unit and configured to receive reflected light of the light from the one or more objects;
Equipped with
The detection device or the measurement device is
a depth calculation unit that calculates a depth indicating a distance from the irradiation unit or the light receiving unit for each of the plurality of points on the surface of the one or more objects based on a time when the irradiation unit irradiates the light and a time when the light receiving unit receives the reflected light;
an index calculation unit that calculates an index indicating a degree of variation in intensity of the reflected light from each of the plurality of points based on a change in the depth in a unit period having a predetermined length;
Further comprising:
The detection device according to any one of items B-1 to B-5.
[Item B-7]
The detection device or the measurement device is
A first correction unit corrects an index indicating a degree of variation in intensity of the reflected light from each of the plurality of points based on the depth of each of the plurality of points calculated by the depth calculation unit.
The detection device according to item B-6.
[Item B-8]
The detection device or the measurement device is
a second correction unit that corrects an index indicating a degree of variation in intensity of the reflected light from each of the plurality of points based on a size of a light receiving element that constitutes the light receiving unit;
The detection device according to item B-6 or B-7.
[Item B-9]
The detection device or the measurement device is
and a third correction unit that corrects an index indicating a degree of variation in intensity of the reflected light from each of the plurality of points based on an angle between a normal vector of a light receiving surface of a light receiving element constituting the light receiving unit and a normal vector of a measurement target surface on a surface of the one or more objects onto which the light is irradiated.
The detection device according to any one of items B-6 to B-8.
[Item B-10]
The detection device or the measurement device is
and a fourth correction unit that corrects an index indicating a degree of variation in intensity of the reflected light from each of the plurality of points based on the intensity of the reflected light from each of the plurality of points received by the light receiving unit.
The detection device according to any one of items B-6 to B-9.
[Item B-11]
A program for causing a computer to function as the detection device according to any one of items B-1 to B-10.
[Item B-12]
A point cloud data acquisition step of acquiring three-dimensional point cloud data of a three-dimensional space in which one or more objects are arranged;
an object detection step of detecting at least a portion of a boundary of a first object included in the one or more objects based on the three-dimensional point cloud data of the three-dimensional space acquired in the point cloud data acquisition step;
having
the point cloud data acquisition step includes a step of acquiring the three-dimensional point cloud data of the three-dimensional space from a measurement device that outputs the three-dimensional point cloud data of the three-dimensional space based on reflected light of the light obtained by irradiating the one or more objects with light,
The three-dimensional point cloud data of the three-dimensional space is
Three-dimensional position information indicating a three-dimensional position of each of a plurality of points on a surface of the one or more objects;
Variation information indicating a degree of variation in the intensity of the reflected light from each of the plurality of points; and
Including,
The object detection step includes detecting at least a portion of the boundary of the first object based on the three-dimensional position information and the variation information.
Detection methods.
[Item C]
An illumination unit that illuminates one or more objects arranged in a three-dimensional space with light;
a light receiving unit disposed near the irradiating unit and configured to receive reflected light of the light from the one or more objects;
a depth calculation unit that calculates a depth indicating a distance from the irradiation unit or the light receiving unit for each of the plurality of points on the surface of the one or more objects based on a time when the irradiation unit irradiates the light and a time when the light receiving unit receives the reflected light;
an index calculation unit that calculates an index indicating a degree of variation in intensity of the reflected light from each of the plurality of points based on a change in the depth in a unit period having a predetermined length;
A measuring device comprising:

10 通信ネットワーク、20 支援画像、32 作業者、34 支援者、100 作業支援システム、102 作業対象、110 作業室、112 作業台、114 作業領域、122 ディスプレイ、124 ライダー、126 プロジェクタ、140 支援端末、142 支援端末、144 コントローラ、146 支援端末、148 ポインティングデバイス、160 支援サーバ、162 作業室制御部、164 支援端末制御部、210 タイトル、212 符号化コード、214 記入欄、216 署名欄、218 押印欄、322 マーカ、324 ポインタ、400 操作画面、402 カーソル、404 オブジェクト、420 メニューバー、440 仮想空間表示領域、442 三次元モデル、444 三次元モデル、460 オブジェクト設定領域、462 プルダウンリスト、464 プルダウンリスト、466 ボタン、520 測距部、522 照射部、524 受光部、530 撮像部、540 点群データ出力部、560 色点群データ、622 点群データ取得部、632 物体検出部、634 モデリング部、636 種類推定部、642 指示受付部、644 投影制御部、650 較正部、660 格納部、700 較正画像、810 設定格納部、812 第1設定情報格納部、814 第2設定情報格納部、820 指示マーク制御部、832 画像データ取得部、834 物体推定部、836 設定抽出部、922 深度算出部、924 三次元位置情報算出部、926 バラツキ指標算出部、930 バラツキ補正部、932 第1補正部、934 第2補正部、936 第3補正部、938 第4補正部、1020 変動、1122 基準面、1124 基準点、1142 変動、1144 変動、1146 変動、1222 受光素子、1224 光学系、1226 法線ベクトル、1240 パルス光、1242 ベクトル、1260 表面、1270 測定対象面、1272 法線ベクトル、1274 端部、1276 端部、1300 画像、3000 コンピュータ、3001 DVD-ROM、3010 ホストコントローラ、3012 CPU、3014 RAM、3016 GPU、3018 ディスプレイデバイス、3020 入出力コントローラ、3022 通信インタフェース、3024 ハードディスクドライブ、3026 DVD-ROMドライブ、3030 ROM、3040 入出力チップ、3042 キーボード 10 Communication network, 20 Support image, 32 Worker, 34 Supporter, 100 Work support system, 102 Work object, 110 Work room, 112 Work table, 114 Work area, 122 Display, 124 Lidar, 126 Projector, 140 Support terminal, 142 Support terminal, 144 Controller, 146 Support terminal, 148 Pointing device, 160 Support server, 162 Work room control unit, 164 Support terminal control unit, 210 Title, 212 Encoded code, 214 Entry field, 216 Signature field, 218 Seal field, 322 Marker, 324 Pointer, 400 Operation screen, 402 Cursor, 404 Object, 420 Menu bar, 440 Virtual space display area, 442 Three-dimensional model, 444 Three-dimensional model, 460 Object setting area, 462 Pull-down list, 464 Pull-down list, 466 Button, 520 Distance measurement unit, 522 Irradiation unit, 524 Light receiving unit, 530 Imaging unit, 540 Point cloud data output unit, 560 Color point cloud data, 622 Point cloud data acquisition unit, 632 Object detection unit, 634 Modeling unit, 636 Type estimation unit, 642 Instruction reception unit, 644 Projection control unit, 650 Calibration unit, 660 Storage unit, 700 Calibration image, 810 Setting storage unit, 812 First setting information storage unit, 814 Second setting information storage unit, 820 Indication mark control unit, 832 Image data acquisition unit, 834 Object estimation unit, 836 Setting extraction unit, 922 Depth calculation unit, 924 Three-dimensional position information calculation unit, 926 Variation index calculation unit, 930 Variation correction unit, 932 First correction unit, 934 Second correction unit, 936 Third correction unit, 938 Fourth correction unit, 1020 Fluctuation, 1122 Reference surface, 1124 Reference point, 1142 Fluctuation, 1144 Fluctuation, 1146 Fluctuation, 1222 Light receiving element, 1224 Optical system, 1226 Normal vector, 1240 Pulsed light, 1242 Vector, 1260 Surface, 1270 Measurement target surface, 1272 Normal vector, 1274 End, 1276 End, 1300 Image, 3000 Computer, 3001 DVD-ROM, 3010 Host controller, 3012 CPU, 3014 RAM, 3016 GPU, 3018 Display device, 3020 Input/output controller, 3022 Communication interface, 3024 Hard disk drive, 3026 DVD-ROM drive, 3030 ROM, 3040 I/O chip, 3042 keyboard

Claims (10)

三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得部と、
前記点群データ取得部が取得した前記三次元点群データに基づいて、前記第1物体の三次元モデルを含む仮想空間を構築するモデリング部と、
第1ユーザからの指示であって、前記仮想空間に配された前記第1物体の前記三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付部と、
画像を投影する投影装置を制御して、前記第1物体の表面における前記指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御部と、
前記第1ユーザが前記仮想空間における前記指示位置を指定するために用いられるポインティングデバイス又はコントローラが出力した制御信号に基づいて、前記仮想空間の特定の点を指し示すマークの動きを制御する指示マーク制御部と、
を備え
前記指示マーク制御部は、前記第1物体の前記三次元モデルの境界近傍における前記マークの動き方を規定する第1設定情報に基づいて、前記マークの動きを制御する、
情報処理装置。
a point cloud data acquisition unit that acquires three-dimensional point cloud data of a first object disposed in a three-dimensional space;
a modeling unit that constructs a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired by the point cloud data acquisition unit;
an instruction receiving unit that receives a first instruction from a first user for specifying a pointed position that is a point or an area arranged on a surface of the three-dimensional model of the first object arranged in the virtual space;
a projection control unit that controls a projection device that projects an image to project a first image onto a projection position that is a point or an area corresponding to the designated position on a surface of the first object;
an indication mark control unit that controls the movement of a mark indicating a specific point in the virtual space based on a control signal output by a pointing device or a controller used by the first user to specify the indication position in the virtual space;
Equipped with
the indication mark control unit controls the movement of the mark based on first setting information that defines a manner of movement of the mark in the vicinity of a boundary of the three-dimensional model of the first object.
Information processing device.
前記投影制御部は、前記三次元空間において前記第1物体が移動した場合、前記第1物体に投影される前記第1画像が前記第1物体の移動に追従するように、前記投影装置を制御する、
請求項1に記載の情報処理装置。
the projection control unit controls the projection device such that, when the first object moves in the three-dimensional space, the first image projected onto the first object follows the movement of the first object.
The information processing device according to claim 1 .
前記指示受付部は、前記第1ユーザからの指示であって、前記第1画像の属性を特定するための第2指示を受け付け、
前記投影制御部は、
(i)前記第2指示により示される前記第1画像の属性が第1属性である場合、前記三次元空間において前記第1物体が移動したときに、前記第1物体に投影される前記第1画像が前記第1物体の移動に追従するように、前記第1画像の投影方向、並びに、前記第1画像の形状及び大きさの少なくとも1つを調整し、
(ii)前記第2指示により示される前記第1画像の属性が第2属性である場合、前記三次元空間において前記第1物体が移動しても、前記第1画像の投影方向、並びに、前記第1画像の形状及び大きさを調整しない、
請求項1又は請求項2に記載の情報処理装置。
the instruction receiving unit receives a second instruction from the first user for identifying an attribute of the first image;
The projection control unit includes:
(i) when the attribute of the first image indicated by the second instruction is a first attribute, adjusting at least one of a projection direction of the first image and a shape and a size of the first image so that the first image projected onto the first object follows the movement of the first object when the first object moves in the three-dimensional space;
(ii) when the attribute of the first image indicated by the second instruction is a second attribute, even if the first object moves in the three-dimensional space, a projection direction of the first image and a shape and a size of the first image are not adjusted;
3. The information processing device according to claim 1 or 2.
前記指示受付部は、前記第1ユーザからの指示であって、(i)前記第1物体の前記三次元モデルの基準点に対する前記指示位置の相対位置、又は、(ii)前記仮想空間の基準点に対する前記指示位置の相対位置を固定するための第3指示を受け付け、
前記投影制御部は、
(i)前記指示受付部が前記第3指示を受け付け、且つ、前記第2指示により示される前記第1画像の属性が第1属性である場合、前記三次元空間において前記第1物体が移動したときに、前記第1物体に投影される前記第1画像が前記第1物体の移動に追従するように、前記第1画像の投影方向、並びに、前記第1画像の形状及び大きさの少なくとも1つを調整し、
(ii)前記指示受付部が前記第3指示を受け付け、且つ、前記第2指示により示される前記第1画像の属性が第2属性である場合、前記三次元空間において前記第1物体が移動しても、前記第1画像の投影方向、並びに、前記第1画像の形状及び大きさを調整しない、
請求項3に記載の情報処理装置。
the instruction receiving unit receives, as an instruction from the first user, (i) a relative position of the designated position with respect to a reference point of the three-dimensional model of the first object, or (ii) a third instruction for fixing the relative position of the designated position with respect to a reference point of the virtual space;
The projection control unit includes:
(i) when the instruction receiving unit receives the third instruction and the attribute of the first image indicated by the second instruction is a first attribute, when the first object moves in the three-dimensional space, adjusting at least one of a projection direction of the first image and a shape and a size of the first image so that the first image projected onto the first object follows the movement of the first object;
(ii) when the instruction receiving unit receives the third instruction and the attribute of the first image indicated by the second instruction is a second attribute, even if the first object moves in the three-dimensional space, a projection direction of the first image and a shape and a size of the first image are not adjusted.
The information processing device according to claim 3 .
前記指示受付部は、前記第1ユーザからの指示であって、前記第1画像の投影の開始又は停止に関する第4指示を受け付け、
前記投影制御部は、前記第4指示に基づいて、前記第1画像を前記第1物体に投影するか否かを決定する、
請求項1から請求項4までの何れか一項に記載の情報処理装置。
the instruction receiving unit receives a fourth instruction from the first user regarding starting or stopping the projection of the first image;
The projection control unit determines whether or not to project the first image onto the first object based on the fourth instruction.
The information processing device according to any one of claims 1 to 4.
三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得部と、
前記点群データ取得部が取得した前記三次元点群データに基づいて、前記第1物体の三次元モデルを含む仮想空間を構築するモデリング部と、
第1ユーザからの指示であって、前記仮想空間に配された前記第1物体の前記三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付部と、
画像を投影する投影装置を制御して、前記第1物体の表面における前記指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御部と、
前記第1ユーザが前記仮想空間における前記指示位置を指定するために用いられるポインティングデバイス又はコントローラが出力した制御信号に基づいて、前記仮想空間の特定の点を指し示すマークの動きを制御する指示マーク制御部と、
前記第1物体の画像データを取得する画像データ取得部と、
前記画像データ取得部が取得した前記画像データに基づいて、前記第1物体の種類を推定する物体推定部と、
1以上の物体のそれぞれの種類を示す情報と、各物体の表面上の1以上の位置のそれぞれに対応する各物体の三次元モデルの1以上の位置のそれぞれにおける前記マークの動き方を規定する第2設定情報とを対応付けて格納する設定格納部を参照して、前記物体推定部が推定した前記第1物体の前記種類に応じた前記第2設定情報を抽出する設定抽出部と、
え、
前記指示マーク制御部は、前記設定抽出部が抽出した前記第2設定情報に基づいて、前記マークの動きを制御する、
報処理装置。
a point cloud data acquisition unit that acquires three-dimensional point cloud data of a first object disposed in a three-dimensional space;
a modeling unit that constructs a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired by the point cloud data acquisition unit;
an instruction receiving unit that receives a first instruction from a first user for specifying a pointed position that is a point or an area arranged on a surface of the three-dimensional model of the first object arranged in the virtual space;
a projection control unit that controls a projection device that projects an image to project a first image onto a projection position that is a point or an area corresponding to the designated position on a surface of the first object;
an indication mark control unit that controls the movement of a mark indicating a specific point in the virtual space based on a control signal output by a pointing device or a controller used by the first user to specify the indication position in the virtual space;
an image data acquisition unit that acquires image data of the first object;
an object estimation unit that estimates a type of the first object based on the image data acquired by the image data acquisition unit;
a setting extraction unit that refers to a setting storage unit that stores information indicating the type of each of the one or more objects and second setting information that specifies how the mark moves at each of one or more positions of a three-dimensional model of each object corresponding to each of one or more positions on a surface of each object, in association with each other, and extracts the second setting information corresponding to the type of the first object estimated by the object estimation unit;
Equipped with
The indication mark control unit controls the movement of the mark based on the second setting information extracted by the setting extraction unit.
Information processing device.
前記点群データ取得部は、前記第1物体に光を照射して得られた前記光の反射光に基づいて前記第1物体の前記三次元点群データを出力する測定装置から、前記第1物体の前記三次元点群データを取得し、
前記測定装置は、前記第1物体を撮像する撮像部を有し、
前記情報処理装置は、前記測定装置と、前記投影装置との位置関係を決定する較正部をさらに備え、
前記投影装置は、互いの相対位置が既知である少なくとも3つの線分を含む較正画像を、前記三次元空間に投影し、
前記撮像部は、前記投影装置が前記三次元空間に投影した前記較正画像を撮像し、
前記較正部は、前記撮像部が撮像した前記較正画像に基づいて、前記測定装置と、前記投影装置との位置関係を決定する、
請求項1から請求項までの何れか一項に記載の情報処理装置。
the point cloud data acquisition unit acquires the three-dimensional point cloud data of the first object from a measurement device that outputs the three-dimensional point cloud data of the first object based on reflected light of the light obtained by irradiating the first object with light;
the measuring device has an imaging unit that images the first object,
the information processing device further includes a calibration unit that determines a positional relationship between the measurement device and the projection device;
The projection device projects a calibration image including at least three line segments whose relative positions to each other are known into the three-dimensional space;
the imaging unit captures the calibration image projected into the three-dimensional space by the projection device;
the calibration unit determines a positional relationship between the measurement device and the projection device based on the calibration image captured by the imaging unit.
The information processing device according to any one of claims 1 to 6 .
コンピュータを、請求項1から請求項までの何れか一項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as the information processing device according to any one of claims 1 to 7 . 三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得段階と、
前記点群データ取得段階において取得された前記三次元点群データに基づいて、前記第1物体の三次元モデルを含む仮想空間を構築するモデリング段階と、
第1ユーザからの指示であって、前記仮想空間に配された前記第1物体の前記三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付段階と、
画像を投影する投影装置を制御して、前記第1物体の表面における前記指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御段階と、
前記第1ユーザが前記仮想空間における前記指示位置を指定するために用いられるポインティングデバイス又はコントローラが出力した制御信号に基づいて、前記仮想空間の特定の点を指し示すマークの動きを制御する段階と、
を有
前記マークの動きを制御する段階は、前記第1物体の前記三次元モデルの境界近傍における前記マークの動き方を規定する第1設定情報に基づいて、前記マークの動きを制御する、
情報処理方法。
A point cloud data acquisition step of acquiring three-dimensional point cloud data of a first object disposed in a three-dimensional space;
a modeling step of constructing a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired in the point cloud data acquisition step;
an instruction receiving step of receiving a first instruction from a first user for specifying a pointed position which is a point or an area arranged on a surface of the three-dimensional model of the first object arranged in the virtual space;
a projection control step of controlling a projection device that projects an image to project a first image onto a projection position that is a point or area corresponding to the designated position on the surface of the first object;
A step of controlling a movement of a mark indicating a specific point in the virtual space based on a control signal output by a pointing device or a controller used by the first user to specify the indicated position in the virtual space;
having
The step of controlling the movement of the mark includes controlling the movement of the mark based on first setting information that defines a manner in which the mark moves in the vicinity of a boundary of the three-dimensional model of the first object.
Information processing methods.
三次元空間に配置された第1物体の三次元点群データを取得する点群データ取得段階と、A point cloud data acquisition step of acquiring three-dimensional point cloud data of a first object disposed in a three-dimensional space;
前記点群データ取得段階において取得された前記三次元点群データに基づいて、前記第1物体の三次元モデルを含む仮想空間を構築するモデリング段階と、a modeling step of constructing a virtual space including a three-dimensional model of the first object based on the three-dimensional point cloud data acquired in the point cloud data acquisition step;
第1ユーザからの指示であって、前記仮想空間に配された前記第1物体の前記三次元モデルの表面に配された点又は領域である指示位置を特定するための第1指示を受け付ける指示受付段階と、an instruction receiving step of receiving a first instruction from a first user for specifying a pointed position which is a point or an area arranged on a surface of the three-dimensional model of the first object arranged in the virtual space;
画像を投影する投影装置を制御して、前記第1物体の表面における前記指示位置に対応する点又は領域である投影位置に、第1画像を投影させる投影制御段階と、a projection control step of controlling a projection device that projects an image to project a first image onto a projection position that is a point or area corresponding to the designated position on the surface of the first object;
前記第1ユーザが前記仮想空間における前記指示位置を指定するために用いられるポインティングデバイス又はコントローラが出力した制御信号に基づいて、前記仮想空間の特定の点を指し示すマークの動きを制御する段階と、A step of controlling a movement of a mark indicating a specific point in the virtual space based on a control signal output by a pointing device or a controller used by the first user to specify the indicated position in the virtual space;
前記第1物体の画像データを取得する段階と、acquiring image data of the first object;
前記画像データを取得する段階において取得された前記画像データに基づいて、前記第1物体の種類を推定する段階と、estimating a type of the first object based on the image data acquired in the step of acquiring the image data;
1以上の物体のそれぞれの種類を示す情報と、各物体の表面上の1以上の位置のそれぞれに対応する各物体の三次元モデルの1以上の位置のそれぞれにおける前記マークの動き方を規定する第2設定情報とを対応付けて格納する設定格納部を参照して、前記第1物体の種類を推定する段階において推定された前記第1物体の前記種類に応じた前記第2設定情報を抽出する段階と、a step of extracting the second setting information corresponding to the type of the first object estimated in the step of estimating the type of the first object by referring to a setting storage unit that stores information indicating the type of each of the one or more objects in association with second setting information that specifies how the mark moves at each of one or more positions of a three-dimensional model of each object corresponding to each of one or more positions on a surface of each object;
を有し、having
前記マークの動きを制御する段階は、前記第2設定情報を抽出する段階において抽出された前記第2設定情報に基づいて、前記マークの動きを制御する、The step of controlling the movement of the mark controls the movement of the mark based on the second setting information extracted in the step of extracting the second setting information.
情報処理方法。Information processing methods.
JP2021009898A 2021-01-25 2021-01-25 Information processing device, information processing method, and program Active JP7629735B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021009898A JP7629735B2 (en) 2021-01-25 2021-01-25 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021009898A JP7629735B2 (en) 2021-01-25 2021-01-25 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2022113575A JP2022113575A (en) 2022-08-04
JP7629735B2 true JP7629735B2 (en) 2025-02-14

Family

ID=82658101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021009898A Active JP7629735B2 (en) 2021-01-25 2021-01-25 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7629735B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003270719A (en) 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization Projection method, projection device, work support method, and work support system
JP2017049680A (en) 2015-08-31 2017-03-09 大日本印刷株式会社 Object indication system, object indication method, and program
JP2019511049A (en) 2016-02-29 2019-04-18 スマート ランプ インコーポレイテッド ドゥーイング ビジネス アズ ランピックス Method and apparatus for providing a user interface with a computer system to interact with a virtual environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003270719A (en) 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization Projection method, projection device, work support method, and work support system
JP2017049680A (en) 2015-08-31 2017-03-09 大日本印刷株式会社 Object indication system, object indication method, and program
JP2019511049A (en) 2016-02-29 2019-04-18 スマート ランプ インコーポレイテッド ドゥーイング ビジネス アズ ランピックス Method and apparatus for providing a user interface with a computer system to interact with a virtual environment

Also Published As

Publication number Publication date
JP2022113575A (en) 2022-08-04

Similar Documents

Publication Publication Date Title
US11893689B2 (en) Automated three dimensional model generation
US10642371B2 (en) Sessionless pointing user interface
US9377859B2 (en) Enhanced detection of circular engagement gesture
KR102665643B1 (en) Method for controlling avatar display and electronic device thereof
CN109583285B (en) Object recognition method
US10203765B2 (en) Interactive input system and method
US7630522B2 (en) Biometric measurement using interactive display systems
US10297088B2 (en) Generating accurate augmented reality objects in relation to a real-world surface via a digital writing device
US8837780B2 (en) Gesture based human interfaces
CN110413190B (en) Determining pitch and yaw for touch screen interaction
CN110494864B (en) Integration of 3D models
US10664090B2 (en) Touch region projection onto touch-sensitive surface
KR20160027862A (en) Method for processing image data and electronic device supporting thereof
JP2017526096A (en) Activating controls based on reflections
JP6498802B1 (en) Biological information analysis apparatus and face type simulation method thereof
US20150302549A1 (en) Information processing system, control method and computer-readable medium
CN109410138A (en) Modify jowled methods, devices and systems
US20230024566A1 (en) Constructing an augmented reality image
JP7629735B2 (en) Information processing device, information processing method, and program
JP7645083B2 (en) DETECTION APPARATUS, DETECTION METHOD, AND PROGRAM
US9405375B2 (en) Translation and scale invariant features for gesture recognition
TW201248456A (en) Identifying contacts and contact attributes in touch sensor data using spatial and temporal features
KR20220111383A (en) Smart mirror apparatus for providing augmented reality service and operating method thereof
TWI872400B (en) Virtual shopping commodity identification system
TWI824859B (en) Virtual shopping gesture control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250203

R150 Certificate of patent or registration of utility model

Ref document number: 7629735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150