JP7480001B2 - 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 - Google Patents
学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP7480001B2 JP7480001B2 JP2020152140A JP2020152140A JP7480001B2 JP 7480001 B2 JP7480001 B2 JP 7480001B2 JP 2020152140 A JP2020152140 A JP 2020152140A JP 2020152140 A JP2020152140 A JP 2020152140A JP 7480001 B2 JP7480001 B2 JP 7480001B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- image
- learning
- posture
- drawn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、第1実施形態に係る学習システムの構成を表す模式図である。
第1実施形態に係る学習システム10は、画像中の人物の姿勢を検出するモデルの学習に用いられる。学習システム10は、学習装置1、入力装置2、表示装置3、及び記憶装置4を含む。
学習装置1は、第1モデル及び第2モデルの2つのモデルを学習させる。第1モデルは、実写画像又は描画画像が入力されると、実写画像又は描画画像に含まれる人体の姿勢を検出する。実写画像は、実際の人物を写した得られる画像である。描画画像は、仮想の人体モデルを用いて、コンピュータプログラムにより描画された画像である。描画画像は、学習装置1により生成される。
図2に表したように、第1実施形態に係る学習方法は、学習データの準備(ステップS1)と、第1モデルの準備(ステップS2)と、第2モデルの準備(ステップS3)と、第1モデル及び第2モデルの学習(ステップS4)と、を含む。
実写画像の準備では、実空間に存在する人物をカメラ等で撮影し、画像を取得する。画像には、人物の全体が写っていても良いし、人物の一部のみが写っていても良い。また、画像には、複数の人物が写っていても良い。画像は、少なくとも人物の輪郭が大まかに認識できる程度に、鮮明であることが好ましい。準備した実写画像は、記憶装置4に保存される。
図3(a)に表した描画画像では、背を向けた人体モデル91が写っている。図3(b)に表した描画画像では、人体モデル91が上方から写されている。また、環境モデルとして、棚92a、壁92b、及び床92cが写っている。人体モデル及び環境モデルには、テクスチャマッピングにより、質感が付与されている。テクスチャマッピングにより人体モデル91には、実際の作業で使用される制服が付与されている。棚92aの上面には、作業に使用される部品、道具、治具などが付与されている。壁92bには、細かな形状、色の変化、微小な汚れなどが付与されている。
図4(a)は、人体モデル91を含む描画画像を表す。図4(a)の例では、環境モデルが含まれていない。アノテーションされる画像は、図3(a)及び図3(b)に表したように、環境モデルを含んでも良い。図4(a)の描画画像に含まれる人体モデル91に対して、図4(b)に表したように、身体の各部位をアノテーションする。図4(b)の例では、人体モデル91の頭91a、左肩91b、左上腕91c、左前腕91d、左手91e、右肩91f、右上腕91g、右前腕91h、及び右手91iが示されている。
準備した学習データを用いて初期状態のモデルを学習し、第1モデルを準備する。実写画像を用いた学習済みのモデルを用意し、描画画像を用いて当該モデルを学習させることで、第1モデルを準備しても良い。この場合、ステップS1において、実写画像の準備及び実写画像に対するアノテーションを省略できる。例えば、実写画像を用いた学習済みのモデルとして、姿勢検出モデルであるOpenPoseを利用できる。
第1モデルは、複数のニューラルネットワークを含む。具体的には、図5に表したように、第1モデル100は、Convolutional Neural Network(CNN)101、第1ブロック(ブランチ1)110、及び第2ブロック(ブランチ2)120を含む。
図6は、第2モデルの構成を例示する概略図である。
第2モデル200は、図6に表したように、畳み込み層210、最大値プーリング220、ドロップアウト層230、平坦化層240、及び全結合層250を含む。畳み込み層210に記載された数字は、チャネル数を表す。全結合層250に記載された数字は、出力の次元を表す。第1モデルの出力であるPCMとPAFを第2モデル200に入力する。第2モデル200は、第1モデル100から、姿勢を示すデータが入力されると、そのデータが実写画像と描画画像のどちらに基づくかの判定結果を出力する。
準備した第2モデル200を用いて、第1モデル100を学習させる。また、準備した第1モデル100を用いて、第2モデル200を学習させる。第1モデル100の学習と第2モデル200の学習は、交互に実行される。
第1モデル100には、画像IMが入力される。画像IMは、実写画像又は描画画像である。第1モデル100は、PCM及びPAFを出力する。PCM及びPAFのそれぞれは、第2モデル200に入力される。第2モデル200へ入力される際、PAM及びPAFは、上述した通り正規化される。
近年、ビデオカメラなどで撮影されたRGB画像、深度カメラで撮影された深度画像などから、人体の姿勢を検出する方法が研究されている。また、姿勢検出は、生産性改善に向けた取り組みへの利用が試みられている。しかし、製造現場等では、作業者の姿勢、作業の環境によって、姿勢の検出精度が大きく低下しうるという課題があった。
図8は、第1実施形態の第1変形例に係る学習システムの構成を示す模式的ブロック図である。
第1変形例に係る学習システム11は、図8に表したように、演算装置5及び検出器6をさらに備える。検出器6は、実空間上の人物に装着され、その人物の動作を検出する。演算装置5は、検出された動作に基づいて、人体の各部位の各時刻における位置を算出し、算出結果を記憶装置4に記憶する。
図9は、第2実施形態に係る分析システムの構成を表す模式的ブロック図である。
図10~図13は、第2実施形態に係る分析システムによる処理を説明するための図である。
第2実施形態に係る分析システム20は、第1実施形態に係る学習システムによって学習された姿勢検出モデルとしての第1モデルを用いて、人物の動作を分析する。分析システム20は、図9に表したように、処理装置7及び撮像装置8をさらに含む。
図11(c)、図11(d)、図12(d)、および図13(a)において、横軸は時間を表し、縦軸は距離を表している。これらの図では、距離の値が大きいほど、2つの対象の間の距離が近く、相関が強いことを示している。
図12(a)および図13(b)は、横軸は時間を表し、縦軸はスカラー値を表している。
撮像装置8は、人物を撮影し、画像を生成する(ステップS11)。処理装置7は、画像を第1モデルに入力し(ステップS12)、姿勢データを取得する(ステップS13)。処理装置7は、姿勢データを用いて、部位に関する時系列データを生成する(ステップS14)。処理装置7は、時系列データに基づき、人物の動作の周期を算出する(ステップS15)。処理装置7は、算出された周期に基づく情報を外部へ出力する(ステップS16)。
例えば、学習装置1は、コンピュータであり、ROM(Read Only Memory)1a、RAM(Random Access Memory)1b、CPU(Central Processing Unit)1c、およびHDD(Hard Disk Drive)1dを有する。
また、以上で説明した処理装置、分析システム、分析方法を用いることで、時系列データをより高精度に分析できる。例えば、人物の動作の周期をより高精度に求めることができる。コンピュータを、処理装置として動作させるためのプログラムを用いることで、同様の効果を得ることができる。
Claims (10)
- 実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
を学習させる学習装置であって、
前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、学習装置。 - 前記第1モデルの学習中には、前記第2モデルの更新を停止し、
前記第2モデルの学習中には、前記第1モデルの更新を停止する、請求項1記載の学習装置。 - 前記第1モデルの学習と前記第2モデルの学習を交互に実行する、請求項1又は2に記載の学習装置。
- 複数の前記描画画像を用いて前記第1モデルを学習させ、
前記複数の描画画像の少なくとも一部は、前記人体モデルの一部を上方から描画した画像である、請求項1~3のいずれか1つに記載の学習装置。 - 前記姿勢データは、人体の複数の部位の位置を示すデータと、部位間の関連性を示すデータと、を含む、請求項1~4のいずれか1つに記載の学習装置。
- 請求項1~5のいずれか1つに記載の学習装置により学習された前記第1モデルに、作業中の人物を写した複数の作業画像を入力し、時間に対する姿勢の変化を示す時系列データを取得する、処理装置。
- 実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
を学習させる学習方法であって、
前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、学習方法。 - 請求項7記載の学習方法により学習された前記第1モデルを含む姿勢検出モデル。
- コンピュータに、
実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
を学習させるプログラムであって、
前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、プログラム。 - 請求項9記載のプログラムを記憶した記憶媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020152140A JP7480001B2 (ja) | 2020-09-10 | 2020-09-10 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020152140A JP7480001B2 (ja) | 2020-09-10 | 2020-09-10 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022046210A JP2022046210A (ja) | 2022-03-23 |
| JP7480001B2 true JP7480001B2 (ja) | 2024-05-09 |
Family
ID=80779797
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020152140A Active JP7480001B2 (ja) | 2020-09-10 | 2020-09-10 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7480001B2 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023157230A1 (ja) * | 2022-02-18 | 2023-08-24 | 株式会社 東芝 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
| JP2023140397A (ja) | 2022-03-23 | 2023-10-05 | 株式会社リコー | 液体吐出システム |
| JP2024014118A (ja) * | 2022-07-21 | 2024-02-01 | オムロン株式会社 | 作業周期推定装置、作業周期推定方法、及び作業周期推定プログラム |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020016935A (ja) | 2018-07-23 | 2020-01-30 | 日本電信電話株式会社 | 画像認識学習装置、画像認識装置、方法、及びプログラム |
-
2020
- 2020-09-10 JP JP2020152140A patent/JP7480001B2/ja active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020016935A (ja) | 2018-07-23 | 2020-01-30 | 日本電信電話株式会社 | 画像認識学習装置、画像認識装置、方法、及びプログラム |
Non-Patent Citations (2)
| Title |
|---|
| 戎野 聡一,組み立て作業解析のためのハイアングル画像の自動骨格アノテーション,SSII2020 第26回 画像センシングシンポジウム 講演資料集,日本,画像センシング技術研究会,2020年06月10日 |
| 村上 達哉,人体姿勢アノテーション困難な映像における類似姿勢学習の有用性,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2018-CVIM-212,日本,情報処理学会 ,2018年05月03日 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022046210A (ja) | 2022-03-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11763603B2 (en) | Physical activity quantification and monitoring | |
| Kamal et al. | A hybrid feature extraction approach for human detection, tracking and activity recognition using depth sensors | |
| Yao et al. | Contour model-based hand-gesture recognition using the Kinect sensor | |
| JP6025845B2 (ja) | オブジェクト姿勢検索装置及び方法 | |
| JP7370777B2 (ja) | 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 | |
| JP7057959B2 (ja) | 動作解析装置 | |
| Fieraru et al. | Learning complex 3D human self-contact | |
| CN113449570A (zh) | 图像处理方法和装置 | |
| JP7480001B2 (ja) | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 | |
| US10776978B2 (en) | Method for the automated identification of real world objects | |
| JP6708260B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| KR102371127B1 (ko) | 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템 | |
| CN111062340A (zh) | 一种基于虚拟姿态样本合成的异常步态行为识别方法 | |
| Hu et al. | Human interaction recognition using spatial-temporal salient feature | |
| JP2007066094A (ja) | 姿勢推定装置および姿勢推定方法 | |
| JP2018180894A (ja) | 情報処理装置、情報処理方法及びプログラム | |
| KR102722749B1 (ko) | 인체 모델의 학습 데이터를 생성하는 장치, 방법 및 컴퓨터 프로그램 | |
| JP5061808B2 (ja) | 感情判定方法 | |
| WO2023157230A1 (ja) | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 | |
| Sigalas et al. | Robust model-based 3d torso pose estimation in rgb-d sequences | |
| Archana et al. | Human action recognition using key point detection and machine learning | |
| CN114879844A (zh) | 一种基于姿态匹配的高质量人机交互方法及装置 | |
| Du | Design of Dance Movement Recognition Algorithm Based on 3D Motion Capture Data | |
| JP7673869B2 (ja) | 学習プログラム、生成プログラム、学習方法および生成方法 | |
| EP4435744A1 (en) | Activity recognition |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230324 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230616 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240213 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240326 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240424 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7480001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |