JP2019061679A - 三次元骨格表現を生成するためのシステム及び方法 - Google Patents
三次元骨格表現を生成するためのシステム及び方法 Download PDFInfo
- Publication number
- JP2019061679A JP2019061679A JP2018180654A JP2018180654A JP2019061679A JP 2019061679 A JP2019061679 A JP 2019061679A JP 2018180654 A JP2018180654 A JP 2018180654A JP 2018180654 A JP2018180654 A JP 2018180654A JP 2019061679 A JP2019061679 A JP 2019061679A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- person
- links
- skeletal representation
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
本出願は、その全内容を参照により本明細書に援用される「三次元骨格表現を生成するためのシステム、ロボット及び方法」と題された2017年9月26日出願の米国仮特許出願第62/563427号明細書に対する優先権を主張する。
人物の三次元骨格表現を生成する方法であって、
二次元画像から、該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える二次元骨格表現を生成することと、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置することと、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別することと、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影し、それによって該人物の該三次元骨格表現を生成することとを含む方法。
例2
該二次元骨格表現を三次元空間内に投影することが該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均することを含む例1に記載の方法。
例3
少なくとも部分的に該三次元骨格表現に基づいてユーザを認証することを更に含む例1に記載の方法。
例4
該ユーザを認証することが、
該三次元骨格表現から該ユーザのポーズ又は歩行を入手することと、
複数の登録ユーザの複数の記憶されたポーズ又は複数の記憶された歩行を備える記憶域にアクセスすることと、
該ユーザの該ポーズ又は該歩行を該複数の記憶されたポーズ又は該複数の記憶された歩行の1つと照合することとを含む例3に記載の方法。
例5
該三次元骨格表現から入手した歩行情報を記録することを更に含む例1に記載の方法。
例6
1つ又は複数のセンサから該二次元画像を備える画像データを入手することを更に含む例1に記載の方法。
例7
ロボットであって、
プロセッサと、機械可読命令を記憶する非一時的記憶装置とを備え、該機械可読命令が、該プロセッサによって実行されたときに、該プロセッサに、
二次元画像から該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間のリンクとを備える二次元骨格表現を生成させ、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影させ、それによって該人物の三次元骨格表現を生成させるロボット。
例8
該二次元骨格表現を三次元空間内に投影することが該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均することを含む例7に記載のロボット。
例9
該機械可読命令が更に該プロセッサに少なくとも部分的に該三次元骨格表現に基づいてユーザを認証させる例7に記載のロボット。
例10
該プロセッサにユーザを認証させる該機械可読命令が更に該プロセッサに
該三次元骨格表現から該ユーザのポーズ又は歩行を入手させ、
複数の登録ユーザの複数の記憶されたポーズ又は複数の記憶された歩行を備える記憶域にアクセスさせ、
該ユーザの該ポーズ又は該歩行を該複数の記憶されたポーズ又は該複数の記憶された歩行の1つと照合させる例9に記載のロボット。
例11
該機械可読命令が更に該プロセッサに該三次元骨格表現から入手した歩行情報を記録させる例7に記載のロボット。
例12
アームと、該アームの端部に配置されたエンドエフェクタとを更に備え、該機械可読命令が更に該プロセッサに
該人物の手に保持された対象物を決定させ、
該人物の該三次元骨格表現から三次空間内の該人物の該手の場所を決定させる例7に記載のロボット。
例13
該機械可読命令が更に該アーム及びエンドエフェクタを該人物の該手の方へ移動させ該対象物を把持させる例12に記載のロボット。
例14
該プロセッサと通信可能に接続された複数のセンサを更に備え、該複数のセンサが該二次元画像を提供する例12に記載のロボット。
例15
システムであって、
プロセッサと、
非一時的プロセッサ可読記憶装置とを備え、該非一時的プロセッサ可読記憶装置が1つ又は複数の機械可読命令を備え、該1つ又は複数の機械可読命令が、該プロセッサによって実行されたときに、該プロセッサに、
二次元画像から、該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える二次元骨格表現を生成させ、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影させ、それによって該人物の三次元骨格表現を生成させるシステム。
例16
該プロセッサに該二次元骨格表現を三次元空間内に投影させる該1つ又は複数の機械可読命令が、更に、該プロセッサに該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均させる例15に記載のシステム。
例17
該1つ又は複数の機械可読命令が更に該プロセッサに少なくとも部分的に該三次元骨格表現に基づいてユーザを認証させる例15に記載のシステム。
例18
該機械可読命令が更に該プロセッサに該三次元骨格表現から入手した歩行情報を記録させる例15に記載のシステム。
例19
該機械可読命令が更に該プロセッサに
該人物の手に保持された対象物を決定させ、
該人物の該三次元骨格表現から三次空間内の該人物の該手の場所を決定させる例15に記載のシステム。
例20
該プロセッサと通信可能に接続された複数のセンサを更に備え、該複数のセンサが該二次元画像を提供する例15に記載のシステム。
Claims (10)
- 人物の三次元骨格表現を生成する方法であって、
二次元画像から、前記二次元画像内に存在する人物の二次元骨格表現を生成するステップであって、前記二次元骨格表現は複数の関節と前記複数の関節の個々の関節の間の複数のリンクとを備える、ステップと、
前記複数のリンクの1つ以上のリンクの周囲にコーンを配置するステップと、
前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記コーンと交差する深さクラウドのポイントを識別するステップであって、前記深さクラウドのポイントは、深さセンサによって生成され、各ポイントが深さ情報を提供する、ステップと、
前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記コーンと交差する前記深さクラウドのポイントの深さ情報を用いて前記二次元骨格表現を三次元空間内に投影し、それによって前記人物の前記三次元骨格表現を生成するステップと、を含む方法。 - 前記二次元骨格表現を三次元空間内に投影するステップは、前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記コーンと交差する前記深さクラウドの全てのポイントの深さ情報を平均するステップを含む、請求項1に記載の方法。
- 少なくとも部分的に前記三次元骨格表現に基づいてユーザを認証するステップを更に含む、請求項1または2に記載の方法。
- 前記ユーザを認証するステップは、
前記三次元骨格表現から前記ユーザのポーズ又は歩行を入手するステップと、
複数の登録ユーザに対する複数の記憶されたポーズ又は複数の記憶された歩行を備える記憶域にアクセスするステップと、
前記ユーザの前記ポーズ又は前記歩行を前記複数の記憶されたポーズ又は前記複数の記憶された歩行の1つと照合するステップと、を含む、請求項3に記載の方法。 - 前記三次元骨格表現から歩行情報を記録するステップを更に含む、請求項1から4の何れか一項に記載の方法。
- 1つ以上のセンサから画像データを入手するステップを更に含み、前記画像データは前記二次元画像を含む、請求項1から5の何れか一項に記載の方法。
- プロセッサと、前記プロセッサによって実行されたときに、前記プロセッサに、請求項1から6の何れか一項に記載の方法を完了させる機械可読命令を備えた非一時的記憶装置とを備える、ロボット。
- アームと、前記アームの端部に配置されたエンドエフェクタとを更に含み、前記機械可読命令が更に前記プロセッサに、更に、
前記人物の手に保持された対象物を決定させ、
前記人物の前記三次元骨格表現から三次空間内の前記人物の前記手の場所を決定させる、請求項7に記載のロボット。 - 前記機械可読命令が更に前記アーム及びエンドエフェクタを前記人物の前記手の方へ移動させ前記対象物を把持させる、請求項7または8に記載のロボット。
- 前記プロセッサと通信可能に接続された複数のセンサを更に備え、前記複数のセンサが前記二次元画像を提供する、請求項7から9の何れか一項に記載のロボット。
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201762563427P | 2017-09-26 | 2017-09-26 | |
| US62/563,427 | 2017-09-26 | ||
| US15/868,374 US10607079B2 (en) | 2017-09-26 | 2018-01-11 | Systems and methods for generating three dimensional skeleton representations |
| US15/868,374 | 2018-01-11 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2019061679A true JP2019061679A (ja) | 2019-04-18 |
| JP2019061679A5 JP2019061679A5 (ja) | 2020-08-06 |
| JP6927937B2 JP6927937B2 (ja) | 2021-09-01 |
Family
ID=65807643
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018180654A Active JP6927937B2 (ja) | 2017-09-26 | 2018-09-26 | 三次元骨格表現を生成するためのシステム及び方法 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US10607079B2 (ja) |
| JP (1) | JP6927937B2 (ja) |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108491820B (zh) * | 2018-04-02 | 2022-04-12 | 京东方科技集团股份有限公司 | 图像中肢体表示信息的识别方法、装置及设备、存储介质 |
| US11288883B2 (en) * | 2019-07-23 | 2022-03-29 | Toyota Research Institute, Inc. | Autonomous task performance based on visual embeddings |
| JP7502881B2 (ja) * | 2020-03-30 | 2024-06-19 | 株式会社バンダイナムコエンターテインメント | プログラム及び仮想モデル生成制御装置 |
| CN113510707A (zh) * | 2021-07-23 | 2021-10-19 | 上海擎朗智能科技有限公司 | 一种机器人的控制方法、装置、电子设备及存储介质 |
| WO2023022709A1 (en) * | 2021-08-17 | 2023-02-23 | Innopeak Technology, Inc. | Real-time hand-held markerless human motion recording and avatar rendering in a mobile platform |
| US11553043B1 (en) * | 2022-06-16 | 2023-01-10 | Embark Trucks Inc. | Low bandwidth protocol for streaming sensor data |
| CN116460845A (zh) * | 2023-04-13 | 2023-07-21 | 华中科技大学 | 一种考虑点云骨架特征的未知物体六自由度抓取方法 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013500771A (ja) * | 2009-07-29 | 2013-01-10 | マイクロソフト コーポレーション | 視覚表示の自動生成方法及びシステム |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10037491A1 (de) * | 2000-08-01 | 2002-02-14 | Stryker Leibinger Gmbh & Co Kg | Verfahren zum dreidimensionalen Visualisieren von Strukturen im Körperinneren |
| US8114172B2 (en) * | 2004-07-30 | 2012-02-14 | Extreme Reality Ltd. | System and method for 3D space-dimension based image processing |
| US8976160B2 (en) * | 2005-03-01 | 2015-03-10 | Eyesmatch Ltd | User interface and authentication for a virtual mirror |
| US9165199B2 (en) | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
| US8542252B2 (en) * | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
| US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
| US8922547B2 (en) | 2010-12-22 | 2014-12-30 | Electronics And Telecommunications Research Institute | 3D model shape transformation method and apparatus |
| US9047507B2 (en) | 2012-05-02 | 2015-06-02 | Apple Inc. | Upper-body skeleton extraction from depth maps |
| EP2674913B1 (en) * | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
| US9275277B2 (en) | 2013-02-22 | 2016-03-01 | Kaiser Foundation Hospitals | Using a combination of 2D and 3D image data to determine hand features information |
| US9340155B2 (en) * | 2013-09-17 | 2016-05-17 | Toyota Motor Sales, U.S.A., Inc. | Interactive vehicle window display system with user identification |
| US9747717B2 (en) * | 2015-05-13 | 2017-08-29 | Intel Corporation | Iterative closest point technique based on a solution of inverse kinematics problem |
| EP3425591B1 (en) * | 2017-07-07 | 2021-01-13 | Tata Consultancy Services Limited | System and method for tracking body joints |
-
2018
- 2018-01-11 US US15/868,374 patent/US10607079B2/en not_active Expired - Fee Related
- 2018-09-26 JP JP2018180654A patent/JP6927937B2/ja active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013500771A (ja) * | 2009-07-29 | 2013-01-10 | マイクロソフト コーポレーション | 視覚表示の自動生成方法及びシステム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20190095711A1 (en) | 2019-03-28 |
| JP6927937B2 (ja) | 2021-09-01 |
| US10607079B2 (en) | 2020-03-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2019061679A (ja) | 三次元骨格表現を生成するためのシステム及び方法 | |
| JP6927938B2 (ja) | クラウドサービスシステムを組み込んだロボットシステム | |
| US10197399B2 (en) | Method for localizing a robot in a localization plane | |
| Nakauchi et al. | A social robot that stands in line | |
| KR101929451B1 (ko) | 로봇의 제어 장치 및 방법 | |
| CN109313417A (zh) | 帮助机器人定位 | |
| JP7428436B2 (ja) | 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ | |
| Beyl et al. | Time-of-flight-assisted Kinect camera-based people detection for intuitive human robot cooperation in the surgical operating room | |
| Yam-Viramontes et al. | Implementation of a natural user interface to command a drone | |
| CN107127773A (zh) | 一种机器人抓取物品的方法 | |
| Salinas et al. | Catadioptric panoramic stereovision for humanoid robots | |
| Matthies et al. | Loomorescue: An affordable rescue robot for evacuation situations | |
| Medeiros et al. | UAV target-selection: 3D pointing interface system for large-scale environment | |
| Li et al. | Development and demonstration of indoor three-dimensional localization using ir cmos sensors for mobile manipulators | |
| Dam et al. | Person following mobile robot using pedestrian dead-reckoning with inertial data of smartphones | |
| Zhang et al. | Task-Level Intelligent Human-Robot Interaction for Assisting Multi-objective Autonomous Grasping Decision with Quadruped Robots | |
| JP7196894B2 (ja) | 情報処理装置、情報処理システム及びプログラム | |
| Almer Casino et al. | Autonomous medical robot | |
| Uddin Ahamad | Omobot: a Low-cost Mobile Robot for Autonomous Search and Fall Detection | |
| Grosso | Vision and inertial data fusion for collaborative robotics | |
| Bechar et al. | Precision collaboration and advanced integration using laser systems and techniques | |
| Vij et al. | An Experience with Multi-sensor Robot for Adaptive Human Sensing | |
| Ghribi et al. | Architectural proposal for a mobile telepresence robot, REGIMTEL | |
| CN120038758A (zh) | 一种用于机器人动作模仿的方法、装置以及机器人 | |
| Zhou et al. | Revitalizing Human-Robot Interaction |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200625 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200625 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210805 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6927937 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |