[go: up one dir, main page]

HK1169735B - Non-rigid tracking-based human-machine interface - Google Patents

Non-rigid tracking-based human-machine interface Download PDF

Info

Publication number
HK1169735B
HK1169735B HK12110131.5A HK12110131A HK1169735B HK 1169735 B HK1169735 B HK 1169735B HK 12110131 A HK12110131 A HK 12110131A HK 1169735 B HK1169735 B HK 1169735B
Authority
HK
Hong Kong
Prior art keywords
interest
image
points
region
movement
Prior art date
Application number
HK12110131.5A
Other languages
English (en)
French (fr)
Chinese (zh)
Other versions
HK1169735A (en
Inventor
Livet Nicolas
Pasquier Thomas
Original Assignee
高通股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 高通股份有限公司 filed Critical 高通股份有限公司
Publication of HK1169735A publication Critical patent/HK1169735A/xx
Publication of HK1169735B publication Critical patent/HK1169735B/xx

Links

Claims (15)

  1. Ein Computerverfahren zum Detektieren von Interaktionen mit einer Softwareanwendung gemäß einer Bewegung wenigstens eines Objektes, das in dem Feld eines Bildsensors angeordnet ist, der mit einem Computer verbunden ist, der das Verfahren implementiert, wobei der Bildsensor einen Strom von Bildern an den Computer liefert, wobei das Verfahren dadurch gekennzeichnet ist, dass es die folgenden Schritte aufweist
    - Empfangen wenigstens eines ersten Bildes von dem Bildsensor;
    - Identifizieren wenigstens eines ersten Bereichs, der von Interesse ist, in dem ersten Bild, wobei der wenigstens eine erste Bereich von Interesse einem Teil des wenigstens einen ersten Bildes entspricht;
    - Empfangen wenigstens eines zweiten Bildes von dem Bildsensor;
    - Identifizieren wenigstens eines zweiten Bereichs von Interesse des wenigsten einen zweiten Bildes, wobei der wenigstens eine zweite Bereich von Interesse dem wenigstens einen ersten Bereich von Interesse des wenigstens einen ersten Bildes entspricht;
    - Vergleichen (440) der wenigstens einen ersten und zweiten Bereiche von Interesse, wobei die Differenz eine Maske von Interesse bestimmt, die eine Variation wenigstens eines Merkmals entsprechender Punkte in den wenigstens einen ersten und zweiten Bereichen von Interesse charakterisiert;
    - Bestimmen (445) einer Bewegung des wenigstens einen Objektes von der Maske von Interesse, wobei das wenigstens eine Objekt wenigstens teilweise in wenigstens einem der wenigstens einen ersten und zweiten Bereiche von Interesse dargestellt ist; und
    - Analysieren (470) der Bewegung und, ansprechend auf den Analyseschritt, Auslösen oder Nicht-Auslösen einer vorbestimmten Aktion.
  2. Verfahren nach Anspruch 1, wobei der Schritt (445) des Bestimmens einer Bewegung einen Schritt des Bestimmens und des Abgleichens wenigstens eines Paares von Punkten von Interesse in dem wenigstens einen ersten und zweiten Bild aufweist, wobei wenigstens ein Punkt des wenigstens einen Paares von Punkten von Interesse zu der Maske von Interesse gehört.
  3. Verfahren gemäß Anspruch 2, wobei der Schritt (445) des Bestimmens einer Bewegung einen Schritt des Bestimmens und Abgleichens einer Vielzahl von Paaren von Punkten von Interesse in dem wenigstens einen ersten und zweiten Bild aufweist, wobei wenigstens ein Punkt jedes der Paare von Punkten von Interesse zu der Maske von Interesse gehört, wobei die Bewegung auf der Grundlage einer Transformation eines ersten Satzes von Punkten von Interesse in einen zweiten Satz von Punkten von Interesse geschätzt wird, wobei die Punkte von Interesse der ersten und zweiten Sätze zu der Vielzahl von Paaren von Punkten von Interesse gehören, wobei die Punkte von Interesse des ersten Satzes von Punkten von Interesse weiter zu wenigstens einem ersten Bild gehören und die Punkte von Interesse des zweiten Satzes von Punkten von Interesse weiter zu dem wenigstens einen zweiten Bild gehören.
  4. Verfahren nach Anspruch 3, wobei die Transformation eine Gewichtungsfunktion basierend auf einer Distanz zwischen zwei Punkten von Interesse von dem gleichen Paar von Punkten von Interesse der Vielzahl von Paaren von Punkten von Interesse implementiert.
  5. Verfahren nach Anspruch 3 oder Anspruch 4, das weiter einen Schritt des Validierens wenigstens eines Punktes von Interesse des wenigstens einen ersten Bildes aufweist, der zu dem wenigstens einen Paar von Punkten von Interesse gehört, und zwar gemäß der bestimmten Bewegung, wobei der wenigstens eine validierte Punkt von Interesse verwendet wird zum Nachverfolgen des Objektes in wenigstens einem dritten Bild, das dem wenigstens einen zweiten Bild folgt und wobei der wenigstens eine validierte Punkt von Interesse verwendet wird zum Modifizieren einer Maske von Interesse, die auf der Grundlage des wenigstens einen zweiten und dritten Bildes erzeugt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt des Vergleichens des wenigstens einen ersten und zweiten Bereichs von Interesse einen Schritt zum Durchführen einer Subtraktion, Punkt für Punkt, von Werten von entsprechenden Punkten der wenigstens einen ersten und zweiten Bereiche von Interesse und einen Schritt des Vergleichens eines Ergebnisses der Subtraktion mit einem vorbestimmten Schwellenwert aufweist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, das weiter einen Schritt des Detektierens wenigstens eines vorbestimmten Merkmals in dem wenigstens einen ersten Bild aufweist, wobei wenigstens ein erster Bereich von Interesse wenigstens teilweise ansprechend auf den Detektionswert identifiziert wird.
  8. Verfahren nach Anspruch 7, wobei das wenigstens eine vorbestimmte Merkmal eine vorbestimmte Form und/oder eine vorbestimmte Farbe ist.
  9. Verfahren gemäß einem der vorhergehenden Ansprüche, das weiter einen Schritt des Schätzens wenigstens eines modifizierten zweiten Bereichs von Interesse in dem wenigstens einen zweiten Bild aufweist, wobei der wenigstens eine modifizierte zweite Bereich von Interesse des wenigstens einen zweiten Bildes gemäß dem wenigstens einen ersten Bereich von Interesse des wenigstens einen ersten Bildes und dem wenigstens einen zweiten Bereich von Interesse des wenigstens einen zweiten Bildes geschätzt wird.
  10. Verfahren nach Anspruch 9, wobei die Schätzung des wenigstens einen modifizierten zweiten Bereichs von Interesse des wenigstens einen zweiten Bildes einen Objekt-Tracking- bzw. -Nachverfolgungsalgorithmus vom KLT-Typ implementiert.
  11. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die Bewegung durch eine Translation, eine Rotation und/oder einen Skalierungsfaktor charakterisiert ist.
  12. Verfahren gemäß einem der Ansprüche 1 bis 10, wobei die Bewegung durch einen Skalierungsfaktor charakterisiert ist, wobei ob die vorbestimmte Aktion ausgelöst wird oder nicht auf der Grundlage des Skalierungsfaktors bestimmt wird.
  13. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bewegungen von wenigstens zwei Objekten, die in dem Feld des Bildsensors angeordnet sind, bestimmt werden, wobei ob die vorbestimmte Aktion ausgelöst wird oder nicht gemäß einer Kombination der Bewegungen, die mit den wenigstens zwei Objekten assoziiert sind, bestimmt wird.
  14. Ein Computerprogramm, das Instruktionen aufweist, die ausgelegt sind zum Durchführen jedes der Schritte des Verfahrens gemäß einem der vorhergehenden Ansprüche, wenn das Programm auf einem Computer ausgeführt wird.
  15. Eine Einrichtung, die Mittel aufweist, die ausgelegt sind für die Implementierung jedes der Schritte des Verfahrens gemäß einem der Ansprüche 1 bis 13.
HK12110131.5A 2010-11-19 2012-10-12 Non-rigid tracking-based human-machine interface HK1169735B (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1059541 2010-11-19

Publications (2)

Publication Number Publication Date
HK1169735A HK1169735A (en) 2013-02-01
HK1169735B true HK1169735B (en) 2018-04-13

Family

ID=

Similar Documents

Publication Publication Date Title
JP5967904B2 (ja) ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置
US12105887B1 (en) Gesture recognition systems
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
US20100002909A1 (en) Method and device for detecting in real time interactions between a user and an augmented reality scene
JP5243529B2 (ja) 拡張リアリティイメージのためのカメラポーズ推定装置および方法
JP2023082038A (ja) 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム
EP1960970B1 (de) Stereo-video für spiele
Jennings Robust finger tracking with multiple cameras
US8675972B2 (en) Method and device for determining the pose of a three-dimensional object in an image and method and device for creating at least one key image for object tracking
JP6744747B2 (ja) 情報処理装置およびその制御方法
JP7282216B2 (ja) 単眼スチルカメラのビデオにおけるレイヤードモーションの表現と抽出
US20160210761A1 (en) 3d reconstruction
KR20100006324A (ko) 복수 객체 추적 방법과 장치 및 저장매체
Antoshchuk et al. Gesture recognition-based human–computer interaction interface for multimedia applications
KR102660740B1 (ko) 도메인 전이학습을 통한 적외선 카메라 기반의 손 자세 추정 방법 및 시스템
HK1169735A (en) Non-rigid tracking-based human-machine interface
HK1169735B (en) Non-rigid tracking-based human-machine interface
Song et al. Real-time single camera natural user interface engine development
Rautaray et al. Single and multiple hand gesture recognition systems: a comparative analysis
CN119473011B (zh) 一种基于手势控制显示设备的方法
KR101177820B1 (ko) 마커 인식 장치
Ghosh et al. Real-time 3d markerless multiple hand detection and tracking for human computer interaction applications
Kitanovski et al. Augmented reality mirror for virtual facial alterations
CN112711324B (zh) 基于tof相机的手势交互方法及其系统
Chai et al. Homogeneity based background subtraction for robust hand pose recognition: Focusing on the digital game interface