FR2796797A1 - Dispositif et procede pour afficher une image sur un ecran selon une perspective dependant de la position d'un utilisateur - Google Patents
Dispositif et procede pour afficher une image sur un ecran selon une perspective dependant de la position d'un utilisateur Download PDFInfo
- Publication number
- FR2796797A1 FR2796797A1 FR9909691A FR9909691A FR2796797A1 FR 2796797 A1 FR2796797 A1 FR 2796797A1 FR 9909691 A FR9909691 A FR 9909691A FR 9909691 A FR9909691 A FR 9909691A FR 2796797 A1 FR2796797 A1 FR 2796797A1
- Authority
- FR
- France
- Prior art keywords
- user
- image
- screen
- determining
- variation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
La présente invention concerne un dispositif et un procédé pour afficher une image représentant un objet en trois dimensions, sur un écran selon une perspective dépendant de la position d'un utilisateur.Le dispositif comprend : - un écran prévu pour afficher ladite image; - un moyen pour détecter la position dudit utilisateur; - un moyen pour générer une image dudit objet selon une perspective qui dépend de la position de l'utilisateur de manière à ce que lorsque l'utilisateur se déplace devant l'écran, l'image de l'objet est modifiée,le moyen pour détecter la position de l'utilisateur comprenant : - au moins un système d'enregistrement prévu pour enregistrer l'image de l'utilisateur;- un moyen pour traiter l'information enregistrée de manière à déterminer la position de l'utilisateur par rapport à l'écran.
Description
DISPOSITIF ET PROCEDE POUR AFFICHER UNE IMAGE SUR UN ECRAN
SELON UNE PERSPECTIVE DEPENDANT DE LA POSITION D'UN
UTILISATEUR
La présente invention concerne un dispositif et un procédé pour afficher une image représentant un objet en trois dimensions, sur un écran selon une perspective dépendant de la position d'un utilisateur. Le brevet US 5, 367,614 décrit un système qui permet d'afficher une image en trois dimensions selon une perspective variable. La perspective varie en fonction du mouvement de la tête de l'utilisateur. Ce dispositif est utilisé pour représenter un objet de manière à ce que l'utilisateur le voit comme s'il regardait un objet de la nature et non un objet représenté sur un écran. Le système15 utilisé comprend un transmetteur d'ultrasons prévu pour être disposé sur la tête de l'utilisateur et pour émettre des ondes sonores, et un ou plusieurs récepteurs prévus pour être disposés sur l'écran et pour recevoir ces ondes. L'émetteur et le récepteur sont connectés à une interface20 prévue pour analyser les signaux et notamment pour calculer le temps entre le moment o l'onde sonore est émise et le moment o elle est reçue. Un tel dispositif peut facilement être influencé par l'environnement extérieur de l'utilisateur c'est-à-dire que le récepteur reçoit des ondes sonores qui proviennent d'autres sources sonores que de l'émetteur. De plus, un tel dispositif doit être porté par l'utilisateur ce qui n'est pas très pratique. Un objet de l'invention est un dispositif et un procédé prévus pour donner l'impression à un utilisateur qui regarde un objet en trois dimensions sur un écran de regarder un objet réel qui ne présente pas les inconvénients de la technique antérieure. L'invention concerne un dispositif pour afficher une image d'un objet selon une perspective dépendant de la 2 position d'un utilisateur regardant ladite image, le dispositif comprenant: a) un écran prévu pour afficher ladite image; b) un moyen pour détecter la position dudit utilisateur; c) un moyen pour générer une image dudit objet selon une perspective qui dépend de la position de l'utilisateur de manière à ce que lorsque l'utilisateur se déplace devant l'écran, l'image de l'objet est modifiée,10 ledit dispositif étant caractérisé en ce que le moyen pour détecter la position de l'utilisateur comprend: d) au moins un système d'enregistrement prévu pour enregistrer l'image de l'utilisateur; e) un moyen pour traiter l'information enregistrée de
manière à déterminer la position de l'utilisateur par rapport à l'écran.
L'invention concerne également un procédé pour afficher une image d'un objet selon une perspective dépendant de la position d'un utilisateur regardant ladite image, ledit20 procédé comprenant les étapes de: afficher l'image dudit objet sur un écran; - enregistrer au moins une image de l'utilisateur au moyen d'un système d'enregistrement; déterminer la variation de position de l'utilisateur par rapport à l'écran; - mettre en oeuvre un algorithme permettant de modifier l'image de l'objet affichée sur ledit écran en fonction de
la variation de position de l'utilisateur par rapport à l'écran.30 D'autres caractéristiques apparaîtront à la lecture de la description qui suit, faite en référence aux dessins
dans lesquels: - la Figure 1 représente une vue schématique d'un premier mode de réalisation du dispositif selon l'invention; - la Figure 2 représente une vue de dessus du premier mode de réalisation du dispositif de l'invention; - la Figure 3 représente une image de l'utilisateur enregistrée par le premier mode de réalisation du dispositif de l'invention; - la Figure 4 représente une vue en perspective du premier mode de réalisation du dispositif de l'invention; - la Figure 5 représente une vue schématique d'un second mode de réalisation du dispositif de l'invention; - la Figure 6 représente une vue de dessus du second mode de réalisation de l'invention; - les Figures 7a et 7b représentent des images de l'utilisateur enregistrées par le second mode de réalisation du dispositif de l'invention.15 Le dispositif de l'invention est prévu pour afficher une image d'un objet sur un écran selon une perspective qui dépend de la position de l'utilisateur qui regarde l'image. Si on se réfère aux figures 1 et 5, on peut voir schématiquement que le dispositif comprend un écran 20 sur lequel un objet est affiché. L'utilisateur 10 du dispositif se trouve en face de l'écran 20 de manière à regarder ledit objet. Afin de donner l'impression à l'utilisateur 10 qu'il regarde un objet réel, le dispositif de la présente invention se propose de modifier la perspective selon25 laquelle l'objet est affiché sur l'écran 20 en fonction de la position de l'utilisateur 10 par rapport à l'écran 20. A cet effet, le dispositif comprend un moyen 30 pour détecter la position de l'utilisateur 10 et en particulier la position du visage de l'utilisateur 10. Le moyen 30 pour30 détecter la position de l'utilisateur 10 comprend au moins un système d'enregistrement 31 prévu pour enregistrer en continu numériquement l'image du visage de l'utilisateur 10. Il s'agit par exemple d'une caméra numérique, par exemple une caméra KODAK DVC 323. Le dispositif comprend également un moyen 32 pour traiter l'information enregistrée par la caméra 31 de manière à déterminer la
4 position de l'utilisateur 10 par rapport à l'écran 20.
L'image de l'utilisateur 10 étant enregistrée en continu, le moyen 32 pour traiter l'information enregistrée permet de déterminer à tout instant la position de l'utilisateur5 10 par rapport à une position de référence. Lorsque la position est déterminée, une information est générée en fonction de laquelle un moyen 40 pour générer une image de l'objet va modifier l'image dudit objet. Le procédé de l'invention comprend les étapes suivantes. Après avoir initialisé le système on affiche l'image de l'objet sur l'écran 20. On enregistre, au moyen d'au moins un système d'enregistrement 31 une image de l'utilisateur 10. On détermine ensuite la variation de position de l'utilisateur 10 par rapport à l'écran 20. On15 met ensuite en oeuvre un algorithme permettant de modifier l'image de l'objet affichée sur l'écran 20 en fonction de la variation de position de l'utilisateur 10 par rapport à l'écran 20. Pour déterminer la variation de position de l'utilisateur 10 par rapport à l'écran 20 plusieurs modes20 de réalisation sont proposés. On peut tout d'abord déterminer les variations de position angulaires dans un
plan horizontal et/ou vertical. On peut également déterminer de façon indépendante ou en supplément, les variations de distance entre l'utilisateur 10 et l'écran25 20.
Selon un premier mode de réalisation représenté schématiquement à la figure 1, le dispositif comprend un seul système d'enregistrement 31. Il s'agit d'une caméra numérique disposée par exemple centrée au dessus de l'écran30 d'affichage 20. Il est évident que la caméra peut être placée à tout autre endroit qui permet d'enregistrer une image du visage de l'utilisateur 10. L'enregistrement du visage est effectué selon une seule direction. Pour déterminer les variations angulaires de l'utilisateur 1035 par rapport à l'écran 20, le moyen 32 pour traiter l'information utilisé est un moyen pour repérer un point caractéristique de l'utilisateur 10, de préférence de son visage. On choisira par exemple le nez, le centre entre les deux yeux, ou encore le barycentre des teintes chaire de son visage. A cet effet, on peut utiliser tout procédé de5 reconnaissance connu de l'homme du métier. Selon un mode particulier, on détermine la position de deux points correspondant aux yeux. En début d'utilisation, l'image du visage de l'utilisateur 10 enregistrée par la caméra 31 est affichée sur l'écran 20. L'utilisateur 10 est à cet instant10 invité à initialiser le système, par exemple en générant une ou plusieurs impulsions. On peut par exemple envisager que l'utilisateur 10 clique sur les deux points correspondant aux yeux. En même temps qu'il initialise le système, les deux points sont ainsi repérés dans un système15 de coordonnées attaché à l'image enregistrée par la caméra 31 (voir figure 3). On obtient ainsi deux couples (X1, Y1) et (X2, Y2). En calculant les coordonnées du couple [(Xl+X2)/2; (Y1+Y2)/2], on détermine les coordonnées du centre entre les deux yeux. On détermine ensuite l'axe d1 entre le point caractéristique du visage de l'utilisateur et le centre de la caméra 31. Une valeur a est alors attribuée à l'angle, mesuré dans un plan horizontal, entre cet axe d1 et l'axe optique de la caméra (voir figure 2). Avantageusement, une valeur D est attribuée à l'angle,25 mesuré dans un plan vertical, entre cet axe d1 et l'axe optique de la caméra(voir figure 4). Lorsque par exemple l'utilisateur bouge la tête dans un plan horizontal et/ou vertical, les coordonnées du couple [(X1+X2) /2; (Y1+Y2)/2] varient de sorte que l'angle a et/ou P varie(nt). Un30 algorithme est alors mis en oeuvre pour modifier l'image de l'objet à regarder sur l'écran 20 en fonction de la variation de l'angle a et/ou 3 de manière à faire tourner l'objet d'un certain angle, c'est-à-dire à représenter l'objet selon une perspective donnée. Avantageusement, pour35 simuler sensiblement la réalité, on prévoit de repérer deux points séparés d'une distance moyenne connue, par exemple 6 la distance entre les deux yeux. A partir de cette distance, on détermine la position de l'utilisateur sur l'axe d1. Connaissant également la position de la caméra 31 par rapport au centre de l'écran, on peut en déduire les5 angles de variations sensiblement réels de l'utilisateur par rapport à l'écran. Ainsi, on peut prévoir de faire
tourner l'objet de cette variation réelle d'angle de sorte que la réalité soit simulée. On peut également prévoir de faire bouger l'objet d'un angle deux fois plus important ou10 d'une autre proportion.
Selon ce mode de réalisation, on prévoit avantageusement de déterminer de plus les variations de distance entre l'utilisateur 10 et l'écran 20. A cet effet, on détermine deux points caractéristiques de l'image de15 l'utilisateur 10 et on repère la variation de la distance entre ces deux points, par exemple les deux yeux. On peut par exemple, lors de l'initialisation faite par l'utilisateur 10, attribuer une valeur arbitraire A à la distance entre l'utilisateur 10 et l'écran 20. En réalité20 cette valeur de référence est attribuée à la distance entre les deux yeux (X2-X1, Y2-Y1) selon notre exemple (voir figure 3). Ainsi, lorsque par exemple l'utilisateur 10 se rapproche ou s'éloigne de l'écran 20, la distance entre les deux points mesurée augmentera ou diminuera par rapport à25 la valeur de référence. En fonction de la variation de cette distance, on met en oeuvre un algorithme permettant de modifier l'objet affiché de sorte qu'il soit affiché en étant grossi ou réduit. Il est évident que toute distance entre deux points caractéristiques du visage peut être
utilisée pour repérer la variation de la distance entre l'écran 20 et l'utilisateur 10.
Selon ce mode de réalisation, lorsque l'utilisateur 10 effectue uniquement une rotation de la tête dans un plan parallèle à l'écran, l'objet n'est pas modifié. En effet,35 la distance (X2-X1, Y2-Y1) entre les deux yeux n'est pas 7 modifiée. De même les angles a et P ne sont pratiquement pas modifiés car l'ensemble de la tête n'est pas déplacé. Selon un second mode de réalisation représenté schématiquement à la figure 5, le dispositif comprend deux systèmes d'enregistrement 31. Il s'agit de deux caméras numériques disposées par exemple au dessus de l'écran 20 et orientées selon deux angles différents de manière à enregistrer deux images différentes de l'utilisateur 10. Avant d'enregistrer une image, l'utilisateur 10 est invité10 à initialiser le dispositif, par exemple en générant une impulsion. A cet instant, chaque système d'enregistrement 31 enregistre alors une image du visage de l'utilisateur 10
(voir figures 7a et 7b).
Afin de repérer les variations de position de l'utilisateur 10, le moyen 32 pour traiter l'information utilisé est par exemple un moyen pour repérer un point caractéristique de l'utilisateur 10, de préférence de son visage sur les deux enregistrements. On peut par exemple repérer les teintes chaire du visage et calculer le20 barycentre du visage. On obtient ainsi les coordonnées (X3; Y3) et (X4; Y4) du barycentre dans le système de coordonnées associé à chaque image (figures 7a et 7b)). On détermine alors les axes d2 et d3 entre chaque système d'enregistrement 31 et le barycentre des teintes chaire du25 visage de l'utilisateur 10 (voir figure 6). Connaissant la position de chaque système d'enregistrement 31 l'un par rapport à l'autre et par rapport à l'écran 20, on déduit la position exacte dans l'espace de l'intersection I entre les axes d2 et d3 par rapport au centre de l'écran. Lorsque30 l'utilisateur 10 bouge la tête dans un plan horizontal et/ou vertical, les coordonnées (X3; Y3) et (X4; Y4)du barycentre varient ce qui entraîne une variation de la position de l'intersection I entre les axes d2 et d3. Un algorithme est alors mis en oeuvre de manière à modifier35 l'image de l'objet afin de faire tourner l'objet d'un certain angle correspondant à la variation angulaire réelle 8 de l'utilisateur par rapport à l'écran de sorte que la réalité soit simulée ou encore d'une autre proportion. Selon ce mode de réalisation, la variation de la distance entre l'utilisateur et l'écran est directement déterminée par la variation de la position de l'intersection I entre les deux axes d1 et d2. Ainsi, lorsque l'utilisateur 10 se rapproche ou s'éloigne de l'écran 20, les coordonnées (X3; Y3) et (X4; Y4) du barycentre sont modifiées de sorte que l'intersection I10 n'est plus à la même distance de l'écran 20. En fonction de la variation de cette distance, une nouvelle image de
l'objet est générée de sorte que l'objet apparaisse grossi ou réduit pour l'utilisateur 10. Il est évident que tout point caractéristique du visage peut être utilisé dans ce15 mode de réalisation.
Là encore, lorsque l'utilisateur 10 effectue uniquement une rotation de la tête dans un plan parallèle à l'écran, l'objet n'est pas modifié. En effet, le barycentre des teintes chaire ne varie pas.20 Le dispositif qui vient d'être décrit est par exemple utilisé sur une borne interactive qui permet de donner
l'illusion à l'utilisateur de regarder des objets réels qui sont en fait des objets affichés sur un écran. Ce dispositif peut également être utilisé pour de la25 simulation, par exemple de la simulation de vol ou de toute autre activité.
Claims (8)
1 - Dispositif pour afficher une image d'un objet selon une perspective dépendant de la position d'un utilisateur (10) regardant ladite image, le dispositif comprenant: a) un écran (20) prévu pour afficher ladite image; b) un moyen (30) pour détecter la position dudit utilisateur (10); c) un moyen (40) pour générer une image dudit objet selon une perspective qui dépend de la position de l'utilisateur (10) de manière à ce que lorsque l'utilisateur (10) se déplace devant l'écran (20)., l'image de l'objet est modifiée; ledit dispositif étant caractérisé en ce que le moyen (30) pour détecter la position de l'utilisateur (10) comprend: d) au moins un système d'enregistrement (31) prévu pour enregistrer l'image de l'utilisateur (10); e) un moyen (32) pour traiter l'information enregistrée de manière à déterminer la variation de position de l'utilisateur (10) par rapport à l'écran (20).
2 - Dispositif selon la revendication 1 dans lequel le système d'enregistrement (31) est une caméra
numérique.
3 - Dispositif selon la revendication 1 ou 2 qui comprend un unique système d'enregistrement (31), le moyen (32) pour traiter l'information enregistrée étant un moyen pour déterminer la position d'au moins deux
points particuliers de l'image de l'utilisateur (10).
4 - Dispositif selon la revendication 1 ou 2 qui comprend deux systèmes d'enregistrement (31) qui enregistrent l'image de l'utilisateur (10) selon des angles différents.
5 - Procédé pour afficher une image d'un objet selon une perspective dépendant de la position d'un utilisateur (10) regardant ladite image, ledit procédé comprenant les étapes de: - afficher l'image dudit objet sur un écran (20); - enregistrer au moins une image de l'utilisateur (10) au moyen d'un système d'enregistrement (31); déterminer la variation de position de l'utilisateur (10) par rapport à l'écran (20); - mettre en oeuvre un algorithme permettant de modifier l'image de l'objet affichée sur ledit écran (20) en fonction de la variation de position de
l'utilisateur (10) par rapport à l'écran (20).
6 - Procédé selon la revendication 5 dans lequel l'étape de détermination de variation de position de l'utilisateur (10) comprend: - la détermination d'un axe entre ledit écran (20) et un point caractéristique de l'image de l'utilisateur (10); - la détermination des variations angulaires dudit axe; la mise en oeuvre de l'algorithme permettant de modifier l'image de l'objet affichée sur ledit écran
(20) dépendant des variations angulaires dudit axe.
7 - Procédé selon la revendication 5 ou 6 dans lequel l'étape de détermination de variation de position de l'utilisateur (10) comprend: la détermination de deux points caractéristiques de l'image de l'utilisateur (10); - la détermination des variations de la distance entre lesdits deux points caractéristiques de l'image de l'utilisateur (10); la mise en oeuvre de l'algorithme permettant de modifier l'image de l'objet affichée sur ledit écran (20) dépendant des variations de la distance entre
lesdits deux points caractéristiques.
8 - Procédé selon la revendication 5 ou 6 dans lequel on enregistre deux images de l'utilisateur (10) au moyen de deux systèmes d'enregistrement (31), procédé dans lequel l'étape de détermination de variation de position de l'utilisateur (10) comprend: - la détermination de l'intersection des axes entre chaque système d'enregistrement (31) et un point caractéristique de l'utilisateur (10); - la détermination des variations de la position de l'intersection desdits axes; la mise en oeuvre de l'algorithme permettant de modifier l'image de l'objet affichée sur ledit écran (20) dépendant des variations de la position de
l'intersection desdits axes.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR9909691A FR2796797B1 (fr) | 1999-07-22 | 1999-07-22 | Dispositif et procede pour afficher une image sur un ecran selon une perspective dependant de la position d'un utilisateur |
| EP00420147A EP1071045A1 (fr) | 1999-07-22 | 2000-07-04 | Appareil et procédé pour afficher une image sur un écran selon une perspective dépendant de la position de l'utilisateur |
| JP2000218800A JP2001103517A (ja) | 1999-07-22 | 2000-07-19 | 画像表示装置および画像表示方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR9909691A FR2796797B1 (fr) | 1999-07-22 | 1999-07-22 | Dispositif et procede pour afficher une image sur un ecran selon une perspective dependant de la position d'un utilisateur |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| FR2796797A1 true FR2796797A1 (fr) | 2001-01-26 |
| FR2796797B1 FR2796797B1 (fr) | 2001-09-07 |
Family
ID=9548529
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR9909691A Expired - Fee Related FR2796797B1 (fr) | 1999-07-22 | 1999-07-22 | Dispositif et procede pour afficher une image sur un ecran selon une perspective dependant de la position d'un utilisateur |
Country Status (3)
| Country | Link |
|---|---|
| EP (1) | EP1071045A1 (fr) |
| JP (1) | JP2001103517A (fr) |
| FR (1) | FR2796797B1 (fr) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10116867B2 (en) | 2015-05-29 | 2018-10-30 | Thomson Licensing | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1325472A1 (fr) | 2000-09-27 | 2003-07-09 | Koninklijke Philips Electronics N.V. | Procede et appareil produisant une image devant etre affichee sur un ecran |
| DE10134488A1 (de) * | 2001-06-13 | 2003-01-09 | Square Vision Ag | Verfahren und Vorrichtung zur Projektion einer digital gespeicherten 3D-Szene auf mehreren, im Winkel zueinander angeordneten Projektionsflächen |
| US8193912B1 (en) * | 2008-03-13 | 2012-06-05 | Impinj, Inc. | RFID tag dynamically adjusting clock frequency |
| US9064196B1 (en) | 2008-03-13 | 2015-06-23 | Impinj, Inc. | RFID tag dynamically adjusting clock frequency |
| KR101493748B1 (ko) * | 2008-06-16 | 2015-03-02 | 삼성전자주식회사 | 물품 제공장치, 디스플레이 장치 및 이를 이용한 gui제공방법 |
| JP4831223B2 (ja) * | 2009-09-29 | 2011-12-07 | カシオ計算機株式会社 | 画像表示装置及び方法並びにプログラム |
| JP5448739B2 (ja) * | 2009-11-18 | 2014-03-19 | 富士フイルム株式会社 | 画像再生装置、撮像装置、画像再生方法 |
| US20150241962A1 (en) * | 2012-10-22 | 2015-08-27 | Vid Scale, Inc. | User presence detection in mobile devices |
| US10045050B2 (en) | 2014-04-25 | 2018-08-07 | Vid Scale, Inc. | Perceptual preprocessing filter for viewing-conditions-aware video coding |
| CN119865599A (zh) * | 2024-12-03 | 2025-04-22 | 江门市思域科技有限公司 | 三维图像的显示方法、装置、设备以及介质 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1996022660A1 (fr) * | 1995-01-20 | 1996-07-25 | Reveo, Inc. | Systeme intelligent et procede associe de creation et presentation d'images stereo multiplexees dans des environnements de realite virtuelle |
| US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
-
1999
- 1999-07-22 FR FR9909691A patent/FR2796797B1/fr not_active Expired - Fee Related
-
2000
- 2000-07-04 EP EP00420147A patent/EP1071045A1/fr not_active Withdrawn
- 2000-07-19 JP JP2000218800A patent/JP2001103517A/ja active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
| WO1996022660A1 (fr) * | 1995-01-20 | 1996-07-25 | Reveo, Inc. | Systeme intelligent et procede associe de creation et presentation d'images stereo multiplexees dans des environnements de realite virtuelle |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10116867B2 (en) | 2015-05-29 | 2018-10-30 | Thomson Licensing | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product |
Also Published As
| Publication number | Publication date |
|---|---|
| FR2796797B1 (fr) | 2001-09-07 |
| JP2001103517A (ja) | 2001-04-13 |
| EP1071045A1 (fr) | 2001-01-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CA2859900C (fr) | Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere | |
| US8982363B2 (en) | Method and apparatus to determine depth information for a scene of interest | |
| EP2237231B1 (fr) | Dispositif permettant la détermination en temps réel de données de position et d'orientation du dispositif dans une scène réelle | |
| FR2796797A1 (fr) | Dispositif et procede pour afficher une image sur un ecran selon une perspective dependant de la position d'un utilisateur | |
| WO2007090945A1 (fr) | Procede pour suivre la position de la tete en temps reel dans un flux d'images video | |
| FR3011952A1 (fr) | Procede d'interaction par le regard et dispositif associe | |
| FR2769449A1 (fr) | Systeme de prise de vues et de reproduction stereoscopique | |
| WO2005017602A2 (fr) | Systeme de visualisation d'images en relief | |
| EP3752849A1 (fr) | Systeme de signalement de depassement d'un seuil d'intensite sonore | |
| EP3698554B1 (fr) | Systeme d'imagerie de sources acoustiques environnementales | |
| EP0577491B1 (fr) | Procédé et dispositif de surveillance d'une scène tridimensionnelle, mettant en oeuvre des capteurs d'imagerie | |
| EP3070643B1 (fr) | Procédé et système de reconnaissance d'objets par analyse de signaux d'image numérique d'une scène | |
| EP2577225B1 (fr) | Dispositif et procede de determination d'une information de profondeur a partir d'un capteur optique susceptible d'etre en deplacement | |
| CA2914360A1 (fr) | Systemes de reperage de la position de la camera de tournage pour le tournage de films video | |
| EP3602253B1 (fr) | Système de transparence pour caméra banalisée | |
| EP4439478A1 (fr) | Procédé de suivi d'objets multiples | |
| EP0604245B1 (fr) | Procédé de détection d'apparition d'objets ponctuels dans une image | |
| EP0958510B1 (fr) | Methode de detection d'une discontinuite geologique presente dans un milieu par utilisation du flux optique | |
| FR3104743A1 (fr) | Dispositif d’affichage portatif de contenu 3D, système et procédé correspondants. | |
| FR3032053A1 (fr) | Procede d'affichage d'au moins une fenetre d'une scene tridimensionnelle, produit programme d'ordinateur et systeme d'affichage associes | |
| WO2005059780A1 (fr) | Dispositif et procedee de visualisation sur ecran video | |
| FR3132585A1 (fr) | Procédé de détection d’interactions entre plusieurs éléments d’intérêt | |
| FR2890515A1 (fr) | Systeme et procede de traitement d'images par annulation d'echo video | |
| FR2805056A1 (fr) | Systeme de presentation visuelle d'un espace virtuel a trois dimensions | |
| FR3043295A1 (fr) | Dispositif de realite augmentee spatiale pour un environnement de bureau |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| ST | Notification of lapse |
Effective date: 20090331 |