WO2023248381A1 - 映像表示システム、映像制御方法、及び映像制御プログラム - Google Patents
映像表示システム、映像制御方法、及び映像制御プログラム Download PDFInfo
- Publication number
- WO2023248381A1 WO2023248381A1 PCT/JP2022/024904 JP2022024904W WO2023248381A1 WO 2023248381 A1 WO2023248381 A1 WO 2023248381A1 JP 2022024904 W JP2022024904 W JP 2022024904W WO 2023248381 A1 WO2023248381 A1 WO 2023248381A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- gesture
- video
- aerial
- display
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/56—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/346—Image reproducers using prisms or semi-transparent mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Definitions
- the present disclosure relates to a video display system, a video control method, and a video control program.
- the above device has a problem in that the imaging position of the aerial image may not be an appropriate position for the observer (that is, the user of the device).
- the present disclosure aims to display aerial images at a display position appropriate for the user.
- the video display system of the present disclosure includes an aerial video display unit that displays an aerial video as a real image within a predetermined displayable area in a three-dimensional space, and detects a user in the vicinity of the displayable area and provides detected information.
- a sensor unit that outputs a
- the apparatus is characterized by comprising a control section that controls the aerial image display section so that an image is displayed.
- Another video display system of the present disclosure includes an aerial video display unit that displays an aerial video as a real image within a predetermined displayable area in a three-dimensional space, and detects a user near the displayable area.
- a sensor unit that outputs detection information; and a sensor unit that determines a gesture including at least one of a movement and a posture of a body part of the user based on the detection information, and a display position of the aerial image within the displayable area where the gesture is determined; control for controlling the aerial video display unit so that the aerial video is displayed at a designated display position that is the display position designated by the position designation gesture when the gesture is a predetermined position designation gesture that designates the position designation gesture; It is characterized by having a part.
- aerial images can be displayed at a display position appropriate for the user.
- FIG. 1 is a diagram schematically showing the configuration of a video display system according to Embodiment 1.
- FIG. 1 is a diagram showing an example of a usage state of the video display system according to Embodiment 1.
- FIG. (A) and (B) are diagrams illustrating examples of designated display positions that are display positions of aerial images designated by a user.
- 1 is a block diagram schematically showing the configuration of a control unit of the video display system according to Embodiment 1.
- FIG. 1 is a diagram showing an example of a hardware configuration of a video display system according to Embodiment 1.
- FIG. 3 is a flowchart showing the operation of the control unit of the video display system according to the first embodiment.
- 2 is a diagram schematically showing the configuration of a video display system according to a modification of the first embodiment.
- FIG. 2 is a block diagram schematically showing the configuration of a control unit of a video display system according to a modification of the first embodiment.
- FIG. 7 is a flowchart showing the operation of the control unit of the video display system according to a modification of the first embodiment.
- 2 is a diagram schematically showing the configuration of a video display system according to a second embodiment.
- FIG. 2 is a block diagram schematically showing the configuration of a control unit of a video display system according to a second embodiment.
- 7 is a flowchart showing the operation of the control unit of the video display system according to the second embodiment.
- 3 is a diagram schematically showing the configuration of a video display system according to a modification of the second embodiment.
- FIG. 7 is a flowchart showing the operation of the control unit of the video display system according to a modification of the second embodiment.
- (A) and (B) are diagrams showing the configuration and operation of a video display system according to a third embodiment.
- 7 is a flowchart showing the operation of the control unit of the video display system according to Embodiment 3.
- (A) and (B) are diagrams showing examples of size designation gestures in the video display system according to the fourth embodiment.
- (A) and (B) are diagrams showing examples of size designation gestures in a video display system according to a modification of the fourth embodiment.
- 7 is a flowchart showing the operation of the control unit of the video display system according to the fourth embodiment.
- the aerial image display unit 10 displays one or more aerial images (for example, aerial images 71, 72, etc.) within a predetermined displayable area 70 in a three-dimensional space.
- the aerial image display unit 10 includes a display unit 11 as a display device that displays images, and a real image optical system 12 that forms images displayed on the display unit 11 as aerial images 71 and 72 in a displayable area 70. have.
- the display unit 11 is, for example, a liquid crystal display or an LED (Light Emitting Diode) display, and displays video based on input video data (eg, video content).
- the real image optical system 12 includes a beam splitter 13, which is an optical member that reflects and transmits incident light, and a retroreflective sheet 14, which is a retroreflective member that retroreflects the light reflected by the beam splitter 13.
- the light retroreflected by the retroreflective sheet 14 travels in the opposite direction to the traveling direction of the light incident on the retroreflective sheet 14, passes through the beam splitter 13, and forms an image within the displayable area 70.
- the beam splitter 13 may be any optical member that can reflect and transmit light and separate the beams, and may be a half mirror, a glass plate, etc., for example.
- the retroreflective sheet 14 may be, for example, an encapsulated lens-type reflective sheet formed by embedding the lower halves of a large number of transparent micro glass beads (i.e., microbeads) in a reflective film, or a large number of transparent microprisms. This is a microprism type reflective sheet embedded in a film.
- the sensor unit 20 includes, for example, a camera as an imaging device or a detector that detects an object.
- the camera of the sensor unit 20 include an infrared camera, an infrared line sensor, a stereo camera, and a visible light camera.
- a specific example of the detector is a distance measuring sensor such as LiDAR using light, millimeter wave radar using radio waves, or sonar using sound. Note that the detector can detect the distance to the object and the shape of the object.
- the sensor unit 20 detects one or more users (for example, users 81 and 82) near the displayable area 70 and outputs detection information (for example, a video signal, a detection signal).
- the control unit 30 determines a gesture that includes at least one of the movement and posture of the body parts of the users 81 and 82 based on the detection information, and specifies the display position of the aerial images 71 and 72 within the region 70 in which the gesture can be displayed.
- the gesture is a predetermined position specifying gesture
- the aerial image display section 10 is controlled so that the aerial images 71 and 72 are displayed at the specified display position, which is the display position specified by the position specifying gesture.
- the control unit 30 controls the control unit 30 of the aerial image display unit 10 so that the aerial images 71 and 72 are displayed at the display position specified by the position specifying gesture.
- the control unit 30 sets video data to be displayed on the display unit 11 (for example, selects video content from a database) in order to display the aerial images 71 and 72 at designated display positions within the displayable area 70.
- the control unit 30 is configured such that the gesture includes a first gesture by a user 81 as a first user and a second gesture by a user 82 as a second user, and both the first gesture and the second gesture are When it is determined that the gesture is a position specifying gesture that specifies the display position of the aerial images 71 and 72 within the displayable area 70, the first display position specified by the first gesture and the position specified by the second gesture are determined.
- the aerial image display section 10 is controlled so that the aerial images 71 and 72 are displayed at the second display position, respectively.
- the control unit 30 sets video data to be displayed on the display unit 11 in order to display the aerial images 71 and 72 at designated display positions within the displayable area 70.
- the control unit 30 detects the skeletons of the users 81 and 82 based on the detection information, and determines whether the skeletons for determining the display position designated by the position designation gesture are in a predetermined state based on the state of the skeletons. Based on this, the display position specified by the position specifying gesture may be determined.
- control unit 30 defines a state in which the users 81 and 82 extend their first fingers in a first direction and extend their second fingers in a second direction intersecting the first direction as a position specifying gesture. Then, control may be performed to display the aerial images 71 and 72 at designated display positions designated by the first finger and the second finger.
- the first finger and the second finger are the index finger and the thumb, and the intersecting angle is about 90 degrees.
- the control unit 30 determines that the facial expressions are position specifying gestures, and displays the specified position specified by the facial expressions. Control may be performed to display the aerial images 71 and 72 at the positions. Facial expressions that can be used as gestures include, for example, opening and closing of the mouth, the shape of the mouth, blinking, winking of the eyes, facial expressions, and the line of sight of the eyes.
- FIG. 2 is a diagram showing an example of how the video display system 1 is used.
- FIGS. 3A and 3B are diagrams showing examples of designated display positions, which are display positions of the aerial video 71 designated by the user 81.
- users 81 and 82 extend their index fingers in the vertical direction (height direction in FIG. 2) as a first direction, and extend their other fingers, or thumbs, in a second direction that intersects with the first direction.
- the movement of stretching in the lateral direction (horizontal direction in FIG. 2) is regarded as a position specifying gesture.
- aerial images 71 and 72 are displayed in each of rectangular areas having a vertical side approximately parallel to the index finger and a horizontal side approximately parallel to the thumb. Therefore, the user 81 can move the aerial images 71 and 72 as shown in FIGS. 3A and 3B by changing the position of the position specifying gesture made with the index finger and thumb.
- FIG. 5 is a diagram showing an example of the hardware configuration of the video display system 1 according to the first embodiment.
- the video display system 1 includes a display section 11, a sensor section 20, and a control section 30.
- the control unit 30 is, for example, a computer that can execute the display control program according to the first embodiment.
- the control unit 30 includes a processor 101, a memory 102, and a storage device 103.
- the processor 101 is a CPU (Central Processing Unit) or the like.
- the memory 102 is, for example, a volatile semiconductor memory such as RAM (Random Access Memory).
- the storage device 103 is a nonvolatile storage device such as a hard disk drive (HDD) or a solid state drive (SSD).
- the control unit 30 may include a communication unit that communicates with other devices via a network, and an operation unit such as a keyboard that is an input interface.
- the display control program according to the first embodiment is realized by software, firmware, or a combination of software and firmware.
- Software and firmware are written as programs and stored in memory 102.
- the processor 101 can realize the functions of each section shown in FIG. 4 by reading and executing the display control program stored in the memory 102.
- the control unit 30 may be partially implemented using dedicated hardware and partially implemented using software or firmware. In this way, the processing circuit can implement the functions of each functional block shown in FIG. 1 using hardware, software, firmware, or any combination thereof.
- FIG. 6 is a flowchart showing the operation of the control unit 30 of the video display system 1 according to the first embodiment.
- the control unit 30 receives detection information from the sensor unit 20 (step S11), detects the three-dimensional positions of the body parts of the users 81 and 82 (step S12), and determines the visible area of the users 81 and 82. (Step S13).
- the control unit 30 sets video data (for example, video content) (step S14), determines a gesture based on the detection information (for example, video data) received from the sensor unit 20 (step S15), and displays an aerial video.
- the unit 10 displays the aerial images 71 and 72 at the designated display position, which is the display position indicated by the gesture (step S16).
- FIG. 7 is a diagram schematically showing the configuration of a video display system 1a according to a modification of the first embodiment.
- the video display system 1a determines the display positions of the aerial images 71, 72 based on the positions and postures of the users 81, 82. This is different from the video display system 1 of FIG.
- the three-dimensional positions of the eyes or faces of the users 81 and 82 are examples of the positions and orientations of the users 81 and 82, and the positions and orientations of the users 81 and 82 are determined based on the states of body parts other than the eyes or faces. Good too.
- the user position/orientation determination unit 34a of the control unit 30a determines the three-dimensional positions of the eyes or faces of the users 81, 82, and determines the display positions of the aerial images 71, 72 based on the positions and orientations of the eyes or faces. , controls the aerial image display section 10 so that the aerial images 71 and 72 are displayed at the display position.
- the control unit 30a may include both the user position and orientation determination unit 34a and the gesture determination unit 34.
- the control unit 30a sets video data (for example, video content) (step S14a), determines the position and orientation of the users 81 and 82 based on the detection information (step S15a), and determines the position and orientation of the users 81 and 82 according to the position and orientation of the users 81 and 82.
- Aerial images 71 and 72 are displayed in the area (step S16a).
- the user 81 and 82 can , 82 can display the aerial images 71 and 72 at appropriate display positions.
- the video display system 1a can display the aerial videos 71 and 72 at positions suitable for each of the users 81 and 82 in accordance with each person.
- the video display system 1a extracts people in a specific position from a crowd, and displays an aerial image 71 on a specific screen at a position suitable for each extracted person. 72 can be displayed.
- FIG. 10 is a diagram schematically showing the configuration of a video display system 2 according to the second embodiment.
- the sensor section 20 includes a camera that photographs the user 81 and a target 90 to be displayed as an aerial video 71 and outputs video data.
- the object 90 may be something other than an object, and may be, for example, an image displayed on a monitor (which may include a moving image) or information about a character string displayed on a monitor. That is, the object 90 is not limited to an actual object.
- control unit 40 determines that the gesture is a target specifying gesture that is a predetermined gesture that specifies the target 90 to be displayed at the display position of the aerial image 71
- the control unit 40 controls the target 90 specified by the target specifying gesture.
- the aerial image display unit 10 is controlled so that the image is displayed as an aerial image 71 at the display position.
- the target designation gesture is a gesture in which the user 81 points at a target 90 with a finger.
- an aerial image of the object 90 is displayed in front of the user 81 (for example, at the display position in the first embodiment). 71 can be displayed.
- the control unit 40 determines that an object intersecting the vector F in the direction pointed by the user's 81 finger is the object 90 to be displayed.
- the object 90 is an object that actually exists, an object displayed on a large screen, or the like.
- FIG. 11 is a block diagram schematically showing the configuration of the control unit 40 of the video display system 2 according to the second embodiment.
- the gesture determination unit 34b determines the target 90 that the user 81 points to with a finger as a body part
- the video data control unit 33 extracts video data of the target 90 from a database of pre-photographed video or from the sensor unit 20.
- the video data being photographed is acquired, processed into a video format to be displayed at the display position, and provided to the display control unit 35.
- FIG. 13 is a diagram schematically showing the configuration of a video display system 2a according to a modification of the second embodiment.
- the video display system 2a further includes a camera 21 that photographs an object 90 to be displayed as an aerial image 71 and outputs video data of the object 90.
- the control unit 40 causes the image of the object 90 specified by the object specifying gesture to be displayed in the aerial image at the display position.
- the aerial image display section 10 is controlled so that the image is displayed as 71.
- FIG. 14 is a flowchart showing the operation of the control unit of the video display system 2a according to a modification of the second embodiment.
- steps that are the same as or correspond to the steps shown in FIG. 12 are given the same reference numerals as in FIG.
- the video display system 2a is different from the video display system 2 in that the video captured by the camera 21 is displayed as an aerial video 71 at the display position.
- the aerial image 71 of the target 90 indicated by the finger can be displayed at a display position appropriate for the user 81.
- objects 90 that are far away, objects 90 that are in high positions that are difficult to reach, objects 90 in images displayed on a large screen, etc. can be displayed near the user 81 as aerial images 71. .
- an operation may be performed to control the aerial video display unit 10 so that the aerial video 71 is displayed at a designated display position that is a display position designated by a position designation gesture.
- the display position based on the position specifying gesture may be specified before or after the target specifying gesture. Further, the position specifying gesture may be another gesture as described in the first embodiment.
- FIGS. 15A and 15B are diagrams showing the configuration and operation of the video display system 3 according to the third embodiment.
- FIG. 15(A) shows how an aerial image 71 is displayed at a display position a distance L1 away from the aerial image display section 10a
- FIG. 15(B) shows a state where an aerial image 71 is displayed at a distance L2 (L2 ⁇ L1 ) shows how an aerial image 71 is displayed at a distant display position.
- the video display system 3 includes a sensor section 20, an aerial video display section 10a, and a control section 30.
- the aerial image display section 10a includes a first display section 11a that displays a first image, a second display section 11b that displays a second image, and a real image of the first image or the second image. It has a real image optical system 12 that displays an aerial image 71. The distance from the first display section 11a to the real image optical system 12 is longer than the distance from the second display section 11b to the real image optical system 12.
- FIG. 16 is a flowchart showing the operation of the control unit of the video display system 3 according to the third embodiment.
- steps S31 to S34 are the same as steps S11 to S14 shown in FIG. 12.
- the video display system 3 moves the displayable area 70 to the position specified by the gesture, and displays an aerial image within the displayable area 70. is displayed (step S36).
- first display section 11a and the second display section 11b are shown as two display devices in FIGS. It can be replaced by a moving mechanism (not shown) that moves this display device.
- the moving mechanism can move the display device closer to the real image optical system 12 or move it farther away from the display device.
- the display device is placed in the first position shown as "first display part 11a" in FIG. 15(A) and in the first position shown as "second display part 11b" in FIG. 15(B). By moving to either position, the position of the aerial image in the depth direction is changed.
- FIGS. 17A and 17B are diagrams showing examples of size designation gestures in the video display system according to the fourth embodiment.
- FIG. 17(A) shows an example of a size specifying gesture in which the user 81 narrows the distance between two fingers to reduce the display area of the aerial image 71
- FIG. An example of a size designation gesture is shown in which the display area of the aerial image 71 is enlarged by widening the distance between the fingers.
- FIGS. 18A and 18B are diagrams showing examples of size designation gestures in a video display system according to a modification of the fourth embodiment.
- FIG. 18(A) shows an example of a size specifying gesture in which the user 81 brings a finger, which is an example of a body part, closer to the display area to reduce the display area of the aerial image 71.
- 81 shows an example of a size designation gesture that enlarges the display area of the aerial image 71 by moving the finger away from the display area.
- the configuration of the video display system according to the modification of Embodiment 4 is the same as the configuration of the video display system of any of Embodiments 1 to 3 above.
- the control unit of the fourth embodiment displays the aerial video 71 in the size specified by the size designation gesture.
- the aerial image display section 10 is controlled so that the following is displayed. Note that although the user 81 performs gestures using the fingers of his hands, he may perform similar operations using body parts other than his fingers (for example, both arms, both legs, arms and fingers, etc.).
- the aerial image 71 of the target 90 indicated by the finger can be displayed in a desired size at a display position suitable for the user 81.
- video display systems according to the first to fourth embodiments can also be used as display devices for automobile equipment.
- 1, 1a, 2, 2a, 3 video display system 10, 10a aerial video display section, 11 display section, 11a first display section, 11b second display section, 12 real image optical system, 13 beam splitter, 14 recursion Reflective sheet (retroreflective member), 20 sensor unit, 21 camera, 30, 30a, 40 control unit, 31 three-dimensional position detection unit, 32 visible area determination unit, 33 video data control unit, 34, 34b gesture determination unit, 34a User position/orientation determination unit, 35 Display control unit, 70 Displayable area, 71, 72 Aerial image, 81, 82 User, 81a Hand, 90 Target.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
図1は、実施の形態1に係る映像表示システム1の構成を概略的に示す図である。図1に示されるように、映像表示システム1は、実像を空中映像71、72として表示する(すなわち、投影する)映像表示装置としての空中映像表示部10と、センサ部20と、空中映像表示部10の動作を制御する制御装置としての制御部30とを有している。
図10は、実施の形態2に係る映像表示システム2の構成を概略的に示す図である。実施の形態2に係る映像表示システム2では、センサ部20は、ユーザ81と、空中映像71として表示させる対象90とを撮影して映像データを出力するカメラを有している。対象90は、物以外であってもよく、例えば、モニターに映っている映像(動画像を含んでもよい)又はモニターに映っている文字列の情報などでもよい。すなわち、対象90は、実在する物に限定されない。制御部40は、ジェスチャが空中映像71の表示位置に表示させるべき対象90を指定する予め定められたジェスチャである対象指定ジェスチャであると判別された場合に、対象指定ジェスチャによって指定された対象90の映像が表示位置に空中映像71として表示されるように空中映像表示部10を制御する。
図15(A)及び(B)は、実施の形態3に係る映像表示システム3の構成及び動作を示す図である。図15(A)は、空中映像表示部10aから距離L1離れた表示位置に、空中映像71を表示する様子を示し、図15(B)は、空中映像表示部10aから距離L2(L2<L1)離れた表示位置に、空中映像71を表示する様子を示している。
図17(A)及び(B)は、実施の形態4に係る映像表示システムにおけるサイズ指定ジェスチャの例を示す図である。図17(A)は、ユーザ81が2本の指の間隔を狭めることで、空中映像71の表示領域を小さくするサイズ指定ジェスチャの例を示し、図17(B)は、ユーザ81が2本の指の間隔を広げることで、空中映像71の表示領域を大きくするサイズ指定ジェスチャの例を示す。
上記実施の形態1から4に係る映像表示システムは、多数の人が使用する非接触式の操作盤、ユーザ操作によって表示内容を切り替える機能を備えたデジタルサイネージ、などに適用可能である。
Claims (25)
- 三次元空間上の予め定められた表示可能領域内に実像である空中映像を表示する空中映像表示部と、
前記表示可能領域の近傍のユーザを検出して検出情報を出力するセンサ部と、
前記検出情報に基づいて前記ユーザの身体部位の三次元位置の判別を行い、前記判別の結果に基づいて前記空中映像の表示位置を決定し、前記表示位置に前記空中映像が表示されるように前記空中映像表示部を制御する制御部と、
を有することを特徴とする映像表示システム。 - 前記制御部は、
前記身体部位として前記ユーザの顔又は目の三次元位置の判別を行い、
前記顔の位置及び向き又は前記目の位置及び視線に基づいて前記空中映像の前記表示位置を決定し、
前記表示位置に前記空中映像が表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項1に記載の映像表示システム。 - 前記制御部は、
前記判別の結果に基づいて決定された前記表示位置に前記空中映像を表示させた後に、前記検出情報に基づいて前記ユーザの身体部位の動き及び姿勢の少なくともいずれかを含むジェスチャを判別し、
前記ジェスチャが前記表示可能領域内における前記空中映像の前記表示位置を指定する予め定められた位置指定ジェスチャである場合に、前記位置指定ジェスチャによって指定された前記表示位置である指定表示位置に前記空中映像が表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項1又は2に記載の映像表示システム。 - 三次元空間上の予め定められた表示可能領域内に実像である空中映像を表示する空中映像表示部と、
前記表示可能領域の近傍のユーザを検出して検出情報を出力するセンサ部と、
前記検出情報に基づいて前記ユーザの身体部位の動き及び姿勢の少なくともいずれかを含むジェスチャを判別し、前記ジェスチャが前記表示可能領域内における前記空中映像の表示位置を指定する予め定められた位置指定ジェスチャである場合に、前記位置指定ジェスチャによって指定された前記表示位置である指定表示位置に前記空中映像が表示されるように前記空中映像表示部を制御する制御部と、
を有することを特徴とする映像表示システム。 - 前記制御部は、前記表示可能領域内において前記位置指定ジェスチャに応じて前記表示位置を変更する
ことを特徴とする請求項3又は4に記載の映像表示システム。 - 前記制御部は、前記ジェスチャが第1のユーザによる第1のジェスチャと第2のユーザによる第2のジェスチャとを含み、前記第1のジェスチャと前記第2のジェスチャの両方が前記表示可能領域内における前記空中映像の前記表示位置を指定する位置指定ジェスチャであると判断した場合に、前記第1のジェスチャによって指定された第1の表示位置と前記第2のジェスチャによって指定された第2の表示位置との各々に前記空中映像が表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項3又は4に記載の映像表示システム。 - 前記制御部は、前記表示可能領域内において前記位置指定ジェスチャに応じて前記第1の表示位置及び前記第2の表示位置を変更する
ことを特徴とする請求項6に記載の映像表示システム。 - 前記制御部は、前記検出情報に基づいて前記ユーザの骨格の状態を検出し、前記骨格の状態に基づいて前記位置指定ジェスチャで指定される前記表示位置を決定する
ことを特徴とする請求項3から7のいずれか1項に記載の映像表示システム。 - 前記制御部は、
前記ユーザのジェスチャとして手の第1の指を第1の方向に伸ばすとともに第2の指を前記第1の方向に交差する第2の方向に伸ばした状態を前記位置指定ジェスチャと判断し、
前記第1の指と前記第2の指とで指定された前記指定表示位置に前記空中映像を表示させる
ことを特徴とする請求項3から7のいずれか1項に記載の映像表示システム。 - 前記制御部は、前記ユーザの顔の表情が予め定められた表情である場合に前記顔の前記表情を前記位置指定ジェスチャと判断し、
前記表情で指定された前記指定表示位置に前記空中映像を表示させる
ことを特徴とする請求項3から7のいずれか1項に記載の映像表示システム。 - 前記センサ部は、少なくとも対象を撮影して映像データを出力するカメラを有し、
前記制御部は、
前記検出情報又は前記カメラで前記ユーザを撮影した場合の前記映像に基づいて前記ユーザの身体部位の動き及び姿勢の少なくともいずれかを含むジェスチャを判別し、
前記ジェスチャが前記表示位置に表示させる前記対象を指定する対象指定ジェスチャであると判別された場合に、前記対象指定ジェスチャによって指定された前記対象の映像が前記表示位置に前記空中映像として表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項1に記載の映像表示システム。 - 前記制御部は、前記ジェスチャが前記表示可能領域内における前記空中映像の前記表示位置を指定する予め定められた位置指定ジェスチャである場合に、前記位置指定ジェスチャによって指定された前記表示位置である指定表示位置に前記空中映像が表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項11に記載の映像表示システム。 - 前記センサ部は、前記ユーザと、対象とを撮影して映像データを出力するカメラを有し、
前記制御部は、前記ジェスチャが前記指定表示位置に表示させる前記対象を指定する対象指定ジェスチャであると判別された場合に、前記対象指定ジェスチャによって指定された前記対象の映像が前記指定表示位置に前記空中映像として表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項3又は4に記載の映像表示システム。 - 対象を撮影して前記対象の映像データを出力するカメラを更に有し、
前記制御部は、前記ジェスチャが前記指定表示位置に表示させる前記対象を指定する対象指定ジェスチャであると判別された場合に、前記対象指定ジェスチャによって指定された前記対象の映像が前記指定表示位置に前記空中映像として表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項3又は4に記載の映像表示システム。 - 前記制御部は、前記ジェスチャが前記指定表示位置に表示させる対象を指定する対象指定ジェスチャであると判別された場合に、前記空中映像として表示させる対象を予め撮影した映像データを格納するデータベースから前記対象の映像情報を用いて、前記対象指定ジェスチャによって指定された前記対象の映像が前記指定表示位置に前記空中映像として表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項3又は4に記載の映像表示システム。 - 前記対象指定ジェスチャは、前記ユーザが指で前記対象を指し示す動作である
ことを特徴とする請求項11から15のいずれか1項に記載の映像表示システム。 - 前記制御部は、前記指が指し示す方向のベクトルと交差する物を前記対象であると判断する
ことを特徴とする請求項16に記載の映像表示システム。 - 前記空中映像表示部は、第1の映像を表示する第1の表示部と、第2の映像を表示する第2の表示部と、前記第1の映像又は前記第2の映像を前記実像である前記空中映像として表示する実像光学系とを有し、
前記第1の表示部から前記実像光学系までの距離は、前記第2の表示部から前記実像光学系までの距離より長く、
前記制御部は、前記検出情報に基づいて前記ユーザの前記身体部位の動き及び姿勢の少なくともいずれかを含むジェスチャを判別し、前記ジェスチャが前記表示可能領域の奥行き方向の位置を指定する予め定められた奥行き指定ジェスチャである場合に、前記奥行き指定ジェスチャによって前記奥行き方向の位置が指定された前記表示可能領域内に前記空中映像が表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項3、4、及び8から16のいずれか1項に記載の映像表示システム。 - 前記制御部は、前記ジェスチャが前記表示可能領域内における前記空中映像のサイズを拡大縮小する予め定められたサイズ指定ジェスチャである場合に、前記サイズ指定ジェスチャによって指定された前記サイズで前記空中映像が表示されるように前記空中映像表示部を制御する
ことを特徴とする請求項3、4、及び8から16のいずれか1項に記載の映像表示システム。 - 前記サイズ指定ジェスチャは、前記ユーザが2本の指の間隔を広げる又は狭める動作である
ことを特徴とする請求項19に記載の映像表示システム。 - 前記サイズ指定ジェスチャは、前記ユーザが指を前記表示可能領域に近づける又は遠ざける動作である
ことを特徴とする請求項19に記載の映像表示システム。 - 三次元空間上の予め定められた表示可能領域内に実像である空中映像を表示する空中映像表示部と、
前記表示可能領域の近傍のユーザを検出して検出情報を出力し、対象を撮影して映像データを出力するセンサ部と、
前記検出情報に基づいて前記ユーザの身体部位の動き及び姿勢の少なくともいずれかを含むジェスチャを判別し、前記ジェスチャが前記対象を指定する対象指定ジェスチャであると判別された場合に、前記対象指定ジェスチャによって指定された前記対象の映像が前記空中映像として表示されるように前記空中映像表示部を制御する制御部と、
を有することを特徴とする映像表示システム。 - 前記センサ部は、前記表示可能領域の近傍のユーザを検出して検出情報を出力し、対象を撮影して映像データを出力するカメラ、又は、前記表示可能領域の近傍のユーザを検出して検出情報を出力するセンサ及び対象を撮影して映像データを出力するカメラ、又は、前記表示可能領域の近傍のユーザを検出して検出情報を出力する第1のカメラ及び対象を撮影して映像データを出力する第2のカメラ、を有することを特徴とする請求項22に記載の映像表示システム。
- 三次元空間上の予め定められた表示可能領域内に実像である空中映像を表示する空中映像表示部と、前記表示可能領域の近傍のユーザを検出して検出情報を出力するセンサ部と、を有する映像表示システムによって実施される映像制御方法であって、
前記検出情報に基づいて前記ユーザの身体部位の動き及び姿勢の少なくともいずれかを含むジェスチャを判別するステップと、
前記ジェスチャが前記表示可能領域内における前記空中映像の表示位置を指定する予め定められた位置指定ジェスチャである場合に、前記位置指定ジェスチャによって指定された前記表示位置である指定表示位置に前記空中映像が表示されるように前記空中映像表示部を制御するステップと、
を有することを特徴とする映像制御方法。 - 三次元空間上の予め定められた表示可能領域内に実像である空中映像を表示する空中映像表示部と、前記表示可能領域の近傍のユーザを検出して検出情報を出力するセンサ部と、を有する映像表示システムを制御するコンピュータに、
前記検出情報に基づいて前記ユーザの身体部位の動き及び姿勢の少なくともいずれかを含むジェスチャを判別するステップと、
前記ジェスチャが前記表示可能領域内における前記空中映像の表示位置を指定する予め定められた位置指定ジェスチャである場合に、前記位置指定ジェスチャによって指定された前記表示位置である指定表示位置に前記空中映像が表示されるように前記空中映像表示部を制御するステップと、
を実行させることを特徴とする映像制御プログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024528172A JP7728460B2 (ja) | 2022-06-22 | 2022-06-22 | 映像表示システム及び映像制御方法 |
| CN202280097168.1A CN119366179A (zh) | 2022-06-22 | 2022-06-22 | 影像显示系统、影像控制方法和影像控制程序 |
| PCT/JP2022/024904 WO2023248381A1 (ja) | 2022-06-22 | 2022-06-22 | 映像表示システム、映像制御方法、及び映像制御プログラム |
| US18/873,429 US20250358398A1 (en) | 2022-06-22 | 2022-06-22 | Image display system, image control method, and image control program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2022/024904 WO2023248381A1 (ja) | 2022-06-22 | 2022-06-22 | 映像表示システム、映像制御方法、及び映像制御プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2023248381A1 true WO2023248381A1 (ja) | 2023-12-28 |
Family
ID=89379265
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2022/024904 Ceased WO2023248381A1 (ja) | 2022-06-22 | 2022-06-22 | 映像表示システム、映像制御方法、及び映像制御プログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20250358398A1 (ja) |
| JP (1) | JP7728460B2 (ja) |
| CN (1) | CN119366179A (ja) |
| WO (1) | WO2023248381A1 (ja) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017156469A (ja) * | 2016-02-29 | 2017-09-07 | 株式会社ニコン | 結像光学系、光学系、表示装置、電子機器、表示方法およびプログラム |
| JP2019002976A (ja) * | 2017-06-13 | 2019-01-10 | コニカミノルタ株式会社 | 空中映像表示装置 |
| JP2020187320A (ja) * | 2019-05-17 | 2020-11-19 | 株式会社大真空 | 表示システム |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016524262A (ja) * | 2013-07-10 | 2016-08-12 | リアル ビュー イメージング リミテッド | 3次元ユーザインタフェース |
| US11194402B1 (en) * | 2020-05-29 | 2021-12-07 | Lixel Inc. | Floating image display, interactive method and system for the same |
| JP2022086081A (ja) * | 2020-11-30 | 2022-06-09 | マクセル株式会社 | 空間浮遊映像表示装置 |
| KR102708689B1 (ko) * | 2021-10-15 | 2024-09-24 | 엘지전자 주식회사 | 인공지능 컨시어지 서비스를 제공하는 컨시어지 디바이스 및 그 디바이스의 제어 방법 |
-
2022
- 2022-06-22 JP JP2024528172A patent/JP7728460B2/ja active Active
- 2022-06-22 US US18/873,429 patent/US20250358398A1/en active Pending
- 2022-06-22 CN CN202280097168.1A patent/CN119366179A/zh active Pending
- 2022-06-22 WO PCT/JP2022/024904 patent/WO2023248381A1/ja not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017156469A (ja) * | 2016-02-29 | 2017-09-07 | 株式会社ニコン | 結像光学系、光学系、表示装置、電子機器、表示方法およびプログラム |
| JP2019002976A (ja) * | 2017-06-13 | 2019-01-10 | コニカミノルタ株式会社 | 空中映像表示装置 |
| JP2020187320A (ja) * | 2019-05-17 | 2020-11-19 | 株式会社大真空 | 表示システム |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2023248381A1 (ja) | 2023-12-28 |
| JP7728460B2 (ja) | 2025-08-22 |
| US20250358398A1 (en) | 2025-11-20 |
| CN119366179A (zh) | 2025-01-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12353646B2 (en) | Augmented reality eyewear 3D painting | |
| US12008153B2 (en) | Interactive augmented reality experiences using positional tracking | |
| US20240144611A1 (en) | Augmented reality eyewear with speech bubbles and translation | |
| AU2015320043B2 (en) | Display visibility based on eye convergence | |
| KR20230066626A (ko) | 증강 현실에서 인터랙티브 게임 제어를 위한 손 제스처들의 추적 | |
| KR20230017849A (ko) | 증강 현실 안내 | |
| KR20230074780A (ko) | 검출된 손 제스처들에 응답한 터치리스 포토 캡처 | |
| KR20230124732A (ko) | 가상 및 그래픽 엘리먼트들을 제어하기 위한 미세 손제스처들 | |
| JPWO2018003861A1 (ja) | 表示装置および制御装置 | |
| KR20140142337A (ko) | 증강 현실 광 가이드 디스플레이 | |
| KR20100027976A (ko) | 이동 장치에서 제스처 및 움직임 기반 내비게이션 및 3차원 가상 콘텐츠와의 인터랙션 | |
| US12169968B2 (en) | Augmented reality eyewear with mood sharing | |
| KR20230026503A (ko) | 사회적 거리두기를 사용한 증강 현실 경험들 | |
| US12196954B2 (en) | Augmented reality gaming using virtual eyewear beams | |
| KR20200040716A (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
| US20250203061A1 (en) | Augmented reality eyewear with x-ray effect | |
| JP7728460B2 (ja) | 映像表示システム及び映像制御方法 | |
| JP7633452B2 (ja) | ウェアラブル端末装置、プログラムおよび表示方法 | |
| KR20210102210A (ko) | 상호 작용을 위한 물리적 인터페이스로서의 모바일 플랫폼 | |
| US20250044599A1 (en) | Computing system with head wearable display | |
| KR102650349B1 (ko) | Xr 디바이스 및 그 제어 방법 | |
| WO2024034053A1 (ja) | 情報処理装置および情報処理方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22947942 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2024528172 Country of ref document: JP Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 18873429 Country of ref document: US |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 202280097168.1 Country of ref document: CN |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWP | Wipo information: published in national office |
Ref document number: 202280097168.1 Country of ref document: CN |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 22947942 Country of ref document: EP Kind code of ref document: A1 |
|
| WWP | Wipo information: published in national office |
Ref document number: 18873429 Country of ref document: US |