[go: up one dir, main page]

CN107003821A - 促进用于玻璃显示器的改进观看能力 - Google Patents

促进用于玻璃显示器的改进观看能力 Download PDF

Info

Publication number
CN107003821A
CN107003821A CN201580062923.2A CN201580062923A CN107003821A CN 107003821 A CN107003821 A CN 107003821A CN 201580062923 A CN201580062923 A CN 201580062923A CN 107003821 A CN107003821 A CN 107003821A
Authority
CN
China
Prior art keywords
smart glass
transparency
computing device
glass
capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580062923.2A
Other languages
English (en)
Other versions
CN107003821B (zh
Inventor
T.里德
S.泰特
Y.基韦沙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN107003821A publication Critical patent/CN107003821A/zh
Application granted granted Critical
Publication of CN107003821B publication Critical patent/CN107003821B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

描述了根据一个实施例的用于动态地促进用于玻璃显示器的改进观看能力的机制。如本文所述的实施例的方法包括检测与包括具有智能玻璃的可佩戴眼镜的计算设备有关的光条件,其中光条件的检测可以包括检测光条件的改变。该方法还可以包括评估光条件的改变的影响,并且基于光条件的改变促进智能玻璃的开启或关闭。

Description

促进用于玻璃显示器的改进观看能力
技术领域
本文描述的实施例通常涉及计算机。更具体地,实施例涉及动态地促进用于玻璃显示器(glass display)的改进观看能力。
背景技术
随着移动计算设备的增长,可穿戴设备(例如,智能窗、头戴式显示器,诸如可佩戴眼镜)在成为主流技术方面也越来越受欢迎并且获得令人瞩目的牵引力。诸如可穿戴设备的那些之类的常规玻璃显示器关于它们的显示和透视(see-though)能力是受限的,这继而严重降低了用户体验。例如,当今的玻璃显示器使得用户难以在屏幕上清晰地(in a clearmatter)观看细节,这迫使用户寻找更暗的阻挡(stop)来挡住外部的光。
附图说明
通过示例而非限制的方式在附图的图中图示了实施例,其中相似的参考标号表示相似的元件。
图1图示了根据一个实施例的采用动态玻璃观看机制的计算设备。
图2A图示了根据一个实施例的动态玻璃观看机制。
图2B图示了根据一个实施例的具有智能玻璃(smart glass)的计算设备。
图2C图示了根据一个实施例的具有智能玻璃的计算设备的未组装的视图。
图2D图示了根据一个实施例的关闭智能玻璃的默认场景。
图2E图示了根据一个实施例的开启智能玻璃的增强场景。
图2F图示了根据一个实施例的具有清晰(clear)透镜和模糊透镜的一副眼镜。
图3图示了根据一个实施例的用于促进用于玻璃显示器的改进观看能力的方法。
图4图示了根据一个实施例的适于实现本公开的实施例的计算机系统。
图5图示了根据一个实施例的适于实现本公开的实施例的计算机环境。
具体实施方式
在以下的描述中,阐述了许多具体细节。然而,可以在没有这些具体细节的情况下实践如本文所述的实施例。在其他情况下,为了不模糊对本说明书的理解,没有详细地示出公知的电路、结构和技术。
实施例提供了用于玻璃显示器的更好和更清晰的观看能力。如前所提及的,诸如可穿戴设备的那些之类的常规玻璃显示器具有受限的它们的显示能力,这严重地限制了用户在明亮背景中观看细节的能力。
实施例提供了使用任何数量和类型的技术将另一层玻璃添加到玻璃显示器,以促进对玻璃透明度的更好的控制,其可以基于任何数量和类型的因素被自动或手工地激活,正如将在本文档中进一步描述的那样。
可以想到并且贯穿本文档将讨论的是:任何数量和类型的情境(contextual)和/或环境改变可能影响用户通过诸如可佩戴眼镜之类的可穿戴设备的视觉。例如,在一个实施例中,在诸如可佩戴眼镜等的如头戴式显示器的可穿戴设备中,显示器的可视性对于对设备成功的用户体验而言是相当重要的因素,其受到诸如亮度水平、光水平、周围等的改变之类的情境和/或环境改变的严重影响。例如,当在日光中或在光源附近使用时,诸如在太阳出来时的室外、在明亮的背景中、或者即使是可以负面地干扰或影响正在用户的可穿戴设备的显示器屏幕上显示的颜色、布局等的场景时,使得用户在光、背景等太亮时难以在显示器屏幕上观看内容。可能难以以清晰的方式在显示器屏幕上看到细节,这迫使用户为了更好的情况寻找对于允许用户适当地观看显示器屏幕具有正面影响的更暗场景或背景。
图1图示了根据一个实施例的采用动态玻璃观看机制(mechanism)110的计算设备100。计算设备100用作用于托管动态玻璃观看机制(“玻璃机制”)110的主机,所述动态玻璃观看机制110包括如图2中所图示的任何数量和类型的部件,以有效地采用一个或多个部件来动态地促进用于玻璃显示器的改进观看,将贯穿本文档进一步描述。
计算设备100可以包括任何数量和类型的通信设备,比如诸如服务器计算机、台式计算机等的大型计算系统,并且还可以包括机顶盒(例如,基于因特网的有线电视机顶盒等等)、基于全球定位系统(GPS)的设备等。计算设备100可以包括用作通信设备的移动计算设备,诸如包括智能电话的蜂窝电话、个人数字助理(PDA)、平板计算机、膝上型计算机(例如UltrabookTM系统等)、电子阅读器、媒体因特网设备(MID)、媒体播放器、智能电视、电视平台、智能设备、计算灰尘(dust)、媒体播放器、智能挡风玻璃、智能窗、头戴式显示器(HMD)(例如光学头戴式显示器(例如可佩戴眼镜(例如Google® Glass™等)、头戴式双筒望远镜、游戏显示器、军事头饰(headwear)等)和其他可穿戴设备(例如智能手表、手镯、智能卡、首饰、服装制品等)等。
可以想到的并且应当注意的是:实施例不限于计算设备100,并且实施例可以应用于诸如智能挡风玻璃、智能窗(例如Samsung®的智能窗等)和/或类似物之类的用于观看目的的任何形式或类型的玻璃,以及与之一起使用。类似地,可以想到并且应当注意的是:实施例不限于任何特定类型的计算设备,并且实施例可以应用于任何数量和类型的计算设备,以及与之一起使用;然而,贯穿本文档,讨论的焦点可能保持在诸如可佩戴眼镜等等的可穿戴设备上,这是为了简洁、清楚和易于理解而被用作示例。
计算设备100可以包括用作计算机设备100的硬件和/或物理资源与用户之间的接口的操作系统(OS)106。计算设备100还包括一个或多个处理器102、存储器设备104、网络设备、驱动器等,以及输入/输出(I/O)源108,诸如触摸屏、触摸板、触摸垫、虚拟或常规键盘、虚拟或常规鼠标等。
应当注意的是:比如“节点”、“计算节点”、“服务器”、“服务器设备”、“云计算机”、“云服务器”、“云服务器计算机”、“机器” “主机”、 “设备”、 “计算设备”、 “计算机”、“计算系统”等术语可以贯穿本文档可互换地使用。还应当注意的是:比如“应用”、“软件应用”、“程序”、“软件程序”、“包”、“软件包”、“代码”、“软件代码”等等术语可以贯穿本文档可互换地使用。此外、可以贯穿本文档可互换地使用比如“作业”、“输入”、“请求”、“消息”等术语。可以想到的是,术语“用户”可以指使用计算设备100或具有对计算设备100的访问的个体或个体的群组。
图2A图示了根据一个实施例的动态玻璃观看机制110。在一个实施例中,玻璃机制110可以包括任何数量和类型的部件,诸如(不限于):检测/接收逻辑201;条件评估逻辑(“条件逻辑”)203;语音识别和命令逻辑(“语音逻辑”)205;以及手势识别和命令逻辑(“手势逻辑”)207;透明度开/关逻辑(“开/关逻辑”)209;透明度调节逻辑(“调节逻辑”)211;和通信/兼容性逻辑213。计算设备100(例如,可佩戴眼镜、智能窗等)可以进一步包括任何数量和类型的其他部件,诸如捕捉/感测部件221(包括例如光传感器227、照相机、麦克风等)、输出部件223(包括例如开/关/调节按钮229、显示器玻璃屏幕等)、智能玻璃225、电源231等。
捕捉/感测部件221还可以包括任何数量和类型的捕捉/感测设备,诸如一个或多个发送和/或捕捉设备(例如,照相机、麦克风、计量生物学(biometric)传感器、化学检测器、信号检测器、波检测器、力传感器(例如,加速度计),照明器等),其可用于捕捉任何量和类型的诸如图像(例如照片、视频、电影、音频/视频流等)的可视数据以及诸如音频流(例如,声音、噪声、振动、超声等)的非可视数据、无线电波(例如,无线信号,诸如具有数据、元数据、符号等的无线信号),化学改变或性质(例如湿度、体温等)、计量生物学读数(例如指纹等)、环境/天气条件、地图等。可以想到的是,贯穿本文档可以互换地引用“传感器”和“检测器”。进一步可以想到的是,一个或多个捕捉/感测部件221还可以包括用于捕捉和/或感测数据的一个或多个支持或补充设备,诸如照明器(例如,红外(IR)照明器)、灯具、发生器、隔音器(sound blocker)等。
进一步想到的是,在一个实施例中,捕捉/感测部件221还可以包括用于感测或检测任何数量和类型的情境(例如,估计水平、线性加速等,涉及移动计算设备等)的任何数量和类型的感测设备或传感器(例如,线性加速度计)。例如,捕捉/感测部件221可以包括任何数量和类型的传感器,诸如(不限于):加速度计(例如,用于测量线性加速度的线性加速度计等);惯性设备(例如惯性加速度计、惯性陀螺仪、微机电系统(MEMS)陀螺仪、惯性导航仪等);用于研究和测量归因于重力的重力加速度的变化的重力梯度计(gradiometer)等。
例如,捕捉/感测部件221还可以包括(不限于):音频/视频设备(例如,照相机、麦克风、扬声器等);情境感知传感器(例如,温度传感器、与音频/视频设备的一个或多个照相机一起工作的面部表情和特征测量传感器、环境传感器(诸如用于感测背景颜色、光等)、计量生物学传感器(诸如用于检测指纹等),日历维护和读取设备)等;全球定位系统(GPS)传感器;资源请求器;和可信任执行环境(TEE)逻辑。TEE逻辑可以单独被采用或者是资源请求器和/或I/O子系统的一部分,等等。
计算设备100还可以包括一个或多个输出部件223,以保持与一个或多个捕捉/感测部件221和玻璃机制110的一个或多个部件通信,以促进图像的显示、声音的播放或可视化、指纹的显示可视化、触摸、气味(smell)和/或其他感觉相关体验等的呈现可视化。例如并且在一个实施例中,输出部件223可以包括(不限于)以下中的一个或多个:光源、显示设备或屏幕,音频扬声器、骨传导扬声器、嗅觉或味觉可视和/或非/可视呈现设备、触觉或触摸可视和/或非可视呈现设备、动画显示设备、计量生物学显示设备、X射线显示设备等。
计算设备100可以通过一个或多个网络来与一个或多个库或数据库通信,其中任何量和类型的数据(例如,实时数据、历史内容、元数据、资源、策略、准则、规则和规定、升级等)可以被存储和维护。类似地,计算设备100可以通过一个或多个网络(例如云网络、因特网、内联网、物联网(“IoT”)、邻近网络、蓝牙等)来与诸如HMD、可穿戴设备、智能窗、移动计算机(例如智能电话、平板计算机等)、台式计算机、膝上型计算机等等的任何数量和类型的其他计算设备通信。
在图示实施例中,计算设备100被示为托管玻璃机制110;然而,可以想到的是,实施例不限于此,并且在另一个实施例中,玻璃机制110可以完全地或部分地由多个计算设备或计算设备的组合来托管;然而,贯穿本文档,为了简洁、清楚和易于理解的缘故,玻璃机制100被示出为由计算设备100托管。
可以想到的是,计算设备100可以包括与玻璃机制110通信的一个或多个软件应用(例如,设备应用、硬件部件应用、商业/社交应用、web站点等),其中软件应用可以提供一个或多个用户界面(例如,web用户界面(WUI)、图形用户界面(GUI)、触摸屏等)以与玻璃机制110的一个或多个操作或功能一起工作和/或促进玻璃机制110的一个或多个操作或功能。
如前所提及的那样,诸如可佩戴眼镜、智能窗等等之类的基于玻璃的设备装备得不够好或者不够智能以适当地响应于由诸如室内照明、室外照明等等之类的改变的照明条件或各种亮度水平所引起的干扰或影响。例如,当基于玻璃的设备在诸如日光或强光源(例如,太阳)前面之类的有挑战性的光条件下使用时,光可以在显示器屏幕(例如,玻璃显示器屏幕)上导致非常明亮的背景,这可以严重地干扰和负面地影响颜色和布局,使用户非常难以观看屏幕上的内容。这可能迫使用户寻找较暗的场景或背景,就为了能够正常地观看屏幕,因为较暗的背景可以在允许用户观看计算设备100的显示器屏幕上的内容时对显示器屏幕的内容具有正面影响。
在一个实施例中,可以将智能玻璃225添加到计算设备100中或并入到计算设备100中,以促进对与智能玻璃225相关联的玻璃透明度的控制,该控制可以基于例如环境需要、改变的(自然或人工的)照明条件等而手工或自动并且动态地激活,正如将在本文档中进一步描述的那样。例如,在计算设备100是诸如可佩戴眼镜的可穿戴设备的情况下,可以将智能玻璃225作为与棱镜平行并与棱镜相邻的玻璃层插入,如关于图2B进一步图示的那样。类似地,在计算设备100是智能窗的情况下,可以采用智能玻璃225的层来实现玻璃透明度的控制。在一些实施例中,智能玻璃225多个层和大小的可以并入到计算设备100中。在一些实施例中,基于任何数量和类型的一个或多个技术,诸如(不限于)电致变色、光致变色、热致变色或悬浮颗粒等,智能玻璃225可以具有从非常小到相当大的任何大小。可以想到的并且应当注意的是:实施例不限于智能玻璃225是小或大、单层或层块、或取决于任何特定类型或形式的技术等。
在一个实施例中,检测/接收逻辑201可以检测照明条件中的环境偏差(也称为“周围偏差”或“周围改变”),这可能基于自然偏差(例如,太阳突破云、开始下雨、接近黎明或黄昏等)、人工偏差(例如,用户从黑暗的房间醒来到明亮的室外、开启和关闭灯、打开并且关闭门/窗等)或其任何组合。一旦由检测/接收逻辑201检测到照明条件中的一个或多个周围偏差,那么就将与这些周围偏差相关的任何信息提供给条件逻辑203以用于进一步处理。
在另一个实施例中并且可选地,可以采用捕捉/感测部件221的光传感器227来检测和确定光条件并且捕捉/感测部件221的光传感器227可以由计算设备100使用,并且在检测到光条件时,光传感器227可以自动地触发开/关逻辑209以使智能玻璃225开启/关闭和/或指示调节逻辑211以自动和动态地调节智能玻璃225的当前透明度级别。
在一个实施例中,条件逻辑203然后可以评估与改变或偏差相关的信息,以确定是否需要调节智能玻璃225的透明度以更好地观看计算设备100的输出部件223的显示器屏幕(例如,玻璃屏幕)上的内容。在一些实施例中,在评估信息时,条件逻辑203可以考虑任何数量和类型的预定义阈值、预定准则、策略、用户偏好、语音指令、手势等来达到其关于是否调节智能玻璃225的透明度的决定。例如,预定义的用户偏好可以命令(dictate)基于某些时刻(诸如上午8点-下午5点、晚上、睡眠时间等)、特定位置(例如,办公室、飞行中、室外等)等等来调节玻璃透明度级别。
此外,在一个实施例中,除了任何预定义的用户偏好之外,还可以经由语音逻辑205、手势逻辑207、开/关按钮229等接收实时用户指导,并且这些实时指导可以并入过程中,并且在一些实施例中被赋予在条件逻辑203的预定义的用户偏好和评估结果之上的优先级或压倒权力(overriding power),如将参考语音逻辑205、手势逻辑207和开/关按钮229进一步描述的那样。
返回参考条件逻辑203,在评估与照明条件的改变有关的信息时,如果条件逻辑203确定周围偏差显著到足以(诸如当与光的预定义阈值相比时)导致用户的观看容易或困难,那么条件逻辑203可以将其指令传送到调节逻辑211,以基于该指令促进对智能玻璃225的当前透明度级别的自动和动态调节。
在一个实施例中,在接收到指令时,调节逻辑211可以自动和动态地调节智能玻璃225的透明度级别。例如,在一个实施例中,电源231可以由调节逻辑221触发以供应附加的功率来向智能玻璃225供应光,从而降低其透明度(诸如使智能玻璃225更模糊、更脏和/或更暗),因此它可以用于为用户正在观看的玻璃显示器屏幕提供较暗的背景,使得可以更好或更清晰地观看屏幕上的内容。在另一个实施例中,电源231可以由调节逻辑221触发以向智能玻璃225提供较少的功率,以便随着周围环境可能变得更暗而增加智能玻璃225的透明度(诸如降低模糊度(fogginess)),从而减少对暗背景的需要以更好地观看内容。
在一个实施例中,智能玻璃225的完全透明度或关闭可以被视为智能玻璃225的默认位置,使得可以防止任何不必要的功耗。例如,为了避免计算设备100上的不必要的功耗,默认地,智能玻璃225可以保持关闭或完全透明,直到开/关逻辑209接收到关闭透明度的指令并随后将其调节到特定级别。在这种情况下,从电源231只有少量的功率供应以使智能玻璃255变得更模糊或不太透明,以在背景中提供必要的黑暗或较低的亮度,从而允许用户方便地观看计算设备100的屏幕上的内容。虽然默认地,智能玻璃225保持透明以避免任何不必要的功耗,但是可以想到的是,即使在供电时,在使用计算设备100使用的相同的电源231时功率的量也显著低,以便确保非常低的——诸如几乎可以忽略不计的——功耗并且不必需要任何附加的电源或硬件。
如前所提及,在一些实施例中,用户可以经由语音和/或手势提供实时指导,以直接影响智能玻璃225的透明度级别。例如,在一个实施例中,用户可以简单地安置一个或多个预定义的语音命令(例如“开”、“关”、“降低透明度”、“需要透明度”、“需要屏幕”、“删除屏幕”、“太亮”、“上升两个级别”、“下降一个级别”和/或类似物),其可以由捕捉/感测部件221的麦克风检测到并且然后由语音逻辑205接收。在接收到预定义的语音命令时,语音逻辑205可以转译语音命令并将任何相应的指令传送到开/关逻辑209和/或调节逻辑211,使得它们可以基于表示语音命令的指令而自动地执行它们的任务。
与语音命令一样,在一些实施例中,用户可以选择使用例如由捕捉/感测部件221的照相机检测到的并且然后由手势逻辑207接收以用于进一步处理的一个或多个手势来提供实时指导。在一个实施例中,可以对手势进行预定义,使得当其被手势逻辑207接收时,其被手势逻辑207转译,并且然后可以将任何相应的指令传送到开/关逻辑209和/或调节逻辑211,因此它们可以基于表示手势的指令而自动地执行它们的任务。
类似地,在一些实施例中,输出部件223的开/关/调节按钮229可以由用户使用来根据期望或需要而选择手工开/关智能玻璃225的透明度级别或将当前的透明度调节到一个或多个更高/更低的级别。
通信/兼容性逻辑213可以用于促进计算设备100和任何数量和类型的以下各项之间的动态通信和兼容性:其他计算设备(例如可穿戴计算设备、移动计算设备、台式计算机、服务器计算设备等)、处理设备(例如,中央处理单元(CPU)、图形处理单元(GPU)等)、捕捉/感测部件221(例如,非可视数据传感器/检测器,诸如音频传感器、嗅觉传感器、触觉传感器、信号传感器、振动传感器、化学检测器、无线电波检测器、力传感器、天气/温度传感器、身体/计量生物学传感器、扫描仪等以及可视数据传感器/检测器,诸如照相机等)、用户/情境感知部件和/或标识/验证传感器/设备(诸如计量生物学传感器/检测器、扫描仪等)、存储器或存储设备、数据库和/或数据源(诸如数据存储设备、硬盘驱动器、固态驱动器、硬盘、存储器卡或设备、存储器电路等)、网络(例如,云网络、因特网、内联网、蜂窝网络、邻近网络,诸如蓝牙、蓝牙低能量(BLE)、蓝牙智能、 Wi-Fi接近、射频识别(RFID)、近场通信(NFC)、身体局域网(BAN)等)、无线或有线通信和相关协议(例如Wi-Fi®、WiMAX、以太网等)、连接性和位置管理技术、软件应用/web站点(例如,社交和/或商业联网web站点、业务应用、游戏和其他娱乐应用等)、编程语言等,同时确保与改变的技术、参数、协议、标准等的兼容性。
贯穿本文档,比如“逻辑”、“部件”、“模块”、“框架”、“引擎”、“工具”等的术语可以互换地引用,并且通过示例的方式包括软件、硬件和/或软件和硬件的任何组合,诸如固件。此外,对于诸如“可穿戴设备”、“头戴式显示器”或“HDM”、“可佩戴眼镜”、“智能窗”、“智能玻璃”、“透明度”或“透明度级别”等的特定品牌、词语、术语、短语、名称和/或首字母缩略词的任何使用不应被解读为将实施例限制到在本文档外部的产品中或文献中携带该标签的软件或设备。
可以想到的是,任何数量和类型的部件可以被添加到玻璃机制110和/或从玻璃机制110移除,以促进包括添加、移除和/或增强某些特征的各种实施例。为了简洁、清楚和易于理解玻璃机制110的缘故,诸如计算设备的那些之类的许多标准和/或已知的部件在这里未示出或讨论。可以想到的是,如本文所描述的实施例不限于任何特定技术、拓扑、系统、架构和/或标准,并且是动态的足以采纳并适应任何未来的改变。
图2B图示了根据一个实施例在计算设备100处采用的智能玻璃225。为了简洁起见,在下面可能不讨论或重复参考图1和图2A讨论的许多细节。如所图示,计算设备100被示出为包括一副可佩戴眼镜,当其被放置在人的头部上时,它在人眼245的前面。在所图示的实施例中,智能玻璃225放置在棱镜241上,其中棱镜241在眼睛245内部或背对着眼睛245,而智能玻璃225放置在棱镜241和可佩戴眼镜100的外部或前面。在一个实施例中,智能玻璃225的放置允许其用作在棱镜241之上的附加玻璃层,作为棱镜241与外部条件之间的中间层。如前所提及,在一些实施例中,智能玻璃225可以是玻璃块或多层玻璃。所图示的实施例进一步图示了作为可佩戴眼镜100的一部分的光传感器227和投影仪243。
如先前参考图2A所讨论的,智能玻璃225的透明度级别可以根据周围条件以及按照用户经由语音和/或手势命令所请求的那样而被开启或关闭和调节。此外,如前面所讨论的,在一个实施例中,光传感器227可以用于检测或感测周围的照明条件。
现在参考图2C,其图示了根据一个实施例的具有智能玻璃225的计算设备100的未组装视图。如参考图2B所讨论的,计算设备100被示为包括一副包括棱镜241并且在一个实施例中包括与棱镜241相关联的智能玻璃225的层的可佩戴眼镜。
图2D图示了根据一个实施例的默认场景250。场景250被认为是在没有图2A的智能玻璃225的情况下实现的默认场景,或者在一些情况下,它可以被认为是关闭智能玻璃225的默认场景或位置。如所图示的,在场景250中,默认地,背景251保持为正常光亮,在使得用户非常难以观看或译解(decipher)在玻璃显示器屏幕的前景中所显示的地图253中具有影响(例如,负面影响)。
与图2D相对,图2E图示了根据一个实施例的当开启图2A的智能玻璃225并且相应地调节透明度级别时所实现的增强场景260。在一个实施例中并且如所图示的,开启智能玻璃225促进背景261模糊、变昏暗或变暗等等,其对于使具有地图253的前景变得相对更清晰和更突出具有影响(例如,正面影响),这继而使得用户更容易观看和译解在玻璃显示器屏幕的前景中所显示的地图253。
图2F图示了根据一个实施例的具有清晰透镜271和模糊透镜275的一副眼镜270。如所图示的,由于图2A的智能玻璃225被关闭,眼镜270的左框架271保持清晰透镜273。然而,在一个实施例中并且如参考图2A所描述的那样,智能玻璃225可以自动地或手工地开启,其动态地并相应地调节透明度级别,导致更柔和和/或更暗的背景,如诸如关于右框架275的模糊透镜277在这里所图示的那样,允许用户更好地观看透镜277的前景中的任何文本、图形等,同时由于朦胧或模糊而忽略背景。
图3图示了根据一个实施例的用于促进用于玻璃显示器的改进的观看能力的方法300。方法300可以由可以包括硬件(例如,电路、专用逻辑、可编程逻辑等)、软件(诸如在处理设备上运行的指令)或其组合的处理逻辑来执行。在一个实施例中,方法300可以由图1-图2F的玻璃机制110来执行。为了简洁和清晰地呈现,以线性顺序图示出方法300的过程;然而,可以想到的是,可以并行、异步地或以不同的顺序执行它们中的任何数量。为了简洁起见,可能在此后不讨论或重复参考图1和图2A-图2F讨论的许多细节。
方法300可以开始于检测周围光条件的块305。在块310处,可以开启在计算设备(例如,可佩戴眼镜、智能窗等)处的智能玻璃,并且可以动态地并相应地调节与智能玻璃(并且因此与计算设备)相关联的任何透明度并且将该任何透明度设置到适当的级别。例如,周围的光条件可能改变,使得可佩戴眼镜的用户难以观看或阅读在可佩戴眼镜的屏幕上显示的任何文本和/或图形。在一个实施例中,在开启智能玻璃并调节与智能玻璃相关联的透明度级别时,可以促进屏幕(例如,显示器玻璃屏幕)的背景的适当模糊或变暗,使得显示在屏幕的前景中的文本和/或图形可以被用户清晰地观看。
在块315处,当达到与智能玻璃相关联的适当调节的透明度时,该过程可以以该适当的透明度级别继续。如前所提及,在一些实施例中,具有明亮的光线或背景等等可以影响用户对显示器屏幕的观看,使得用户难以观看诸如可穿戴设备之类的计算设备的显示器屏幕的内容。例如,室外的太阳或室内的明亮的光等可能引起可以影响(例如负面地影响)对显示器屏幕的观看的某些光条件,使得用户难以观看诸如可穿戴设备之类的计算设备的显示器屏幕的任何内容。相比之下,无论室外还是室内,具有模糊、阴暗或较暗的背景或较低的光线等可引起可以影响(例如,正面地影响)对显示器屏幕的观看的某些光条件,使得用户更易于观看诸如可穿戴设备之类的计算设备的显示器屏幕的任何内容。
在决定块320处,关于是否检测到周围光条件的改变或用户是否安置了语音命令和/或手势命令来改变当前的透明度级别进行确定。如果不是,则在块315处,该过程可以以当前的透明度级别继续。如果是,在一个实施例中,在块320处,关于是关闭智能玻璃还是调节当前的透明度级别进行另一确定。如果需要关闭智能玻璃,诸如基于周围光条件的改变或响应于语音命令和/或手势命令,则在块330处关闭智能玻璃。然而,如果要调节当前的透明度级别,在一个实施例中,在块335处将与智能设备相关联的当前透明度级别动态地调节到新的适当的级别。在块340处,该过程继续以新的透明度级别继续,并且进一步,该过程继续决定块320。
图4图示了能够支持上述操作的计算系统400的实施例。计算系统400表示包括例如台式计算系统、膝上型计算系统、蜂窝电话、包括支持蜂窝的PDA的个人数字助理(PDA)、机顶盒、智能电话、平板计算机、可穿戴设备等的计算和电子设备(有线或无线)的范围。替代计算系统可以包括更多、更少和/或不同的部件。计算设备400可以与参考图1描述的计算设备100相同或相似或者包括该计算设备100。
计算系统400包括总线405(或者,例如链路、互连或用于传送信息的另一类型的通信设备或接口)以及可以处理信息的耦合到总线405的处理器410。虽然图示了具有单个处理器的计算系统400,但是它可以包括多个处理器和/或协处理器,诸如中央处理器、图像信号处理器、图形处理器和视觉处理器等中的一个或多个。计算系统400可以进一步包括耦合到总线405的随机存取存储器(RAM)或其他动态存储设备420(称为主存储器),并且可以存储可由处理器410执行的信息和指令。主存储器420还可用于存储处理器410执行指令期间的临时变量或其他中间信息。
计算系统400还可以包括耦合到总线405的只读存储器(ROM)和/或其他存储设备430,其可以存储用于处理器410的静态信息和指令。日期存储设备440可以耦合到总线405以存储信息和指令。诸如磁盘或光盘的日期存储设备440和相应驱动器可以耦合到计算系统400。
计算系统400还可以经由总线405耦合到诸如阴极射线管(CRT)、液晶显示器(LCD)或有机发光二极管(OLED)阵列)的显示设备450以向用户显示信息。包括字母数字和其他键的用户输入设备460可以耦合到总线405以将信息和命令选择传送到处理器410。另一类型的用户输入设备460是诸如鼠标、轨迹球、触摸屏、触摸垫或光标方向键的光标控制470以将指导信息和命令选择传送到处理器410并控制显示器450上的光标移动。计算机系统400的照相机和麦克风阵列490可以耦合到总线405以观察手势、记录音频和视频以及接收和传输可视和音频命令。
计算系统400还可以包括(一个或多个)网络接口480,以提供对诸如局域网(LAN)、广域网(WAN)、城域网(MAN)、个域网(PAN)、蓝牙、云网络、移动网络(例如第3代(3G)等)、内联网、因特网等的网络的访问。(一个或多个)网络接口480可以包括例如具有天线485的无线网络接口,天线485可以表示一个或多个天线。(一个或多个)网络接口480还可以包括例如经由网络线缆487来与远程设备通信的有线网络接口,所述网络线缆487可以是例如以太网线缆、同轴线缆、光纤线缆、串行线缆或并行线缆。
(一个或多个)网络接口480可以例如通过符合IEEE 802.11b和/或IEEE 802.11g标准来提供对LAN的访问,和/或无线网络接口可以例如通过符合蓝牙标准来提供对个域网的访问。包括先前版本和后续版本的标准的其他无线网络接口和/或协议也可以被支持。
除了或代替经由无线LAN标准的通信,(一个或多个)网络接口480还可以使用例如时分多址(TDMA)协议、全球移动通信系统(GSM)协议、码分多址(CDMA)协议和/或任何其他类型的无线通信协议来提供无线通信。
(一个或多个)网络接口480可以包括一个或多个通信接口,诸如调制解调器、网络接口卡或其他公知的接口设备,诸如为了提供通信链路以支持例如LAN或WAN的目的而用于耦合到以太网、令牌环或其他类型的物理有线或无线附件的那些。以这种方式,计算机系统还可以经由包括例如内联网或因特网的常规网络基础设施耦合到多个外围设备、客户端、控制表面、控制台或服务器。
应当理解,对于某些实现,比上述示例更少或更多配备的系统可能是优选的。因此,计算系统400的配置可以根据诸如价格约束、性能要求、技术改进或其他情况之类的众多因素而逐个实现地改变。电子设备或计算机系统400的示例可以包括但不限于移动设备、个人数字助理、移动计算设备、智能电话、蜂窝电话、手持设备、单向寻呼机、双向寻呼机、消息传送设备、计算机、个人计算机(PC)、台式计算机、膝上型计算机、笔记本计算机、手持计算机、平板计算机、服务器、服务器阵列或服务器场、web服务器、网络服务器、因特网服务器、工作站、小型计算机、大型计算机、超级计算机、网络设备、web设备、分布式计算系统、多处理器系统、基于处理器的系统、消费电子产品、可编程消费电子产品、电视机、数字电视、机顶盒、无线接入点、基站、订户台、移动订户中心、无线电网络控制器、路由器、集线器、网关、桥接器、交换机、机器或其组合。
实施例可以实现为以下各项的任何一项或组合:使用母板、硬连线逻辑、由存储器设备存储并由微处理器执行的软件、固件、专用集成电路(ASIC)和/或现场可编程门阵列(FPGA)而互连的一个或多个微芯片或集成电路。术语“逻辑”可以包括例如软件或硬件和/或软件和硬件的组合。
实施例可以例如作为计算机程序产品而被提供,其可以包括具有其上存储的机器可执行指令的一个或多个机器可读介质,所述指令当由诸如计算机、计算机网络或其他电子设备之类的一个或多个机器执行时可以导致一个或多个机器执行根据本文所述的实施例的操作。机器可读介质可以包括但不限于软盘、光盘、CD-ROM(压缩盘只读存储器)和磁光盘、ROM、RAM、EPROM(可擦除可编程只读存储器)、EEPROM(电可擦除可编程只读存储器)、磁卡或光卡、闪存或适用于存储机器可执行指令的其他类型的介质/机器可读介质。
此外,实施例可以作为计算机程序产品而被下载,其中可以通过经由通信链路(例如,调制解调器和/或网络连接)体现在载波或其他传播介质中的和/或由载波或其他传播介质调制的一个或多个数据信号将程序从远程计算机(例如,服务器)转送到请求计算机(例如,客户端)。
对“一个实施例”、“实施例”、“示例实施例”、“各种实施例”等的引用指示如此所描述的(一个或多个)实施例可以包括特定的特征、结构或特性,但不是每个实施例必须包括所述特定特征、结构或特性。此外,一些实施例可以具有针对其他实施例描述的一些、全部特征或者不具有特征。
在以下说明书和权利要求中,可以使用术语“耦合的”及其衍生词。“耦合的”用于指示两个或更多个元素彼此协作或交互,但是它们在它们之间可以具有或可以不具有中间的物理或电部件。
如在权利要求中使用的那样,除非另有指定,否则使用序数形容词“第一”、“第二”、“第三”等来描述共同元素仅指示正在提及的相同元素的不同实例,并且不意图暗示如此描述的元素在时间上、空间上、等级上或以任何其他方式必须按照给定的顺序。
图5图示了能够支持上述操作的计算环境500的实施例。模块和系统可以以包括图9中所示的那些的各种不同的硬件架构和形状因素来实现。
命令执行模块501包括中央处理单元,用于高速缓存和执行命令并且用于在所示的其他模块和系统之间分发任务。它可以包括指令栈、用于存储中间和最终结果的高速缓存存储器以及用于存储应用和操作系统的大容量存储器。命令执行模块也可以用作系统的中央协调和任务分配单元。
屏幕渲染模块521在一个或多个多屏幕上绘制对象以供用户查看。它可以适于接收来自下面描述的虚拟对象行为模块504的数据,并且将虚拟对象和任何其他对象和力(force)渲染在适当的一个或多个屏幕上。因此,来自虚拟对象行为模块的数据将确定例如虚拟对象以及相关联的手势、力和对象的位置和动态,并且屏幕渲染模块将在屏幕上相应地描绘虚拟对象和相关联的对象和环境。屏幕渲染模块还可以适于接收来自下面描述的相邻屏幕透视模块507的数据,以描绘针对虚拟对象的目标着陆区域,如果虚拟对象可以被移动到相邻屏幕透视模块与之相关联的设备的显示器的话。因此,例如,如果虚拟对象正从主屏幕移动到辅助屏幕,则相邻屏幕透视模块2可以向屏幕渲染模块发送数据,以例如以阴影形式向用户的手部移动或眼睛移动建议用于在该轨迹上的虚拟对象的一个或多个目标着陆区域。
对象和手势识别系统522可以适于识别和跟踪用户的手和损害手势。这样的模块可以用于识别手部、手指、手指手势、手部移动和手相对于显示器的位置。例如,对象和手势识别模块可以例如确定用户做出身体部位手势以将虚拟对象拖拽到多个屏幕中的一个或另一个上,或者用户做出身体部位手势以移动虚拟对象到多个屏幕中的一个或另一个的边框(bezel)。对象和手势识别系统可以耦合到照相机或照相机阵列、麦克风或麦克风阵列、触摸屏或触摸表面、或指点设备、或这些项目的某些组合,以检测来自用户的手势和命令。
对象和手势识别系统的触摸屏或触摸表面可以包括触摸屏传感器。可以将来自传感器的数据馈送到硬件、软件、固件或其组合,以将屏幕或表面上的用户的手部的触摸手势映射到虚拟对象的相应动态行为。传感器日期可以用于动量(momentum)和惯性因素,以允许基于诸如用户手指相对于屏幕的摆动(swipe)速率之类的来自用户手部的输入的针对虚拟对象的各种动量行为。夹捏手势可以被解释为命令以从显示器屏幕提起虚拟对象或者开始生成与虚拟对象相关联的虚拟绑定或者在显示器上进行放大或缩小。可以由对象和手势识别系统使用一个或多个照相机生成类似的命令而不收益于触摸表面。
注意力方向模块523可以配备有照相机或其他传感器,以跟踪用户脸部或手部的位置或朝向。当发出手势或语音命令时,系统可以确定针对手势的适当屏幕。在一个示例中,在每个显示器附近安装照相机以检测用户是否面向该显示器。如果是,那么将注意力方向模块信息提供给对象和手势识别模块522,以确保手势或命令与用于活动显示器的适当库相关联。类似地,如果用户正在背离所有屏幕查看,那么可以忽略命令。
设备接近度检测模块525可以使用接近度传感器、罗盘、GPS(全球定位系统)接收机、个域网无线电和其他类型的传感器,连同三角测量和用于确定其他设备的接近度的其他技术。一旦附近的设备被检测到,则可以将它注册到系统,并且其类型可以被确定为输入设备或显示设备或者两者。对于输入设备,接收的数据然后可以被应用于对象手势和识别系统522。对于显示设备,其可以由相邻屏幕透视模块507考虑。
虚拟对象行为模块504适于接收来自对象速度和方向模块的输入,并将此类输入应用于显示器中所示出的虚拟对象。因此,例如,对象和手势识别系统将解释用户手势,并且通过将捕捉的用户手部的移动映射到所识别的移动,虚拟对象跟踪器模块将把虚拟对象的位置和移动关联到由对象和手势识别系统所识别的移动,对象和速度和方向模块将捕捉虚拟对象的移动的动态,并且虚拟对象行为模块将接收来自对象和速度和方向模块的输入,以生成将引导虚拟对象的移动对应于来自对象和速度和方向模块的输入的数据。
另一方面,虚拟对象跟踪器模块506可以适于基于来自对象和手势识别模块的输入来跟踪虚拟对象应该位于显示器附近的三维空间中的何处,以及用户的哪个身体部位正在保持虚拟对象。虚拟对象跟踪器模块506可以例如在虚拟对象跨屏幕和在屏幕之间移动时跟踪虚拟对象,并跟踪用户的哪个身体部位正在保持该虚拟对象。跟踪正在保持虚拟对象的身体部位允许对身体部位的空中移动的连续感知,并且因此允许关于虚拟对象是否已被释放到一个或多个屏幕上的最终感知。
手势与视图和屏幕同步模块508从注意力方向模块523接收视图和屏幕或两者的选择,并且在一些情况下,接收语音命令以确定哪个视图是活动视图以及哪个屏幕是活动屏幕。然后,它使得针对对象和手势识别系统522加载相关的手势库。一个或多个屏幕上的应用的各种视图可以与针对给定视图的替代手势库或手势模板集合相关联。作为图1A中的示例,夹捏-释放手势发射鱼雷,但在图1B中,相同的手势发射深水炸弹。
可以包括或耦合到设备接近度检测模块525的相邻屏幕透视模块507可以适于确定一个显示器相对于另一显示器的角度和位置。投影显示器包括例如投影到墙壁或屏幕上的图像。检测附近屏幕的接近度以及从其投影的显示器的相应角度或朝向的能力可以例如用红外发射器和接收器或电磁或光检测感测能力来实现。对于允许具有触摸输入的投影显示器的技术,可以分析传入视频以确定投影显示器的位置,并纠正由以一个角度进行显示所引起的失真。可以使用加速度计、磁力计、罗盘或照相机来确定设备被保持的角度,而红外发射器和照相机可以允许相对于相邻设备上的传感器确定屏幕设备的朝向。以这种方式,相邻屏幕透视模块507可以相对于其自己的屏幕坐标来确定相邻屏幕的坐标。因此,相邻屏幕透视模块可以确定哪些设备彼此接近以及其他的潜在目标用于跨屏幕移动一个或多个虚拟对象。相邻屏幕透视模块可以进一步允许屏幕的位置与表示所有现有对象和虚拟对象的三维空间的模型相关。
对象和速度和方向模块503可以适于通过接收来自虚拟对象跟踪器模块的输入来估计正在移动的虚拟对象的诸如其轨迹、速度(无论是线性的还是角度的)、动量(无论是线性的还是角度的)等等的动态。对象和速度和方向模块还可以适于通过例如估计虚拟绑定的加速度、偏转、拉伸程度等来估计任何物理力的动态,以及虚拟对象一旦被用户的身体部位所释放的动态行为。对象和速度和方向模块还可以使用图像运动、大小和角度改变来估计对象的速度,诸如手部和手指的速度。
动量和惯性模块502可以使用图像平面中或三维空间中的对象的图像运动、图像大小和角度改变来估计该空间中或显示器上的对象的速度和方向。动量和惯性模块耦合到对象和手势识别系统522以估计由手部、手指和其他身体部位执行的手势的速度,并且然后应用那些估计以确定要受手势影响的虚拟对象的动量和速度。
3D图像交互和效果模块505跟踪用户与表现为延伸出一个或多个屏幕的3D图像的交互。对象在z轴(朝向和远离屏幕的平面)的影响可以与这些对象对彼此的影响一起计算。例如,在虚拟对象到达屏幕的平面之前,用户手势抛出的对象可以受到前景中的3D对象的影响。这些对象可能改变抛射体(projectile)的方向或速度,或者完全毁灭它。对象可以由一个或多个显示器上的前景中的3D图像交互和效果模块来渲染。
以下条款和/或示例涉及另外的实施例或示例。示例中的具体细节可以在一个或多个实施例中的任何地方使用。可以将不同实施例或示例的各种特征与包括的某些特征以及被排除的其他特征进行不同的组合以适应各种不同的应用。示例可以包括如下主题:诸如方法、用于执行该方法的动作的装置、至少一个机器可读介质,其包括当由机器执行时使机器执行用于根据本文所述的实施例和示例来促进混合通信的方法或装置或系统的动作的指令。
一些实施例涉及示例1,其包括一种用于动态地促进用于计算设备上的玻璃显示器的改进观看能力的装置,包括:检测/接收逻辑,用于检测与包括可佩戴眼镜的计算设备相关的光条件,其中所述可佩戴眼镜包括智能玻璃,其中所述检测/接收逻辑还用于检测光条件的改变;条件评估逻辑,用于评估所述光条件的改变的影响;和透明度开/关逻辑,用于基于所述光条件的改变来促进所述智能玻璃的开启或关闭。
示例2包括示例1的主题,其中所述智能玻璃的开启对应于对所述智能玻璃的透明度的潜在调节的开启,其中所述智能玻璃的关闭促进所述智能玻璃的透明度的默认位置,其中所述计算设备还包括头戴显示器或智能窗。
示例3包括示例1的主题,还包括透明度调节逻辑,用于基于所评估的影响来促进对所述透明度的调节,其中所述影响包括引起经由所述计算设备的显示器屏幕难以或易于观看内容,其中所述显示器屏幕包括透明玻璃显示器屏幕。
示例4包括示例3的主题,其中如果所述影响引起难以观看内容,则所述智能玻璃的透明度降低,使得所述智能玻璃变暗以允许较暗的背景来促进对所述内容的清晰观看,其中如果所述影响引起易于观看所述内容,则所述智能玻璃的透明度升高,使得所述智能玻璃被设置为更接近所述默认位置。
示例5包括示例1的主题,还包括语音识别和命令逻辑,用于经由第一捕捉/感测部件检测来自所述计算设备的用户的语音命令,以促进对所述智能玻璃的透明度的基于语音命令的调节,其中所述第一捕捉/感测部件包括麦克风。
示例6包括示例1的主题,还包括手势识别和命令逻辑,用于经由第二捕捉/感测部件检测来自所述计算设备的用户的手势命令,以促进对所述智能玻璃的透明度的基于手势命令的调节,其中所述第二捕捉/感测部件包括照相机。
示例7包括示例1的主题,还包括所述计算设备的输出部件的开/关调节按钮,其中所述开/关调节按钮用于促进所述智能玻璃的透明度的手工调节。
示例8包括示例1的主题,其中所述光条件由所述检测/接收逻辑经由第三捕捉/感测部件检测,其中所述第三捕捉/感测部件包括光传感器,其中经由所述计算设备的电源向所述智能玻璃供电。
一些实施例涉及示例9,其包括一种用于动态地促进用于计算设备上的玻璃显示器的改进观看能力的方法,包括:检测与包括可佩戴眼镜的计算设备相关的光条件,其中所述可佩戴眼镜包括智能玻璃,其中检测还包括检测光条件的改变;评估所述光条件的改变的影响;并且基于所述光条件的改变来促进所述智能玻璃的开启或关闭。
示例10包括示例9的主题,其中所述智能玻璃的开启对应于对所述智能玻璃的透明度的潜在调节的开启,其中所述智能玻璃的关闭促进所述智能玻璃的透明度的默认位置,其中所述计算设备还包括头戴显示器或智能窗。
示例11包括示例9的主题,还包括基于所评估的影响来促进对所述透明度的调节,其中,所述影响包括引起经由所述计算设备的显示器屏幕难以或易于观看内容,其中,所述显示器屏幕包括透明玻璃显示器屏幕。
示例12包括示例11的主题,其中如果所述影响引起难以观看所述内容,则所述智能玻璃的透明度降低,使得所述智能玻璃变暗以允许较暗的背景来促进对内容的清晰观看,其中如果所述影响引起易于观看所述内容,则所述智能玻璃的透明度升高,使得所述智能玻璃被设置为更接近所述默认位置。
示例13包括示例9的主题,还包括经由第一捕捉/感测部件检测来自计算设备的用户的语音命令,以促进对所述智能玻璃的透明度的基于语音命令的调节,其中所述第一捕捉/感测部件包括麦克风。
示例14包括示例9的主题,还包括经由第二捕捉/感测部件检测来自所述计算设备的用户的手势命令,以促进对智能玻璃的透明度的基于手势命令的调节,其中所述第二捕捉/感测部件包括照相机。
示例15包括示例9的主题,还包括促进对所述智能玻璃的透明度的手工调节,其中经由所述计算设备的输出部件的开/关调节按钮促进手工调节。
示例16包括示例9的主题,其中所述光条件经由第三捕捉/感测部件而被检测,其中所述第三捕捉/感测部件包括光传感器,其中经由所述计算设备的电源向所述智能玻璃供电。
示例17包括至少一个机器可读介质,所述至少一个机器可读介质包括多个指令,所述指令当在计算设备上执行时如任何前述权利要求中要求保护的那样实现或执行方法或实现装置。
示例18包括至少一个非暂时的或有形的机器可读介质,所述至少一个非暂时的或有形的机器可读介质包括多个指令,所述指令当在计算设备上执行时如任何前述权利要求中要求保护的那样实现或执行方法或实现装置。
示例19包括一种系统,所述系统包括如任何前述权利要求中要求保护的那样实现或执行方法或实现装置的机制。
示例20包括一种装置,所述装置包括用于如任何前述权利要求中要求保护的那样执行方法的装置。
示例21包括被布置为如任何前述权利要求中要求保护的那样实现或执行方法或实现装置的计算设备。
示例22包括被布置为实如任何前述权利要求中要求保护的那样实现或执行方法或实现装置的通信设备。
一些实施例涉及示例23,包括一种系统,所述系统包括具有指令的存储设备,以及用于执行指令以促进执行一个或多个操作的机制的处理器,所述一个或多个操作包括:检测与包括可佩戴眼镜的计算设备相关的光条件,其中所述可佩戴眼镜包括智能玻璃,其中检测还包括检测光条件的改变;评估所述光条件的改变的影响;并且基于所述光条件的改变来促进所述智能玻璃的开启或关闭。
示例24包括示例23的主题,其中所述智能玻璃的开启对应于对所述智能玻璃的透明度的潜在调节的开启,其中所述智能玻璃的关闭促进所述智能玻璃的透明度的默认位置,其中所述计算设备还包括头戴显示器或智能窗。
示例25包括示例23的主题,其中所述一个或多个操作还包括:基于所评估的影响来促进对所述透明度的调节,其中所述影响包括引起经由所述计算设备的显示器屏幕难以或易于观看内容,其中,所述显示器屏幕包括透明玻璃显示器屏幕。
示例26包括示例25的主题,其中如果所述影响引起难以观看所述内容,则所述智能玻璃的透明度降低,使得所述智能玻璃变暗以允许较暗的背景来促进对所述内容的清晰观看,其中如果所述影响引起易于观看所述内容,则所述智能玻璃的透明度升高,使得所述智能玻璃被设置为更接近所述默认位置。
示例27包括示例23的主题,其中所述一个或多个操作还包括:经由第一捕捉/感测部件检测来自所述计算设备的用户的语音命令,以促进对所述智能玻璃的透明度的基于语音命令的调节,其中所述第一捕捉/感测部件包括麦克风。
示例28包括示例23的主题,其中所述一个或多个操作还包括:经由第二捕捉/感测部件检测来自所述计算设备的用户的手势命令,以促进对所述智能玻璃的透明度的基于手势命令的调节,其中所述第二捕捉/感测部件包括照相机。
示例29包括示例23的主题,其中所述一个或多个操作还包括:促进对所述智能玻璃的透明度的手工调节,其中经由所述计算设备的输出部件的开/关调节按钮促进所述手工调节。
示例30包括示例23的主题,其中所述光条件经由第三捕捉/感测部件而被检测,其中所述第三捕捉/感测部件包括光传感器,其中经由所述计算设备的电源向所述智能玻璃供电。
一些实施例涉及示例31的,包括一种装置,所述装置包括:用于检测与包括可佩戴眼镜的计算设备相关的光条件的装置,其中所述可佩戴眼镜包括智能玻璃,其中用于检测的装置还包括用于检测所述光条件的改变的装置;用于评估所述光条件的改变的影响的装置;以及用于基于所述光条件的改变来促进所述智能玻璃的开启或关闭的装置。
示例32包括示例31的主题,其中所述智能玻璃的开启对应于对所述智能玻璃的透明度的潜在调节的开启,其中所述智能玻璃的关闭促进所述智能玻璃的透明度的默认位置,其中所述计算设备还包括头戴显示器或智能窗。
示例33包括示例31的主题,还包括用于基于所评估的影响来促进对所述透明度的调节的装置,其中所述影响包括引起经由所述计算设备的显示器屏幕难以或易于观看内容,其中,所述显示器屏幕包括透明玻璃显示器屏幕。
示例34包括示例33的主题,其中如果影响引起难以观看内容,则所述智能玻璃的透明度降低,使得所述智能玻璃变暗以允许较暗的背景来促进对所述内容的清晰观看,其中如果所述影响引起易于观看所述内容,则所述智能玻璃的透明度升高,使得所述智能玻璃被设置为更接近所述默认位置。
示例35包括示例31的主题,还包括用于经由第一捕捉/感测部件检测来自所述计算设备的用户的语音命令以促进对所述智能玻璃的透明度的基于语音命令的调节的装置,其中所述第一捕捉/感测部件包括麦克风。
示例36包括示例31的主题,还包括用于经由第二捕捉/感测部件检测来自所述计算设备的用户的手势命令以促进对所述智能玻璃的透明度的基于手势命令的调节的装置,其中所述第二捕捉/感测部件包括照相机。
示例37包括示例31的主题,还包括用于促进所述智能玻璃的透明度的手工调节的装置,其中经由所述计算设备的输出部件的开/关调节按钮来促进所述手工调节。
示例38包括示例31的主题,其中所述光条件经由第三捕捉/感测部件而被检测,其中所述第三捕捉/感测部件包括光传感器,其中经由所述计算设备的电源向所述智能玻璃供电。
附图和前面的描述给出了实施例的示例。本领域技术人员将理解,所描述的元素中的一个或多个可以很好地组合成单个功能元素。可替代地,某些元素可以被分成多个功能元素。来自一个实施例的元素可以被添加到另一个实施例。例如,本文描述的过程的顺序可以改变,并且不限于本文所述的方式。此外,任何流程图的动作都不需要按照所示的顺序来实施;也不一定需要执行所有动作。而且,不依赖于其他动作的那些动作可以与其他动作并行地执行。实施例的范围绝对不受这些具体示例的限制。诸如材料的结构、尺寸和使用的差异之类的许多改变--无论是否在说明书中明确给出—都是可能的。实施例的范围至少与以下权利要求所给出的一样宽。

Claims (21)

1.一种用于动态地促进用于玻璃显示器的改进观看能力的装置,包括:
检测/接收逻辑,用于检测与包括可佩戴眼镜的计算设备相关的光条件,其中所述可佩戴眼镜包括智能玻璃,其中所述检测/接收逻辑还用于检测光条件的改变;
条件评估逻辑,用于评估所述光条件的改变的影响;和
透明度开/关逻辑,用于基于所述光条件的改变来促进所述智能玻璃的开启或关闭。
2.根据权利要求1所述的装置,其中,所述智能玻璃的开启对应于对所述智能玻璃的透明度的潜在调节的开启,其中所述智能玻璃的关闭促进所述智能玻璃的透明度的默认位置,其中所述计算设备还包括头戴式显示器或智能窗。
3.根据权利要求1或2所述的装置,还包括透明度调节逻辑,用于基于所评估的影响来促进对所述透明度的调节,其中,所述影响包括引起经由所述计算设备的显示器屏幕难以或易于观看内容,其中,所述显示器屏幕包括透明玻璃显示器屏幕。
4.根据权利要求3所述的装置,其中,如果所述影响引起难以观看所述内容,则所述智能玻璃的透明度降低,使得所述智能玻璃变暗以允许较暗的背景来促进对所述内容的清晰观看,其中,如果所述影响引起易于观看所述内容,则所述智能玻璃的透明度升高,使得所述智能玻璃被设置为更接近所述默认位置。
5.根据权利要求1所述的装置,还包括语音识别和命令逻辑,用于经由第一捕捉/感测部件检测来自所述计算设备的用户的语音命令,以促进对所述智能玻璃的透明度的基于语音命令的调节,其中所述第一捕捉/感测部件包括麦克风。
6.根据权利要求1或5所述的装置,还包括手势识别和命令逻辑,用于经由第二捕捉/感测部件检测来自所述计算设备的用户的手势命令,以促进对所述智能玻璃的透明度的基于手势命令的调节,其中所述第二捕捉/感测部件包括照相机。
7.根据权利要求1所述的装置,还包括所述计算设备的输出部件的开/关调节按钮,其中所述开/关调节按钮用于促进对所述智能玻璃的透明度的手工调节。
8.根据权利要求1所述的装置,其中,所述光条件由所述检测/接收逻辑经由第三捕捉/感测部件检测,其中所述第三捕捉/感测部件包括光传感器,其中经由所述计算设备的电源向所述智能玻璃供电。
9.一种用于动态地促进用于玻璃显示器的改进观看能力的方法,包括:
检测与包括可佩戴眼镜的计算设备相关的光条件,其中所述可佩戴眼镜包括智能玻璃,其中检测还包括检测光条件的改变;
评估所述光条件的改变的影响;和
基于所述光条件的改变来促进所述智能玻璃的开启或关闭。
10.根据权利要求9所述的方法,其中,所述智能玻璃的开启对应于对所述智能玻璃的透明度的潜在调节的开启,其中所述智能玻璃的关闭促进所述智能玻璃的透明度的默认位置,其中所述计算设备还包括头戴式显示器或智能窗。
11.根据权利要求9所述的方法,还包括:基于所评估的影响来促进对所述透明度的调节,其中,所述影响包括引起经由所述计算设备的显示器屏幕难以或易于观看内容,其中,所述显示器屏幕包括透明玻璃显示器屏幕。
12.根据权利要求11所述的方法,其中,如果所述影响引起难以观看所述内容,则所述智能玻璃的透明度降低,使得所述智能玻璃变暗以允许较暗的背景来促进对所述内容的清晰观看,其中,如果所述影响引起易于观看所述内容,则所述智能玻璃的透明度升高,使得所述智能玻璃被设置为更接近所述默认位置。
13.根据权利要求9所述的方法,还包括经由第一捕捉/感测部件检测来自所述计算设备的用户的语音命令,以促进对所述智能玻璃的透明度的基于语音命令的调节,其中所述第一捕捉/感测部件包括麦克风。
14.根据权利要求9所述的方法,还包括经由第二捕捉/感测部件检测来自所述计算设备的用户的手势命令,以促进对所述智能玻璃的透明度的基于手势命令的调节,其中所述第二捕捉/感测部件包括照相机。
15.根据权利要求9所述的方法,还包括促进对所述智能玻璃的透明度的手工调节,其中经由所述计算设备的输出部件的开/关调节按钮促进所述手工调节。
16.根据权利要求9所述的方法,其中,所述光条件经由第三捕捉/感测部件而被检测,其中所述第三捕捉/感测部件包括光传感器,其中经由所述计算设备的电源向所述智能玻璃供电。
17.至少一种机器可读介质,其包括多个指令的,所述多个指令当在计算设备上执行时实现或执行根据权利要求9-16中任一项所要求保护的方法。
18.一种系统,其包括用于实现或执行根据权利要求9-16中任一项所要求保护的方法的机制。
19.一种装置,包括用于执行根据权利要求9-16中任一项所要求保护的方法的装置。
20.一种计算设备,被布置为实现或执行根据权利要求9-16中任一项所要求保护的方法。
21.一种通信设备,被布置为实现或执行根据权利要求9-16中任一项所要求保护的方法。
CN201580062923.2A 2014-12-19 2015-11-16 促进用于玻璃显示器的改进观看能力 Expired - Fee Related CN107003821B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/577,951 US20160178905A1 (en) 2014-12-19 2014-12-19 Facilitating improved viewing capabitlies for glass displays
US14/577951 2014-12-19
PCT/US2015/060933 WO2016099741A1 (en) 2014-12-19 2015-11-16 Facilitating improved viewing capabilities for glass displays

Publications (2)

Publication Number Publication Date
CN107003821A true CN107003821A (zh) 2017-08-01
CN107003821B CN107003821B (zh) 2021-09-07

Family

ID=56127265

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580062923.2A Expired - Fee Related CN107003821B (zh) 2014-12-19 2015-11-16 促进用于玻璃显示器的改进观看能力

Country Status (5)

Country Link
US (1) US20160178905A1 (zh)
KR (1) KR20170098214A (zh)
CN (1) CN107003821B (zh)
TW (1) TWI585461B (zh)
WO (1) WO2016099741A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111077671A (zh) * 2018-10-19 2020-04-28 广东虚拟现实科技有限公司 设备控制方法、装置、显示设备及存储介质

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107111139A (zh) * 2015-01-08 2017-08-29 阿什克伦眼镜科技有限公司 用于显示内容的设备和方法
US10316581B1 (en) * 2015-01-12 2019-06-11 Kinestral Technologies, Inc. Building model generation and intelligent light control for smart windows
US10055887B1 (en) * 2015-02-19 2018-08-21 Google Llc Virtual/augmented reality transition system and method
CN106034212B (zh) * 2015-03-10 2019-02-26 深圳富泰宏精密工业有限公司 投影装置、控制装置及穿戴式投影系统
US10325382B2 (en) * 2016-09-28 2019-06-18 Intel Corporation Automatic modification of image parts based on contextual information
CN106646889A (zh) * 2017-03-01 2017-05-10 京东方科技集团股份有限公司 一种投影屏、车载抬头显示器和显示调节方法
US11816886B1 (en) * 2018-06-28 2023-11-14 Meta Platforms Technologies, Llc Apparatus, system, and method for machine perception
US10633007B1 (en) * 2019-01-31 2020-04-28 StradVision, Inc. Autonomous driving assistance glasses that assist in autonomous driving by recognizing humans' status and driving environment through image analysis based on deep neural network
US11747622B2 (en) * 2021-01-04 2023-09-05 Rovi Guides, Inc. Methods and systems for controlling media content presentation on a smart glasses display
US11734665B2 (en) * 2021-02-08 2023-08-22 Bank Of America Corporation Card-to-smartglasses payment systems
US12518720B2 (en) * 2021-08-27 2026-01-06 Meta Platforms Technologies, Llc Electronic control of smart glasses for enhanced reality applications
TW202328757A (zh) * 2021-08-27 2023-07-16 美商元平台技術有限公司 用於增強型實境應用的智能眼鏡之電子控制
US11726339B2 (en) 2021-11-30 2023-08-15 Samsung Electronics Co., Ltd. System for digital recording protection and electrochromic device frame
EP4614300A1 (en) * 2022-12-05 2025-09-10 Samsung Electronics Co., Ltd. Wearable device and method for changing background object on basis of size or number of foreground objects
WO2025042700A1 (en) * 2023-08-22 2025-02-27 View, Inc. Smart home control

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296032A (ja) * 2002-04-03 2003-10-17 Pioneer Electronic Corp 表示部一体型タッチパネル装置およびその製造方法
US7110052B1 (en) * 1994-10-13 2006-09-19 Reveo, Inc. Backlighting construction for use in computer-based display systems having direct and projection viewing modes of operation
CN101101509A (zh) * 2006-07-03 2008-01-09 微光科技股份有限公司 指针输入系统的输入及校正方法
US20120035857A1 (en) * 2004-07-02 2012-02-09 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Computer-implemented biological sequence identifier system and method
US20120229458A1 (en) * 2011-03-10 2012-09-13 Ching-Sheng Cheng Image control device
WO2013077624A1 (en) * 2011-11-21 2013-05-30 Lg Electronics Inc. Electronic device
US20130162505A1 (en) * 2011-06-22 2013-06-27 Robert Crocco Environmental-light filter for see-through head-mounted display device
US20140085282A1 (en) * 2012-09-21 2014-03-27 Nvidia Corporation See-through optical image processing
US20140184758A1 (en) * 2012-12-31 2014-07-03 Lg Display Co., Ltd. Image processing method of transparent display apparatus and apparatus thereof
US20140225918A1 (en) * 2013-02-14 2014-08-14 Qualcomm Incorporated Human-body-gesture-based region and volume selection for hmd
CN103999145A (zh) * 2011-12-28 2014-08-20 英特尔公司 响应于用户的显示器调光
CN203825558U (zh) * 2014-01-15 2014-09-10 陈绳旭 基于玻璃屏的人机交互系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096868A (ja) * 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5136442B2 (ja) * 2009-01-27 2013-02-06 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5514583B2 (ja) * 2009-03-13 2014-06-04 富士フイルム株式会社 感活性光線性または感放射線性樹脂組成物及び該組成物を用いたパターン形成方法
WO2010144420A1 (en) * 2009-06-08 2010-12-16 Be Aerospace, Inc. Touch responsive privacy partition
JP5499985B2 (ja) * 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
US9097904B2 (en) * 2011-07-10 2015-08-04 Industrial Technology Research Institute Display apparatus
JP6099884B2 (ja) * 2012-05-25 2017-03-22 三菱電機株式会社 立体画像表示装置
US9389423B2 (en) * 2014-03-11 2016-07-12 Google Inc. Head wearable display with adjustable transparency

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110052B1 (en) * 1994-10-13 2006-09-19 Reveo, Inc. Backlighting construction for use in computer-based display systems having direct and projection viewing modes of operation
JP2003296032A (ja) * 2002-04-03 2003-10-17 Pioneer Electronic Corp 表示部一体型タッチパネル装置およびその製造方法
US20120035857A1 (en) * 2004-07-02 2012-02-09 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Computer-implemented biological sequence identifier system and method
CN101101509A (zh) * 2006-07-03 2008-01-09 微光科技股份有限公司 指针输入系统的输入及校正方法
US20120229458A1 (en) * 2011-03-10 2012-09-13 Ching-Sheng Cheng Image control device
US20130162505A1 (en) * 2011-06-22 2013-06-27 Robert Crocco Environmental-light filter for see-through head-mounted display device
WO2013077624A1 (en) * 2011-11-21 2013-05-30 Lg Electronics Inc. Electronic device
CN103999145A (zh) * 2011-12-28 2014-08-20 英特尔公司 响应于用户的显示器调光
US20140085282A1 (en) * 2012-09-21 2014-03-27 Nvidia Corporation See-through optical image processing
US20140184758A1 (en) * 2012-12-31 2014-07-03 Lg Display Co., Ltd. Image processing method of transparent display apparatus and apparatus thereof
US20140225918A1 (en) * 2013-02-14 2014-08-14 Qualcomm Incorporated Human-body-gesture-based region and volume selection for hmd
CN203825558U (zh) * 2014-01-15 2014-09-10 陈绳旭 基于玻璃屏的人机交互系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111077671A (zh) * 2018-10-19 2020-04-28 广东虚拟现实科技有限公司 设备控制方法、装置、显示设备及存储介质

Also Published As

Publication number Publication date
TWI585461B (zh) 2017-06-01
CN107003821B (zh) 2021-09-07
TW201636681A (zh) 2016-10-16
US20160178905A1 (en) 2016-06-23
KR20170098214A (ko) 2017-08-29
WO2016099741A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
CN107003821B (zh) 促进用于玻璃显示器的改进观看能力
US12399535B2 (en) Facilitating dynamic detection and intelligent use of segmentation on flexible display screens
US11500536B2 (en) Neural network system for gesture, wear, activity, or carry detection on a wearable or mobile device
US20210157149A1 (en) Virtual wearables
US20160372083A1 (en) Facilitating increased user experience and efficient power performance using intelligent segmentation on flexible display screens
US10915161B2 (en) Facilitating dynamic non-visual markers for augmented reality on computing devices
US10728616B2 (en) User interest-based enhancement of media quality
US20160195849A1 (en) Facilitating interactive floating virtual representations of images at computing devices
US9792673B2 (en) Facilitating projection pre-shaping of digital images at computing devices
WO2019183914A1 (en) Dynamic video encoding and view adaptation in wireless computing environments
US20250355487A1 (en) Method And Device For Dynamic Sensory And Input Modes Based On Contextual State
US20160285842A1 (en) Curator-facilitated message generation and presentation experiences for personal computing devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210907

CF01 Termination of patent right due to non-payment of annual fee