[go: up one dir, main page]

CN116057451A - 改变显示器的设置的方法及电子装置 - Google Patents

改变显示器的设置的方法及电子装置 Download PDF

Info

Publication number
CN116057451A
CN116057451A CN202180054559.0A CN202180054559A CN116057451A CN 116057451 A CN116057451 A CN 116057451A CN 202180054559 A CN202180054559 A CN 202180054559A CN 116057451 A CN116057451 A CN 116057451A
Authority
CN
China
Prior art keywords
display panel
eye
dominant
electronic device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180054559.0A
Other languages
English (en)
Inventor
尹钟珉
金铁贵
朴正源
刘伦相
朴赞敏
廉东铉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200112612A external-priority patent/KR102917803B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN116057451A publication Critical patent/CN116057451A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0143Head-up displays characterised by optical features the two eyes not being equipped with identical nor symmetrical optical devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

根据各种实施例的电子装置可以包括:第一相机,用于捕获电子装置前方的外部环境;第二相机,用于捕获与第一相机的捕获方向相反的方向,以便识别用户的左眼和右眼的注视方向;对应于左眼的第一显示面板;对应于右眼的第二显示面板;存储器;以及与第一相机、第二相机、第一显示面板、第二显示面板和存储器可操作地连接的处理器。该处理器可以:识别左眼和右眼中的主导眼和非主导眼;在第一显示面板和第二显示面板之间识别对应于主导眼的主显示面板,以及在第一显示面板和第二显示面板之间识别对应于非主导眼的辅助显示面板;以及改变主显示面板的至少一些设置。其他各种实施例也是可能的。

Description

改变显示器的设置的方法及电子装置
技术领域
本公开的某些实施例涉及改变虚拟现实和增强现实显示器的设置的方法和电子装置。
背景技术
随着数字技术的发展,各种类型的电子装置,如移动通信终端、个人数字助理(PDA)、电子记事本、智能手机、平板个人电脑(PC)和可穿戴装置已经被广泛地使用。对支持和增加电子装置的这些功能继续进行开发,从而改进了硬件和/或软件。
例如,电子装置可以促进虚拟现实(VR)服务,使得用户在计算机生成的虚拟世界中获得真实的体验。此外,电子装置可以提供虚拟信息(或物体)被添加到真实世界的视图中的增强现实(AR)服务。此外,一些设备还提供了VR和AR混合到单一的体验中的混合现实(MR)服务。电子装置可以包括提供这种VR和AR服务的平视显示器(heads-up display,HUD)。
发明内容
技术问题
诸如HUD的电子装置可以穿戴在用户的头上并包括与左眼对应的第一面板和与右眼对应的第二面板。显示模块可以被包括在装置框架(例如,壳体)中。显示模块可以包括第一面板和第二面板。电子装置可以通过第一面板和第二面板显示具有某些匹配元素的画面(例如,提供立体效果)。当电子装置通过第一面板和第二面板输出画面时,会消耗大量的电力,因此电子装置的潜在使用时间可能会减少,并且由于由此产生的热量,电子装置的温度可能会升高。
本公开的某些实施例可以提供设备和方法,以区分用户的主导眼和非主导眼,并改变与非主导眼对应的显示面板的设置,从而减少了功耗。
解决方案
根据某些实施例的电子装置可以包括:第一相机,所述第一相机被配置为捕获所述电子装置的正面外部环境;第二相机,所述第二相机与所述第一相机相反定向并且被配置为捕获用户的左眼和右眼的注视方向;第一显示面板,所述第一显示面板对应于左眼;第二显示面板,所述第二显示面板对应于右眼;存储器;以及可操作地连接到所述第一相机、所述第二相机、所述第一显示面板、所述第二显示面板和所述存储器的处理器,其中,所述处理器被配置为;利用所述第二相机,在左眼和右眼中识别主导眼和非主导眼;以及从所述第一显示面板和所述第二显示面板中识别与所述主导眼相对应的主导显示面板,以及从所述第一显示面板和所述第二显示面板中识别与所述非主导眼相对应的非主导显示面板;以及改变所述主导显示面板的设置,使其与所述非主导显示面板的设置不同。
根据某些实施例的方法可以包括利用被配置为捕获所述电子装置的正面外部环境的第一相机或与所述第一相机相反定向并且被配置为捕获用户的左眼和右眼的注视方向的第二相机中的一者或更多者,在用户的左眼和右眼中识别主导眼和非主导眼;利用至少一个处理器从第一显示面板和第二显示面板中识别与所述主导眼相对应的主导显示面板,以及从所述第一显示面板和所述第二显示面板中识别与所述非主导眼相对应的非主导显示面板;以及改变所述主导显示面板的设置,使其与所述非主导显示面板的设置不同。
本发明的技术效果
本公开的某些实施例可以从用户的眼睛中识别出主导眼和/或非主导眼,并改变与非主导眼对应的显示面板的至少一些设置,这可以减少电子装置的电流消耗。
根据某些实施例,电子装置可以确定用户的主导眼和非主导眼,并改变与非主导眼对应的显示面板的设置,使其至少部分地不同于与主导眼对应的显示面板的设置。电子装置可以改变与非主导眼对应的显示面板的至少一些设置,以降低该显示面板的质量。
根据本公开的某些实施例,随着对显示面板设置的改变,电子装置的电流消耗可以减少,装置的潜在使用时间可以增加,并且可以减少发热。
此外,还可以提供通过本文直接或间接确定的各种效果。
附图说明
根据结合附图的以下描述,本公开的上述和其他方面、特征和优点将更清楚,其中:
图1是说明了根据本公开的网络环境中的电子装置。
图2a是说明了根据本公开的某些实施例的包括多个相机的电子装置的整体配置的视图。
图2b是根据本公开的某些实施例的电子装置的前视图。
图2c是根据本公开的某些实施例的电子装置的后视图。
图3是根据本公开的某些实施例的用于改变显示面板的设置的电子装置的框图。
图4是说明了根据本公开的某些实施例的用于改变与非主导眼对应的显示面板的设置的方法的流程图。
图5是说明了根据本公开的某些实施例的用于调整与非主导眼对应的显示面板的分辨率的方法。
图6是描述了根据本公开的某些实施例用于调整与非主导眼对应的显示面板的分辨率的方法的表格。
图7是说明了根据本公开的某些实施例的用于调整与非主导眼对应的显示面板的帧率的方法的流程图。
图8是描述了根据本公开的某些实施例的用于调整与非主导眼对应的显示面板的帧率的方法的表格。
图9是说明了根据本公开的某些实施例的用于调整与非主导眼对应的显示面板的显示区域的方法的流程图。
图10a是描述了根据本公开的某些实施例的用于调整与非主导眼对应的显示面板的显示区域的方法的第一说明图。
图10b是描述了根据本公开的某些实施例的用于调整与非主导眼对应的显示面板的显示区域的方法的第二说明图。
图11是说明了根据本公开的某些实施例的用于检查非主导眼的变化和对与改变后的非主导眼对应的显示面板的设置进行改变的方法的流程图。
图12是描述了根据本公开的某些实施例的用于检查非主导眼的变化和对与改变后的非主导眼对应的显示面板的设置进行改变的方法的说明图。
图13a是描述了根据本公开的某些实施例的用于检测主导眼和非主导眼的方法的第一说明图。
图13b是描述了根据本公开的某些实施例的用于检测主导眼和非主导眼的方法的第二说明图。
图14是描述了根据本公开的某些实施例的基于视场区域来检测主导眼和非主导眼的方法的说明图。
具体实施方式
下面,将参照附图对某些实施例进行详细描述。应该理解的是,这些实施例和其中使用的术语并不是为了将本文描述的技术限制在特定的实施例中,而是包括其各种修改、等同和/或替代。在附图的描述中,类似的附图标记可用于类似的组件。除非上下文明确指出,否则单数形式也包括复数形式。
图1是示出根据各种实施例的网络环境100中的电子装置101的框图。参照图1,网络环境100中的电子装置101可经由第一网络198(例如,短距离无线通信网络)与电子装置102进行通信,或者经由第二网络199(例如,长距离无线通信网络)与电子装置104或服务器108进行通信。根据实施例,电子装置101可经由服务器108与电子装置104进行通信。根据实施例,电子装置101可包括处理器120、存储器130、输入装置150、声音输出装置155、显示装置160、音频模块170、传感器模块176、接口177、触觉模块179、相机模块180、电力管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可从电子装置101中省略所述部件中的至少一个(例如,显示装置160或相机模块180),或者可将一个或更多个其它部件添加到电子装置101中。在一些实施例中,可将所述部件中的一些部件实现为单个集成电路。例如,可将传感器模块176(例如,指纹传感器、虹膜传感器、或照度传感器)实现为嵌入在显示装置160(例如,显示器)中。
处理器120可运行例如软件(例如,程序140)来控制电子装置101的与处理器120连接的至少一个其它部件(例如,硬件部件或软件部件),并可执行各种数据处理或计算。根据一个实施例,作为所述数据处理或计算的至少部分,处理器120可将从另一部件(例如,传感器模块176或通信模块190)接收到的命令或数据加载到易失性存储器132中,对存储在易失性存储器132中的命令或数据进行处理,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可包括主处理器121(例如,中央处理器(CPU)或应用处理器(AP))以及与主处理器121在操作上独立的或者相结合的辅助处理器123(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。另外地或者可选择地,辅助处理器123可被适配为比主处理器121耗电更少,或者被适配为具体用于指定的功能。可将辅助处理器123实现为与主处理器121分离,或者实现为主处理器121的部分。
在主处理器121处于未激活(例如,睡眠)状态时,辅助处理器123可控制与电子装置101(而非主处理器121)的部件之中的至少一个部件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于激活状态(例如,运行应用)时,辅助处理器123可与主处理器121一起来控制与电子装置101的部件之中的至少一个部件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些。根据实施例,可将辅助处理器123(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器123相关的另一部件(例如,相机模块180或通信模块190)的部分。
存储器130可存储由电子装置101的至少一个部件(例如,处理器120或传感器模块176)使用的各种数据。所述各种数据可包括例如软件(例如,程序140)以及针对与其相关的命令的输入数据或输出数据。存储器130可包括易失性存储器132或非易失性存储器134。
可将程序140作为软件存储在存储器130中,并且程序140可包括例如操作系统(OS)142、中间件144或应用146。
输入装置150可从电子装置101的外部(例如,用户)接收将由电子装置101的其它部件(例如,处理器120)使用的命令或数据。输入装置150可包括例如麦克风、鼠标、键盘、键(例如,按钮)或数字笔(例如,手写笔)。
声音输出装置155可将声音信号输出到电子装置101的外部。声音输出装置155可包括例如扬声器或接收器。扬声器可用于诸如播放多媒体或播放唱片的通用目的,接收器可用于呼入呼叫。根据实施例,可将接收器实现为与扬声器分离,或实现为扬声器的部分。
显示装置160可向电子装置101的外部(例如,用户)视觉地提供信息。显示装置160可包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示装置160可包括被适配为检测触摸的触摸电路或被适配为测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块170可将声音转换为电信号,反之亦可。根据实施例,音频模块170可经由输入装置150获得声音,或者经由声音输出装置155或与电子装置101直接(例如,有线地)连接或无线连接的外部电子装置(例如,电子装置102)的耳机输出声音。
传感器模块176可检测电子装置101的操作状态(例如,功率或温度)或电子装置101外部的环境状态(例如,用户的状态),然后产生与检测到的状态相应的电信号或数据值。根据实施例,传感器模块176可包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口177可支持将用来使电子装置101与外部电子装置(例如,电子装置102)直接(例如,有线地)或无线连接的一个或更多个特定协议。根据实施例,接口177可包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端178可包括连接器,其中,电子装置101可经由所述连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接端178可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可将电信号转换为可被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可包括例如电机、压电元件或电刺激器。
相机模块180可捕获静止图像或运动图像。根据实施例,相机模块180可包括一个或更多个透镜、图像传感器、图像信号处理器或闪光灯。根据实施例,相机模块180可以包括设置在电子装置101的前表面上的前置相机和设置在电子装置101的后表面上的后置相机。
电力管理模块188可管理对电子装置101的供电。根据实施例,可将电力管理模块188实现为例如电力管理集成电路(PMIC)的至少部分。
电池189可对电子装置101的至少一个部件供电。根据实施例,电池189可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块190可支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块190可包括能够与处理器120(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施例,通信模块190可包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络198(例如,短距离通信网络,诸如蓝牙、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,长距离通信网络,诸如蜂窝网络、互联网、或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置进行通信。可将这些各种类型的通信模块实现为单个部件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个部件(例如,多个芯片)。无线通信模块192可使用存储在用户识别模块196中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
无线通信模块192可以支持4G网络之后的5G网络和下一代通信技术,例如,新无线(NR)接入技术。NR接入技术可以支持增强型移动宽带(eMBB)、大规模机器型通信(mMTC)、或超可靠和低延迟通信(URLLC)。无线通信模块192可以支持高频段(例如,毫米波频段)以实现例如高数据传输率。无线通信模块192可以支持各种技术以确保在高频段上的性能,例如,波束成形、大规模多输入和多输出(大规模MIMO)、全维MIMO(FD-MIMO)、阵列天线、模拟波束成形或大规模天线。无线通信模块192可以支持电子装置101、外部电子装置(例如,电子装置104)或网络系统(例如,第二网络199)中规定的各种要求。根据实施例,无线通信模块192可以支持用于实施eMBB的峰值数据速率(例如,20Gbps或更高)、用于实施mMTC的损耗覆盖(例如,164dB或更低)、或用于实施URLLC的U面延迟(例如,在下行链路(DL)和上行链路(UL)中的每一者中0.5ms或更少,或1ms或更少的往返)。
天线模块197可将信号或电力发送到电子装置101的外部(例如,外部电子装置)或者从电子装置101的外部(例如,外部电子装置)接收信号或电力。根据实施例,天线模块197可包括一个或更多个天线,并且因此,可由例如通信模块190(例如,无线通信模块192)选择适合于在通信网络(诸如第一网络198或第二网络199)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块190和外部电子装置之间发送或接收信号或电力。
根据某些实施例,天线模块197可以形成毫米波天线模块。根据实施例,毫米波天线模块可以包括印刷电路板、布置在印刷电路板的第一表面(例如,底表面)上的RFIC或与第一表面相邻的并能够支持指定的高频段(例如,毫米波波段)的RFIC、以及设置在印刷电路板的第二表面(例如,顶部或侧表面)上或与第二表面相邻并能够发射或接收指定的高频段的信号的多个天线(例如,阵列天线)。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络199连接的服务器108在电子装置101和外部电子装置104之间发送或接收命令或数据。电子装置102和电子装置104中的每一个可以是与电子装置101相同类型的装置,或者是与电子装置101不同类型的装置。根据实施例,将在电子装置101运行的全部操作或一些操作可在外部电子装置102、外部电子装置104或服务器108中的一个或更多个运行。例如,如果电子装置101应该自动执行功能或服务或者应该响应于来自用户或另一装置的请求执行功能或服务,则电子装置101可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子装置101除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分。接收到所述请求的所述一个或更多个外部电子装置可执行所述功能或服务中的所请求的所述至少部分,或者执行与所述请求相关的另外功能或另外服务,并将执行的结果传送到电子装置101。电子装置101可在对所述结果进行进一步处理的情况下或者在不对所述结果进行进一步处理的情况下将所述结果提供作为对所述请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术或客户机-服务器计算技术。
图2a说明了根据本公开的某些实施例的包括多个相机的电子装置(例如,图1中的电子装置101)的整体配置。图2b说明了根据本公开的某些实施例的电子装置的前视图。图2c说明了根据本公开的某些实施例的电子装置的后视图。图2b是说明了电子装置101的前部的第一说明图。图2c是说明了电子装置101的后部的第二说明图,其内部配置可以与图2a中示出的配置相同。
在某些实施例中,电子装置101可以穿戴在用户的头上并向用户提供与增强现实服务有关的图像。根据实施例,电子装置101可以提供增强现实服务,该服务输出被视为叠加在确定为用户视场(FoV)的区域上的至少一个虚拟物体。例如,确定为用户视场的区域是确定为可由穿戴电子装置101的用户通过电子装置101识别的区域,并且可以是包括电子装置101的显示模块(例如,图1中的显示模块160)的整体或至少一部分的区域。根据实施例,电子装置101可以包括对应于用户的双眼(例如,左眼和/或右眼)的多个眼镜(例如,第一眼镜220和/或第二眼镜230)。该多个眼镜可以包括显示模块的至少一部分(例如,图3中的第一显示模块351和/或第二显示模块353)。例如,对应于用户的左眼的第一眼镜220可以包括第一显示模块351,对应于用户的右眼的第二眼镜230可以包括第二显示模块353。例如,电子装置101可以被配置为眼镜、护目镜、头盔或帽子中的至少一种形式,但不限于此。
参照图2a,根据实施例的电子装置101可以包括显示模块214(例如,图1中的显示模块160)、相机模块(例如,图1中的相机模块180)、音频模块(例如,图1中的音频模块170)、第一支撑部分221、和/或第二支撑部分222。根据实施例,显示模块160可以包括第一显示器(例如,图3中的第一眼镜220、第一显示模块351)和/或第二显示器(例如,图3中的第二眼镜230、第二显示模块353)。根据实施例,至少一个相机可以包括用于捕获与用户视场(FoV)对应的图像和/或测量与环境物体的距离的拍摄相机213、用于识别用户的注视方向的目光跟踪相机212、和/或用于识别特定空间的识别相机(例如,手势捕获相机)211-1或211-2。例如,拍摄相机213可以拍摄电子装置101的正面方向,目光跟踪相机212可以拍摄与拍摄相机213的拍摄方向相反的方向。例如,目光跟踪相机212可以至少部分地拍摄用户的双眼。根据实施例,第一支撑部分221和/或第二支撑部分222可以包括印刷电路板(PCB)231-1和231-2、扬声器232-1和232-2、和/或电池233-1和233-2。
根据实施例,显示模块160(例如,图2a中的显示模块214)可以设置在电子装置101的主体部分(例如,图2b中的主体部分223)上并且可以包括眼镜(例如,第一眼镜220和第二眼镜230)上的聚光透镜(未示出)和/或透明波导(未示出)。例如,透明波导可以至少部分地设置在眼镜的一部分处。根据实施例,从显示模块160发射的光可以通过第一眼镜220和第二眼镜230入射到眼镜的一端,并且入射光可以通过形成在眼镜中的波导传输给用户。波导可以由玻璃、塑料或聚合物制成,并且可以包括纳米图案,例如,在其内部或外部的一个表面上形成的多边形或弧形光栅结构。根据实施例,入射光可以通过纳米图案在波导内传播或反射而提供给用户。根据实施例,波导可以包括至少一个衍射元件(例如,衍射光学元件(DOE)、全息光学元件(HOE))或至少一个反射元件(例如,反射镜)中的至少一者。根据实施例,波导可以通过使用至少一个衍射元件或反射元件将从光源发出的显示光引导到用户的眼睛。
参照图2a,第一支撑部分221和/或第二支撑部分222可以包括用于将电信号发射到电子装置101的各个部件的印刷电路板231-1和231-2、用于输出音频信号的扬声器232-1和232-2、电池233-1和233-2、和/或用于至少部分地与电子装置101的主体部分223联接的铰链240-1和240-2。根据实施例,扬声器232-1和232-2可以包括用于向用户的左耳发送音频信号的第一扬声器232-1和用于向用户的右耳发送音频信号的第二扬声器232-2。扬声器232-1和232-2可以包括在图1的音频模块170中。根据实施例,电子装置101可以配备有多个电池233-1和233-2,并且可以通过电力管理模块(例如,图1中的电力管理模块188)向印刷电路板231-1和231-2供电。
参照图2a,电子装置101可以包括用于接收用户的声音和环境声音的麦克风241。例如,麦克风241可以被包括在图1中的音频模块170中。电子装置101可以包括至少一个照明装置(照明LED)242,以提高至少一个相机(例如,拍摄相机213、目光跟踪相机212和/或识别相机211-1或211-2)的准确性。例如,照明装置242可以用作辅助装置,以提高用目光跟踪相机212拍摄用户的瞳孔时的准确性,并且照明装置242可以使用具有红外波长而不是可见光波长的红外LED。作为另一个示例,当在黑暗的环境中或由于多个光源和反射光的混合而难以检测到要拍摄的物体时,照明装置242可以作为辅助装置,用于使用识别相机211-1和211-2拍摄用户的手势(gesture)。
参照图2b和图2c,根据实施例的电子装置101可以包括主体部分223和支撑部分(例如,第一支撑部分221和/或第二支撑部分222),并且主体部分223和支撑部分221和222可以处于可操作连接状态。例如,主体部分223和支撑部分221和222可以通过铰链240-1和240-2可操作地连接。主体部分223可以至少部分地安置在用户的鼻子上,并且可以包括显示模块160和相机模块(例如,图1中的相机模块180)。支撑部分221和222可以包括被安置在用户耳朵上的支撑部分,并且可以包括被安置在左耳上的第一支撑部分221和/或被安置在右耳上的第二支撑部分222。根据实施例,第一支撑部分221或第二支撑部分222可以至少部分包括印刷电路板231-1或231-2、扬声器232-1或232-2和/或电池233-1或233-2(例如,图1中的电池189、图3中的第一电池333和/或第二电池334)。电池可以与电力管理模块(例如,图1中的电力管理模块188)电连接。
根据实施例,显示模块160可以包括第一眼镜220和/或第二眼镜230,并且可以通过第一眼镜220和第二眼镜230向用户提供视觉信息。电子装置101可以包括对应于左眼的第一眼镜220和/或对应于右眼的第二眼镜230。根据实施例,显示模块160可以包括显示面板和/或透镜(例如,玻璃)。例如,显示面板可以包括透明材料,例如玻璃或塑料。
根据实施例,显示模块160可以包括透明元件,用户可以通过显示模块160识别显示模块160后面的真实空间。显示模块160可以在透明元件的至少一部分上显示虚拟物体,从而用户将该虚拟物体看作是添加到至少一些真实空间中。包括在显示模块160中的第一眼镜220和/或第二眼镜230可以包括分别对应于用户的双眼(例如,左眼和/或右眼)的多个显示面板。
根据实施例,电子装置101可以包括虚拟现实(VR)装置(例如,虚拟现实装置)。当电子装置101是VR装置时,第一眼镜220可以是第一显示模块351,第二眼镜230可以是第二显示模块353。
根据实施例,通过显示模块160输出的虚拟物体可以包括与在电子装置101上运行的应用程序相关的信息和/或与位于对应于确定为用户视场(FoV)的区域的真实空间中的外部物体相关的信息。例如,在通过电子装置101的相机(例如,拍摄相机213)获得的与真实空间相关的图像信息中,电子装置101可以识别包括在与确定为用户视场(FoV)的区域对应的至少一部分中的外部物体。电子装置101可以在电子装置101的显示区域中输出(或显示)与在通过确定为用户视场的区域的至少一部分中识别出的外部物体相关的虚拟物体。外部物体可以包括存在于现实空间中的事物。根据某些实施例,电子装置101显示虚拟物体的显示区域可以包括显示模块(例如,第一显示模块351或第二显示模块353)的一部分(例如,显示面板的至少一部分)。根据实施例,显示区域可以是与第一眼镜220和/或第二眼镜230的至少一部分对应的区域。
根据实施例,电子装置101可以包括用于捕获与用户视场(FoV)对应的图像和/或测量与物体的距离的拍摄相机213(例如,RGB相机)、用于识别用户正在观看的注视方向的目光跟踪相机212和/或用于识别特定空间的识别相机211-1和211-2(例如,手势相机)。根据实施例,电子装置101可以利用拍摄相机213来测量与位于电子装置101的前方方向的物体的距离。根据实施例,在电子装置101中,多个目光跟踪相机212可以对应于用户的双眼而设置。例如,目光跟踪相机212可以拍摄与拍摄相机213的拍摄方向相反的方向。目光跟踪相机212可以检测用户的注视方向(例如,目光移动)。例如,目光跟踪相机212可以包括用于跟踪用户的左眼的注视方向的第一目光跟踪相机212-1和用于跟踪用户的右眼的注视方向的第二目光跟踪相机212-2。根据实施例,电子装置101可以利用识别相机211-1和211-2来检测预设距离(例如,特定空间)内的用户手势。例如,识别相机211-1和211-2可以被配置为多个,并且可以被设置在电子装置101的两侧。电子装置101可以利用至少一个相机从左眼和/或右眼中检测与主导眼和/或非主导眼对应的眼睛。例如,电子装置101可以基于用户针对外部物体或虚拟物体的注视方向来检测与主导眼和/或非主导眼对应的眼睛。
根据实施例,拍摄相机213可以包括高质量相机,例如高分辨率(HR)相机和/或照片视频(PV)相机。根据实施例,目光跟踪相机212可以通过检测用户的瞳孔来跟踪用户的注视方向,并且可以被用于响应于注视方向而移动虚拟图像的中心。例如,目光跟踪相机212可以分为对应于左眼的第一目光跟踪相机212-1和对应于右眼的第二目光跟踪相机212-2,并且这些相机在性能和/或规格上可以基本相同。根据实施例,识别相机211-1和211-2可以用于检测用户的手(手势)和/或空间识别,并且可以包括全局快门(GS)相机。例如,识别相机211-1和211-2可以包括像滚动快门(RS)相机那样图像延迟较小的GS相机,以便检测和跟踪快速的手势和/或手指的微小移动。
根据实施例,电子装置101可以基于通过电子装置101的相机(例如,图1中的相机模块180)获得的与真实空间相关的图像信息来显示虚拟物体和增强现实服务。根据实施例,电子装置101可以基于与用户的双眼相对应设置的显示模块(例如,与左眼相对应的第一显示模块351和/或与右眼相对应的第二显示模块353)来显示虚拟物体。根据实施例,电子装置101可以基于预先配置的设置信息(例如,分辨率、帧率、亮度和/或显示区域)来显示虚拟物体。
根据实施例,电子装置101可以将包括在第一眼镜220中的第一显示面板和包括在第二眼镜230中的第二显示面板作为独立的部件来运行。例如,电子装置101可以基于第一设置信息来确定第一显示面板的显示性能,并且可以基于第二设置信息来确定第二显示面板的显示性能。
包括在图2a、图2b和/或图2c中所示的电子装置101中的一个或更多个相机(例如,拍摄相机213、目光跟踪相机212和/或识别相机211-1和211-2)的数量和位置可以不是固定的。例如,一个或更多个相机(例如,拍摄相机213、目光跟踪相机212和/或识别相机211-1和211-2)的数量和位置可以根据电子装置101的形式(例如,形状或大小)而变化。
图3是根据本公开的某些实施例的用于改变显示面板的设置的电子装置101(例如,图1中的电子装置101)的框图。
参照图3,电子装置101可以包括处理器120(例如,图1中的处理器120)、存储器130(例如,图1中的存储器130)、显示模块160(例如,图1中的显示模块160)、音频模块170(例如,图1中的音频模块170)、传感器模块176(例如,图1中的传感器模块176)、相机模块180(例如,图1中的相机模块180)、电力管理模块188(例如,图1中的电力管理模块188)、电池189(例如,图1中的电池189)和/或通信模块(例如,图1中的通信模块190)。根据实施例,电子装置101可以通过连接端330(例如,USB Type-C)连接到外部电子装置(未示出)。例如,电子装置101的电力管理模块188可以通过连接端330接收来自外部电子装置的电力,以便为电池189充电。作为另一个示例,电子装置101的处理器120可以通过连接端330执行与外部电子装置的电源线通信。根据实施例,电子装置101可以包括主体部分(例如,图2b中的主体部分223)和支撑部分(例如,图2b中的第一支撑部分221和/或第二支撑部分222)。根据实施例,电子装置101的组件可以被设置在主体部分223或支撑部分221和222上。
根据实施例,处理器120可以执行存储在存储器130中的程序(例如,图1中的程序140)以控制至少一个其他组件(例如,硬件或软件组件)并执行各种数据处理或操作。根据实施例,处理器120可以向用户提供增强现实服务。处理器120可以通过显示模块160来输出至少一个虚拟物体,以便该至少一个虚拟物体被视为被添加到与佩戴电子装置101的用户视场相对应的真实空间。
根据实施例,电子装置101的显示模块160可以包括至少一个眼镜(例如,第一眼镜(例如,图2a中的第一眼镜220)和/或第二眼镜(例如,图2a中的第二眼镜))。根据实施例,第一眼镜220可以包括第一显示模块351的至少一部分,第二眼镜230可以包括第二显示模块353的至少一部分。例如,第一显示模块351和/或第二显示模块353均可以包括显示面板。显示面板可以由透明元件制成,以便用户可以通过显示模块160识别真实空间。显示模块160可以在显示面板的至少一部分上显示至少一个虚拟物体,以便穿戴电子装置101的用户将该虚拟物体视为添加到真实空间中。例如,用户视场可以包括用户能够识别事物的角度和/或范围。根据实施例,显示模块160可以包括对应于用户双眼中的左眼的第一显示模块351和/或对应于右眼的第二显示模块353。根据实施例,处理器120可以从存储器130加载与显示模块160的性能相关的设置信息(例如,分辨率、帧率、显示区域的尺寸和/或锐度),并且可以基于设置信息来调整显示模块160的性能。根据实施例,可以为包括在显示模块160中的每个显示面板分别确定设置信息。例如,对应于左眼的第一显示面板可以基于第一设置信息进行设置,对应于右眼的第二显示面板可以基于第二设置信息进行设置。根据另一个实施例,设置信息可以不同地设置包括在显示模块160中的一个显示面板的至少一部分。例如,电子装置101可以在分辨率、帧率和/或锐度的至少一个方面不同地设置显示模块160。根据实施例,电子装置101可以通过至少部分地改变显示模块160的设置来降低功耗。
根据实施例,在处理器120的控制下,音频模块170可以将声音转换成电信号,或者反过来,将电信号转换成声音。例如,音频模块170可以包括图2a中的扬声器232-1和232-2和/或图2a中的麦克风241。
根据实施例,电子装置101的传感器模块176可以包括接近传感器321、照度传感器322和/或陀螺仪传感器323。根据实施例,接近传感器321可以检测接近电子装置101的物体。照度传感器322可以测量电子装置101周围的亮度程度。根据实施例,处理器120可以利用照度传感器322来检查电子装置101周围的亮度水平,并且基于亮度水平来改变显示模块160的亮度相关设置信息。例如,如果周围亮度高于预设亮度,则处理器120可以将显示模块160的亮度水平设置为更高,以便增加用户的可视性。根据实施例,陀螺仪传感器323可以检测电子装置101的姿态和位置。例如,陀螺仪传感器323可以检测电子装置101是否正确地佩戴在用户的头上。作为另一个示例,陀螺仪传感器323可以检测电子装置101或佩戴电子装置101的用户的运动。
根据实施例,电子装置101可以通过通信模块190(例如,无线通信电路)与另一电子装置(例如,图1中的电子装置102或104)进行无线通信。例如,电子装置101可以与便携式电子装置(例如,智能手机)执行无线通信,并且可以彼此交换命令和/或数据。根据实施例,电子装置101可以至少部分地由另一个外部电子装置(例如,便携式电子装置)控制。例如,电子装置101可以在另一外部电子装置的控制下执行至少一种功能。
根据某些实施例,电子装置101可以基于以无线和/或有线方式连接的不同电子装置(例如,图1中的电子装置102或104)的控制来改变显示面板的至少一些设置。根据实施例,电子装置101可以将通过电子装置101的相机(例如,图1中的相机模块180)获得的主导眼/非主导眼相关信息(例如,与位于真实空间中的物体的距离信息、用户目光跟踪信息、用户手势信息)发送到不同的电子装置。基于从电子装置101接收到的主导眼/非主导眼相关信息,不同的电子装置可以将包括在眼镜(例如,第一眼镜220和/或第二眼镜230)中的与检测到的主导眼或非主导眼相对应的显示面板的设置信息发送到电子装置101。电子装置101可以基于从不同的电子装置接收到的显示面板的设置信息来改变显示面板的至少一些设置。例如,可以改变显示面板的设置以降低显示面板的质量,并且可以改变至少一些设置以便不被用户感知。根据实施例,电子装置101可以降低显示面板的分辨率,降低帧率,或调整显示面板的显示区域的尺寸和位置。
根据实施例,电子装置101的相机模块180可以包括手势相机311、目光跟踪相机313、距离测量相机(深度相机)315和/或RGB相机317。根据实施例,手势相机311可以检测用户的运动。图2a中的识别相机211-1和211-2可以包括手势相机311。例如,至少一个手势相机311可以设置在电子装置101上,并且可以检测用户在预设距离内的手部运动。手势相机311可以包括同步定位和映射(SLAM)相机,用于识别关于电子装置101的周围空间(例如,位置和/或方向)的信息。手势相机311的手势识别区域可以基于手势相机311的拍摄范围来设置。根据实施例,目光跟踪相机313(例如,图2a中的目光跟踪相机212)可以跟踪用户的左眼和右眼的移动。根据实施例,处理器120可以利用目光跟踪相机313来识别左眼的注视方向和右眼的注视方向。例如,目光跟踪相机313可以包括用于识别左眼的注视方向的第一目光跟踪相机212-1和用于识别右眼的注视方向的第二目光跟踪相机212-2。根据实施例,处理器120可以基于左眼的注视方向和右眼的注视方向来确定主导眼和非主导眼。根据实施例,距离测量相机315可以测量与位于电子装置101前面的物体的距离。图2a中的拍摄相机213可以包括距离测量相机315。距离测量相机315可以包括飞行时间(TOF)相机和/或深度相机。根据实施例,距离测量相机315可以拍摄电子装置101的前面方向,目光跟踪相机313可以拍摄与距离测量相机315的拍摄方向相反的方向。根据另一个实施例,电子装置101可以利用距离测量相机315测量与物体的距离,并且可以在该距离大于或等于阈值时改变显示面板的设置。例如,当与物体的距离接近为小于或等于阈值时,电子装置101可以保持显示面板的显示性能。根据实施例,电子装置101可以利用目光跟踪相机313识别位于用户正在观看的注视方向(例如,FOV)上的物体之一,并且可以从通过深度相机获得的深度信息计算与相应物体的距离或者通过TOF相机测量与相应物体的距离。根据实施例,红绿蓝(RGB)相机317可以检测关于物体的颜色的信息和关于与物体的距离的信息。根据实施例,电子装置101可以包括一种通过将距离测量相机315和RGB相机317组合在一起而得到的相机。例如,图2a中的拍摄相机213可以包括距离测量相机315和/或RGB相机317。根据实施例,包括在相机模块180中的手势相机311、目光跟踪相机313、距离测量相机315和/或RGB相机317均可以单独地包括在电子装置101中,或者它们中的一些可以作为集成相机来实现。例如,距离测量相机315和RGB相机317可以被实现为一个集成相机。
根据实施例,电力管理模块188可以管理供应给电子装置101的电力。电力管理模块188可以包括多个电力管理模块(例如,第一电力管理模块331、第二电力管理模块332)。第一电力管理模块331或第二电力管理模块332中的至少一者可以直接连接到处理器120以供应电力。第一电力管理模块331或第二电力管理模块332中的至少一者可以通过连接端330(例如,Type-C)从外部电子装置接收电力以向电池189充电或向电子装置101的其他部件供电。根据实施例,电子装置101可以通过无线充电方法从外部电子装置接收电力来对电池189进行充电。根据实施例,电力管理模块188可以电连接到电子装置101的组件(例如,存储器130、显示模块160、音频模块170、传感器模块176、相机模块180和/或通信模块190)。例如,电力管理模块188可以基于处理器120的控制,从电池189向电子装置101的组件提供电力。根据实施例,电子装置101可以通过第一电力管理模块331从第一电池333接收电力,并且可以通过第二电力管理模块332从第二电池334接收电力。根据实施例,处理器120可以通过基于利用包括在相机模块180中的相机311、313、315和317中的至少一者获得的信息来至少部分地改变显示模块160的设置来管理功耗。
根据实施例,在电力管理模块188的控制下,电池189可以通过接收电力来充电,或者通过提供电力来放电。根据实施例,电池189可以包括多个电池(例如,第一电池333、第二电池334)。例如,多个电池(例如,第一电池333、第二电池334)可以设置在主体部分223和支撑部分(例如,第一支撑部分221和/或第二支撑部分222)上。根据实施例,第一电池333可以被设置在第一支撑部分221上,第二电池334可以被设置在第二支撑部分222上。
根据某些实施例,电子装置101可以包括:第一相机(例如,图3中的距离测量相机315),其被配置为捕获电子装置101的正面外部环境;第二相机(例如,图3中的目光跟踪相机313),其与第一相机相反定向且被配置为捕获用户的左眼和右眼的注视方向;对应于左眼的第一显示面板(例如,第一显示模块351);对应于右眼的第二显示面板(例如,图3中的第二显示模块353);存储器130;以及可操作地连接到第一相机315、第二相机313、第一显示面板、第二显示面板和存储器130的处理器120。处理器120可以被配置为在左眼和右眼中识别主导眼和/或非主导眼,从第一显示面板和第二显示面板中识别与主导眼相对应的主导显示面板,以及从第一显示面板和第二显示面板中识别与非主导眼相对应的非主导显示面板,并且将主导显示面板的设置改变为与非主导显示面板的设置不同。
根据实施例,处理器120可以被配置为利用第一相机315或第二相机313中的至少一者来识别用户的左眼和用户的右眼的注视方向,并且基于捕获的注视方向来识别左眼和右眼中的主导眼和非主导眼。
根据实施例,处理器120可以被配置为利用第一相机315测量与物体的距离,基于检测到测量出的距离超过阈值而利用第二相机313来识别用户的左眼和右眼的注视方向,并且基于确定了测量出的距离超过阈值而改变与非主导眼相对应的非主导显示面板的一些设置。
根据实施例,电子装置101还可以包括用于检测环境亮度的照度传感器(例如,图3中的照度传感器322),其中,处理器120可以被配置为识别利用照度传感器322测量出的亮度值是否小于或等于阈值,并且基于确定了亮度值小于或等于阈值而降低与非主导眼相对应的非主导显示面板的显示分辨率。
根据实施例,处理器120可以被配置为基于用户的注视方向来识别用户的注视所指向的物体的移动,识别物体的移动是否超过了预设参考值,并且基于确定了移动超过了参考值而降低与非主导眼相对应的非主导显示面板的帧率。
根据实施例,处理器120可以被配置为基于预设的时间间隔,降低与非主导眼相对应的非主导显示面板的分辨率和帧率中的一个或更多个。
根据实施例,处理器120可以被配置为检测左眼和右眼的移动,确定检测到的目光移动是否超过预设参考值,并且基于确定了目光移动超过了参考值而减少与非主导眼相对应的非主导显示面板的显示区域。
根据实施例,处理器120可以被配置为在第一显示面板和第二显示面板上显示虚拟物体,当用户穿过显示的虚拟物体注视物体时,利用第二相机识别左眼的注视方向和右眼的注视方向,并且其中非主导眼是基于识别出的左眼和右眼的注视方向从左眼和右眼中识别出来的。
根据实施例,电子装置101还可以包括第三相机(例如,图3中的手势相机311)以检测用户的手势,从而处理器120可以被配置为:当用户的手形成一个圆时利用第三相机检测用户的手的位置,当用户穿过该圆注视物体时利用第二相机识别左眼的注视方向和右眼的注视方向,并且其中非主导眼是基于识别出的左眼和右眼注视方向从左眼和右眼中识别出来的。
根据实施例,处理器120可以被配置为基于对左眼的注视方向和右眼的注视方向的检测来确定主导眼是否发生改变,并且基于确定了主导眼已经从右眼改变为左眼,改变与右眼相对应的显示面板的至少一些设置,或者将与左眼相对应的显示面板的设置恢复到初始设置。
图4是说明了根据本公开的某些实施例的用于改变与非主导眼对应的非主导显示面板的设置的示例方法的流程图。以下实施例中的操作可以按顺序执行,但不一定按顺序执行。例如,操作的顺序可以改变,而且至少有两个操作可以并行执行。根据实施例,图4中的电子装置可以包括图1中的电子装置101或图2中的电子装置101。
根据实施例,该示例电子装置(例如,图1中的电子装置101)可以包括至少两个显示面板,每个显示面板分别对应于用户的双眼,并且可以安装/佩戴在用户的头上(例如,产生立体效果)。电子装置101可以包括显示模块(例如,图1中的显示模块160),并且显示模块160可以包括至少一个显示面板。例如,显示模块160可以包括对应于用户的左眼的第一显示模块(例如,图3中的第一显示模块351)和对应于用户的右眼的第二显示模块(例如,图3中的第二显示模块353)。第一显示模块351可以包括第一显示面板,第二显示模块353可以包括第二显示面板。根据实施例,电子装置101的显示模块160可以包括至少一个显示驱动集成电路(DDI)。例如,它可以包括对应于第一显示面板的第一DDI和对应于第二显示面板的第二DDI,或者第一显示面板和第二显示面板可以由一个DDI驱动。显示面板可以由透明元件制成,以便用户可以通过显示面板感知真实空间。
根据实施例,处理器(例如,图1中的处理器120)可以基于显示面板来显示至少一个虚拟物体,以便该虚拟物体被视为被添加到真实空间中。电子装置101可以包括AR眼镜设备,并且显示面板可以是与AR眼镜设备的透镜对应的部件。根据实施例,AR眼镜设备的透镜可以包括用于向用户提供由显示模块160显示的虚拟物体的波导。例如,AR眼镜设备的透镜可以包括用于将第一显示面板上显示的图像传输给用户的左眼的第一波导和用于将第二显示面板上显示的图像传输给用户的右眼的第二波导。根据实施例,波导(例如,第一波导和/或第二波导)可以由透明元件制成,以便用户可以通过波导感知真实空间。
根据实施例,电子装置101可以包括用于跟踪用户的注视方向的目光跟踪相机(例如,图3中的目光跟踪相机313)和用于测量与物体的距离的距离测量相机(例如,图3中的距离测量相机315)。可以有分别对应于用户的双眼的多个目光跟踪相机313。例如,目光跟踪相机313可以包括对应于用户左眼的第一目光跟踪相机和对应于用户右眼的第二目光跟踪相机。根据实施例,目光跟踪相机313可以基于处理器120的控制来感知由用户的眼睛反射的反射光。目光跟踪相机313可以将感应到的反射光转换为电信号。处理器120可以通过转换后的电信号获得用户的眼球图像。处理器120可以利用所获得的用户的眼球图像来跟踪用户的注视。例如,处理器120可以基于目光跟踪相机313感应到的反射光的位置和移动来跟踪用户的注视。
第一目光跟踪相机可以跟踪左眼的注视方向,第二目光跟踪相机可以跟踪右眼的注视方向。一般来说,当用户注视某一物体时,准确注视该物体的一只眼睛可以被称为主导眼,而主导眼以外的另一只眼睛可以被称为非主导眼。根据实施例,电子装置101可以利用目光跟踪相机313来识别左眼和右眼的注视方向,并且可以基于识别的注视方向来区分用户的双眼中的主导眼和非主导眼。
在操作401,电子装置101的处理器(例如,图1中的处理器120)可以利用至少一个相机(例如,图3中的相机模块180)来识别用户的左眼和右眼的注视方向。例如,处理器120可以利用包括在相机模块180中的目光跟踪相机313来检测左眼和右眼的注视方向。根据实施例,处理器120可以利用至少一个距离测量相机来计算与位于外部环境中的物体的距离,并可以利用至少一个目光跟踪相机来检测用户的注视方向。当用户注视位于装置前方的物体时,处理器120可以从用户的左眼和右眼中确定哪只眼睛在注视中占主导。
在操作403,处理器120可以基于识别出的注视方向从用户的左眼和/或右眼中确定主导眼和/或非主导眼。例如,主导眼可以在用户注视物体时被主要使用,非主导眼可以指补充地用于注视物体的眼睛。用户的主导眼和非主导眼可以通过检查或测试来识别,并且用户可以被通知其主导眼和非主导眼。根据实施例,当用户感知到真实空间(例如,外部环境)时,感知可以基于主导眼的视场。
在操作405,处理器120可以改变与非主导眼相对应的显示面板的至少一些设置。例如,当注视特定物体时,注视主要使用主导眼,因此主导眼显示面板(例如,对应于主导眼)的显示性能可能影响用户的感知能力。另一方面,非主导眼显示面板(例如,对应于非主导眼)的显示性能对用户的感知能力的影响可能相对较小。根据实施例,处理器120可以改变与用户的非主导眼相对应的非主导显示面板的至少一些设置,这反过来可以减少与用户的非主导眼相对应的非主导显示面板所消耗的电量。根据实施例,处理器120可以在用户无法察觉的程度上改变与非主导眼相对应的显示面板的设置。例如,处理器120可以降低与非主导眼相对应的显示面板的分辨率和/或降低通过显示面板显示的帧率。作为另一个示例,处理器120可以减小与非主导眼相对应的显示面板的显示区域的尺寸。根据实施例,处理器120可以改变与非主导眼相对应的显示面板的设置,使其至少部分地不同于与主导眼相对应的显示面板的设置。根据实施例,处理器120可以基于硬件来改变显示面板的设置或者基于软件(例如,应用程序)来改变显示面板的设置。
图5是说明了根据本公开的某些实施例的用于调整与非主导眼相对应的显示面板的分辨率的示例方法的流程图。根据实施例,电子装置(例如,图1中的电子装置101)的处理器(例如,图1中的处理器120)可以降低与非主导眼相对应的显示面板的分辨率以减少与非主导眼相对应的显示面板的功耗。
在操作501,处理器120可以识别用户的主导眼和非主导眼。操作501可以包括与图4中的操作403基本相同的过程。根据实施例,处理器120可以基于存储在存储器(例如,图1中的存储器130)中的关于主导眼和非主导眼的信息或基于直接的用户输入来识别用户的主导眼和非主导眼。例如,处理器120可以提供用户界面,用户可以通过该界面输入关于主导眼和非主导眼的信息。处理器120可以根据输入到用户界面的信息来识别用户的主导眼和非主导眼。根据实施例,电子装置101可以包括能够获得至少一个生物特征信息(例如,心率、氧饱和度、血压和/或血糖)的传感器(例如,生物信号处理传感器)。例如,处理器120可以基于传感器(例如,生物信号处理传感器)获得的至少一项生物特征信息,获得关于用户设置的主导眼和非主导眼的信息。根据实施例,处理器120可以利用包括在电子装置101中的至少一个相机(例如,目光跟踪相机)来识别与用户的双眼相对应的注视方向,并基于识别出的注视方向来识别用户的主导眼和非主导眼。
根据实施例,处理器120可以利用传感器模块(例如,图1中的传感器模块176)来获得上下文信息。在操作503,处理器120可以利用照度传感器(例如,图3中的照度传感器322)来检测电子装置101的环境的亮度。处理器120可以从传感器模块176获得指示环境亮度水平的照度感测值,并且可以确定该照度感测值是否小于或等于阈值。根据实施例,当电子装置101周围的亮度水平变得很高时,处理器120可以增加显示装置(例如,图1中的显示模块160)的分辨率以保证用户的可视性。根据实施例,当电子装置101周围的亮度水平变低时,处理器120可以降低与非主导眼相对应的显示面板的分辨率。根据实施例,如果照度感测值小于或等于阈值,则处理器120可以执行操作505,如果照度感测值大于或等于阈值,则处理器120可以根据周期或事件发生(例如,显示模块160上显示的至少一个物体的变化)来执行操作501。
在操作505,处理器120可以降低与非主导眼相对应的非主导显示面板的显示分辨率。例如,处理器120可以将显示面板的分辨率降低到该降低不能轻易地被用户感知的程度。处理器120可以降低与用户的非主导眼相对应的显示面板的分辨率,从而根据显示面板的驱动来降低功耗。例如,与非主导眼相对应的显示面板的变化(或修改)可以被设置为用户无法感知的程度。
根据实施例,处理器120可以从传感器模块176获得照度感测值,并且如果照度感测值小于或等于第一阈值,可以同时降低与主导眼相对应的显示面板的分辨率和与非主导眼相对应的显示面板的分辨率。处理器120可以将与非主导眼相对应的显示面板的分辨率调整为低于与主导眼相对应的显示面板的分辨率。例如,它可以基于照度感测值来调整与主导眼相对应的显示面板的分辨率,并且可以将与非主导眼相对应的显示面板的分辨率调整为低于与主导眼相对应的显示面板的分辨率。
根据实施例,电子装置101可以在用户可能无法识别的程度上降低显示面板的分辨率,并且可以减少由于显示面板而造成的功耗。电子装置101的使用时间可以增加,并且由于显示面板的驱动而产生的热量可以减少。
图6是描述了根据本公开的某些实施例调整与非主导眼对应的显示面板的分辨率的方法的表。
图6说明了示出当用户的左眼601为主导眼和用户的右眼603为非主导眼时显示面板的分辨率设置信息的表[a]和表[b]。电子装置(例如,图1中的电子装置101)可以降低与非主导眼(例如,右眼)相对应的显示面板的分辨率。
参照表[a]和表[b],电子装置101可以基于预设的时间间隔(例如,1秒(s))来改变对应于主导眼的显示面板或对应于非主导眼的显示面板的分辨率。参照表[a],电子装置101的处理器(例如,图1中的处理器120)可以为与作为主导眼的左眼相对应的第一显示面板保持FHD的图像质量,并且可以为与非主导眼相对应的第二显示面板在FHD与HD之间交替地改变图像质量(611)。例如,处理器120可以基于设定的时间间隔(例如,1秒(s))将第二显示面板的分辨率改变为FHD或HD。根据实施例,FHD与HD之间的图像质量变化可以在低于用户意识到的程度上进行。例如,时间间隔和分辨率的变化程度可以根据用户的感知(例如,感觉)来设置。因此,即使电子装置101根据预设的时间间隔改变了与非主导眼相对应的第二显示面板的分辨率,它对用户来说也可能是无法察觉的。参照表[b],处理器120可以为与作为主导眼的左眼的第一显示面板保持FHD的图像质量,并且为与非主导眼相对应的第二显示面板保持HD的图像质量(613)。
根据某些实施例,时间间隔和分辨率的变化程度可以有多个设置。例如,处理器120可以将与主导眼相对应的显示面板和与非主导眼相对应的显示面板的分辨率分为多个级别,并在多个级别上进行改变。作为另一个示例,处理器120可以设置不同的时间间隔(例如,周期(时间间隔)、从FHD改变为HD的时间和/或从HD改变为FHD的时间)来改变与非主导眼相对应的显示面板的分辨率。
根据实施例,电子装置101可以通过将与非主导眼相对应的显示面板的分辨率设置为低来降低由于显示面板而造成的功耗。电子装置101可以在用户可能无法辨识的程度上将分辨率调整为较低。
图7是说明了根据本公开的某些实施例的调整与非主导眼相对应的显示面板的帧率的方法的流程图。根据实施例,电子装置(例如,图1中的电子装置101)的处理器(例如,图1中的处理器120)可以降低显示面板的帧率,从而降低显示面板的显示性能。
在操作701,处理器120可以识别用户的主导眼和非主导眼。操作701可以包括与图4中的操作403基本相同的过程。根据实施例,处理器120可以基于存储在存储器(例如,图1中的存储器130)中的关于主导眼和非主导眼的信息或基于直接用户输入来识别用户的主导眼和非主导眼。根据实施例,处理器120可以利用包括在电子装置101中的至少一个相机来识别与用户的双眼相对应的注视方向,并且基于识别出的注视方向来识别用户的主导眼和非主导眼。
在操作703,处理器120可以利用至少一个相机来检测用户正在注视的物体的移动。例如,用户正在注视的物体可以包括显示在显示模块(例如,图1中的显示模块160)上的虚拟物体,该虚拟物体是基于真实物体的。例如,处理器120可以通过比较物体的移动与预设的移动相关信息来识别物体的移动程度。处理器120可以确定物体的移动是高于还是低于设定的移动程度。例如,如果物体的移动低于预设阈值,则用户注视的区域的移动也可能很小,即使与非主导眼相对应的显示面板的显示性能被调整为较低,对用户来说可能是无法察觉到的。根据实施例,电子装置101可以在用户无法察觉的程度内降低与非主导眼相对应的显示面板的显示性能。根据实施例,如果显示在显示器上的内容的移动小于或等于阈值,则处理器120可以执行操作705,并且如果显示在显示器上的内容的移动大于或等于阈值,则可以根据周期或事件发生(例如,正在显示器上显示的至少一个物体的变化)来执行操作701。
在操作705,处理器120可以调整与非主导眼相对应的显示面板的帧率。例如,当在显示器上显示的至少一个物体中的用户正注视的物体的移动低于预设阈值时,处理器120可以降低显示面板的帧率。帧率的降低可以被设置为用户无法察觉的程度。处理器120可以降低与用户的非主导眼相对应的显示面板的帧率,从而减少由于驱动显示面板而产生的功耗。例如,与非主导眼相对应的显示面板的显示性能的变化可以被设置为用户无法察觉的程度。
根据实施例,当在显示器上显示的至少一个物体中的用户正注视的物体的移动小于或等于第一阈值时,处理器120可以降低与主导眼相对应的显示面板的帧率和与非主导眼相对应的显示面板的帧率二者。处理器120可以将与非主导眼相对应的显示面板的帧率调整为低于与主导眼相对应的显示面板的帧率。根据另一个实施例,当在显示器上显示的至少一个物体中的用户正注视的物体的移动大于第一阈值并小于或等于第二阈值时,处理器120可以将与非主导眼相对应的显示面板的帧率设置为低于与主导眼相对应的显示面板的帧率。
根据实施例,电子装置101可以在用户无法察觉的程度上降低至少一些显示面板的帧率,并减少由于显示面板而造成的功耗。电子装置101的使用时间可以增加,并且由于显示面板的驱动而产生的热量可以减少。
图8是描述了根据本公开的某些实施例的调整与非主导眼对应的显示面板的帧率的方法的表格。
图8说明了示出了当用户的左眼801是主导眼和用户的右眼803是非主导眼时的显示面板的帧率的表[a]和表[b]。电子装置(例如,图1中的电子装置101)可以降低与非主导眼(例如,右眼)相对应的显示面板的帧率。
参照表[a]和表[b],电子装置101可以基于预设的时间间隔(例如,1秒(s))来改变每个显示面板的帧率。参照表[a],电子装置101的处理器(例如,图1中的处理器120)可以为与作为主导眼的左眼相对应的第一显示面板保持第一帧率(例如,约120Hz),并且可以为与非主导眼(811)相对应的第二显示面板在第一帧率(例如,约120Hz)与第二帧率(例如,约60Hz)之间交替改变帧率。例如,处理器120可以基于设定的时间间隔(例如,1秒(s))将第二显示面板的帧率从约120赫兹改为约60赫兹。根据实施例,帧率的变化可以在用户无法察觉的程度上进行。例如,时间间隔和帧率的变化程度可以基于用户的感知水平(例如,感觉)来确定。根据实施例,即使电子装置101根据预设的时间间隔改变了与非主导眼相对应的第二显示面板的第二帧率,它可能对用户来说仍然是不可感知的。参照表[b],处理器120可以为与作为主导眼的左眼相对应的第一显示面板保持第一帧率(例如,约120Hz),并且为与非主导眼相对应的第二显示面板(813)保持第二帧率(例如,约60Hz)。
根据某些实施例,时间间隔和帧率的变化可以有多个设置。例如,处理器120可以将对应于主导眼的显示面板和对应于非主导眼的显示面板的帧率划分为三个或更多个级别,例如60Hz、120Hz和144Hz,并在这些级别上进行改变。作为另一个示例,处理器120可以设置不同的时间间隔(例如,从60Hz改变到120Hz的时间和/或从120Hz改变到60Hz的时间),以改变对应于非主导眼的显示面板的帧率。根据实施例,可以基于在显示器上显示的至少一个物体中的用户正在注视的物体的移动速度通过选择多个帧率设置中的一个帧率设置来改变与非主导眼相对应的显示面板的帧率。
根据实施例,电子装置101可以通过将与非主导眼相对应的显示面板的帧率设置为低来减少由于显示面板而造成的功耗。电子装置101可以在用户可能无法识别的程度上将帧率调整为低。
图9是说明了根据本公开的某些实施例的调整与非主导眼对应的显示面板的显示区域的方法的流程图。根据实施例,电子装置(例如,图1中的电子装置101)的处理器(例如,图1中的处理器120)可以通过减小显示面板的显示区域的尺寸来减少显示面板的功耗。
在操作901,处理器120可以识别用户的主导眼和非主导眼。操作901可以包括与图4中的操作403基本相同的过程。根据实施例,处理器120可以基于存储在存储器(例如,图1中的存储器130)中的关于主导眼和非主导眼的信息或基于直接用户输入来识别用户的主导眼和非主导眼。根据实施例,处理器120可以利用包括在电子装置101中的至少一个相机(例如,目光跟踪相机(例如,图3中的目光跟踪相机313))来识别与用户的双眼对应的注视方向,并且基于识别出的注视方向来识别用户的主导眼和非主导眼。
在操作903,处理器120可以利用至少一个相机(例如,目光跟踪相机313)来检测用户的瞳孔(例如,左眼和右眼)的移动。例如,处理器120可以通过比较瞳孔移动与预设的瞳孔移动相关信息来识别用户眼睛的移动程度。处理器120可以确定瞳孔的移动是大于还是少于设定的移动程度。例如,当瞳孔的移动低于预设阈值时,用户注视的区域的移动可能很小,并且即使与非主导眼相对应的显示面板的显示区域的尺寸被调整为较小,对用户来说也可能是无法察觉的。根据实施例,电子装置101可以在用户无法察觉的程度之内减小与非主导眼相对应的显示面板的显示区域的尺寸。根据实施例,如果利用至少一个相机(例如,目光跟踪相机313)检测到的用户的瞳孔(例如,左眼和/或右眼)的移动低于指定程度或阈值,则处理器120可以执行操作905,并且如果用户的瞳孔(例如,左眼和/或右眼)的移动高于或等于指定程度或阈值,则可以根据周期或事件发生(例如,在显示器上显示的至少一个物体的变化)来执行操作901。
在操作905,处理器120可以减小与非主导眼相对应的显示面板的显示区域的尺寸。例如,处理器120可以将显示面板的显示区域减小用户无法察觉的程度。因此,处理器120可以通过减小与用户的非主导眼相对应的显示面板的显示区域的尺寸来减少由于驱动显示面板而消耗的功率量。例如,与非主导眼相对应的显示面板的显示区域的尺寸的减小可以被设置为用户无法察觉的程度。根据实施例,当利用至少一个相机(例如,目光跟踪相机313)检测到的用户的瞳孔的移动小于或等于第一阈值时,处理器120可以减少与主导眼相对应的显示面板的显示区域和与非主导眼相对应的显示面板的显示区域二者。根据另一个实施例,当用户的瞳孔的移动大于或等于第二阈值(该第二阈值大于第一阈值)时,处理器120可以将对应于主导眼的显示面板的显示区域设置为与对应于非主导眼的显示面板的显示区域是相同的。根据另一个实施例,当用户的瞳孔的移动大于第一阈值并小于第二阈值时,处理器120可以将与非主导眼相对应的显示面板的显示区域设置为小于与主导眼相对应的显示面板的显示区域。
根据实施例,电子装置101可以在用户无法察觉的程度上减小显示面板的显示面积,并减少由于显示面板而造成的功耗。电子装置101的使用时间可以增加,并且由于显示面板的驱动而产生的热量可以减少。
根据实施例,当用户的瞳孔(或注视)偏离与非主导眼相对应的显示面板的显示区域(其被设置为小于与主导眼相对应的显示面板的显示区域)时,电子装置101可以将对应于非主导眼的显示面板的显示区域设置为与对应于主导眼的显示面板的显示区域相同。例如,电子装置101可以利用至少一个相机(例如,目光跟踪相机313)来检查用户的瞳孔(或目光)是否偏离与非主导眼对应的显示面板的显示区域。
图10a和图10b是描述了根据本公开的某些实施例的调整与非主导眼对应的显示面板的显示区域的方法的说明图。图10a说明了显示面板的显示区域的尺寸相对于中心点减小的第一实施例。图10b说明了显示面板的显示区域的尺寸相对于用户的注视方向减小第二实施例。
参照图10a,电子装置(例如,图1中的电子装置101)的处理器(例如,图1中的处理器120)可以减小与用户的非主导眼相对应的显示面板的显示区域的尺寸。例如,处理器120可以将尺寸从第一显示区域1001减小到第二显示区域1003。处理器120可以相对于其中心点将显示区域从第一显示区域1001减小到第二显示区域1003。根据实施例,与主导眼相对应的第一显示面板可以基于第一显示区域1001来显示周围背景,与非主导眼相对应的第二显示面板可以基于第二显示区域1003来显示周围背景。例如,第一显示区域1001与第二显示区域之间的区域可以被处理为具有较低的分辨率,可以被模糊化,或者可以被显示为黑屏。根据实施例,电子装置101的处理器120可以在用户无法察觉的程度上减小显示面板的显示区域的尺寸,并且可以减少由于显示面板而造成的功耗。根据实施例,基于用户的眼睛的移动,处理器120也可以调整与主导眼相对应的第一显示面板的显示区域的尺寸以对应于与非主导眼相对应的第二显示面板的显示区域的尺寸。与非主导眼相对应的第二显示面板的显示区域的尺寸可以被调整为小于与主导眼相对应的第一显示面板的显示区域的尺寸。
参照图10b,电子装置101的处理器120可以减小与用户的非主导眼相对应的显示面板的显示区域的尺寸。例如,处理器120可以将尺寸从第一显示区域1011减小到第二显示区域1013。处理器120可以识别用户正在注视的物体1020(或用户正在注视的方向),并将识别出的物体1020设置为用于减小的中心点。处理器120可以相对于被设置为中心点的物体1020将显示区域的尺寸从第一显示区域1011减小为第二显示区域1013。根据实施例,与主导眼相对应的第一显示模块(例如,图3中的第一显示模块351)可以基于第一显示区域1011来显示周围背景,并且与非主导眼相对应的第二显示模块(例如,图3中的第二显示模块353)可以基于第二显示区域1013来显示周围背景。例如,第一显示区域1001与第二显示区域之间的区域1030可以被处理为具有较低的分辨率,可以被模糊,或可以被显示为黑屏。根据实施例,电子装置101的处理器120可以在用户无法察觉的程度上减小显示面板的显示区域的尺寸,并且可以减少由于显示面板产生的功耗。
第一显示面板和第二显示面板的显示区域在图10a和图10b的示例中显示为圆形,但是根据某些实施例,显示区域的形状可以根据显示面板的形状或电子装置101的透镜的形状进行变化。例如,显示区域可以包括三角形、四角形、五角形或多边形。
图11是说明了根据本公开的某些实施例的用于检查非主导眼的变化和对与改变后的非主导眼相对应的显示面板的设置进行改变的方法的流程图。根据实施例,电子装置(例如,图1中的电子装置101)的处理器(例如,图1中的处理器120)可以定期或当事件发生时(例如,当显示面板上显示的至少一个物体发生变化时)检查用户的视场,并且在根据视场的变化改变主导眼(或非主导眼)时,可以改变其显示性能要被调整的显示面板。在操作1101,处理器120可以识别用户的主导眼和非主导眼。操作1101可以包括与图4中的操作403基本相同的过程。根据实施例,处理器120可以基于存储在存储器(例如,图1中的存储器130)中的关于主导眼和非主导眼的信息或基于直接用户输入来识别用户的主导眼和非主导眼。根据实施例,处理器120可以利用包括在电子装置101中的至少一个相机(例如,目光跟踪相机313)来识别与用户的双眼对应的注视方向,并且基于识别出的注视方向来识别用户的主导眼和非主导眼。
在操作1103,处理器120可以确定用户的右眼是否是主导眼。例如,处理器120可以区分用户的主导眼和非主导眼,并且可以调整与非主导眼相对应的显示面板的性能。根据实施例,如果在用户的双眼中右眼是的主导眼,则左眼可以确定为非主导眼。如果在用户的双眼中左眼是的主导眼,则右眼可以确定为非主导眼。
如果在操作1103处确定右眼为主导眼,则在操作1105处,处理器120可以改变与左眼(例如,非主导眼)相对应的显示面板的至少一些设置。例如,处理器120可以改变与非主导眼相对应的显示面板的至少一些设置,以便降低上述显示面板的质量。根据实施例,处理器120可以在满足指定条件时改变与非主导眼相对应的显示面板的至少一些设置。例如,如果照度感测值小于或等于阈值,则处理器120可以降低与非主导眼相对应的显示面板的分辨率,如果与非主导眼相对应的显示面板上显示的内容的移动很小,则可以降低帧率,或者如果用户的瞳孔的移动很小,则可以减小与非主导眼相对应的显示面板的显示区域的尺寸。
在操作1107,处理器120可以检查现有的主导眼(和/或非主导眼)是否已经发生改变。例如,处理器120可以利用至少一个相机(例如,目光跟踪相机,如图3中的313)来检测用户的瞳孔(例如,左眼和右眼)的移动。当用户注视特定物体时,处理器120可以识别双眼中主要注视该物体的眼睛。根据实施例,处理器120可以利用至少一个相机(例如,目光跟踪相机313)定期检查用户视场,并且可以在用户视场超出了预设区域时确定主导眼已经发生改变。例如,主导眼的改变可能意味着非主导眼的改变。如果主导眼(或,非主导眼)没有发生改变,则处理器120可以分支到操作1105,在该操作中,处理器120可以基于指定条件定期或当指定事件发生时(例如,电子装置101的移动或显示的虚拟物体发生改变)调整与非主导眼相对应的显示面板的性能。如果主导眼(或非主导眼)已经发生改变,则处理器120可以分支到操作1109。
如果主导眼已经发生改变,在操作1109,处理器120可以调整对应于右眼(例如,现在对应于非主导眼)的显示面板的性能。
在某些实施例中,电子装置101检测到用户的主导眼和非主导眼已经发生改变的含义可以包括当用户注视特定物体时检测到双眼中主要注视该物体的眼睛已经发生改变。例如,当用户使用主导眼注视物体时,当由于该物体不在主导眼的视场内而导致用户通过非主导眼来注视该物体时,电子装置101可以确定用户的主导眼和非主导眼已经发生改变。
根据实施例,电子装置101可以周期性地识别用户的主导眼或非主导眼,并且如果主导眼(或非主导眼)已经发生改变,可以改变与主导眼(或非主导眼)相对应的显示面板的至少一些设置。电子装置101可以识别与改变后的非主导眼相对应的显示面板,并且可以改变相应显示面板的至少一些设置。根据实施例,设置可以发生改变,以便与非主导眼相对应的显示面板的质量低于与主导眼相对应的显示面板的质量。
根据某些实施例,显示面板的设置可以包括显示面板的分辨率设置、显示面板的帧率设置、和/或显示面板的显示区域的尺寸设置。电子装置101可以改变显示面板的分辨率设置、显示面板的帧率设置、和/或显示面板的显示区域的尺寸设置中的至少一者。
根据实施例,电子装置101可以在用户无法识别的程度上改变与改变后的非主导眼相对应的显示面板的至少一些设置。电子装置101可以减少显示面板所消耗的电量,使用时间可以相应地延长,并且电子装置101的发热可以减少。
根据某些实施例,电子装置101可以定期或当指定的事件发生时(例如,电子装置101的移动或显示的虚拟物体的变化)检查用于调整主导眼和/或非主导眼的质量的条件。例如,用于调整主导眼和/或非主导眼的质量的条件可以包括照度感测值的变化、显示面板上显示的内容的移动的变化、用户的瞳孔的移动的变化、或主导眼与非主导眼之间的变化。根据某些实施例,在识别出用于调整主导眼和/或非主导眼的质量的条件时,电子装置101可以针对主导眼和/或非主导眼对显示面板的显示区域的分辨率变化、帧率变化或尺寸变化中的至少一者做出改变。例如,基于照度感测值小于或等于阈值的情况、显示面板上显示的内容的移动的变化很小的情况、或用户的瞳孔的移动的变化很小的情况中的至少一者,电子装置101可以执行降低与非主导眼相对应的显示面板的分辨率的操作、降低帧率的操作、或减小显示面板的显示区域的尺寸的操作中的至少一者。
图12是描述了根据本公开的某些实施例的用于检查非主导眼的变化和对与改变后的非主导眼对应的显示面板的设置进行改变的方法的说明图。
情况[a]说明了用户注视位于用户前方的特定物体1205的情况。根据实施例,当用户注视特定物体1205时,可以分辨出主要被使用的主导眼(例如,右眼1201)和补充使用的非主导眼(例如,左眼1203)之间的差异。电子装置101(例如,图1中的电子装置101)可以包括至少一个用于跟踪用户的瞳孔的相机(例如,用于跟踪右眼1201的注视方向的第一眼跟踪相机1211和/或用于跟踪左眼1203的注视方向的第二眼跟踪相机1213)。根据实施例,电子装置101可以识别注视特定物体1205的眼睛中的主导眼(例如,右眼1201)和非主导眼(例如,左眼1203)。根据实施例,电子装置101可以改变包括在第一眼镜220(例如,图2a中的第一眼镜220)中的对应于(作为非主导眼的)左眼1203的显示面板的至少一些设置。电子装置101可以改变至少一些设置以降低对应于(作为非主导眼的)的左眼1203的显示面板的质量。
情况[b]说明了这样一种情况,即特定物体1206相对于电子装置101移动到一侧然后用户注视特定物体1206。先前,用户的右眼1201被设置为主导眼,左眼1203可以被设置为非主导眼。根据实施例,当特定物体1206移动到一侧并离开右眼1201的视场时,主导眼可以从右眼1201改变为左眼1203。主导眼从右眼1201改变为左眼1203同样可以表明非主导眼从左眼1203改变为右眼1201。根据实施例,电子装置101可以利用第一目光跟踪相机1211和第二目光跟踪相机1213确认注视特定物体1206的主导眼和非主导眼已经发生改变。根据实施例,响应于主导眼的改变,电子装置101可以改变包括在第二眼镜230(例如,图2a中的第二眼镜230)中的与改变后的非主导眼相对应的显示面板的至少一些设置。电子装置101可以改变至少一些设置以降低对应于(作为非主导眼的)右眼1201的显示面板的质量。
根据实施例,电子装置101可以周期性地检查用户的双眼(例如,左眼或右眼)的视场。电子装置101可以检测用户正在注视的物体是否在与主导眼相对应的眼睛的视场之外,并且如果物体在主导眼的视场之外则可以确定主导眼已经发生改变。
根据实施例,在确认主导眼(或非主导眼)的变化时,电子装置101可以改变与非主导眼相对应的显示面板的显示性能。例如,当非主导眼已经从左眼1203转移到右眼1201时,电子装置101可以减小与右眼1201相对应的显示面板的显示性能。相应地,当主导眼已经从右眼1201转移到左眼1203时,电子装置101可以将与左眼1203相对应的显示面板的显示性能恢复到初始设置。例如,与左眼1203相对应的显示面板的显示性能可以优于与右眼1201相对应的显示面板的显示性能。
图13a和图13b是描述了根据本公开的某些实施例的用于检测主导眼和非主导眼的方法的说明图。图13a说明了一种情况,其中具有圆形的虚拟物体1320至少部分地显示在至少一个显示面板上,并且穿过虚拟物体1320注视特定物体1305的眼睛被确定为主导眼。图13b说明了一种情况,其中由用户的手指形成的圆形被识别为临时物体(例如,通过手势1330形成),并且穿过临时物体(例如,作为手势1330的一部分)注视特定物体1305的眼睛被确定为主导眼。
参照图13a,电子装置101(例如,图1中的电子装置101)可以包括跟踪用户的瞳孔的至少一个相机(例如,用于跟踪右眼1301的注视方向的第一目光跟踪相机1311和/或用于跟踪左眼1303的注视方向的第二目光跟踪相机1313)。电子装置101可以包括用于测量与特定物体1305的距离的距离测量相机1315(例如,图3中的距离测量相机315)。根据实施例,电子装置101可以利用第一目光跟踪相机1311和/或第二目光跟踪相机1313来确定用户的双眼(例如,右眼1301和/或左眼1303)的注视方向。电子装置101可以确定右眼1301为主导眼(例如,左眼1303可以被确定为非主导眼),其对应于注视特定物体1305同时穿过形成在至少一个显示面板上的虚拟物体1320的注视方向。
根据实施例,电子装置101可以利用距离测量相机1315来测量与特定物体1305的距离。根据实施例,如果测量出的距离大于或等于阈值,则电子装置101可以利用第一目光跟踪相机1311和/或第二目光跟踪相机1313来识别用户的双眼(例如,右眼1301和/或左眼1303)的注视方向。电子装置101可以基于识别出的注视方向来区分主导眼和非主导眼。例如,在确认了右眼1301的注视方向是注视特定物体1305同时穿过形成在第一眼镜220(例如,图2a中的第一眼镜220)和/或第二眼镜230(例如,图2a中的第二眼镜230)上的虚拟物体1320的方向的情况下,电子装置101可以确定用户的右眼1301为主导眼。相应地,用户的左眼1303可以被确定为非主导眼。根据实施例,电子装置101可以改变对应于(作为非主导眼的)左眼1303的显示面板的设置以降低该显示面板的质量。
根据另一个实施例,如果利用距离测量相机1315测量出的与特定物体1305的距离大于或等于设定阈值,则电子装置101可以在显示面板上显示虚拟物体并识别用户的主导眼和非主导眼。例如,当与特定物体1305的距离小于设定阈值时,电子装置101可以不改变与非主导眼对应的显示面板的显示性能。
根据实施例,当利用距离测量相机1315注视指定距离或更远处的特定物体1305时,电子装置101可以利用第一目光跟踪相机1311或第二目光跟踪相机1313来识别左眼和右眼的注视方向,并且基于识别出的注视方向相关信息来识别左眼和右眼中的主导眼或非主导眼中的至少一者。例如,当与特定物体1305的距离小于设定阈值时,电子装置101可以不改变与非主导眼相对应的显示面板的显示性能。
参照图13b,电子装置101(例如,图1中的电子装置101)可以包括跟踪用户瞳孔的至少一个相机(例如,用于跟踪右眼1301的注视方向的第一目光跟踪相机1311和/或用于跟踪左眼1303的注视方向的第二目光跟踪相机1313)。电子装置101可以包括用于检测特定距离内的用户手势的手势相机1317和1319(例如,图3中的手势相机311)。根据实施例,电子装置101可以利用第一目光跟踪相机1311和/或第二目光跟踪相机1313来识别用户的双眼(例如,右眼1301和/或左眼1303)的注视方向。电子装置101可以利用至少一个手势相机1317和1319来检测用户的手势1330(例如,用手指做出某个圆的手势)。电子装置101可以确定右眼1301作为主导眼(例如,左眼1303可以被确定为非主导眼),其对应于注视特定物体1305同时穿过由用户手势1330形成的圆的注视方向。根据实施例,电子装置101可以降低对应于(作为非主导眼的)左眼1303的显示面板的显示性能。
根据某些实施例,检测用户的主导眼和/或非主导眼的方法不限于图13a和/或图13b中所示的实施例。
根据实施例,电子装置101可以通过包括在第一眼镜220中的对应于用户的右眼1301的第一显示面板和/或包括在第二眼镜230中的对应于用户的左眼1302的第二显示面板来显示虚拟物体。电子装置101的处理器120可以通过用于跟踪右眼1301的注视方向的第一目光跟踪相机1311和/或用于跟踪左眼1303的注视方向的第二目光跟踪相机1313来跟踪用户朝向虚拟物体的注视方向,并且可以基于注视方向来检测用户的主导眼和/或非主导眼。
图14是描述了根据本公开的某些实施例的基于视场的区域来检测主导眼和非主导眼的方法的说明图。
在图14中,用户通过右眼1401和/或左眼1402识别物体的视场区域可以被划分为多个区域(例如,第一区域1411、第二区域1412、第三区域1413和/或第四区域1414)。
根据实施例,第一区域1411可以被定义为用户的右眼1401和左眼1402具有基本相等的优势的区域。例如,当用户注视位于第一区域1411的物体时,电子装置101可以利用至少一个相机(例如,图3中的目光跟踪相机313)来识别用户的注视方向并确定用户的主导眼和/或非主导眼。
根据实施例,第二区域1412可以被定义为用户的左眼1401为主导的区域。例如,当用户观看位于第二区域1412的物体时,用户的左眼1402可以被确定为主导眼,用户的右眼1401可以被确定为非主导眼。
根据实施例,第三区域1413可以被定义为用户的右眼1401为主导的区域。例如,当用户观看位于第三区域1413的物体时,用户的右眼1401可以被确定为主导眼,用户的左眼1402可以被确定为非主导眼。
根据实施例,第四区域1414可以被定义为这样的区域,该区域为忽略用户的右眼1401或左眼1402的主导的区域。例如,当用户观看位于第四区域1414的物体时,由于物体的位置离用户的脸太近,所以可能难以确定主导眼和/或非主导眼。
在图14中,用于识别事物的视场区域被划分为四个区域,但是根据某些实施例,用于识别事物的视场区域可以被划分为四个或更多的区域,或者四个或更少的区域。
根据某些实施例,电子装置101可以基于用户的左眼和右眼来识别主导眼和/或非主导眼,并且可以在与左眼对应的第一显示面板和与右眼对应的第二显示面板中改变与识别出的非主导眼对应的显示面板的设置,使其至少部分地不同于与识别出的主导眼对应的显示面板的设置。例如,电子装置101可以至少部分地改变与非主导眼对应的显示面板的设置,以便降低该显示面板的显示性能。
根据某些实施例的方法可以包括:利用被配置为捕获电子装置101(例如,图1中的电子装置101)的正面外部环境的第一相机(例如,图3中的距离测量相机315)或与第一相机相反定向并且被配置为捕获用户的左眼和右眼的注视方向的第二相机(例如,图3中的目光跟踪相机313)中的一个或更多个,从用户的左眼和右眼中识别主导眼和/或非主导眼,其中所述第一相机和第二相机被包括在电子装置101中;利用至少一个处理器,从第一显示面板和第二显示面板中识别对应于主导眼的主导显示面板,以及从第一显示面板和第二显示面板中识别对应于非主导眼的非主导显示面板;以及改变主导显示面板的设置,使其与非主导显示面板的设置不同。
根据实施例,识别主导眼和非主导眼可以包括:利用第一相机测量与物体的距离;基于确定了测量出的距离超过阈值,利用第二相机313识别左眼和右眼的注视方向;以及基于捕获的注视方向,从左眼和右眼中识别主导眼和非主导眼。
根据实施例,改变主导显示面板的设置可以包括:确定利用照度传感器(例如,图3中的照度传感器322)测量出的亮度值是否小于或等于阈值;以及基于确定了亮度值小于或等于阈值,降低与非主导眼相对应的非主导显示面板的显示分辨率。
根据实施例的方法还可以包括:基于注视方向,检测用户的注视所指向的物体的移动;确定物体的移动是否超过了预设参考值;以及基于确定了移动超过了参考值,降低与非主导眼相对应的非主导显示面板的帧率。
根据实施例的方法还可以包括:基于对左眼注视方向和右眼注视方向的检测,确定主导眼是否发生了改变;基于确定了主导眼从右眼改变为左眼,改变与右眼相对应的显示面板的至少一些设置;以及基于确定了主导眼从右眼改变为左眼,将与左眼相对应的显示面板的设置恢复为初始设置。
根据各种实施例的电子装置可以是各种类型的电子装置之一。电子装置可包括例如便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置或家用电器。根据本公开的实施例,电子装置不限于以上所述的那些电子装置。
应该理解的是,本公开的各种实施例以及其中使用的术语并不意图将在此阐述的技术特征限制于具体实施例,而是包括针对相应实施例的各种改变、等同形式或替换形式。对于附图的描述,相似的参考标号可用来指代相似或相关的元件。将理解的是,与术语相应的单数形式的名词可包括一个或更多个事物,除非相关上下文另有明确指示。如这里所使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”以及“A、B或C中的至少一个”的短语中的每一个短语可包括在与所述多个短语中的相应一个短语中一起列举出的项的所有可能组合。如这里所使用的,诸如“第1”和“第2”或者“第一”和“第二”的术语可用于将相应部件与另一部件进行简单区分,并且不在其它方面(例如,重要性或顺序)限制所述部件。将理解的是,在使用了术语“可操作地”或“通信地”的情况下或者在不使用术语“可操作地”或“通信地”的情况下,如果一元件(例如,第一元件)被称为“与另一元件(例如,第二元件)结合”、“结合到另一元件(例如,第二元件)”、“与另一元件(例如,第二元件)连接”或“连接到另一元件(例如,第二元件)”,则意味着所述一元件可与所述另一元件直接(例如,有线地)连接、与所述另一元件无线连接、或经由第三元件与所述另一元件连接。
如这里所使用的,术语“模块”可包括以硬件、软件或固件实现的单元,并可与其他术语(例如,“逻辑”、“逻辑块”、“部分”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成部件或者是该单个集成部件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可将在此阐述的各种实施例实现为包括存储在存储介质(例如,内部存储器136或外部存储器138)中的可由机器(例如,电子装置101)读取的一个或更多个指令的软件(例如,程序140)。例如,在处理器的控制下,所述机器(例如,电子装置101)的处理器(例如,处理器120)可在使用或无需使用一个或更多个其它部件的情况下调用存储在存储介质中的所述一个或更多个指令中的至少一个指令并运行所述至少一个指令。这使得所述机器能够操作用于根据所调用的至少一个指令执行至少一个功能。所述一个或更多个指令可包括由编译器产生的代码或能够由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着所述存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语并不在数据被半永久性地存储在存储介质中与数据被临时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的各种实施例的方法。计算机程序产品可作为产品在销售者和购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,Play StoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户装置(例如,智能电话)之间分发(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是临时产生的,或者可将计算机程序产品中的至少部分至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据各种实施例,上述部件中的每个部件(例如,模块或程序)可包括单个实体或多个实体。根据各种实施例,可省略上述部件中的一个或更多个部件,或者可添加一个或更多个其它部件。可选择地或者另外地,可将多个部件(例如,模块或程序)集成为单个部件。在这种情况下,根据各种实施例,该集成部件可仍旧按照与所述多个部件中的相应一个部件在集成之前执行一个或更多个功能相同或相似的方式,执行所述多个部件中的每一个部件的所述一个或更多个功能。根据各种实施例,由模块、程序或另一部件所执行的操作可顺序地、并行地、重复地或以启发式方式来执行,或者所述操作中的一个或更多个操作可按照不同的顺序来运行或被省略,或者可添加一个或更多个其它操作。
本公开的实施例和附图只是举例,以易于描述本公开的内容和便于理解本公开的内容,而并不意图限制本公开。因此,除了本文公开的实施例之外,本公开应被理解为包括基于本公开所得出的所有修改或修正形式,并由所附的权利要求书及其等同形式所定义。

Claims (15)

1.一种电子装置,所述电子装置包括:
第一相机,所述第一相机被配置为捕获所述电子装置的正面外部环境;
第二相机,所述第二相机与所述第一相机相反定向并且被配置为捕获用户的左眼和右眼的注视方向;
第一显示面板,所述第一显示面板对应于左眼;
第二显示面板,所述第二显示面板对应于右眼;
存储器;以及
处理器,所述处理器可操作地连接到所述第一相机、所述第二相机、所述第一显示面板、所述第二显示面板和所述存储器,
其中,所述处理器被配置为;
在左眼和右眼中识别主导眼和非主导眼;以及
从所述第一显示面板和所述第二显示面板中识别与所述主导眼相对应的主导显示面板,以及从所述第一显示面板和所述第二显示面板中识别与所述非主导眼相对应的非主导显示面板;以及
改变所述主导显示面板的设置,使其与所述非主导显示面板的设置不同。
2.根据权利要求1所述的电子装置,其中,所述处理器被配置为;
利用所述第一相机或所述第二相机中的至少一者,识别用户的左眼和用户的右眼的注视方向;以及
基于所捕获的注视方向,识别左眼和右眼中的所述主导眼和所述非主导眼。
3.根据权利要求2所述的电子装置,其中,所述处理器被配置为:
利用所述第一相机测量与物体的距离;
基于检测到测得的距离超过阈值,利用所述第二相机识别左眼和右眼的注视方向;以及
基于确定出测得的距离超过阈值,改变与所述非主导眼相对应的所述非主导显示面板的一些设置。
4.根据权利要求1所述的电子装置,所述电子装置还包括用于检测环境亮度的照度传感器,并且,其中,所述处理器还被配置为:
识别利用所述照度传感器测得的亮度值是否小于或等于阈值;以及
基于确定了所述亮度值小于或等于所述阈值,降低与所述非主导眼相对应的所述非主导显示面板的显示分辨率。
5.根据权利要求1所述的电子装置,其中,所述处理器被配置为:
基于所述注视方向,识别所述用户的注视所指向的物体的移动;
识别所述物体的移动是否超过了预设的参考值;以及
基于确定出所述移动超过了所述参考值,降低与所述非主导眼相对应的所述非主导显示面板的帧率。
6.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
基于预设的时间间隔,降低与所述非主导眼相对应的所述非主导显示面板的分辨率和帧率中的一个或更多个。
7.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
检测左眼和右眼的目光移动;
确定检测到的目光移动是否超过了预设的参考值;以及
基于确定出所述目光移动超过了所述参考值,减小与所述非主导眼相对应的所述非主导显示面板的显示区域。
8.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
在所述第一显示面板和所述第二显示面板上显示虚拟物体;以及
当用户穿过显示的虚拟物体注视物体时,利用所述第二相机识别左眼注视方向和右眼注视方向,
其中,所述非主导眼是基于识别出的左眼注视方向和右眼注视方向,从左眼和右眼中识别出来的。
9.根据权利要求1所述的电子装置,所述电子装置还包括第三相机,所述第三相机被配置为检测用户的手势,并且,其中所述处理器还被配置为:
当用户的手形成了一个圆时,利用所述第三相机来检测用户的手的位置;
当用户穿过所述圆注视物体时,利用所述第二相机识别左眼注视方向和右眼注视方向;并且
其中,所述非主导眼是基于识别出的左眼注视方向和右眼注视方向,从左眼和右眼中识别出来的。
10.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
基于对左眼注视方向和右眼注视方向的检测,确定所述主导眼是否发生了改变;以及
基于确定出所述主导眼已经从右眼改变为左眼,改变与右眼相对应的显示面板的至少一些设置,或者将与左眼相对应的显示面板的设置恢复到初始设置。
11.一种电子装置的方法,所述方法包括:
利用被配置为捕获所述电子装置的正面外部环境的第一相机或与所述第一相机相反定向并且被配置为捕获用户的左眼和右眼的注视方向的第二相机中的一者或更多者,在用户的左眼和右眼中识别主导眼和非主导眼;
利用至少一个处理器从第一显示面板和第二显示面板中识别与所述主导眼相对应的主导显示面板,以及从所述第一显示面板和所述第二显示面板中识别与所述非主导眼相对应的非主导显示面板;以及
改变所述主导显示面板的设置,使其与所述非主导显示面板的设置不同。
12.根据权利要求11所述的方法,其中,识别所述主导眼和所述非主导眼还包括:
利用所述第一相机测量与物体的距离;
基于确定出测得的距离超过阈值,利用所述第二相机识别左眼的注视方向和右眼的注视方向;以及
基于所捕获的注视方向,从左眼和右眼中识别所述主导眼和所述非主导眼。
13.根据权利要求11所述的方法,其中,改变所述主导显示面板的设置包括:
确定利用照度传感器测得的亮度值是否小于或等于阈值;以及
基于确定出所述亮度值小于或等于所述阈值,降低与所述非主导眼相对应的所述非主导显示面板的显示分辨率。
14.根据权利要求11所述的方法,所述方法还包括:
基于所述注视方向,检测用户的注视所指向的物体的移动;
确定所述物体的移动是否超过了预设的参考值;以及
基于确定出所述移动超过了所述参考值,降低与所述非主导眼相对应的所述非主导显示面板的帧率。
15.根据权利要求11所述的方法,所述方法还包括:
基于对左眼注视方向和右眼注视方向的检测,确定所述主导眼是否发生了改变;
基于确定出所述主导眼从右眼改变为左眼,改变与右眼相对应的所述显示面板的至少一些设置;以及
基于确定出所述主导眼从右眼改变为左眼,将与左眼相对应的所述显示面板的设置恢复到初始设置。
CN202180054559.0A 2020-09-03 2021-08-27 改变显示器的设置的方法及电子装置 Pending CN116057451A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020200112612A KR102917803B1 (ko) 2020-09-03 2020-09-03 디스플레이의 설정 변경 방법 및 전자 장치
KR10-2020-0112612 2020-09-03
PCT/KR2021/011509 WO2022050638A1 (ko) 2020-09-03 2021-08-27 디스플레이의 설정 변경 방법 및 전자 장치

Publications (1)

Publication Number Publication Date
CN116057451A true CN116057451A (zh) 2023-05-02

Family

ID=80358459

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180054559.0A Pending CN116057451A (zh) 2020-09-03 2021-08-27 改变显示器的设置的方法及电子装置

Country Status (3)

Country Link
US (1) US11852820B2 (zh)
EP (1) EP4167019A4 (zh)
CN (1) CN116057451A (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12463438B2 (en) * 2020-12-23 2025-11-04 Samsung Electronics Co., Ltd. Wearable electronic device including multiple batteries and method for operating the same
TWI858237B (zh) * 2021-03-05 2024-10-11 大立光電股份有限公司 頭戴裝置
EP4390512A4 (en) * 2021-08-20 2025-08-06 Kyocera Corp AERIAL IMAGE DISPLAY APPARATUS
JP7576064B2 (ja) * 2022-08-25 2024-10-30 矢崎総業株式会社 車両用表示装置
US12086661B2 (en) * 2022-09-06 2024-09-10 Snap Inc. Remotely changing settings on AR wearable devices
US12394013B1 (en) * 2022-09-22 2025-08-19 Apple Inc. Adjusting user data based on a display frame rate
EP4592737A4 (en) * 2022-11-02 2026-01-14 Samsung Electronics Co Ltd HABITRONIC ELECTRONIC DEVICE AND ASSOCIATED OPERATING METHOD
EP4598012A4 (en) * 2022-11-07 2025-10-29 Samsung Electronics Co Ltd Wearable electronic device comprising a camera and operating method of the device
US12541857B2 (en) * 2023-08-30 2026-02-03 Adeia Imaging Llc Synthesizing images from the perspective of the dominant eye
CN117057799B (zh) * 2023-10-11 2024-02-09 腾讯科技(深圳)有限公司 资产数据处理方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140145914A1 (en) * 2012-11-29 2014-05-29 Stephen Latta Head-mounted display resource management
US20140362446A1 (en) * 2013-06-11 2014-12-11 Sony Computer Entertainment Europe Limited Electronic correction based on eye tracking
WO2016174858A1 (en) * 2015-04-27 2016-11-03 Sony Semiconductor Solutions Corporation Image processing device and image processing system
WO2018026145A1 (ko) * 2016-08-03 2018-02-08 삼성전자 주식회사 전자 장치 및 전자 장치의 시선 추적 방법
US20180059420A1 (en) * 2016-08-31 2018-03-01 Lg Display Co., Ltd. Personal immersive display device and driving method thereof
CN108136258A (zh) * 2015-10-28 2018-06-08 微软技术许可有限责任公司 基于跟踪眼部运动来调整图像帧

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101309705B1 (ko) * 2010-10-21 2013-09-17 도시바삼성스토리지테크놀러지코리아 주식회사 안경 및 이를 채용한 3d 영상표시 시스템
KR101252169B1 (ko) * 2011-05-27 2013-04-05 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9317114B2 (en) 2013-05-07 2016-04-19 Korea Advanced Institute Of Science And Technology Display property determination
WO2015001547A1 (en) * 2013-07-01 2015-01-08 Inuitive Ltd. Aligning gaze and pointing directions
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
JP6575117B2 (ja) * 2015-04-06 2019-09-18 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
KR102232419B1 (ko) 2014-08-26 2021-03-26 엘지전자 주식회사 웨어러블 디스플레이 디바이스 및 그 제어 방법
US10379611B2 (en) * 2016-09-16 2019-08-13 Intel Corporation Virtual reality/augmented reality apparatus and method
US11196975B2 (en) * 2017-05-18 2021-12-07 Sony Interactive Entertainment Inc. Image generating device, image display system, and image generating method
US9940518B1 (en) * 2017-09-11 2018-04-10 Tobii Ab Reliability of gaze tracking data for left and right eye
KR102538483B1 (ko) * 2017-09-26 2023-06-01 삼성전자주식회사 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
US10523930B2 (en) * 2017-12-29 2019-12-31 Microsoft Technology Licensing, Llc Mitigating binocular rivalry in near-eye displays
GB2574472B (en) * 2018-06-08 2021-05-26 Sony Interactive Entertainment Inc Head-mountable display device and method
KR102525000B1 (ko) 2018-08-08 2023-04-24 삼성전자 주식회사 복수의 이미지들이 합성된 이미지를 깊이 정보에 기반하여 흐림 처리하는 전자 장치 및 상기 전자 장치의 구동 방법
KR102647637B1 (ko) * 2019-01-08 2024-03-15 삼성전자주식회사 사용자 인증을 위한 방법 및 그 전자 장치
KR102194816B1 (ko) 2019-01-29 2020-12-23 박준용 주시안 테스트 장치 및 주시안 테스트 방법
CN110032278B (zh) * 2019-03-29 2020-07-14 华中科技大学 一种人眼感兴趣物体的位姿识别方法、装置及系统
WO2020209491A1 (en) * 2019-04-11 2020-10-15 Samsung Electronics Co., Ltd. Head-mounted display device and operating method of the same
US20200387286A1 (en) * 2019-06-07 2020-12-10 Facebook Technologies, Llc Arm gaze-driven user interface element gating for artificial reality systems
KR102832133B1 (ko) 2019-06-20 2025-07-09 엘지전자 주식회사 시선 추적을 이용한 디스플레이 제어방법 및 디스플레이 제어장치
US20210089121A1 (en) * 2019-09-23 2021-03-25 Tobii Ab Using spatial information for dynamic dominant eye shifts
US20210096368A1 (en) * 2019-09-27 2021-04-01 Varjo Technologies Oy Head-mounted display apparatus and method employing dynamic eye calibration
JP2021131490A (ja) * 2020-02-20 2021-09-09 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140145914A1 (en) * 2012-11-29 2014-05-29 Stephen Latta Head-mounted display resource management
US20140362446A1 (en) * 2013-06-11 2014-12-11 Sony Computer Entertainment Europe Limited Electronic correction based on eye tracking
WO2016174858A1 (en) * 2015-04-27 2016-11-03 Sony Semiconductor Solutions Corporation Image processing device and image processing system
CN108136258A (zh) * 2015-10-28 2018-06-08 微软技术许可有限责任公司 基于跟踪眼部运动来调整图像帧
WO2018026145A1 (ko) * 2016-08-03 2018-02-08 삼성전자 주식회사 전자 장치 및 전자 장치의 시선 추적 방법
US20180059420A1 (en) * 2016-08-31 2018-03-01 Lg Display Co., Ltd. Personal immersive display device and driving method thereof

Also Published As

Publication number Publication date
EP4167019A4 (en) 2023-12-06
US11852820B2 (en) 2023-12-26
EP4167019A1 (en) 2023-04-19
US20220066221A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
CN116057451A (zh) 改变显示器的设置的方法及电子装置
US20220155861A1 (en) Method for wireless connection in augmented reality environment and electronic device therefor
US11789526B2 (en) Method and electronic system for outputting video data and audio data
KR102917803B1 (ko) 디스플레이의 설정 변경 방법 및 전자 장치
US12197642B2 (en) Electronic device and method thereof for tracking user gaze and providing augmented reality service
US12542979B2 (en) Method of removing interference and electronic device performing the method
US20230122744A1 (en) Wearable electronic device adjusting transmittance of visor and brightness of display
US20250069535A1 (en) Method and device for controlling luminance of augmented reality (ar) image
KR20220099011A (ko) 콘텐츠를 표시하기 위한 전자 장치 및 그의 동작 방법
EP4598012A1 (en) Wearable electronic device including camera and operation method thereof
US20230251362A1 (en) Method of removing interference and electronic device performing the method
EP4369721B1 (en) Electronic device for providing content in association with external display device and content providing method thereof
US20230261502A1 (en) Method and electronic device for controlling discharge of battery
US20230262323A1 (en) Method and device for obtaining image of object
US20220139053A1 (en) Electronic device, ar device and method for controlling data transfer interval thereof
US20240119683A1 (en) Electronic device and method for providing ar information using watch face image
US20260036818A1 (en) Ar device and method for preventing glare in ar service image
US12455954B2 (en) Apparatus and method for authenticating user in augmented reality
US20250035932A1 (en) Wearable electronic device including transparent display
EP4582906A1 (en) Augmented reality object display method and electronic device supporting same
US20250181158A1 (en) Display module control method and electronic device for carrying out same
US20250216683A1 (en) Wearable device for guiding user's posture and method thereof
US20240380875A1 (en) Wearable electronic device that tracks gaze and face
KR20240153873A (ko) Ar 장치 및 ar 서비스 이미지의 눈부심 방지 방법
KR20260021508A (ko) 웨어러블 장치 및 그 동작 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination