CN105686835A - 一种目光可视化的装置 - Google Patents
一种目光可视化的装置 Download PDFInfo
- Publication number
- CN105686835A CN105686835A CN201610030673.0A CN201610030673A CN105686835A CN 105686835 A CN105686835 A CN 105686835A CN 201610030673 A CN201610030673 A CN 201610030673A CN 105686835 A CN105686835 A CN 105686835A
- Authority
- CN
- China
- Prior art keywords
- coordinate
- coordinates
- output
- output mechanism
- people
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004438 eyesight Effects 0.000 title abstract 3
- 238000012800 visualization Methods 0.000 title abstract 3
- 238000012545 processing Methods 0.000 claims abstract description 13
- 210000001508 eye Anatomy 0.000 claims abstract description 12
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 11
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 3
- 230000003565 oculomotor Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 claims description 2
- 230000033001 locomotion Effects 0.000 abstract description 8
- 230000000474 nursing effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient; User input means
- A61B5/742—Details of notification to user or communication with user or patient; User input means using visual displays
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Geometry (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开了一种目光可视化的装置,扫描机构即时获得眼球的二维平面XY轴坐标并传输至处理机构;处理机构根据A坐标、输出机构与眼球所在位置的偏差计算修正,生成新的二维平面XY轴坐标传输至输出机构;输出机构以该坐标为目标位置,云台调整可见光输出组件的位置或姿态。该装置使得可见光的运动轨迹实现对眼球运动轨迹的即时动态追踪,看护人员、医疗人员和亲朋好友等可以根据可见光的运动轨迹精准判断被扫描者的意图,从而实现帮助无法表达自己意愿的人群更好的表达自己意愿,便于他们与他人的交流,有助于他们生活质量的改善。同时拓展了眼动仪的适用范围,开辟了广阔的应用空间。
Description
技术领域
本发明涉及一种将目光指向的对象用可见光束予以标示的装置。
背景技术
眼动仪是心理学基础研究的重要仪器。眼动仪用于记录人在处理视觉信息时的眼动轨迹特征。广泛用于注意、视知觉、阅读等领域的研究。
云台是安装、固定摄像机的支撑设备,它分为固定和电动云台两种。固定云台适用于监视范围不大的情况,在固定云台上安装好摄像机后可调整摄像机的水平和俯仰的角度,达到最好的工作姿态后只要锁定调整机构就可以了。
电动云台适用于对大范围进行扫描监视。它可以扩大摄像机的监视范围。电动云台高速姿态是由两台执行电动机来实现,电动机接受来自控制器的信号精确地运行定位。在控制信号的作用下,云台上的摄像机既可自动扫描监视区域,也可在监控中心值班人员的操纵下跟踪监视对象。
当声音、肢体语言都不能用于表达自身需求而视觉系统正常时,利用通俗意义上的目光注视,来直观表达就成为一种十分必要的手段。这对于瘫痪,肢体残疾,自闭等无法表达自己意愿的人群,都是一种很好的辅助装置,便于他们与看护人员、医疗人员和亲朋好友的交流,有助于他们更好的表达自己。
发明内容
本发明所要解决的技术问题是,提供一种将目光指向转化为可见光束指示的装置,帮助无法表达自己意愿的人群与他人实现交流。为了解决上述技术问题,本发明采用的技术方案是,一种目光可视化的装置,其特征在于,该装置包括与处理机构通讯连接的扫描机构和输出机构,所述扫描机构是追踪眼球运动的眼动仪,处理机构为计算机,输出机构为装置于电动云台上的可见光输出组件;
扫描机构按照一定的刷新频率,即时获得眼球的二维平面XY轴坐标,称为A坐标,并将A坐标传输至处理机构;
处理机构根据A坐标、输出机构与眼球所在位置的偏差计算修正,生成新的二维平面XY轴坐标,称为B坐标,将B坐标传输至输出机构;
输出机构以B坐标为目标位置,云台调整可见光输出组件的位置或姿态。
采用上述技术方案,扫描机构不断将所获得的A坐标数据传送到处理机构,经处理机构修正成B坐标,供给输出机构不断调整可见光输出组件的位置或姿态。
由上可知,本发明的有益效果在于,该装置使得可见光的运动轨迹实现对眼球运动轨迹的即时动态追踪,看护人员、医疗人员和亲朋好友等可以根据可见光的运动轨迹精准判断被扫描者的意图,比如:可见光停留在某一物件上时,就可以判断被扫描者对该物件的需要。从而实现帮助无法表达自己意愿的人群更好的表达自己意愿,便于他们与他人的交流,有助于他们生活质量的改善。
同时,由于现有的眼动仪仅能获得平面二维数据,其应用局限于二维平面上的处理应用。本装置利用光线的特性将其应用延伸至立体空间。拓展了眼动仪的适用范围,开辟了广阔的应用空间。
优选地,所述可见光输出组件位于被扫描者两眼之间,或者位于被扫描者的头部左侧或右侧。有利于提高追踪的精确度。
优选地,所述目光可视化的装置制作为可穿戴设备。
下面将结合附图和具体实施方式对本发明做进一步说明。
附图说明
附图为本发明系统构成示意图。
具体实施方式
参见附图,反映本发明的一种具体结构,所述目光可视化的装置包括:作为处理机构的,扫描机构是追踪眼球运动的眼动仪2,输出机构为装置于电动云台4上的可见光输出组件——聚光灯3;眼动仪2和电动云台4与计算机1通讯连接。
眼动仪2采用TheEyeTribe(可以此为商品名购得),具体参数如下:采样速率:40/6OHz;精确度:0.5度;工作范围:450~750mm。
眼动仪2按照一定的刷新频率(即采样速率),即时获得卧床病人眼球的二维平面XY轴坐标,称为A坐标,并将A坐标传输至计算机1;
计算机1根据A坐标、聚光灯3与眼球所在位置的偏差计算修正,生成新的二维平面XY轴坐标,称为B坐标,将B坐标传输至电动云台4;
电动云台4由两个分别控制XY轴运动的舵机组成,舵机角度转动范围:0~180度,精确度为0.5度.电动云台4以B坐标为目标位置,电动云台4调整聚光灯3的位置或姿态。
眼动仪2不断将所获得的A坐标数据传送到计算机1,经计算机1修正成B坐标,供给电动云台4不断调整聚光灯3的位置或姿态。使得聚光灯3发出的可见光的运动轨迹实现对卧床病人眼球运动轨迹的即时动态追踪,看护人员、医疗人员和亲朋好友等可以根据可见光的运动轨迹精准判断卧床病人的意图,如图所示,聚光灯3发出的可见光停留在茶杯上时,就可以判断卧床病人需要喝水。实现光束所照射末端即为目光所视位。
本发明描述的上述实现方式仅是为了清楚的说明本发明的技术方案,而不能理解为对本发明做出任何限制。本发明在本技术领域具有公知的多种替代或者变形,在不脱离本发明实质意义的前提下,均落入本发明的保护范围。
Claims (3)
1.一种目光可视化的装置,其特征在于,该装置包括与处理机构通讯连接的扫描机构和输出机构,所述扫描机构是追踪眼球运动的眼动仪,处理机构为计算机,输出机构为装置于电动云台上的可见光输出组件;
扫描机构按照一定的刷新频率,即时获得眼球的二维平面XY轴坐标,称为A坐标,并将A坐标传输至处理机构;
处理机构根据A坐标、输出机构与眼球所在位置的偏差计算修正,生成新的二维平面XY轴坐标,称为B坐标,将B坐标传输至输出机构;
输出机构以B坐标为目标位置,云台调整可见光输出组件的位置或姿态。
2.如权利要求1所述的一种目光可视化的装置,其特征在于,所述可见光输出组件位于被扫描者两眼之间,或者位于被扫描者的头部左侧或右侧。
3.如权利要求1或2所述的一种目光可视化的装置,其特征在于,所述目光可视化的装置制作为可穿戴设备。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610030673.0A CN105686835A (zh) | 2016-01-18 | 2016-01-18 | 一种目光可视化的装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610030673.0A CN105686835A (zh) | 2016-01-18 | 2016-01-18 | 一种目光可视化的装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN105686835A true CN105686835A (zh) | 2016-06-22 |
Family
ID=56226499
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201610030673.0A Pending CN105686835A (zh) | 2016-01-18 | 2016-01-18 | 一种目光可视化的装置 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN105686835A (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110787006A (zh) * | 2019-10-22 | 2020-02-14 | 南京航空航天大学 | 一种基于眼球驱动与调节的新型电动病床 |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1492668A (zh) * | 2002-10-22 | 2004-04-28 | �Ϻ��Ƶ���ϵͳ�������ι�˾ | 仿生型自动视觉和视线控制系统及方法 |
| CN101067716A (zh) * | 2007-05-29 | 2007-11-07 | 南京航空航天大学 | 具有视线跟踪功能的增强现实自然交互式头盔 |
| CN101336089A (zh) * | 2006-01-26 | 2008-12-31 | 诺基亚公司 | 眼睛跟踪器设备 |
| CN101515199A (zh) * | 2009-03-24 | 2009-08-26 | 北京理工大学 | 一种基于视线跟踪和p300脑电电位的字符输入装置 |
| CN201307266Y (zh) * | 2008-06-25 | 2009-09-09 | 韩旭 | 双目视线跟踪装置 |
| CN101896957A (zh) * | 2008-10-15 | 2010-11-24 | 松下电器产业株式会社 | 光投射装置 |
| WO2011030958A1 (en) * | 2009-09-14 | 2011-03-17 | Yoon Seok Cho | A system and method for automatic adjustment of vehicle mirrors |
| JP5388024B2 (ja) * | 2008-11-13 | 2014-01-15 | 国立大学法人 千葉大学 | 姿勢制御機能診断装置 |
-
2016
- 2016-01-18 CN CN201610030673.0A patent/CN105686835A/zh active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1492668A (zh) * | 2002-10-22 | 2004-04-28 | �Ϻ��Ƶ���ϵͳ�������ι�˾ | 仿生型自动视觉和视线控制系统及方法 |
| CN101336089A (zh) * | 2006-01-26 | 2008-12-31 | 诺基亚公司 | 眼睛跟踪器设备 |
| CN101067716A (zh) * | 2007-05-29 | 2007-11-07 | 南京航空航天大学 | 具有视线跟踪功能的增强现实自然交互式头盔 |
| CN201307266Y (zh) * | 2008-06-25 | 2009-09-09 | 韩旭 | 双目视线跟踪装置 |
| CN101896957A (zh) * | 2008-10-15 | 2010-11-24 | 松下电器产业株式会社 | 光投射装置 |
| JP5388024B2 (ja) * | 2008-11-13 | 2014-01-15 | 国立大学法人 千葉大学 | 姿勢制御機能診断装置 |
| CN101515199A (zh) * | 2009-03-24 | 2009-08-26 | 北京理工大学 | 一种基于视线跟踪和p300脑电电位的字符输入装置 |
| WO2011030958A1 (en) * | 2009-09-14 | 2011-03-17 | Yoon Seok Cho | A system and method for automatic adjustment of vehicle mirrors |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110787006A (zh) * | 2019-10-22 | 2020-02-14 | 南京航空航天大学 | 一种基于眼球驱动与调节的新型电动病床 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Evans et al. | Collecting and analyzing eye-tracking data in outdoor environments | |
| US10327708B2 (en) | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan | |
| EP2948056B1 (en) | System and method for tracking and compensating for patient motion during a medical imaging scan | |
| US9717461B2 (en) | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan | |
| US10438349B2 (en) | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan | |
| CN105082161B (zh) | 双目立体摄像机机器人视觉伺服控制装置及其使用方法 | |
| US10636193B1 (en) | Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display | |
| CN107014378A (zh) | 一种视线跟踪瞄准操控系统及方法 | |
| Almeida et al. | Interface transparency issues in teleoperation | |
| CN106999250A (zh) | 用于机器人辅助的医疗处理的系统 | |
| CN109717957B (zh) | 基于混合现实的控制系统 | |
| US20170189268A1 (en) | Apparatus, system and method for remotely determining acupuncture point | |
| WO2023078249A1 (zh) | 一种手术机器人避障方法、系统、装置和存储介质 | |
| WO2019037605A1 (zh) | Ar眼镜及其追踪系统 | |
| Siegle et al. | Measurement of instantaneous perceived self-motion using continuous pointing | |
| CN104679222B (zh) | 基于人机交互的医疗办公系统、医疗信息共享系统及方法 | |
| Cambuzat et al. | Immersive teleoperation of the eye gaze of social robots-assessing gaze-contingent control of vergence, yaw and pitch of robotic eyes | |
| CN105686835A (zh) | 一种目光可视化的装置 | |
| Sun et al. | Computer-guided ultrasound probe realignment by optical tracking | |
| KR100664832B1 (ko) | 눈동자 움직임추적을 통한 2차원 모니터 포인팅 장치 | |
| Zhang et al. | Freehand 3-D Ultrasound Imaging: Sim-in-the-Loop Probe Pose Optimization via Visual Servoing | |
| Nguyen | A smart wheelchair system using a combination of stereoscopic and spherical vision cameras | |
| CN111970502A (zh) | 一种适用于机器人遥操作的仿人双目随动虚拟现实系统 | |
| CN117838311B (zh) | 基于光学定位的靶点消融呼吸门控系统 | |
| US20240130801A1 (en) | Robotic assisted imaging |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| WD01 | Invention patent application deemed withdrawn after publication | ||
| WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160622 |