StylusPort:研究VR中触控笔的瞬移交互Liu 等人提出StylusPort系统,通过翻转触控笔切换模式与注视设置方向,实现VR中绘制与瞬移的无缝融合并通过用户研究验证六种技术方案。2026YLYang Liu et al.Aarhus UniversityXR 导航CHI
为3D对象的直接和间接操作预塑手部行为Mikkelsen 等人研究3D对接任务中的手部预塑行为,发现直接技术引发有效手部姿势,而间接技术虽高效但缺乏感官反馈,需补偿性操作,控制器可扩展运动范围。2026TMThorbjørn Mikkelsen et al.Aarhus UniversityXR 与环境适应/融合CHI
指尖预览:透过SightWarp实现远距离对象的直接操作Liu等人提出SightWarp交互技术,利用眼手协调创建远处对象的近空间代理,使用户可通过自然手势直接操控远距离物体,显著提升3D对象对接任务效率。2025YLYang Liu et al.手部手势识别沉浸感与临场感研究3D 建模与动画UIST
在线-EYE:用于XR的多模态隐式眼动追踪校准HOU 等人提出 Online-EYE 多模态眼动追踪隐式校准方法,利用UI交互和机器学习实现连续后台校准,效果接近显式校准2025BHBaosheng James HOU et al.Google; Lancaster University , Computing and Communications眼动追踪与注视交互沉浸感与临场感研究CHI
PinchCatcher:启用凝视+捏合的多选功能Kim 等人提出PinchCatcher多选系统,对比四种确认方法,证明SemiSwipe和SemiDwell可有效降低XR环境下多选任务完成时间和错误率。2025JKJinwook Kim et al.KAIST, Graduate School of Culture Technology手部手势识别眼动追踪与注视交互混合现实工作空间CHI
Hands-on, Hands-off: 注视辅助双手3D交互Lystbæk 等人提出注视辅助双手3D交互模式,通过Gaze+Pinch实现非惯用手、惯用手或双手的间接控制,使3D建模操作更灵活低 effort。2024MLMathias N. Lystbæk et al.手部手势识别眼动追踪与注视交互混合现实工作空间UIST
扩展现实中近空间物体的眼手动作Wagner 等人提出眼手协同交互技术,利用眼动追踪控制物体 X-Y 平面移动配合手部深度调节,显著降低 XR 拖放操作的体力消耗。2024UWUta Wagner et al.手部手势识别眼动追踪与注视交互UIST
空间凝视标记:支持增强现实中的有效任务切换Lystbæk 等人提出空间凝视标记工具,利用眼动追踪技术在AR中标记视觉兴趣点,使物理维修和检查任务切换效率提升,减少注意力转移后的返回时间。2024MLMathias N. Lystbæk et al.Aarhus University眼动追踪与注视交互AR 导航与情境感知CHI
EyeGuide & EyeConGuide: 基于凝视的视觉引导以改进3D草图系统Turkmen 等人提出 EyeGuide 和 EyeConGuide 系统,利用眼动追踪使 VR 视觉网格适应用户注视点,在简单和复杂素描任务中显著提升准确性、感知易用性和用户偏好2024RTRumeysa Turkmen et al.Kadir Has University眼动追踪与注视交互混合现实工作空间3D 建模与动画CHI
混合白板:远程混合现实协作中的物理性和可重构性Grønbæk等人开发Blended Whiteboard远程协作MR系统,融合分布式物理白板并支持可重新配置表面,实现面对面与独立导航间的灵活切换。2024JGJens Emil Sloth Grønbæk et al.Aarhus University, University of Melbourne混合现实工作空间分布式团队协作CHI
在路上凝视:扩展现实中物理移动期间空间参考框架对视觉目标获取的影响Manakhov 等人研究步行和慢跑时空间参考框架对视觉目标获取的影响,发现目标相对环境固定时注视速度更快精度更高,为移动中XR交互设计提供指导。2024PMPavel Manakhov et al.Aarhus University全身交互与体感输入眼动追踪与注视交互AR 导航与情境感知CHI
面向灵活且鲁棒的多目标用户界面适配方法Johns 等人提出 ParetoAdapt 方法,使用后验偏好表达的多目标优化克服加权求和的敏感性局限,让用户从帕累托最优提案中选择调整,在线布局适配实验中验证了灵活性和鲁棒性。2023CJChristoph A. Johns et al.混合现实工作空间360° 视频与全景内容计算方法在HCI中的应用UIST
关于3D用户界面中注视-手对齐选择的Fitts定律研究Wagner 等人利用Fitts定律评估VR中凝视-手对齐技术,发现凝视与手指对齐优于仅用手的基线方法,但受视差影响。2023UWUta Wagner et al.Aarhus University手部手势识别眼动追踪与注视交互CHI
部分融合的现实性:为分布式混合现实会议对齐不同的空间Grønbæk 等人提出部分混合现实(PBR)概念,开发RealityBlender支持远程协作时桌子和白板表面转换,解决分布式会议空间对齐难题。2023JGJens Emil Sloth Grønbæk et al.Aarhus University混合现实工作空间分布式团队协作CHI
会聚匹配:在3D环境中通过注视辅助选择推断对物体的注意力Sidenmark 等人提出汇聚匹配方法,通过3D对象深度运动与汇聚眼动相匹配,在两项用户研究中可靠推断对小目标的凝视注意力。2023LSLudwig Sidenmark et al.Lancaster University眼动追踪与注视交互人体姿态与行为识别CHI
AUIT——用于设计XR应用的自适应用户界面工具包Belo等人开发AUIT工具包,通过多目标求解器实现XR应用界面元素可达性、可见性等自适应策略的快速配置,使创作者无需编写脚本即可灵活设计优化-based自适应方案。2022JBJoão Marcelo Evangelista Belo et al.AR 导航与情境感知混合现实工作空间UIST
您的眼睛说明您以前使用过此密码:从凝视行为和击键动态识别密码重用Abdrabou 等人利用注视和打字行为检测密码重用,模型准确率分别达87.7%和75.8%,两者结合达88.75%,可在用户注册过程中提前识别密码重用,为防止密码重用提供新干预方案。2022YAYasmeen Abdrabou et al.Bundeswehr University Munich, University of Glasgow眼动追踪与注视交互密码与身份认证CHI
Bi-3D:平板电脑上双手触控笔交互的3D操作方法Pfeuffer 等人提出 Bi-3D 双手交互方案,将触控笔拖拽与双指缩放组合实现3D移动,在对象移动任务中显著优于控件和空中手势基线。2021KPKen Pfeuffer et al.力反馈与伪重力感桌面3D打印与个人制造UIST