StylusPort:研究VR中触控笔的瞬移交互Liu 等人提出StylusPort系统,通过翻转触控笔切换模式与注视设置方向,实现VR中绘制与瞬移的无缝融合并通过用户研究验证六种技术方案。2026YLYang Liu et al.Aarhus UniversityXR 导航CHI
多模态人机交互中的目光与语音:范围综述Khan 等人对103项研究进行综述,系统分析目光与语音在多模态交互中的结合方式,识别出消除歧义、定位参照和适应性支持等应用场景。2026AKAnam Ahmad Khan et al.KAIST凝视作为输入CHI
为3D对象的直接和间接操作预塑手部行为Mikkelsen 等人研究3D对接任务中的手部预塑行为,发现直接技术引发有效手部姿势,而间接技术虽高效但缺乏感官反馈,需补偿性操作,控制器可扩展运动范围。2026TMThorbjørn Mikkelsen et al.Aarhus UniversityXR 与环境适应/融合CHI
边界切换与光标变形:多显示器XR环境中性能与舒适度的比较研究Chen 等人研究了 XR 多显示器环境中光标变形与视图操作的交互,发现二者优势不能自动结合,工作空间运动会破坏空间一致性并增加运动成本,需协同设计。2026YCYuzheng Chen et al.Lancaster UniversityXR 交互设计CHI
眼动-头动连续体:虚拟现实中个体与群体头部运动倾向的建模Hu 等人通过87人360°视频数据集建模发现VR用户存在从头动到眼动的策略频谱,建立头部运动倾向概念,为注视点渲染等自适应系统提供重要的个体差异依据。2026JHJinghui Hu et al.Lancaster University体验虚拟世界(XR)CHI
穿戴图标:设计用于启动增强现实应用程序的3D界面Tsimbalistaia 等人提出身体图标界面,通过触摸全身虚拟图标启动 AR 应用,定性研究发现用户采用记忆性、准确性和舒适性平衡的多样化放置策略,为空间应用设计提供启示。2025UTUliana Tsimbalistaia et al.HSE UniversityAR 导航与情境感知皮肤显示与皮肤输入CHI
支配眼并非始终相同:视角、手性和3D中的眼动效果Prummer 等人在 VR 中研究眼睛优势动态特性,通过 28 名参与者光标对齐实验证实视角、手性和 3D 条件下优势眼切换的动态变化规律。2025FPHans Gellersen et al.Lancaster University, School of Computing and Communications眼动追踪与注视交互沉浸感与临场感研究CHI
Hands-on, Hands-off: 注视辅助双手3D交互Lystbæk 等人提出注视辅助双手3D交互模式,通过Gaze+Pinch实现非惯用手、惯用手或双手的间接控制,使3D建模操作更灵活低 effort。2024MLMathias N. Lystbæk et al.手部手势识别眼动追踪与注视交互混合现实工作空间UIST
扩展现实中近空间物体的眼手动作Wagner 等人提出眼手协同交互技术,利用眼动追踪控制物体 X-Y 平面移动配合手部深度调节,显著降低 XR 拖放操作的体力消耗。2024UWUta Wagner et al.手部手势识别眼动追踪与注视交互UIST
空间凝视标记:支持增强现实中的有效任务切换Lystbæk 等人提出空间凝视标记工具,利用眼动追踪技术在AR中标记视觉兴趣点,使物理维修和检查任务切换效率提升,减少注意力转移后的返回时间。2024MLMathias N. Lystbæk et al.Aarhus University眼动追踪与注视交互AR 导航与情境感知CHI
凝视、追踪与获取:通过凝视控制虚拟现实视口Lee等人设计Dwell Snap、Gaze Gain、Gaze Pursuit三种凝视控制技术,通过眼球与头部协调实现360度视口控制,验证其与控制器基线具有相当的准确性和效率2024HLHock Siang Lee et al.Lancaster眼动追踪与注视交互沉浸感与临场感研究CHI
混合白板:远程混合现实协作中的物理性和可重构性Grønbæk等人开发Blended Whiteboard远程协作MR系统,融合分布式物理白板并支持可重新配置表面,实现面对面与独立导航间的灵活切换。2024JGJens Emil Sloth Grønbæk et al.Aarhus University, University of Melbourne混合现实工作空间分布式团队协作CHI
在路上凝视:扩展现实中物理移动期间空间参考框架对视觉目标获取的影响Manakhov 等人研究步行和慢跑时空间参考框架对视觉目标获取的影响,发现目标相对环境固定时注视速度更快精度更高,为移动中XR交互设计提供指导。2024PMPavel Manakhov et al.Aarhus University全身交互与体感输入眼动追踪与注视交互AR 导航与情境感知CHI
分类头部运动以区分头部注视和头部手势作为不同的输入模式HOU 等人提出 HeadBoost 分类器区分头部目光与头部手势输入,F1-Score 达 0.89,解决 Midas Touch 误触发问题。2023BHBaosheng James HOU et al.Lancaster University眼动追踪与注视交互人体姿态与行为识别CHI
关于3D用户界面中注视-手对齐选择的Fitts定律研究Wagner 等人利用Fitts定律评估VR中凝视-手对齐技术,发现凝视与手指对齐优于仅用手的基线方法,但受视差影响。2023UWUta Wagner et al.Aarhus University手部手势识别眼动追踪与注视交互CHI
部分融合的现实性:为分布式混合现实会议对齐不同的空间Grønbæk 等人提出部分混合现实(PBR)概念,开发RealityBlender支持远程协作时桌子和白板表面转换,解决分布式会议空间对齐难题。2023JGJens Emil Sloth Grønbæk et al.Aarhus University混合现实工作空间分布式团队协作CHI
会聚匹配:在3D环境中通过注视辅助选择推断对物体的注意力Sidenmark 等人提出汇聚匹配方法,通过3D对象深度运动与汇聚眼动相匹配,在两项用户研究中可靠推断对小目标的凝视注意力。2023LSLudwig Sidenmark et al.Lancaster University眼动追踪与注视交互人体姿态与行为识别CHI
通过VOR深度估计解决3D凝视交互中的目标歧义Mardanbegi 等人提出基于前庭眼反射的深度估计方法,通过比较眼头部旋转解决 3D 凝视交互中的目标消歧问题2019DMDiako Mardanbegi et al.Lancaster University眼动追踪与注视交互CHI
SuperVision:玩转视线回避和周边视觉Gomez 等人提出 SuperVision 概念框架,通过三个周边视觉游戏验证视线回避玩法的可行性,24名用户研究表明此类游戏能有效提升周边视觉意识。2019AGArgenis Ramirez Gomez et al.Lancaster University眼动追踪与注视交互游戏用户体验与玩家行为CHI
Eye&Head:用于指向和选择的协同眼动与头部运动Sidenmark 等人提出 Eye&Head 眼动交互技术,利用眼睛与头部协同运动,实现动态注视指针耦合、悬停交互和快速目标确认,VR应用评估显示用户控制力和灵活性显著提升。2019LSLudwig Sidenmark et al.全身交互与体感输入眼动追踪与注视交互UIST