少即是多:面向超小设备的LLM推荐可扫视解释方法研究Wang 等人针对智能手表等超小设备,提出通过空间结构化和基于置信度的时间自适应两种方式呈现LLM推荐解释,研究表明结构化解释可降低用户行动时间和认知负荷。2025XWXinru Wang et al.大语言模型(LLM)的人机协作可解释人工智能(XAI)IUI
SoundScroll:利用摩擦声和佩戴式麦克风实现稳健的手指滑动检测Kim 等人提出 SoundScroll 方法,利用智能手表捕获手指与表面摩擦振动的双通道信号,最快20毫秒内检测滑动状态,准确率达93.3%,实现低延迟精确的接触与运动传感。2024DKDaehwa Kim et al.振动反馈与皮肤刺激足部与手腕交互智能手表与健身手环UbiComp
picoRing:用于拇指与食指微妙交互的无电池戒指Takahashi 等人提出 picoRing 无电池智能戒指,通过腕带与戒指的弱感应耦合实现重量仅1.5克、读取距离13厘米的微妙拇指-食指交互检测。2024RTRyo Takahashi et al.力反馈与伪重力感触觉可穿戴设备足部与手腕交互UIST
MineXR: 挖掘个性化的扩展现实界面Cho等人提出MineXR设计挖掘平台,通过智能手机截图创建XR界面元素,从31名参与者收集178个应用程序的695个XR小部件,为XR界面设计提供个性化数据支持。2024HCHyunsung Cho et al.Carnegie Mellon University混合现实工作空间沉浸感与临场感研究交互式数据可视化CHI
用于腕部交互的快速在线参数优化的元贝叶斯方法Liao 等人提出元贝叶斯优化方法,通过少量试验快速校准手腕交互参数,使绝对指向和相对指向性能分别提升 22.92% 和 25.43%。2024YLYi-Chi Liao et al.Aalto University振动反馈与皮肤刺激力反馈与伪重力感足部与手腕交互CHI
研究扩展现实中的腕部偏转滚动技术Fashimpaur 等人提出 Wrist Joystick 和 Wrist Drag 两种腕部偏转滚动技术,在快速项目获取和随意浏览任务中表现与现有技术相当,为 XR 交互提供姿势独立的双手释放滚动方案2023JFJacqui Fashimpaur et al.Meta Inc.足部与手腕交互混合现实工作空间沉浸感与临场感研究CHI
使用挤压触觉姿势强化在虚拟现实中调查眼睛离开空中打字Gupta 等人验证手腕挤压姿势强化触觉在VR空中打字中的效果,使熟练用户视觉注意力减少44%,实现视线离开键盘的高效打字。2023AGAakar Gupta et al.Meta Inc振动反馈与皮肤刺激手部手势识别眼动追踪与注视交互CHI
XAIR:增强现实中的可解释人工智能框架Xu 等人提出XAIR框架,基于文献回顾、500人调查和三场专家研讨会,为AR中的可解释AI设计何时何地及如何提供解释提供指导。2023XXXuhai Xu et al.Reality Labs Research, University of WashingtonAR 导航与情境感知可解释人工智能(XAI)CHI
RIDS:虚拟现实中自由手势指点时利用手部运动动力学对选择手势的隐式检测Hu 等人提出 RIDS 系统,利用手部运动动力学在 VR 中选择手势前隐式预测用户意图,TCN 模型将精确度提升 11.2%,为自由手势交互提供更可靠的输入信号。2022ZHZhenhong Hu et al.手部手势识别人体姿态与行为识别UIST
优化虚拟现实中智能建议的呈现时机Yu等人提出用于VR智能建议时机优化的计算框架,通过用户中心成本效益分析确定最佳呈现时机,有效平衡准确性与时间效率。2022DYDifeng Yu et al.VR 中的社交与协作AI 辅助决策与自动化系统UIST
误报与漏报:恢复时间和认知成本对输入错误偏好的影响研究Lafreniere 等人通过用户实验发现,用户对误报错误的厌恶程度相当于约1.5秒的额外恢复时间,且这种偏见源于误报需要更高的注意力成本和任务切换成本。2021BLBen Lafreniere et al.可视化感知与认知用户研究方法(访谈、调查、观察)UIST
Armstrong:在虚拟现实中对非优势臂固定用户界面进行指针操作的经验研究Li 等人通过双手指向实验评估VR中非优势臂3D UI,发现靠近手腕目标选择更快,并制定Armstrong布局指南优化臂基UI设计。2021ZLZhen Li et al.University of Toronto, Chatham Labs中空超声波触觉(Mid-air Haptics)触觉可穿戴设备全身交互与体感输入CHI
理解、检测和缓解虚拟现实中十指空中输入的共激活效应Foy等人研究VR虚拟键盘中十指打字的共激活问题,提出三种检测策略将未纠正字符错误率降低约10%相对误差和0.9%绝对误差。2021CFConor R Foy et al.University of Cambridge手部手势识别全身交互与体感输入眼动追踪与注视交互CHI
Acustico:使用基于腕部的声学TDOA传感进行表面点击检测和定位Gong等人提出Acustico腕戴式声学传感方案,通过融合表面波与声波实现表面点击检测与2D定位,X/Y轴定位误差分别仅7.6mm和4.6mm,F1分数达0.9987。2020JGJun Gong et al.足部与手腕交互生物传感器与生理监测UIST
头耦合运动模板匹配:VR中光线指向的预测模型Henrikson 等人提出头耦合运动模板匹配方法预测VR光线指针着陆位置,动作进行50%时预测误差7.3°,90%时仅3.4°,较纯控制器方法精度提升1.8倍2020RHRorik Henrikson et al.Chatham Labs眼动追踪与注视交互人体姿态与行为识别沉浸感与临场感研究CHI
从 gaze 数据学习协作个性化策略Gebhardt 等人提出基于强化学习的协作策略学习方法,通过分析眼球追踪数据自动决定MR标签的显示时机,在视觉搜索任务中优于传统设计启发式方法。2019CGChristoph Gebhardt et al.眼动追踪与注视交互混合现实工作空间AI 辅助决策与自动化系统UIST
True Touch:用于皮肤 AR/VR 接口的精确触摸检测Zhang 等人研发 RFTouch 系统,利用人体作为射频波导实现精确的皮肤触摸检测,结合计算机视觉只需腕带和头显传感器即可实现类触摸屏交互。2019YZYang Zhang et al.手部手势识别沉浸感与临场感研究皮肤显示与皮肤输入UIST
伪触觉重量:通过操纵控制显示比例来改变虚拟物体的感知重量Samad 等人通过操纵控制显示比例(C/D比率)诱导真实重量感知,保留虚拟手所属感,为VR重量模拟提供实用方法2019MSMajed Samad et al.Facebook Reality Labs力反馈与伪重力感CHI