VR中亚阈值抖动可诱发视觉不适Levulis等人通过心理物理学研究确定VR抖动感知阈值,并证明亚阈值抖动在长时间自然主义VR使用中可诱发视觉不适,发现MISC时间解析测量比传统SSQ前后测更敏感。2025SLSamuel J Levulis et al.运动晕车与乘客体验沉浸感与临场感研究UIST
ProMemAssist:基于工作记忆建模的多模态可穿戴设备及时主动协助研究Pu 等人开发 ProMemAssist 智能眼镜系统,通过建模用户工作记忆预测最佳协助时机,在认知 demanding 任务中提供更精准、更高用户参与度的主动协助。2025KPKevin Pu et al.车内触觉、声音、多模态反馈大语言模型(LLM)的人机协作生物传感器与生理监测UIST
Viago:探索移动社交媒体消费中的视觉-音频模态转换Chang 等人设计 Viago 后台服务,支持步行时在视觉与音频模态间灵活切换,通过十人探针研究提炼五项设计洞见,评估显示可有效提升移动任务交互效率。2025RCYu-Cheng Chang et al.眼动追踪与注视交互语音用户界面(VUI)设计听觉障碍者支持(字幕、手语、振动)UIST
Squiggle:真实世界中的多模态套索选择Fashimpaur 等人提出 Squiggle 交互技术,通过智能眼镜上想象的光线投射绘制套索手势,在无连续反馈下实现精确物体引用,显著提升复合物体选择准确性。2025JFJacqui Fashimpaur et al.手部手势识别眼动追踪与注视交互环境感知与上下文计算UIST
Contextra: 使用低功率相机和传感器融合在手腕上检测物体抓取DeVrio 等人提出Contextra系统,通过融合EMG、IMU和低功率红外相机数据在手腕上识别物体抓取,为追踪饮水、计算卡路里等 contextual aware 应用提供隐私保护的解决方案。2025NDNathan DeVrio et al.足部与手腕交互环境感知与上下文计算MobileHCI
从目标到行动:为新年决心设计上下文感知LLM聊天机器人Xu 等人开发上下文感知 LLM 聊天机器人帮助用户实现新年决心,观察到首周行动采纳率和目标成功率较高,并讨论 AI 智能体设计机会。2025YXYan Xu et al.对话式聊天机器人大语言模型(LLM)的人机协作环境感知与上下文计算CUI
基于大语言模型的现实世界上下文与任务辅助创作Dang等人提出情境驱动提示(CDPs)概念用于AI辅助创作,实现原型系统并通过10人用户研究揭示了表达和优化现实世界任务目标的策略,为AI辅助创作界面设计提供启示。2025HDHai Dang et al.大语言模型(LLM)的人机协作环境感知与上下文计算IUI
基于动态贝叶斯网络的多模态上下文感知交互框架Han 等人提出融合动态贝叶斯网络与大语言模型的多模态交互框架,通过整合视线和手势实时推断用户意图,在办公场景下达到每帧0.83的识别准确率。2025VHJoel Chan et al.环境感知与上下文计算计算方法在HCI中的应用IUI
少即是多:面向超小设备的LLM推荐可扫视解释方法研究Wang 等人针对智能手表等超小设备,提出通过空间结构化和基于置信度的时间自适应两种方式呈现LLM推荐解释,研究表明结构化解释可降低用户行动时间和认知负荷。2025XWXinru Wang et al.大语言模型(LLM)的人机协作可解释人工智能(XAI)IUI
持久助手:通过意图定位和多模态反馈实现无缝日常AI交互Cho等人提出基于情境意图指定、具身输入与多模态反馈的持久助手框架,结合眼动追踪、捏合手势和触觉反馈实现无缝日常AI交互。2025HCHyunsung Cho et al.Meta Inc., Reality Labs Research; Carnegie Mellon University, Human-Computer Interaction Institute车内触觉、声音、多模态反馈语音用户界面(VUI)设计智能语音助手(Alexa、Siri 等)CHI
VibraForge: 用于创建空间化振动触觉反馈系统的可扩展原型工具包Huang 等人开发 VibraForge 开源工具包,支持 128 个振动执行器低延迟控制,可用于 VR 健身和无人机遥操作等场景,降低触觉设计技术门槛。2025BHBingjian Huang et al.University of Toronto, Dynamic Graphics Project Lab振动反馈与皮肤刺激力反馈与伪重力感CHI
手势和音频触觉引导技术在与智能语音界面对话中的应用Rajaram 等人开发了手势和音频触觉引导技术,使智能语音界面用户能并行控制对话流程,14人实验显示该技术提高了信息访问效率和社会可接受性。2025SRShwetha Rajaram et al.University of Michigan, School of Information车内触觉、声音、多模态反馈手部手势识别语音用户界面(VUI)设计CHI
使用隐式用户行为在虚拟现实中进行目标错误检测的多模式方法Sendhilnathan 等人开发多模态隐式行为深度学习模型,在VR场景中0.5秒内检测目标错误,AUC-ROC达0.9,显著提升错误恢复效率。2025NSNaveen Sendhilnathan et al.MetaVR 中的社交与协作沉浸感与临场感研究大语言模型(LLM)的人机协作CHI
SoundScroll:利用摩擦声和佩戴式麦克风实现稳健的手指滑动检测Kim 等人提出 SoundScroll 方法,利用智能手表捕获手指与表面摩擦振动的双通道信号,最快20毫秒内检测滑动状态,准确率达93.3%,实现低延迟精确的接触与运动传感。2024DKDaehwa Kim et al.振动反馈与皮肤刺激足部与手腕交互智能手表与健身手环UbiComp
SonoHaptics:基于注视的XR对象选择的音频触觉光标Cho 等人提出SonoHaptics音频触觉光标,通过跨模态映射将对象视觉特征转为声音触觉反馈,实现无显示智能眼镜环境下的准确对象选择。2024HCHyunsung Cho et al.中空超声波触觉(Mid-air Haptics)眼动追踪与注视交互VR 中的社交与协作UIST
TouchpadAnyWear: 用于多模态高空间分辨率触控输入且耐运动伪影的纺织集成触觉传感器Zhao等人研发TouchpadAnyWear纺织集成触觉传感器,超薄高分辨率耐运动伪影,支持微手势检测与二维触控输入,适用于可穿戴设备与AR。2024JZJunyi Zhao et al.触觉可穿戴设备形变界面与软机器人材料足部与手腕交互UIST
StegoType: 基于第一人称摄像头的表面打字Richardson等人提出StegoType系统,利用第一人称摄像头手部追踪和深度学习模型解码虚拟键盘触摸打字,实现42.4 WPM在线吞吐量,错误率为7%。2024MRMark Richardson et al.手部手势识别眼动追踪与注视交互沉浸感与临场感研究UIST
picoRing:用于拇指与食指微妙交互的无电池戒指Takahashi 等人提出 picoRing 无电池智能戒指,通过腕带与戒指的弱感应耦合实现重量仅1.5克、读取距离13厘米的微妙拇指-食指交互检测。2024RTRyo Takahashi et al.力反馈与伪重力感触觉可穿戴设备足部与手腕交互UIST
RadarHand:一种用于皮肤触控本体感手势的腕戴式雷达设备Hajika 等人提出 RadarHand 腕戴式毫米波雷达设备,实现27种本体感手势识别,在主动和反应交互模式下分别达到87%和91%的准确率。2024MHMr Ryo Hajika et al.振动反馈与皮肤刺激足部与手腕交互UIST
TouchInsight:基于自我中心视觉的混合现实不确定性感知的快速触摸与文本输入Streli等人提出TouchInsight系统,通过双变量高斯分布处理不确定性,实现头戴式摄像头下任意表面的十指触摸检测,文本输入达37 WPM。2024PSPaul Streli et al.混合现实工作空间沉浸感与临场感研究可视化感知与认知UIST