PeriphAR:基于周边增强现实的快速准确真实世界物体选择XR中的注视选择由于眼动追踪限制和3D环境中目标模糊性需要视觉确认。当前宽视场显示器的设计使用世界锁定式中心overlay,不适合持续佩戴的AR眼镜。本文介绍PeriphAR(/peh-ree-faar/),一种在单目AR显示器上进行注视选择时利用周边视觉进行反馈的可视化技术。在首次用户研究中,我们分离目标对象的文本、颜色和形状属性,以比较周边选择线索。周边视觉对颜色比形状更敏感,但这种敏感度在较低对比度时迅速下降。为保留颜色的前注意加工,我们开发了两种策略来增强用户周边视觉中的颜色。在第二次用户研究中,最大化目标与颜色最相似邻接对象对比度的策略在主观上更受欢迎。作为概念验证,我们实现了PeriphAR端到端系统,以测试真实世界物体检测的性能。2026YRYutong Ren et al.University of MichiganXR 与环境适应/融合CHI
在同步团队环境中探索协作式生成式人工智能代理:获取团队认知与未来工作设计考量Johnson 等人通过混合现实原型探索协作式GenAI代理在同步团队中的应用,发现其可挑战群体思维、弥合沟通差距、减少社交摩擦,但团队接受度取决于个人、团队和组织因素的匹配。2025JJJanet G Johnson et al.Team Work Makes the Dream WorkCSCW
隐私平衡:动态多用户增强现实场景中隐私需求的平衡策略Rajaram 等人提出隐私平衡框架,通过约束优化计算AR感知策略,在满足多用户体验的同时最小化隐私风险,为公共场景中的AR隐私保护提供新方案。2025SRShwetha Rajaram et al.AR 导航与情境感知隐私设计与用户控制数据隐私感知与决策UIST
探索未来增强现实界面的隐私驱动适应技术设计空间Rajaram 等人通过征集研究和设计研讨会得出62种隐私驱动的AR适应技术,创建适应目录并提供可视化工具,帮助开发人员平衡可用性和隐私。2025SRShwetha Rajaram et al.University of Michigan, School of InformationAR 导航与情境感知隐私设计与用户控制环境感知与上下文计算CHI
XCam:用于虚拟现实体验现场制作的混合发起虚拟摄像Nebeling 等人开发 XCam 工具包,支持虚拟摄像机在手动到自动化之间连续调整,经6位创作者访谈和三场专家研讨会验证其现场制作实用性。2025MNMichael Nebeling et al.University of Michigan, School of InformationVR 中的社交与协作视频制作与编辑CHI
使用隐式用户行为在虚拟现实中进行目标错误检测的多模式方法Sendhilnathan 等人开发多模态隐式行为深度学习模型,在VR场景中0.5秒内检测目标错误,AUC-ROC达0.9,显著提升错误恢复效率。2025NSNaveen Sendhilnathan et al.MetaVR 中的社交与协作沉浸感与临场感研究大语言模型(LLM)的人机协作CHI
SonoHaptics:基于注视的XR对象选择的音频触觉光标Cho 等人提出SonoHaptics音频触觉光标,通过跨模态映射将对象视觉特征转为声音触觉反馈,实现无显示智能眼镜环境下的准确对象选择。2024HCHyunsung Cho et al.中空超声波触觉(Mid-air Haptics)眼动追踪与注视交互VR 中的社交与协作UIST
Reframe:用于安全与隐私问题角色驱动分析的增强现实故事板工具Rajaram 等人开发Reframe AR故事板工具,通过基于帧的创作方法和角色驱动分析,使未经培训的设计师能有效识别安全与隐私威胁并提出缓解方案。2023SRShwetha Rajaram et al.AR 导航与情境感知隐私设计与用户控制物联网设备隐私UIST
征求安全与隐私意识的多用户增强现实共享技术Rajaram 等人引入基于场景的提取方法,配对AR与S&P专家研究访问控制威胁模型,产出安全隐私意识的多用户AR交互设计建议。2023SRShwetha Rajaram et al.University of Michigan混合现实工作空间隐私设计与用户控制CHI
作为深度线索的虚拟现实颜色-深度映射Li 等人提出 VR 颜色-深度映射方法,通过改变虚拟物体饱和度和明度反映距离,将感知深度误差降低60.8%,并在3D绘制任务中提升用户准确性信心。2022ZLZhipeng Li et al.沉浸感与临场感研究医疗与科学数据可视化UIST
XR原型设计要素:描述原型在增强现实和虚拟现实设计中的作用和使用Krauß 等人通过对17位XR从业者的访谈,提取原型设计工具与方法、共用元素及保真度概念,为XR工具研究提供行业实践视角。2022VKVeronika Krauß et al.University of Siegen, Bonn-Rhein Sieg University of Applied Science混合现实工作空间原型设计与用户测试CHI
纸质轨迹:一种用于增强现实教学体验的沉浸式创作系统Rajaram 等人推出 Paper Trail 系统,以纸质为交互核心创建 AR 教育体验,通过数字媒体和动画引导 STEM 学习,经博士及高中教师验证可用于课堂教学。2022SRShwetha Rajaram et al.University of MichiganAR 导航与情境感知K-12 数字教育工具STEM 教育与科学传播CHI
XRStudio:用于沉浸式教学体验的虚拟制作和直播系统Nebeling 等人提出 XRStudio 虚拟制作直播系统,融合电影虚拟制作技术与视频会议软件,实现 VR 讲座实时合成,经端到端评估证实可提升沉浸式教学体验2021MNMichael Nebeling et al.University of MichiganVR 中的社交与协作混合现实工作空间在线学习与 MOOC 平台CHI
创建增强现实和虚拟现实应用程序:当前实践、挑战和机遇Ashtari 等人采访 21 位 AR/VR 创作者,归纳出原型设计、处理未知及测试困难等 8 个关键障碍,强调需将终端用户纳入创作者视野并完善工具链。2020NANarges Ashtari et al.Simon Fraser University混合现实工作空间原型设计与用户测试CHI
MRAT:混合现实分析工具包Nebeling 等人设计 MRAT 混合现实分析工具包,通过可视化编辑器和可扩展启发式方法实现 MR 应用的数据收集、过滤与用户会话可视化。2020MNMichael Nebeling et al.University of Michigan Ann Arbor混合现实工作空间交互式数据可视化医疗与科学数据可视化CHI
XRDirector: 一种基于角色的协作沉浸式创作系统Nebeling 等人设计 XRDirector 协作系统,支持 AR/VR 设备作为木偶操作三维虚拟对象,帮助新手创作者无需编码快速创建含动画角色、灯光和相机运动的复杂场景。2020MNMichael Nebeling et al.University of Michigan Ann Arbor混合现实工作空间创意协作与反馈系统CHI
360proto:从纸张制作交互式虚拟现实和增强现实原型Nebeling 等人开发360proto工具套件,为AR/VR提供新型纸原型模板,经86名参与者测试,证实用纸质模型快速创建复杂AR/VR原型的有效性。2019MNMichael Nebeling et al.University of Michigan3D 建模与动画原型设计与用户测试数字艺术装置与交互表演CHI
什么是混合现实?Speicher 等人通过对10位AR/VR专家访谈和68篇论文分析,识别出混合现实的六个核心概念,构建七维度框架以支持MR应用设计的分类与讨论。2019MSMaximilian Speicher et al.University of Michigan & C&A Europe混合现实工作空间沉浸感与临场感研究CHI
重新定义自然用户界面Fu 等人重新定义自然用户界面,探讨如何利用触觉、嗅觉等多感官构建NUI及检测用户行动信号的技术。2018LFLimin Paul Fu et al.Alibaba DAMO Academy全身交互与体感输入脑机接口(BCI)与神经反馈混合现实工作空间CHI
用户驱动的设计原则用于手势表示McAweeney 等人通过分析30篇征集论文并与30名参与者合作产生657个手势表示,揭示了用户解释和执行手势表示的心理模型,为设计视觉语言指南提供了建议。2018EMErin McAweeney et al.University of Michigan, University of Washington手部手势识别眼动追踪与注视交互CHI