PilotAR:从概念到洞见的 OHMD 飞行员研究流程优化Janaka 等人开发 PilotAR 系统,简化头戴式显示器的飞行员研究流程,从概念设计到数据分析提供完整解决方案。2024NJNuwan Janaka et al.抬头显示(HUD)与驾驶辅助系统(ADAS)UbiComp
AudioXtend: 在日常例行任务中为有声读物讲故事提供辅助现实视觉伴奏Tan 等人开发AudioXtend系统,通过OHMDs为听书提供AI视觉增强,显著提升即时回忆33.3%和7天回忆32.7%2024FTFelicia Fang-Yi Tan et al.National University of SingaporeAR 导航与情境感知生成式AI(文本、图像、音乐、视频)CHI
全神贯注的多任务处理者:在光学头戴显示器上模拟注意力切换Bai 等人利用分层强化学习模型模拟用户在光学头戴显示器上阅读与行走间的注意力切换,复制了多任务行为并为界面优化提供计算框架。2024YBYunpeng Bai et al.National University of Singapore抬头显示(HUD)与驾驶辅助系统(ADAS)眼动追踪与注视交互CHI
促进虚拟现实技术在医学教育中的整合:一项关于分娩培训中可接受性和学习影响的案例研究Liu 等人将VR应用于阴道分娩培训,发现知识得分提升24.9%,但自我报告显示其可用性、信心和临场感接受度低于传统人体模型训练。2024CLChang Liu et al.National University of SingaporeVR 医疗训练与康复CHI
应对现实挑战:为视觉障碍者在各种环境中的四足机器人引导系统CAI 等人设计RDog四足机器人引导系统,结合地图导航与力反馈语音引导视障用户,实验表明步行更顺畅高效,碰撞减少且认知负荷降低。2024SCSHAOJUN CAI et al.National University of Singapore视觉障碍者技术(屏幕阅读器、触觉图形、盲文)社交机器人交互CHI
PANDALens: 在旅行过程中面向OHMD的AI辅助上下文写作Cai 等人开发基于光学透视头戴显示器的 PANDALens AI 写作助手,利用多模态情境信息将旅行体验转化为连贯叙事,显著降低用户写作负担。2024RCRunze Cai et al.National University of Singapore生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作CHI
GlassMessaging: 基于OHMD的泛在消息传递https://doi.org/10.1145/36109312023NJNuwan Janaka et al.环境感知与上下文计算普适计算(Ubiquitous Computing)UbiComp
正念时刻:探索智能眼镜上的移动正念练习Tan 等人提出 Mindful Moments 智能眼镜正念系统,结合视觉与听觉引导,在步行环境中实现与步行冥想相当的正念效果,且更便于日常使用。2023FTFelicia Fang-Yi Tan et al.健身追踪与运动监测睡眠与压力监测智能手表与健身手环DIS
并非所有的间距都一样:使用光学透视头戴显示器进行移动阅读时文本间距的影响Zhou 等人研究发现增加OHMD文本行间距可显著提升移动阅读效果,阅读速度提升11.9%,切换准确性提升106.8%2023CZChen Zhou et al.National University of Singapore抬头显示(HUD)与驾驶辅助系统(ADAS)眼动追踪与注视交互CHI
ParaGlassMenu: 朝着对话中友好社交的微妙互动Cai 等人设计 ParaGlassMenu 半透明圆形菜单,利用戒指鼠标在光学透视头戴式显示器上进行微妙交互,平衡对话中社交参与与 IoT 设备控制需求2023RCRunze Cai et al.National University of SingaporeAR 导航与情境感知混合现实工作空间环境感知与上下文计算CHI
图标能否超越文本?理解OHMD通知中象形图的作用Janaka 等人通过四个迭代研究发现,增强图标的OHMD通知效果取决于用户对图标的熟悉度、编码密度和环境亮度,为多任务场景下的通知设计提供实用指导。2023NJNuwan Janaka et al.National University of Singapore抬头显示(HUD)与驾驶辅助系统(ADAS)眼动追踪与注视交互通知与中断管理CHI
动态绘制的文本是否能提高学习效果?探究视频学习中文本呈现风格的影响Ram 等人研究发现视频学习中一次性显示完整单词的字体文本比字母追踪更具优势,学习者回忆效果提升 46.7%,该结论在桌面和 OHMD 行走场景下均成立。2022ARAshwin Ram et al.National University of SingaporeAR 导航与情境感知在线学习与 MOOC 平台STEM 教育与科学传播CHI
副中央和近周边可视化:在面对面社交互动中使用OHMDs维持注意力的次要信息展示Janaka 等人验证 OHMDs 上旁中央和近周边视觉的圆形进度条可减少通知干扰同时保持眼神接触,提升社交互动中的情境意识。2022NJNuwan Nanayakkarawasam Peru Kandage Janaka et al.National University of Singapore混合现实工作空间环境感知与上下文计算CHI
从丢失到发现:通过恢复缺失标签发现缺失的UI设计语义Chen 等人提出基于深度神经网络的UI设计标签恢复方法,融合视觉与文本信息预测缺失标签,达到82.72%准确率,检索效果显著优于现有系统。2020CCChunyang Chen et al.UX of AICSCW
EYEditor:利用语音和手动输入实现即时抬头文本编辑Ghosh 等人设计 EYEditor 智能眼镜,通过语音和手动输入在透明显示器编辑文本,实验表明路径或任务困难时该方案优于智能手机。2020DGDebjyoti Ghosh et al.National University of Singapore抬头显示(HUD)与驾驶辅助系统(ADAS)语音用户界面(VUI)设计CHI
通过触觉学习:在触摸屏手机上使用自由形式的数字注释提高词汇回忆Sheshadri 等人通过移动端词汇学习添加自由形式数字注释探索触觉学习,"整个单词"注释模式使即时回忆提升 24.21%,7天延迟提升 30.36%。2020SSSmitha Sheshadri et al.National University of Singapore触觉可穿戴设备运动障碍辅助输入技术CHI
虚拟扩展的本体感觉:通过附加的虚拟肢体在VR中提供空间参考Tian 等人通过为VR用户附加虚拟肢体提供空间参考,增强本体感觉以改善虚拟目标选择,比使用日常物体更高效并提升性能2020YTYang Tian et al.The Chinese University of Hong Kong沉浸感与临场感研究XR 中的身份认同与化身(Avatar)CHI
Gallery D.C.: 通过自动创建的 GUI 组件库进行设计搜索与知识发现Chen 等人开发 Gallery D.C.系统,利用逆向工程和计算机视觉从百万真实应用中抓取 GUI 组件,支持多维度搜索和跨公司设计比较。2019CCChunyang Chen et al.Expert WorkCSCW
AVEID:用于测量痴呆症患者参与度的自动视频系统Foong等人开发AVEID自动视频系统测量痴呆患者参与度,该低成本易用工具与MPES和OME量表主观评估高度相关,证实了其可行性和有效性。2018PFPin Sym Foong et al.老年护理与认知症照护生物传感器与生理监测IUI
收集护理知识:在痴呆症护理中整合志愿者意见的设计考虑Foong 等人通过经验原型研究发现志愿者护理知识可借助通俗语言和协作策略提升痴呆护理质量,为设计相关知识分享系统提供参考。2018PFPin Sym Foong et al.National University of Singapore老年护理与认知症照护老年居家辅助系统边缘化群体赋权CHI