盲人和低视力人群听觉手势引导的可行性研究Abe等人设计VERBAL和FYF两种听觉引导方法帮助视障人士手部导航,其中FYF声化引导错误率仅4.17%,证明了听觉手势引导的可行性。2026YAYuki Abe et al.Hokkaido University面向感官可达的设计CHI
“当他们停止聊天时我感到孤独”:探索在线音乐视频中无视觉社交观看体验的听觉评论展示Abe 等人提出听觉评论展示(ACD)系统,通过文本转语音技术为慢跑、通勤等场景的无视觉听众提供音乐视频社交观看体验,12人用户研究证实其可增强社交临场感。2025YAYuki Abe et al.Voice TechnologyCSCW
《我能在晚上跑步!》:使用增强现实技术支持低视力跑者夜间导航跑步Abe 等人设计RunSight AR辅助系统,通过头戴显示器增强低视力跑者环境感知,8名用户平均安全跑步3.44公里,解决夜间"呼叫者式"引导跑步难题。2025YAYuki Abe et al.Hokkaido University, Human-Computer Interaction LabAR 导航与情境感知视觉障碍者技术(屏幕阅读器、触觉图形、盲文)CHI
理解用于现场展览的手持式HMD的VR指向方法的可用性Abe 等人比较七种手持式HMD指向方法,发现基于驻留时间的方法虽速度较慢,但对VR新手用户可用性最高,建议用于现场展览环境2025YAYuki Abe et al.Hokkaido University, Human-Computer Interaction Lab眼动追踪与注视交互VR 中的社交与协作沉浸感与临场感研究CHI
EarHover: 使用声音泄漏信号实现可穿戴设备的空中手势识别Suzuki 等人开发 EarHover 系统,利用可穿戴设备声音泄漏现象和外部麦克风实现空中手势识别,从 27 种手势中筛选出 7 种最适用的手势。2024SSShunta Suzuki et al.车内触觉、声音、多模态反馈手部手势识别UIST
探索用户自定义手势作为听力设备输入及利用IMU识别耳触手势Sato 等人通过手势引发研究探索可穿戴设备的用户自定义手势输入,发现 IMU 传感器对耳内设备识别率达91.0%,耳挂设备为74.7%。2024YSYukina Sato et al.振动反馈与皮肤刺激手部手势识别MobileHCI
使用声音泄漏信号进行听力设备用户认证的方法Amesaka 等人提出利用听力设备声音泄漏信号进行生物特征认证的新方法,使用外部麦克风捕获耳道等声学特征,16人测试准确率达 87.0%-96.7%。2023TATakashi Amesaka et al.密码与身份认证UbiComp
UltrasonicWhisper:超声波可在您的可穿戴听音设备中产生可听声音Watanabe 等人实验验证了针对可穿戴听音设备的超声波攻击可行性,解调声音MCD为7.90,MOS为2.53,且14.9%的虚假指令被参与者执行。2023HWHiroki Watanabe et al.中空超声波触觉(Mid-air Haptics)语音可访问性UbiComp
用于可穿戴听音设备的大气压触控与非触控交互输入接口Iguma 等人设计了一种基于耳道气压传感器的手势识别系统,可识别12种触控与非触控交互方式,其中快速按压释放手势的识别准确率分别达到0.99和0.82。2023KIKoki Iguma et al.触觉可穿戴设备足部与手腕交互UbiComp
柯伊伯带:在虚拟现实中利用视线交互的“非自然角度”区域Choi 等人定义 VR 眼球交互的柯伊伯带区域(25°-45°),利用该非自然角度减少误输入,研究证实在视觉搜索任务中有效降低错误率。2022MCMyungguen Choi et al.Hokkaido University眼动追踪与注视交互沉浸感与临场感研究CHI
交互式360度无眼镜式桌面3D显示器Makiguchi 等人提出360度无需眼镜的桌面3D显示系统,通过360度摄像头追踪用户位置实现多用户同步运动视差,支持平板电脑交互用于协作工作。2019MMMotohiro Makiguchi et al.混合现实工作空间沉浸感与临场感研究环境感知与上下文计算UIST
亚洲CHI研讨会:新兴的人机交互研究集Sakaguchi等人展示亚洲人机交互新兴研究,搭建学术界与实践者交流平台,促进区域研究社区建设2018SSSaki Sakaguchi et al.The University of Tokyo发展中国家与HCI4D用户研究方法(访谈、调查、观察)CHI