Talk2Care:基于大型语言模型的医疗服务提供者与老年人沟通语音助手Yang等人开发Talk2Care,基于大型语言模型为医疗工作者与老年人提供语音沟通助手,改善老年护理交流。2024ZYZiqi Yang et al.智能语音助手(Alexa、Siri 等)心理健康应用与在线支持社区UbiComp
SmartASL:基于可穿戴设备的「即时护理」综合美国手语翻译系统JIN 等人设计SmartASL系统,结合耳塞和腕戴IMU同时识别美国手语的手势与非手势标记,实现手语到口语的实时翻译。2023YJYINCHENG JIN et al.足部与手腕交互听觉障碍者支持(字幕、手语、振动)增强与替代通信(AAC)UbiComp
GLOBEM:纵向人类行为建模的跨数据集泛化研究Xu等人首次评估纵向行为模型跨数据集泛化能力,发现现有方法泛化不佳,提出Reorder算法显著优于基线,并发布GLOBEM开源基准平台。2023XXXuhai Xu et al.人体姿态与行为识别心理健康应用与在线支持社区生物传感器与生理监测UbiComp
在低分辨率图像上建模隐私保护和活动识别之间的权衡Wang 等人建模低分辨率图像上隐私保护与活动识别的权衡,通过用户调查确定家庭ADLs场景中最重要的视觉隐私特征,指导隐私保护系统设计2023YWYuntao Wang et al.Tsinghua University人体姿态与行为识别数据隐私感知与决策CHI
从以人为本的角度回顾和反思智能家居研究Yao等人通过对2000-2022年间19,091篇智能家居论文的关键词分析,揭示了五个以人为中心的研究趋势,为跨学科智能家居设计提供了新视角2023YYYuan Yao et al.School of Architecture and Design, Academy of Arts & Design通用设计与包容性设计智能家居交互设计CHI
XAIR:增强现实中的可解释人工智能框架Xu 等人提出XAIR框架,基于文献回顾、500人调查和三场专家研讨会,为AR中的可解释AI设计何时何地及如何提供解释提供指导。2023XXXuhai Xu et al.Reality Labs Research, University of WashingtonAR 导航与情境感知可解释人工智能(XAI)CHI
TypeOut: 利用及时自我肯定减少智能手机过度使用Xu 等人提出 TypeOut 干预技术,结合输入解锁与自我确认内容,10周现场实验表明该技术将应用使用减少超50%,打开频率和使用时间减少超25%。2022XXXuhai Xu et al.University of Washington心理健康应用与在线支持社区通知与中断管理CHI
ReflecTrack:基于消费级双麦克风智能手机的3D声学位置追踪技术Zhuang等人提出ReflecTrack方法,利用双麦克风智能手机接收声波信号和反射信号,实现60cm空间内28.4mm中值误差的3D追踪。2021YZYuzhou Zhuang et al.全身交互与体感输入生物传感器与生理监测UIST
理解口腔微手势的设计空间Chen 等人通过头脑风暴、在线调查和可用性研究,系统性探索口腔微手势设计空间,筛选出 14 个自然易用的手势并提供设计指南。2021VCVictor Chen et al.触觉可穿戴设备手部手势识别DIS
HulaMove:使用商用IMU进行腰部交互Xu等人提出HulaMove腰部交互系统,利用IMU传感器以97.5%准确率识别八个腰部手势,在VR场景中比触屏减少41.8%交互时间。2021XXXuhai Xu et al.University of Washington全身交互与体感输入沉浸感与临场感研究CHI
Voicemoji:为视障人士使用的语音输入表情符号Zhang 等人开发Voicemoji语音表情符号输入系统,12名视障用户测评发现输入时间减少91.2%,全员偏好新系统2021MZMingrui Ray Zhang et al.University of Washington智能语音助手(Alexa、Siri 等)视觉障碍者技术(屏幕阅读器、触觉图形、盲文)CHI
LightWrite:使用智能手机教授盲人手写Wu 等人设计LightWrite智能手机应用,通过语音指导教盲人书写,5天培训后可识别率达76.5%,平均每字母耗时1.09分钟。2021ZWZihan Wu et al.Tsinghua University, University of Michigan视觉障碍者技术(屏幕阅读器、触觉图形、盲文)CHI
EarBuddy:通过无线耳塞实现面部交互Xu 等人通过 EarBuddy 系统利用商用无线耳塞麦克风检测面部敲击滑动手势,8 个手势分类准确率达 95.3%,提供新型无眼注视交互方式。2020XXXuhai Xu et al.University of Washington & Tsinghua University触觉可穿戴设备足部与手腕交互CHI
咬合界面:新颖的咬合输入技术Xu 等人提出咬合交互技术,用户可区分三级咬合力并通过快速释放确认,该技术可为VR/AR及残疾人士提供新输入方式。2019XXXuhai Xu et al.University of Washington & Tsinghua University触觉可穿戴设备足部与手腕交互CHI