WatchHand:在现成智能手表上实现连续手部姿态追踪Kim 等人提出 WatchHand,利用智能手表扬声器和麦克风发出声波追踪20个手指关节,跨会话误差仅7.87mm,实现现成设备上的连续3D手部姿态追踪。2026JKJiwan Kim et al.KAIST手部姿态与手势CHI
SeamPose:将衬衫接缝重构为电容传感器用于上半身姿态追踪Yu等人提出SeamPose系统,将衬衫内部接缝重构为电容传感器,通过8个传感接缝和深度学习实现上半身3D姿态估计,MPJPE达6.0厘米,实现舒适便捷的日常姿态追踪。2024TYTianhong Catherine Yu et al.触觉可穿戴设备人体姿态与行为识别生物传感器与生理监测UIST
EchoWrist:使用腕带上的低功耗主动声学感应进行连续手势跟踪和手-物体交互识别Lee 等人提出 EchoWrist 低功耗声学手环,利用主动声学感应和深度学习连续重建20个3D手部关节,精度达4.81mm,手-物体交互识别准确率97.6%2024CLChi-Jung Lee et al.Cornell University手部手势识别足部与手腕交互CHI
EyeEcho:眼镜上的连续低功耗面部表情追踪Li 等人提出 EyeEcho 声学传感系统,通过眼镜上两对扬声器和麦克风捕捉皮肤变形,以 167mW 功耗实现 83.3Hz 连续面部表情追踪。2024KLKe Li et al.Cornell University手部手势识别眼动追踪与注视交互人体姿态与行为识别CHI
PoseSonic:基于智能眼镜自我中心声学感知的3D上半身姿态估计Mahmud 等人提出 PoseSonic 智能眼镜声学传感系统,通过铰链处麦克风扬声器对发射FMCW信号并接收反射,实现9关节3D姿态估计,实验室误差仅6.17cm。2023SMSaif Mahmud et al.人体姿态与行为识别环境感知与上下文计算UbiComp
VRoxy:使用 VR 驱动的机器人代理在办公室进行广域远程协作Sakashita 等人提出 VRoxy 系统,通过将 VR 空间的微小动作映射到机器人物理空间的大动作,使用 3m×2m VR 空间操作远程 7.5m×5m 场景实现协作。2023MSMose Sakashita et al.远程操控与遥呈现(Telepresence)UIST
C-Auth: 探索使用面部轮廓第一人称视图进行眼镜用户认证的可行性Lim 等人研发 C-Auth 智能眼镜认证系统,利用向下摄像头捕捉面部轮廓进行空间面部认证,20用户测试真阳性率达 98.0%,假阳性率仅 4.97%。2023HLHyunchul Lim et al.密码与身份认证皮肤显示与皮肤输入UbiComp
HPSpeech:面向通用耳机的静音语音接口Zhang 等人提出 HPSpeech 静音语音接口,利用耳机内置扬声器发射不可听声学信号,通过颞下颌关节运动识别8种语音命令,准确率超90%。2023RZRuidong Zhang et al.语音用户界面(VUI)设计UbiComp
EchoNose:使用非接触式鼻接口 sensing 口腔内的嘴部、呼吸和舌手势Sun 等人提出 EchoNose 鼻接口,通过分析鼻口腔内声学信号反射识别16种嘴部、舌和呼吸手势,在10人用户研究中达到93.7%的平均准确率,实现了非接触式口腔内手势识别。2023RSRujia Sun et al.电肌肉刺激(EMS)控制手部手势识别脑机接口(BCI)与神经反馈UbiComp
EchoSpeech:基于声学传感的最小侵扰式眼镜上的连续无声语音识别Zhang 等人研发 EchoSpeech 最小侵入性无声语音接口,通过眼镜架上扬声器发射声波分析皮肤变形识别无声语音,31个命令词错误率4.5%,连续数字达6.1%,功耗仅73.3毫瓦。2023RZRuidong Zhang et al.Cornell University振动反馈与皮肤刺激语音用户界面(VUI)设计生物传感器与生理监测CHI
ReMotion:通过自动机器人实体支持开放空间中的远程协作Sakashita等人设计ReMotion自动机器人,结合Kinect追踪与NeckFace捕捉面部表情,支持远程开放空间设计协作,增强注意力共享与共存感。2023MSMose Sakashita et al.Cornell University人-机器人协作(HRC)远程操控与遥呈现(Telepresence)CHI
通过参与者互动模式表征在线公开讨论Zhang 等人提出计算框架通过互动模式表征社交媒体公开讨论,可预测反社会行为和讨论增长,发现参与者倾向而非内容是驱动讨论差异的主要因素。2018JZRuidong Zhang et al.Online Discussion and EngagementCSCW