DanXeReflect:与时空过去的动作进行交互,实现具身化反思性的编舞协作Kim 等人开发 DanXeReflect 系统,将视频转换为交互式虚拟工作室,使舞者能以 Avatar 重演姿势、搜索序列并附加身体注释,实现异步分布式编舞协作。2026HKHyunju Kim et al.Cornell University协作/共享 XRCHI
使用针阵列创建实体针织形态Guimbretiere 等人设计了一种6x6针床编织机原型,能够创建传统针织、水平针织和实体针织形态,通过二维针床实现纱线路径的体积结构化,为 engineer 化针织物体提供可能。2025FGFrancois Guimbretiere et al.形变界面与软机器人材料形变材料与四维打印UIST
SpellRing:使用戒指识别美国手语中的连续手指拼写Lim 等人推出 SpellRing 智能戒指,结合主动声学传感与深度学习实现 ASL 手指拼写连续识别,达到 82.45% top-1 准确率。2025HLHyunchul Lim et al.Cornell, Computing and Information Science足部与手腕交互语音可访问性运动障碍辅助输入技术CHI
SplatOverflow:异步硬件故障排除Kwatra等人提出SplatOverflow异步硬件故障排除系统,通过3D高斯Splat与CAD模型注册创建边界对象,使非专业人士可解决3D打印机常见问题。2025AKAmritansh Kwatra et al.Cornell Tech, Information Science众包任务设计与质量控制电路制作与硬件原型原型设计与用户测试CHI
EchoGuide:基于主动声学引导的LLM自我中心视频饮食事件分析Parikh 等人提出 EchoGuide 系统,利用低功耗主动声学传感引导头戴摄像头捕捉自我中心视频,结合视频标注和LLM分析饮食活动,对9人评估显示高质量摘要并大幅减少视频数据量。2024VPVineet Parikh et al.饮食追踪与营养管理睡眠与压力监测生物传感器与生理监测UbiComp
MunchSonic:通过眼镜上的主动声学传感技术追踪精细化的饮食行为Mahmud等人设计MunchSonic系统,通过眼镜集成AI主动声学传感技术追踪6种精细饮食行为,实现93.5%的F1分数,为非侵入式饮食监测提供新方案。2024SMSaif Mahmud et al.饮食追踪与营养管理生物传感器与生理监测UbiComp
SeamPose:将衬衫接缝重构为电容传感器用于上半身姿态追踪Yu等人提出SeamPose系统,将衬衫内部接缝重构为电容传感器,通过8个传感接缝和深度学习实现上半身3D姿态估计,MPJPE达6.0厘米,实现舒适便捷的日常姿态追踪。2024TYTianhong Catherine Yu et al.触觉可穿戴设备人体姿态与行为识别生物传感器与生理监测UIST
EchoWrist:使用腕带上的低功耗主动声学感应进行连续手势跟踪和手-物体交互识别Lee 等人提出 EchoWrist 低功耗声学手环,利用主动声学感应和深度学习连续重建20个3D手部关节,精度达4.81mm,手-物体交互识别准确率97.6%2024CLChi-Jung Lee et al.Cornell University手部手势识别足部与手腕交互CHI
EyeEcho:眼镜上的连续低功耗面部表情追踪Li 等人提出 EyeEcho 声学传感系统,通过眼镜上两对扬声器和麦克风捕捉皮肤变形,以 167mW 功耗实现 83.3Hz 连续面部表情追踪。2024KLKe Li et al.Cornell University手部手势识别眼动追踪与注视交互人体姿态与行为识别CHI
VRoxy:使用 VR 驱动的机器人代理在办公室进行广域远程协作Sakashita 等人提出 VRoxy 系统,通过将 VR 空间的微小动作映射到机器人物理空间的大动作,使用 3m×2m VR 空间操作远程 7.5m×5m 场景实现协作。2023MSMose Sakashita et al.远程操控与遥呈现(Telepresence)UIST
HPSpeech:面向通用耳机的静音语音接口Zhang 等人提出 HPSpeech 静音语音接口,利用耳机内置扬声器发射不可听声学信号,通过颞下颌关节运动识别8种语音命令,准确率超90%。2023RZRuidong Zhang et al.语音用户界面(VUI)设计UbiComp
EchoNose:使用非接触式鼻接口 sensing 口腔内的嘴部、呼吸和舌手势Sun 等人提出 EchoNose 鼻接口,通过分析鼻口腔内声学信号反射识别16种嘴部、舌和呼吸手势,在10人用户研究中达到93.7%的平均准确率,实现了非接触式口腔内手势识别。2023RSRujia Sun et al.电肌肉刺激(EMS)控制手部手势识别脑机接口(BCI)与神经反馈UbiComp
EchoSpeech:基于声学传感的最小侵扰式眼镜上的连续无声语音识别Zhang 等人研发 EchoSpeech 最小侵入性无声语音接口,通过眼镜架上扬声器发射声波分析皮肤变形识别无声语音,31个命令词错误率4.5%,连续数字达6.1%,功耗仅73.3毫瓦。2023RZRuidong Zhang et al.Cornell University振动反馈与皮肤刺激语音用户界面(VUI)设计生物传感器与生理监测CHI
ReMotion:通过自动机器人实体支持开放空间中的远程协作Sakashita等人设计ReMotion自动机器人,结合Kinect追踪与NeckFace捕捉面部表情,支持远程开放空间设计协作,增强注意力共享与共存感。2023MSMose Sakashita et al.Cornell University人-机器人协作(HRC)远程操控与遥呈现(Telepresence)CHI
RemoteCoDe:用于增强远程协作任务中边缘意识的机器人化身系统Sakashita 等人开发 RemoteCoDe 系统,利用 iPhone TrueDepth 摄像头追踪远程用户注意力并通过机器人化身展示,实现跨空间注意力焦点同步,支持远程协作设计中的边缘感知。2022MSMose Sakashita et al.Remote and Hybrid CollaborationsCSCW
RemoteCoDe:用于增强远程协作任务中外周意识的机器人具体化系统Sakashita 等人设计 RemoteCoDe 机器人远程呈现系统,利用 iPhone TrueDepth 追踪注意力并通过关节化显示器与机器人运动重新映射,增强远程协作中的外周意识。2022MSMose Sakashita et al.Remote and Hybrid CollaborationsCSCW
WovenProbe:探索适用于野外部署的全集成皮肤嵌入式系统的编织可能性Huang 等人开发了 WovenProbe 编织式多传感器皮肤嵌入式系统,支持多小时穿戴并通过智能手表无线供电,为日常长期可穿戴设备的设计提供了新的技术路径和应用可能性。2021KHKunpeng Huang et al.皮肤显示与皮肤输入DIS
C-Face:基于深度学习面部轮廓重建连续面部表情的耳挂式微型相机系统Chen等人开发了C-Face耳挂式可穿戴系统,通过深度学习面部轮廓连续重建42个面部特征点,平均误差0.74-0.77mm,实现表情检测与无声语音识别。2020TCTuochao Chen et al.触觉可穿戴设备人体姿态与行为识别UIST
Ondulé:设计和控制3D可打印弹簧He 等人开发 Ondulé 计算设计工具,支持在Rhino中将3D模型转换为可3D打印的弹簧,实现压缩、伸展、扭转、弯曲等多种参数化弹性变形行为。2019LHLiang He et al.形变界面与软机器人材料形变材料与四维打印UIST