OpenCD:通过开放式多模态任务赋能儿童数学认知诊断Zheng 等人开发 OpenCD 系统,结合视觉语言模型与专家模型自动分析多模态开放式数学任务响应,实现儿童数学认知的个性化诊断,准确率达 90.3%。2026ZZZhi Zheng et al.Tsinghua University智能反馈与学习设计CHI
HiSync:通过可穿戴IMU与机器人摄像头的时空对齐实现长距离人机交互中的命令源识别Zhang等人提出HiSync光学-惯性融合框架,通过对齐机器人摄像头与手戴IMU信号,在34m范围内实现92.32%命令源识别准确率,显著提升长距离HRI可靠性。2026CZChengwen Zhang et al.Tsinghua University人类表现与运动建模CHI
ActivitySeeker:面向智能手机的协作式个性化人类活动发现与识别Ye 等人设计 ActivitySeeker 个性化手机 HAR 系统,结合自监督活动发现和低负担用户交互,通过迁移学习在设备上适应个体用户,个人活动类型发现率达 95.5%,识别准确率 93.3%。2026ZYZhoutong Ye et al.Tsinghua University人类表现与运动建模CHI
TraceRing: 通过个性化学习实现单IMU环的类触控板指向He 等人提出TraceRing系统,使用多任务和对比学习实现单IMU环个性化指向,速度预测误差降低33.9%,任务完成时间超AirMouse。2026ZHZhe He et al.Tsinghua University手部姿态与手势CHI
SituFont:增强情境视觉障碍移动可读性的即时自适应干预界面Chen 等人提出SituFont系统,通过智能手机传感器实时监测环境与个人因素动态调整字体,实验证实在多种SVI情境下显著提升阅读效率并降低工作负荷。2026JCJingruo Chen et al.Cornell University读写无障碍CHI
常规计算:面向人类中心目标的日常生活维度感知系统综述Pavlov 等人首次系统综述了常规计算领域,综合203项研究提出新分类法,涵盖时间结构、行为交互与认知维度,为以人为中心的常规感知系统设计提供框架。2026BPBorislav Pavlov et al.Tsinghua University面向人类目标的 AI 系统CHI
实现可穿戴手戴设备上的自适应心肺生物反馈训练Yu 等人开发了一种基于智能手表的心肺生物反馈训练系统,通过实时生理信号调整呼吸指导,在非临床环境中显著提升用户 HRV 和训练效果。2026RYRuotong Yu et al.Tsinghua University正念、呼吸与生物反馈技术CHI
3DRing:通过融合惯性与低帧率光学传感实现低成本3D手部位置追踪Li 等人提出3DRing低成本3D手部追踪方法,融合6.61 FPS光学数据与IMU环,实现1.75 cm追踪误差和86%交互效率,为移动设备手部追踪降低计算负载。2026ZLZhuojun Li et al.Tsinghua University手部姿态与手势CHI
GazeCoT:通过 gaze-inform Chain-of-Thought 推理释放多模态LLM的社会智能Ye 等人提出 GazeCoT 管道,通过注视估计为多模态大语言模型提供社会注意力信息,显著提升模型在亲子互动等场景中的社会智能与可信度。2026ZYZhoutong Ye et al.Tsinghua University解释与评估 AI 系统CHI
EchoMind:通过人机协作促进支持实时复杂问题讨论Chen 等人开发 EchoMind 系统,利用大语言模型实时可视化问题知识图谱,使团队讨论目标清晰度与生产力分别提升。2025WCWeihao Chen et al.Human-AI (and Robot!) CollaborationCSCW
通过探索性研究理解用户对社交气球机器人的感知与期望Wang 等人开发了 BalloonBot 社交气球机器人原型,通过探索性实验揭示其移动性和亲近性优势,为新型社交具身代理在辅助和娱乐场景中的应用提供设计参考。2025CWChongyang Wang et al.社交机器人交互UIST
InterQuest:用于会话搜索中动态用户兴趣建模的混合主动式框架Mei 等人提出基于LLM的会话搜索代理InterQuest,通过动态用户知识建模与不确定性驱动提问,在用户兴趣推断与知识建模准确性上显著优于基线。2025YMYu Mei et al.大语言模型(LLM)的人机协作推荐系统用户体验算法公平与偏见UIST
从操作到认知:从用户演示中自动建模认知依赖关系以实现GUI任务自动化Yin 等人提出 TaskMind 系统,从演示中自动识别操作语义和认知依赖关系构建任务图,在20名参与者研究中显著优于基线端到端LLM。2025YYYiwen Yin et al.Tsinghua University, Department of Computer Science and Technology大语言模型(LLM)的人机协作AI 辅助决策与自动化系统CHI
奥德赛之旅:在中国寻找顶级医疗资源以治疗特殊疾病Chan 等人以面肌痉挛患者为例,通过访谈医生与患者揭示中国专科患者健康信息寻求策略,提出缓解医患信息不对称的五种方法2025KCKa I Chan et al.Tsinghua University, Global Innovation Exchange慢性病自我管理(糖尿病、高血压等)远程医疗与远程患者监测CHI
Palmpad:使用单个RGB摄像头实现实时指尖到手掌触控交互He等人提出Palmpad系统,利用光流技术增强CNN模型实现单RGB摄像头检测拇指与手掌触控,识别准确率达97%,可用性评估准确率95.3%2025ZHZhe He et al.Tsinghua University, Department of Computer Science and Technology手部手势识别全身交互与体感输入混合现实工作空间CHI
WritingRing:使用单个IMU戒指实现自然手写输入He 等人提出WritingRing系统,使用单IMU戒指实现2D手写轨迹追踪,达1.63毫米精度,字母识别率88.7%,单词识别率68.2%2025ZHZhe He et al.Tsinghua University, Department of Computer Science and Technology电肌肉刺激(EMS)控制手部手势识别足部与手腕交互CHI
VAction:一个轻量级的集成VR训练系统,提供真实的电影拍摄体验Wang 等人开发VAction轻量级VR系统,通过高保真虚拟环境和定制控制器模拟真实电影拍摄,显著提升学习者实践效果。2025SWShaocong Wang et al.Tsinghua University, Department of Computer Science and Technology混合现实工作空间家庭能源管理CHI
通过基于光标的交互式隐式校准增强智能手机眼动追踪Liu等人提出COMETIC眼动追踪隐式校准方法,通过过滤150像素内的光标坐标作为注视代理并微调模型,使眼动误差降至278.3像素,准确率提升27.2%2025CLChang Liu et al.Tsinghua University, Department of Computer Science and Technology眼动追踪与注视交互大语言模型(LLM)的人机协作可视化感知与认知CHI
利用虚拟现实中的凝视行为建模视觉刺激对重定向显著性的影响Li等人建模VR中注视行为与重新定向可察觉性的关系,开发准确率达0.012 MSE的回归模型,验证自适应技术能减少身体需求并增强身体所有权。2025ZLZhipeng Li et al.ETH Zürich, Department of Computer Science眼动追踪与注视交互混合现实工作空间沉浸感与临场感研究CHI
使用大型语言模型在智能手机上进行上下文感知的协作文本输入研究Chen等人提出基于LLM的智能手机协作文本输入系统CATIA,利用屏幕内容、时间、地点、活动等上下文提供文本建议,7天野外研究表明80%建议合适,揭示两种心理模型。2025WCWeihao Chen et al.Tsinghua University, Department of Computer Science and Technology语音用户界面(VUI)设计大语言模型(LLM)的人机协作环境感知与上下文计算CHI