通过人机协作数据标注实现Text-to-SQL领域适配Tian 等人提出 SQLsynth 人机协作数据标注系统,通过结构化工作流结合人类与大型语言模型,显著加速Text-to-SQL数据标注并生成更准确、自然、多样化的数据集。2025YTYuan Tian et al.大语言模型(LLM)的人机协作自动机器学习(AutoML)界面IUI
Orbit:多目标排序器设计与评估框架Yang 等人提出Orbit框架,将目标置于多目标排序器设计核心,通过交互式系统支持实时设计权衡探索,提升行业从业者的设计效率和决策质量。2025CYChenyang Yang et al.可解释人工智能(XAI)推荐系统用户体验IUI
模型可解释性和结果反馈对AI信任的影响Ahn 等人通过 1511 名参与者预注册实验发现,结果反馈对 AI 信任的影响显著大于可解释性,但两者对任务表现影响均较小,存在信任-表现悖论。2024DADaehwan Ahn et al.University of Georgia可解释人工智能(XAI)AI 辅助决策与自动化系统CHI
HaLLMark效应:通过交互式可视化支持写作中大型语言模型的来源和透明使用Hoque 等人设计 HaLLMark 可视化工具,帮助创意作家在与LLM交互中保留控制感和所有权,实现AI辅助写作的透明化。2024MHMd Naimul Hoque et al.University of Maryland大语言模型(LLM)的人机协作可解释人工智能(XAI)AI 辅助创意写作CHI
面向智能个人助理的分面技能推荐研究Kalirai 等人通过卡片排序研究识别出技能推荐的五个分面(主题性、程序性、跨系统、环境性和接收者),为智能个人助理的技能可发现性提升提供设计框架。2024MKManveer Kalirai et al.语音用户界面(VUI)设计推荐系统用户体验IUI
理解与回答不完整问题Addlesee 等人提出不完整问题处理管道,基于SLUICE语料库(21000个中断问题)验证,仅比完整问题系统少回答0.77%的问题,有效识别缺失信息位置。2023AAAngus Addlesee et al.智能语音助手(Alexa、Siri 等)认知障碍与神经多样性(自闭症、ADHD、阅读困难)CUI
社交场景中机器人辅助喂养的设计原则社交餐饮,即与他人一起用餐,充满了意义和文化意义。不幸的是,对于180万无法在不帮助下进食的美国运动障碍患者来说,挑战限制了他们享受这一愉快的社交仪式。在这项工作中,我们确定了运动障碍患者在社交餐饮中的需求,以及机器人辅助喂养如何解决这些需求。我们使用展示社交餐饮场景中机器人行为的推测视频进行了访谈,以了解参与者的偏好。我们遵循社区参与式研究方法,在整个研究过程中与一位患有运动障碍的社区研究者合作。我们贡献了(a)机器人如何帮助克服社交餐饮挑战的见解,(b)创建机器人辅助喂养系统的设计原则,(c)以及该领域未来研究的实施指南。我们的主要发现是,机器人独特的辅助特性可以解决运动障碍患者在社交餐饮中面临的挑战,促进赋权感和归属感。2023ANAmal Nanavati et al.运动障碍辅助输入技术家用机器人机器人在教育与医疗中的应用HRI
ESCAPE:通过交互式可视化分析应对机器盲点产生的系统性错误Ahn 等人提出 ESCAPE 可视化分析系统,通过相对概念关联统计量和去偏方法帮助用户识别 AI 盲点中的虚假关联,经控制实验验证有效性2023YAYongsu Ahn et al.University of Pittsburgh可解释人工智能(XAI)AI 辅助决策与自动化系统不确定性可视化CHI
对话式协作搜索中系统主动性的影响Avula 等人通过 27 对参与者的 Slack 搜索任务实验发现,搜索机器人同时具备对话级和任务级主动性时,用户感知有用性、协作质量及沟通模式最优。2022SAsandeep avula et al.Human-AI collaborationCSCW
对话式协作搜索中系统主动性的影响avula 等人通过27对参与者在Slack平台的Wizard of Oz实验,探究searchbot在对话层面和任务层面主动性对协作搜索效果的影响,发现不同主动性水平的多维作用。2022SAsandeep avula et al.Human-AI collaborationCSCW
实践moderation:社区moderation作为反思性实践Cullen 等人通过对18名Twitch版主的访谈,将社区moderation概念化为反思性实践,揭示版主如何在行动中和行动后实时调整判断与策略。2022ACAmanda L. L. Cullen et al.Platform Moderation; Platform ModerationCSCW
早期交互式机器学习的采样与搜索权衡Levonian 等人比较交互式机器学习三种采样策略,发现用户引导的文本搜索能在不损害泛化性能的情况下为不平衡文本分类器有效提供正面样本。2022ZLZachary Levonian et al.大语言模型(LLM)的人机协作计算方法在HCI中的应用IUI
可变工作量众包标注的挑战及可见黄金数据的帮助Hettiachchi 等人针对众包标注中工作量增加导致准确率下降的问题,验证发现可见黄金问题方法可提供周期性准确率反馈,最终使边界框标注准确率提升7%。2021DHDanula Hettiachchi et al.Crowds and CollaborationCSCW
谁需要在何时知道什么?:通过审视人工智能生命周期中的解释来拓展可解释人工智能(XAI)设计空间Dhanorkar 等人通过访谈工业界AI从业者,揭示了AI项目生命周期中不同利益相关者的可解释性需求如何动态演变,强调采用社会技术视角设计XAI系统的重要性。2021SDShipi Dhanorkar et al.可解释人工智能(XAI)AI 辅助决策与自动化系统DIS
远程会议期间多任务行为的大规模分析Cao 等人分析微软大规模遥测数据和715人日记研究,揭示会议规模、时长等因素显著影响多任务处理,并提出最佳实践指南。2021HCHancheng Cao et al.Stanford University远程工作工具与体验通知与中断管理职场福祉与工作压力CHI
影响算法决策中感知公平性的因素:算法结果、开发程序和个人差异Wang 等人通过在线实验发现,当算法预测有利时人们认为更公平,该效应受教育水平、性别及开发程序调节,揭示了“结果有利性”偏差影响算法公平性感知。2020RWRuotong Wang et al.Carnegie Mellon UniversityAI 伦理、公平与问责算法公平与偏见CHI
用于教育活动自适应调度的强化学习Bassen 等人提出首个为大型在线课程实时安排教育活动的强化学习模型,经超1000名学习者实验验证,使用较少活动可提升学习收益并降低辍学率。2020JBJonathan Bassen et al.Stanford University在线学习与 MOOC 平台智能辅导系统与学习分析CHI