人机协作用于用户体验评估:解释与同步的效果Fan 等人研究人工智能辅助用户体验评估中解释和同步两个设计因素,发现带解释的 AI 能更好支持评估师分析,而无解释时同步协作更能提升评估效果。2022MFMingming Fan et al.Human-AI collaboration; Human-AI collaborationCSCW
通过场景设计研究生成式代码模型的可解释性Sun 等人通过场景设计方法探索软件工程师对生成式AI代码模型的可解释性需求,在自然语言转代码、代码翻译和自动补全三个场景中识别出四种XAI功能类型。2022JSJiao Sun et al.生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作可解释人工智能(XAI)IUI
通过条件委托实现人与AI的合作:一个内容审核案例研究Lai 等人提出有条件委托新范式,让人类创建规则指示AI可信区域,通过两个数据集实验验证其在内容审核中能有效提升模型性能。2022VLVivian Lai et al.University of Colorado BoulderAI 辅助决策与自动化系统内容审核与平台治理CHI
Model LineUpper:在多个层级支持AutoML交互式模型比较Narkar 等人开发 Model LineUpper 系统,通过集成 SHAP 等可解释 AI 与可视化技术,在预测分布、特征重要性等多层级支持 AutoML 用户交互式比较候选模型,帮助数据科学家选择更合理的模型。2021SNShweta Narkar et al.可解释人工智能(XAI)自动机器学习(AutoML)界面交互式数据可视化IUI
促进领域专家向数据科学家共享知识以构建NLP模型Park等人提出Ziva框架,通过领域概念提取器和五种标签理由引导领域专家向数据科学家分享知识,特别适用于冷启动的NLP模型构建场景。2021SPSoya Park et al.大语言模型(LLM)的人机协作计算方法在HCI中的应用IUI
扩展可解释性:迈向AI系统的社会透明度Ehsan 等人提出社会透明度ST概念,通过对29名用户和从业者的访谈,构建了技术、决策和组织层面的ST概念框架,以校准AI信任并促进集体行动。2021UEUpol Ehsan et al.Georgia Institute of Technology可解释人工智能(XAI)AI 伦理、公平与问责算法透明度与可审计性CHI
合作游戏环境中的人机协作:社会感知与结果测量Ashktorab 等人通过词语联想游戏实验发现,当参与者相信伙伴是人类时,对其亲和力、智力和创造力的评价显著高于AI伙伴,并探讨了透明度对协作的影响。2020ZAZahra Ashktorab et al.Human-AI Collaboration / Images in AICSCW
可解释主动学习(XAL) : 面向机器教师的AI解释作为人机界面Ghai 等人提出可解释主动学习(XAL)范式,将可解释AI技术融入主动学习,通过实证研究证明AI解释能支持机器教师的信任校准并启用丰富教学反馈,但同时存在锚定效应和认知负荷等潜在缺点。2020BGBhavya Ghai et al.Interpreting and Explaining AICSCW
质疑人工智能:为可解释人工智能用户体验的设计实践提供信息Liao 等人通过访谈 20 位 UX 设计师开发 XAI 问题库,识别算法工作与可解释 AI 产品实践的差距,为以用户为中心的 XAI 设计提供见解2020QLQ. Vera Liao et al.IBM Research AI可解释人工智能(XAI)AI 辅助决策与自动化系统CHI
数据科学工作者如何处理数据:发现、捕获、整理、设计、创建Muller 等人访谈21位数据科学专业人士,归纳出数据作为给定、捕获、整理、设计、创造五种干预维度,阐明数据工作者如何主动塑造数据。2019MMMichael Muller et al.IBM Research交互式数据可视化计算方法在HCI中的应用CHI
韧性聊天机器人:对话中断的修复策略偏好Ashktorab 等人比较了用户对八种聊天机器人修复策略的偏好,发现提供选项和解释策略更受欢迎,可有效恢复对话中断,提升用户体验。2019ZAZahra Ashktorab et al.IBM Research AI对话式聊天机器人CHI
解释模型:一项关于解释如何影响公平性判断的实证研究Dodge 等人通过160多名众包工人的实验表明,不同类型的解释显著影响人们对机器学习系统公平性的判断,且个性化自适应解释可增强用户信任。2019JDJonathan Dodge et al.可解释人工智能(XAI)AI 伦理、公平与问责算法公平与偏见IUI
实现信息检索的最优对话策略:结合开放式与封闭式问题Zhang 等人提出自适应对话策略框架,通过估算并比较开放式与封闭式问题的信息增益来选择最优提问时机,有效缩短信息检索对话长度。2018YZYunfeng Zhang et al.对话式聊天机器人AI 辅助决策与自动化系统IUI
表面价值?探索具身对团队辅导代理效果的影响Shamekhi 等人比较具象化与仅语音代理对团队决策的影响,发现具象化改善社会感知但对决策过程和结果影响复杂2018ASAmeneh Shamekhi et al.Northeastern University语音用户界面(VUI)设计会话代理的人格与拟人化CHI
只工作不玩耍?与野外问答聊天机器人的对话Liao 等人通过人力资源聊天机器人实地部署,识别对话中推断用户工具性使用与有趣互动满意度的信号,为开发适应性代理提供方向。2018QLQ. Vera Liao et al.IBM T.J. Watson Research Center对话式聊天机器人会话代理的人格与拟人化CHI