控制群体对话中AI智能体的参与:一种人类中心方法Houde等人通过两项实验研究发现用户对群体中AI智能体参与的复杂态度,开发了涵盖响应时机、内容、对象、控制者及实现方式的AI行为控制分类法。2025SHStephanie Houde et al.对话式聊天机器人会话代理的人格与拟人化IUI
生成式AI应用程序的设计原则Weisz 等人提出生成式 AI 应用程序的六项设计原则,通过迭代过程结合文献综述、设计者反馈和实践经验,为 AI 应用的用户体验设计提供可操作指导2024JWJustin D. Weisz et al.IBM Research AI生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作原型设计与用户测试CHI
通过场景设计研究生成式代码模型的可解释性Sun 等人通过场景设计方法探索软件工程师对生成式AI代码模型的可解释性需求,在自然语言转代码、代码翻译和自动补全三个场景中识别出四种XAI功能类型。2022JSJiao Sun et al.生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作可解释人工智能(XAI)IUI
携手更好?AI辅助代码翻译评估研究Weisz 等人研究发现,AI辅助代码翻译能显著减少软件工程师的代码错误,且提供多个翻译选项比单纯提高翻译质量对翻译过程的帮助更大。2022JWJustin D. Weisz et al.生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作IUI
Model LineUpper:在多个层级支持AutoML交互式模型比较Narkar 等人开发 Model LineUpper 系统,通过集成 SHAP 等可解释 AI 与可视化技术,在预测分布、特征重要性等多层级支持 AutoML 用户交互式比较候选模型,帮助数据科学家选择更合理的模型。2021SNShweta Narkar et al.可解释人工智能(XAI)自动机器学习(AutoML)界面交互式数据可视化IUI
完美并非必需?代码翻译中的人机协作Weisz 等人研究发现软件工程师对NMT代码翻译的容错程度,并提出置信度高亮、替代翻译等UI功能帮助理解和纠正不完美输出。2021JWJustin D. Weisz et al.生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作AI 辅助决策与自动化系统IUI
扩展可解释性:迈向AI系统的社会透明度Ehsan 等人提出社会透明度ST概念,通过对29名用户和从业者的访谈,构建了技术、决策和组织层面的ST概念框架,以校准AI信任并促进集体行动。2021UEUpol Ehsan et al.Georgia Institute of Technology可解释人工智能(XAI)AI 伦理、公平与问责算法透明度与可审计性CHI
AutoDS: 面向人的数据科学自动化Wang等人开发AutoDS自动化机器学习系统,辅助数据科学项目流程,实验表明模型质量提升但用户信心下降,引发人机协作设计反思。2021DWDakuo Wang et al.IBM Research大语言模型(LLM)的人机协作AI 辅助决策与自动化系统自动机器学习(AutoML)界面CHI
BigBlueBot:成功的在人机交互中运用的教学策略Weisz 等人设计 BigBlueBot 教学体验,通过模拟对话崩溃与修复场景,教授用户人机交互策略,在 88 人评估中有效提升用户交互意愿与同理心。2019JWJustin D. Weisz et al.对话式聊天机器人会话代理的人格与拟人化IUI
数据科学中的人机协作:探索数据科学家对自动化人工智能的看法Wang 等人通过对20名数据科学家的访谈,揭示了AutoAI对数据科学实践的影响虽被担忧但不可避免,数据科学家对人机协作未来保持乐观。2019DWDakuo Wang et al.AICSCW
过于经典的思考:人类-量子计算机交互的研究议程Ashktorab 等人基于量子计算专家访谈,提出量子人机交互研究议程,覆盖用户理解、编程工具、状态可视化和教育培训四个关键领域。2019ZAZahra Ashktorab et al.IBM Research AI计算方法在HCI中的应用CHI
韧性聊天机器人:对话中断的修复策略偏好Ashktorab 等人比较了用户对八种聊天机器人修复策略的偏好,发现提供选项和解释策略更受欢迎,可有效恢复对话中断,提升用户体验。2019ZAZahra Ashktorab et al.IBM Research AI对话式聊天机器人CHI