基于反事实回放和混合Wizard-of-Oz的多模态生成式AI实时代理原型设计Gmeiner 等人提出结合反事实视频回放提示与混合Wizard-of-Oz的原型设计方法,帮助设计师迭代优化多模态生成式AI实时代理的用户体验。2026FGFrederic Gmeiner et al.Carnegie Mellon University人在回路的机器学习界面CHI
为善资助AI:呼唤有意义的参与Lin等人分析35份约4.1亿美元AI4SG资助文件,揭示从技术导向到平衡取向的资助框架频谱,为资助方设计更平衡的AI4SG资助项目提供建议。2026HLHongjin Lin et al.Harvard UniversityAI 治理与问责CHI
“我认为负责任AI不适用于我的模型”——通过黏性故事吸引非 champion 参与负责任AI工作Nahar 等人提出黏性故事方法吸引非 champion 参与负责任AI工作,研究发现该方法显著增加从业者伤害识别时间和思考深度,为RAI实践提供新途径。2026NNNadia Nahar et al.Carnegie Mellon University社会影响与负责任技术CHI
PolicyPad:LLM策略的协作原型设计Feng 等人开发PolicyPad系统,借鉴UX原型设计实践支持LLM策略实时协作编写与测试,通过22位心理健康和法律专家验证发现其增强了协作动态和反馈循环。2026KFK. J. Kevin Feng et al.University of WashingtonAI 治理与安全CHI
Botender:通过基于案例的挑衅支持社区协作设计AI代理Kuo 等人开发 Botender 系统,通过基于案例的挑衅帮助社区成员无需编码协作设计LLM驱动的机器人,五天部署验证了其促进社区需求对齐的有效性。2026TKTzu-Sheng Kuo et al.Carnegie Mellon University协同设计CHI
WeAudit:在审计生成式AI中为用户审计员和AI实践者提供支持Deng 等人开发 WeAudit 系统,支持用户审计员对生成式AI进行单独和集体审计,生成可被行业实践者采纳的可操作见解。2025WDWesley Hanwen Deng et al.Online & AI HarmsCSCW
作为组装拼凑的测量:审视数据科学家如何构建预测建模任务的目标变量Guerdan 等人揭示数据科学家如何将模糊概念转化为可测量目标变量的过程,填补了预测建模中测量构建方法论的认知空白。2025LGLuke Guerdan et al.Generating and Sharing KnowledgeCSCW
Policy Maps:引导大型语言模型无界行为的工具Lam 等人受地图绘制启发提出 Policy Maps 方法,通过 Policy Projector 工具支持 AI 从业者定义策略区域并利用条件规则导航 LLM 行为空间,有效辅助安全专家制定反偏见和安全风险策略。2025MLMichelle S. Lam et al.可解释人工智能(XAI)算法透明度与可审计性算法公平与偏见UIST
探索元认知支持代理人在人机协作创作中的潜力Gmeiner 等人提出元认知支持代理概念,通过Wizard of Oz研究证明支持的可行性,发现代理支持用户创建的设计方案更具可行性,探讨了不同支持策略的权衡。2025FGFrederic Gmeiner et al.生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作创意协作与反馈系统DIS
做正确的事:在早期AI概念选择中桥接HCI与负责任AIJung 等人通过设计实验探索早期AI概念排序反映负责任AI原则的可能性,表明多学科协作可有效识别低风险高收益AI概念,为AI创新前端嵌入伦理考量。2025JJJi-Youn Jung et al.AI 伦理、公平与问责参与式设计(Participatory Design)可持续性 HCI(Sustainable HCI)DIS
意图标记:探索微提示交互以支持细粒度的人类与生成式AI协同创作工作流程Gmeiner 等人设计IntentTagger系统,探索基于意图标签的粒度微提示交互,用户研究表明灵活表达意图和元意图提取能有效支持人与生成式AI的共同创作工作流程。2025FGFrederic Gmeiner et al.Carnegie Mellon University, Human-Computer Interaction Institute; Microsoft Research生成式AI(文本、图像、音乐、视频)AI 辅助创意写作创意协作与反馈系统CHI
AI 不匹配:在AI开发前识别潜在的算法危害Saxena 等人提出AI不匹配方法,通过分析774个AI案例开发七个风险矩阵,帮助在开发早期识别模型性能与任务需求差距以降低风险。2025DSDevansh Saxena et al.University of Wisconsin-Madison, The Information SchoolAI 伦理、公平与问责算法公平与偏见CHI
政策设计:通过案例基础审议支持协作和参与式政策设计Kuo等人开发PolicyCraft系统,通过案例为基础的审议支持协作政策设计,在两门大学课程中验证比基线系统能达成更大共识。2025TKTzu-Sheng Kuo et al.Carnegie Mellon University, Human-Computer Interaction Institute社交平台设计与用户行为内容审核与平台治理参与式设计(Participatory Design)CHI
研究公共部门人工智能:权力关系网络如何塑造机构的人工智能设计与使用决策Kawakami 等人研究公共部门 AI 决策者的权力关系网络,发现基础设施、法律和社会因素阻碍更广泛利益相关者参与 AI 决策,决策者希望获得更多实践支持。2024AKAnna Kawakami et al.Session 2e: Data, Power, and JusticeCSCW
情境AI指南:共同设计一个工具包,以支持多利益相关者在公共部门AI提案早期阶段的审议Kawakami 等人通过与美国四个公共部门机构及三个社区团体的迭代共设计,创建了Situate AI指南,以结构化审议问题支持AI项目早期阶段关于目标、法律考量、建模限制和组织治理的决策。2024AKAnna Kawakami et al.Carnegie Mellon UniversityAI 伦理、公平与问责隐私设计与用户控制参与式设计(Participatory Design)CHI
Wikibench:基于社区的数据整理用于维基百科上的人工智能评估Kuo 等人设计 Wikibench 系统,使维基百科社区能协作策划 AI 评估数据集,通过讨论解决分歧,捕捉社区共识与不确定性,为社区驱动的数据策划提供新方向2024TKTzu-Sheng Kuo et al.Carnegie Mellon University社区协作与维基百科众包任务设计与质量控制CHI
评估人类解释策略对人机视觉决策的影响Morrison 等人研究可解释AI中四种解释策略对人类决策的影响,发现因果解释策略能提高准确性并校准人类对AI的依赖,但当AI定位错误时可能导致错误合理化。2023KMKatelyn Morrison et al.XAI 2CSCW
芝诺:用于机器学习行为评估的交互式框架Cabrera 等人通过访谈18位机器学习从业者识别行为评估挑战,设计 Zeno 通用框架,使从业者能可视化测试AI系统并发现新的系统性故障。2023ÁCÁngel Alexander Cabrera et al.Carnegie Mellon University可解释人工智能(XAI)AI 辅助决策与自动化系统CHI
理解前线工作人员和无家可归者对在无家可归服务中使用AI的看法Kuo 等人采用AI生命周期漫画板方法收集利益相关者对AI住房资源分配系统的反馈,发现即使无AI知识者也能提供关键设计和部署建议2023TKTzu-Sheng Kuo et al.Carnegie Mellon UniversityAI 伦理、公平与问责算法公平与偏见CHI
理解行业实践中用户参与算法审计的实践、挑战和机遇Deng 等人通过访谈和共同设计活动,揭示了从业者在招募用户审计员、构建审计流程及获得可操作见解方面面临的挑战,并分析了组织层面的障碍。2023WDWesley Hanwen Deng et al.Carnegie Mellon University算法透明度与可审计性算法公平与偏见参与式设计(Participatory Design)CHI