规则还是权重?比较用户对可解释人工智能技术的理解与认知XAI自适应模型Rawshan等人提出CoXAM认知模型,对比XAI规则与权重技术的用户可解释性,发现反事实任务比正向任务更难,决策树规则比线性权重更难应用。2026LRLouth Bin Rawshan et al.National University of Singapore可解释人工智能(XAI)方法IUI
可迁移的可解释人工智能:通过解释迁移建立跨领域理解Wang 等人提出可迁移 XAI 框架,利用仿射变换实现跨领域解释迁移,在决策忠诚度和因子召回率方面显著优于单域和域无关解释方法。2026FWFei Wang et al.National University of Singapore可解释人工智能(XAI)方法IUI
可编辑XAI:面向可解释属性的双向人机对齐与协同可编辑解释Chen 等人提出CoExplain可编辑XAI系统,通过神经网络与符号规则结合使用户能编写规则优化决策树,使用户理解度和模型对齐度分别提升。2026HCHaoyang Chen et al.National University of Singapore个性化与人机对齐CHI
iRULER:基于评分标准的可解释用户自定义LLM评估与修订系统Bai 等人提出 iRULER 系统,通过结构化评分标准为 LLM 写作评估提供可解释的反馈,在对照实验中显著提升了评审得分和用户满意度。2026JBJingwen Bai et al.National University of SingaporeLLM 辅助写作与创作CHI
Comparables XAI:具有反事实轨迹调整的忠实基于示例的人工智能解释Zhang 等人提出Comparables XAI方法,通过轨迹调整提供忠实反事实解释,在用户研究中实现了最高解释精确度和最窄不确定性范围。2026YZYifan Zhang et al.National University of Singapore个性化与人机对齐CHI
超越分数:可解释智能评估增强职前教师评估素养Wei 等人开发XIA可解释智能评估平台,通过可视化的对比性和反事实解释支持职前教师反思,帮助21名教师减少评估错误并转向基于证据的推理。2026YWYuang Wei et al.East China Normal University智能反馈与学习设计CHI
Varif.ai:可扩展图像生成中用户驱动多样性的变化与验证Michelessa 等人提出 Varif.ai 系统,通过文本到图像与大型语言模型迭代生成、验证和变化图像属性,使用户能够自主控制生成结果的多样性,在20人评估中优于基线方法。2025MMMario Michelessa et al.生成式AI(文本、图像、音乐、视频)推荐系统用户体验AI 辅助创意写作DIS
基于解耦线索特定显著性的机器学习鲁棒关联性解释Abichandani 等人提出 RobustRexNet,通过解耦情感语音识别中不同线索的显著性图来提升模型在噪声环境下的解释鲁棒性和预测准确性。2025HAHarshavardhan Sunil Abichandani et al.可解释人工智能(XAI)AI 伦理、公平与问责IUI
通过与领域对齐的解释来提高医学诊断中AI的可解释性的图表化和溯因Lim等人开发DiagramNet通过图示与假设推理提升医学AI可解释性,利用领域本体论和杂音图解释心脏听诊,性能优于基线,医学学生更认可临床相关图示解释。2025BLBrian Y Lim et al.National University of Singapore, Department of Computer Science可解释人工智能(XAI)医疗与科学数据可视化CHI
增量XAI:通过增量解释对AI进行记忆理解Bo 等人提出增量XAI方法,通过基础+增量因子自动划分一般与非典型实例,提升线性解释的记忆性和忠实性,助力用户直观理解AI决策。2024JBJessica Y Bo et al.University of Toronto, National University of Singapore可解释人工智能(XAI)算法透明度与可审计性算法公平与偏见CHI
重新提示:自动编辑提示以使AI生成的艺术作品向精确表达精炼Wang 等人提出 RePrompt 自动优化文本提示方法,通过代理模型分析文本特征对生成图像的影响,显著提升 AI 图像的情感表现力。2023YWYunlong Wang et al.National University of Singapore生成式AI(文本、图像、音乐、视频)AI 辅助创意写作CHI
去偏CAM以减轻图像扰动并提供机器学习的忠实可视化解释Zhang 等人提出Debiased-CAM方法,通过多输入多任务模型结合偏差预测辅助任务,恢复偏差图像的解释忠实度并提升用户任务表现2022WZWencan Zhang et al.School of Computing, National University of Singapore可解释人工智能(XAI)算法透明度与可审计性CHI
可解释的导向多样性:利用模型解释进行迭代众包创意Wang 等人提出可解释的定向多样性方法,自动预测创意质量并提供AI解释反馈,显著提升众包构思的多样性和质量。2022YWYunlong Wang et al.National University of Singapore生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作众包任务设计与质量控制CHI
面向可关联的可解释人工智能与感知过程Zhang 等人提出 XAI 感知处理框架和 RexNet 模型,通过对比显著性与反事实解释增强语音情感识别的可解释性,发现语义增强的反事实解释效果优于显著性解释2022WZWencan Zhang et al.School of Computing, National University of Singapore眼动追踪与注视交互可解释人工智能(XAI)CHI
导向多样性:利用语言嵌入距离提高人群创意集思广益的集体创造力Cox 等人提出定向多样性方法,利用语言模型嵌入距离自动选择创意提示,四个用户研究表明该方法可显著提升众包创意的集体多样性。2021SCSamuel Rhys Cox et al.National University of Singapore生成式AI(文本、图像、音乐、视频)众包任务设计与质量控制CHI
TableChat:移动食物日志促进家庭健康饮食支持Lukoff 等人开发 TableChat 聊天式食物日志应用,发现实物质支持最受欢迎,且记录分餐反而比共餐更能促进家庭健康支持交换。2018KLKai Lukoff et al.Chatting and LivestreamingCSCW
可解释、可问责和可理解系统的趋势与轨迹:一项HCI研究议程Abdul 等人分析289篇核心论文和12,412篇引用论文,使用主题建模和网络分析揭示可解释系统的新兴趋势,为HCI研究议程提供方向。2018AAAshraf Abdul et al.National University of Singapore可解释人工智能(XAI)AI 辅助决策与自动化系统算法透明度与可审计性CHI