"80%是我,20%是AI":与大语言模型协作写作中寻求真实性Hwang 等人访谈19名作家和30名读者发现,作家追求基于创作过程和自我构建的真实性,读者无法区分AI协作与独立写作,且对新技术实验持积极态度。2025AHAngel Hsing-Chi Hwang et al.AI & WritingCSCW
当信心一致时:理解AI信心对人类自我信心的影响在人机决策中Li 等人通过随机行为实验发现用户自我信心与 AI 信心在人机决策中呈现一致性,且决策正确性反馈可减少此一致性影响。2025JLJingshu Li et al.National University of Singapore, Computer ScienceAI 辅助决策与自动化系统可视化感知与认知CHI
Canvil:为LLM驱动的用户体验设计适应性Feng等人构建Canvil Figma小部件,将LLM作为设计材料实现设计适应性转换,促进设计师与LLM驱动的用户体验之间的迭代协作2025KFK. J. Kevin Feng et al.University of Washington, Human Centered Design & Engineering360° 视频与全景内容大语言模型(LLM)的人机协作CHI
促进对大型语言模型的适当依赖:解释、来源和不一致性的角色Kim 等人通过N=308大规模实验发现,LLM响应中解释增加用户依赖性,但提供来源或解释不一致时可显著降低对错误响应的依赖。2025SKSunnie S. Y. Kim et al.Princeton University, Computer Science大语言模型(LLM)的人机协作可解释人工智能(XAI)CHI
无缝隙可解释AI(XAI)操作化:将接缝设计应用于XAIEhsan 等人提出「接缝XAI」概念,将接缝设计引入可解释AI,通过策略性揭示社会技术不匹配增强用户能动性和系统可解释性。2024UEUpol Ehsan et al.Session 3e: Trust and Understanding in Explainable AICSCW
生成式回音室?LLM驱动的搜索系统对多样化信息检索的影响Sharma 等人两个实验表明LLM驱动对话搜索使用户查询更多偏见信息,强化观点的意见型LLM加剧这种选择性曝光风险。2024NSNikhil Sharma et al.Johns Hopkins University大语言模型(LLM)的人机协作AI 伦理、公平与问责隐私设计与用户控制CHI
《解释性人工智能中的角色:人工智能背景如何影响对人工智能解释的感知》Ehsan 等人通过混合方法研究发现,有无AI背景的用户对不同解释的信任模式存在差异,提出设计干预措施以减轻AI解释的负面影响。2024UEUpol Ehsan et al.Georgia Institute of Technology可解释人工智能(XAI)AI 伦理、公平与问责CHI
感知职场幸福感:为何以及为谁?与组织利益相关者共同规划影响Kawakami 等人通过故事板访谈 33 名利益相关者,发现员工担忧职场幸福感感知技术可能对组织文化、人际关系产生连锁影响并引发多重危害。2023AKAnna Kawakami et al.Workplace ICSCW
选择性解释:利用人类输入对齐可解释人工智能Lai等人提出选择性解释框架,通过根据接收者偏好选择性地呈现AI决策理由,利用人类输入生成个性化解释,实验表明该方法可减少对AI的过度依赖并改善决策质量。2023VLVivian Lai et al.XAI 2CSCW
理解人类直觉在带解释的人机决策中的依赖作用Chen 等人识别出决策者在AI推理中的三种直觉类型,揭示特征解释增加过度依赖而示例解释改善决策的机制,为设计帮助用户合理依赖AI的解释方法提供指引。2023VCValerie Chen et al.XAI 2CSCW
fAIlureNotes:支持设计师了解计算机视觉任务中AI模型的局限性Moore 等人开发fAIlureNotes工具,采用故障驱动设计方法帮助设计师探索AI模型行为,评估显示其显著优于现有交互式模型卡片。2023SMSteven Moore et al.Technical University Munich (TUM)可解释人工智能(XAI)AI 辅助决策与自动化系统知识工作者工具与工作流CHI
设计思维理解:支持AI赋能的用户体验设计构思的模型透明度信息需求Liao等人访谈23位UX从业者,发现设计师使用预训练模型时缺乏透明度支持,识别出模型理解的关键信息需求。2023QLQ. Vera Liao et al.Microsoft Research大语言模型(LLM)的人机协作可解释人工智能(XAI)AI 辅助决策与自动化系统CHI