HAGI:移动眼动追踪器的头部辅助视线填补Jiao 等人提出 HAGI 多模态扩散视线填补方法,首次利用头部运动特征与视线数据的混合融合,在 Nymeria 等数据集上平均角度误差降低达 22%。2025CJChuhan Jiao et al.眼动追踪与注视交互人体姿态与行为识别环境感知与上下文计算UIST
SummAct:通过交互行为总结揭示用户意图Zhang 等人提出SummAct方法,通过LLM上下文学习和UI元素加权机制将低级动作总结为高级目标,性能提升最高达21.9%。2025GZGuanhua Zhang et al.University of Stuttgart, Institute for Visualisation and Interactive Systems大语言模型(LLM)的人机协作AI 辅助决策与自动化系统CHI
图表阅读的Task驱动眼动控制Shi等人提出Chartist图表阅读模型,采用LLM结合强化学习的两级分层架构,预测值检索、过滤等分析任务中的人类扫视路径,支持可视化设计评估。2025DSDanqing Shi et al.Aalto University交互式数据可视化计算方法在HCI中的应用CHI
深思熟虑的解释:可解释人工智能研究中心智归因的普遍性和影响Hindennach 等人分析3500+论文发现三类心智归因,并通过199人实验证实其会误导用户将责任归咎于AI系统而非人类专家,呼吁科学写作中明确人类责任。2024SHSusanne Hindennach et al.Session 3e: Trust and Understanding in Explainable AICSCW
DisMouse:从鼠标移动数据中分离信息Zhang等人提出DisMouse方法,采用半监督自动编码器分离鼠标移动数据中的用户特定与独立信息及随机变化,为可解释、可控的鼠标行为建模提供新框架,并支持个性化数据生成。2024GZGuanhua Zhang et al.可解释人工智能(XAI)计算方法在HCI中的应用UIST
Mouse2Vec:学习可重用的鼠标行为语义表示Zhang 等人提出 Mouse2Vec 自监督方法,使用 Transformer 编码器-解码器学习鼠标行为语义表示,可识别行为聚类并检索相似轨迹。2024GZGuanhua Zhang et al.University of Stuttgart可视化感知与认知计算方法在HCI中的应用CHI
SalChartQA: 驱动信息可视化的问答显著性Wang 等人构建 SalChartQA 众包数据集,通过 BubbleView 和问答范式揭示信息需求与视觉显著性的强相关性,并提出首个预测方法2024YWYao Wang et al.University of Stuttgart可解释人工智能(XAI)交互式数据可视化可视化感知与认知CHI
SUPREYES:基于隐式神经表示学习的眼睛超分辨率方法Jiao等人提出SUPREYES方法,利用隐式神经表示学习将低分辨率眼动追踪数据上采样至任意分辨率,在任意尺度超分辨率任务中显著优于传统插值方法。2023CJChuhan Jiao et al.眼动追踪与注视交互人体姿态与行为识别UIST
可用且快速的交互式心理人脸重建Strohm 等人提出心理人脸重建系统,通过用户迭代图像排名与生成模型结合,在无需大规模训练数据下实现可用性高、速度快40%的视觉重建,识别率达55.3%。2023FSFlorian Strohm et al.生成式AI(文本、图像、音乐、视频)大语言模型(LLM)的人机协作可解释人工智能(XAI)UIST
隐私保护方法对生活日志中记忆的影响ElAgroudy等人通过21名参与者的白帽记忆攻击实验,对比未修改、模糊、删除三种隐私保护方法对生活日志记忆的影响,发现各方法对记忆质量影响相似。2023PEPassant ElAgroudy et al.German Research Centre for Artificial Intelligence (DFKI), LMU Munich隐私设计与用户控制数据隐私感知与决策CHI
设计以吸引注意:视觉重要性对桌面通知的影响Müller 等人通过用户研究揭示通知位置背景的视觉重要性显著影响通知检测,并引入引人注意性地图指导设计选择。2022PMPhilipp Müller et al.DFKI GmbH通知与中断管理CHI
对在VR头戴显示设备中使用SSQ作为一般不适感测量指标的批判性评估Hirzle 等人通过300篇论文系统回顾和352人在线研究,批判SSQ仅反映模拟器病症状,需加入数字眼疲劳和人体工程学构建更全面的VR不适模型。2021THTeresa Hirzle et al.Ulm University运动晕车与乘客体验沉浸感与临场感研究CHI
日常移动设备交互过程中用户视觉注意力的量化Bâce 等人构建 EMVA 数据集,包含32名参与者472小时视频,首次量化日常移动交互中的视觉注意力模式。2020MBMihai Bâce et al.ETH Zürich眼动追踪与注视交互环境感知与上下文计算CHI
头戴显示器上凝视交互的设计空间Hirzle 等人提出首个头戴显示器注视交互设计空间,涵盖人类深度感知与技术要求维度,为AR/VR眼动追踪应用提供系统性指南。2019THTeresa Hirzle et al.Ulm University眼动追踪与注视交互VR 中的社交与协作AR 导航与情境感知CHI
基于外观的方法的评估及其对基于注视的应用程序的含义Zhang 等人评估基于外观的注视估计在多种交互场景中的性能,并发布首个开源软件工具包 OpenGaze 以推动该技术在 HCI 领域应用。2019XZXucong Zhang et al.Saarland Informatics Campus眼动追踪与注视交互CHI