Thing2Reality:在 XR 会议中使用生成式 AI 实现从 2D 内容即时创建 3D 对象Hu 等人开发 Thing2Reality 平台,利用生成式 AI 在 XR 会议中即时将 2D 内容转换为可交互的 3D 对象或多视图渲染,显著提升远程协作讨论效率。2025EHErzhen Hu et al.VR 中的社交与协作XR 中的身份认同与化身(Avatar)生成式AI(文本、图像、音乐、视频)UIST
DialogLab:构建、模拟与测试动态人机群组对话的创作工具Hu 等人开发 DialogLab 原型工具包,支持人机混合群组对话的创作、模拟与测试,通过整合结构化脚本与可配置代理的即兴创作能力,提升对话设计的真实性和适应性。2025EHErzhen Hu et al.对话式聊天机器人大语言模型(LLM)的人机协作UIST
Gensors:利用多模态基础模型与推理构建个性化视觉传感器Liu 等人开发 Gensors 系统,利用多模态大语言模型帮助用户构建个性化视觉传感器,通过自动生成标准、并行测试调试和压力测试建议,显著提升用户定义传感器的掌控感与沟通便利性。2025MLMichael Xieyang Liu et al.眼动追踪与注视交互环境感知与上下文计算普适计算(Ubiquitous Computing)IUI
SpeechCompass:通过多麦克风定位增强移动字幕的说话人区分和方向性指导Dementyev 等人提出 SpeechCompass 多麦克风语音定位系统,通过实时音频定位和可视化引导解决移动字幕的说话人区分问题,提升小组对话体验2025ADArtem Dementyev et al.Google Inc.语音可访问性生物传感器与生理监测CHI
InstructPipe: 使用人类指令和大语言模型生成视觉块管道Zhou 等人提出 InstructPipe,利用两个大型语言模型和代码解释器,通过文本指令原型化机器学习管道,16人评估显示可减少学习曲线并激发创新。2025ZZZhongyi Zhou et al.Google; The University of Tokyo大语言模型(LLM)的人机协作自动机器学习(AutoML)界面CHI
ChatDirector:通过空间感知场景渲染和语音驱动布局转换增强视频会议Qian等人提出ChatDirector,通过实时RGB视频流转换为3D肖像头像并利用决策树算法根据语音状态指导布局,显著提升远程沟通效率。2024XQXun Qian et al.Purdue UniversityVR 中的社交与协作混合现实工作空间CHI
XR中的UI移动性控制:在静态、动态和自我实体之间切换UI位置Pei等人研究XR中UI在静态、动态和自我实体间的移动控制,对11人需求发现和113款应用调查,仅6.2%支持UI过渡,提出FingerSwitches技术原型验证有效性。2024SPSiyou Pei et al.University of California Los Angeles混合现实工作空间沉浸感与临场感研究CHI
Rapsai:通过可视化编程加速多媒体应用程序的机器学习原型设计Du 等人设计 Rapsai 可视化编程工具,通过节点图编辑器和交互式数据增强加速ML原型开发,15名从业者案例验证工作流程效率提升2023RDRuofei Du et al.Google大语言模型(LLM)的人机协作计算方法在HCI中的应用CHI
视觉字幕:通过即时视觉增强口头交流Liu 等人开发Visual Captions系统,利用微调大语言模型在视频会议中实时推荐视觉元素,通过实验室和野外研究证明其可显著改善口头沟通效果。2023XLXingyu "Bruce" Liu et al.UCLA语音用户界面(VUI)设计听觉障碍者支持(字幕、手语、振动)CHI
环境计算的隐藏接口:通过低成本矩阵显示器上的高亮度视觉在日常材料中实现交互Olwal 等人利用低成本被动矩阵OLED和并行渲染技术,实现了可穿透木材、纺织品等日常材料的超亮隐藏界面,亮度提升3.6-40倍。2022AOAlex Olwal et al.Google Inc.环境感知与上下文计算普适计算(Ubiquitous Computing)智能家居交互设计CHI
SilentSpeller:使用电腭图实现移动、无需动手、无声的语音文本输入Kimura 等人开发 SilentSpeller 系统,利用电腭图追踪舌头运动实现无声移动文本输入,在1164词词典中达到97%字符准确率,实时输入达37 WPM。2022NKNaoki Kimura et al.The University of Tokyo电肌肉刺激(EMS)控制增强与替代通信(AAC)CHI
ProtoSound:为聋人和重听用户设计的个性化和可扩展的声音识别系统Jain 等人开发 ProtoSound 系统,通过录制示例定制声音识别模型,使聋哑用户的声音识别准确率提升 9.7%,支持移动设备实时个性化识别。2022DJDhruv Jain et al.University of Washington, Google听觉障碍者支持(字幕、手语、振动)运动障碍辅助输入技术CHI
带输入的触觉:线性谐振执行器中的背EMF实现触摸、压力和环境感知Dementyev 等人利用线性谐振执行器的背EMF实现被动敲击传感(37.7 µA)和主动触摸/压力传感,可检测手机持握状态及表面材质,拓展设备感知能力。2020ADArtem Dementyev et al.车内触觉、声音、多模态反馈振动反馈与皮肤刺激UIST
可穿戴字幕:通过轻量级眼镜为全天对话提供字幕以增强口语交流Olwal等人研发了Wearable Subtitles轻量级头戴式字幕系统,混合低功耗架构支持15小时连续使用,通过501人调查和24人用户研究优化设计,赋能听力障碍者全天交流。2020AOAlex Olwal et al.车内触觉、声音、多模态反馈眼动追踪与注视交互语音用户界面(VUI)设计UIST
电子纺织微交互:通过轻弹、滑动和抓握手势增强扭转功能的软电子产品Olwal等人利用I/O编织传感架构设计电子纺织微交互,实现轻弹、滑动、抓握等八种手势94%的识别准确率,扭转操作速度优于传统耳机按钮2020AOAlex Olwal et al.Google Research触觉可穿戴设备手部手势识别电子纺织品(E-textiles)CHI
SensorSnaps:将无线传感器节点集成到织物按扣中用于纺织界面Dementyev 等人开发 SensorSnaps 无线传感器节点,可集成到织物按扣中,支持点击、旋转手势及运动追踪,待机模式最长4小时,实现服装快速传感化。2019ADArtem Dementyev et al.触觉可穿戴设备形变界面与软机器人材料皮肤显示与皮肤输入UIST
I/O Braid:利用螺旋重复传感织物和光纤实现可扩展触控发光绳索Olwal 等人设计 I/O Braid 交互式纺织品绳索,采用螺旋重复编织拓扑实现传感与光纤视觉反馈融合,可 invisibly 增强耳机、抽绳等日常物品的触控与发光交互能力。2018AOAlex Olwal et al.触觉可穿戴设备形变界面与软机器人材料UIST