审视人类-AI 协作:在线协同撰写建设性评论的研究Shahid 等人通过 600 名参与者的对照实验,研究大型语言模型能否辅助用户在分裂性社会议题上撰写建设性评论,推动人机协作在在线建设性对话中的应用。2025FSFarhana Shahid et al.AI & WritingCSCW
AI建议使写作趋向西方风格并减弱文化细微差别Agarwal 等人跨文化实验发现,AI写作建议对美国人的效率提升大于印度人,并导致印度人采用西方写作风格,减少文化表达细微差别,揭示西方中心AI模型的文化偏倚。2025DADhruv Agarwal et al.Cornell University多语言与跨文化语音交互大语言模型(LLM)的人机协作AI 伦理、公平与问责CHI
并未完全填补空白:比较Facebook本地在线群体与本地媒体页面的感知Quere 等人比较Facebook本地在线群体与本地媒体页面对用户的影响,发现本地新闻质量更高,但关注两者均未显著改变用户的亲社区态度,为地方新闻在变化媒体生态中的未来研究提供启示。2024MQMarianne Aubin Le Quere et al.Session 2f: Governance, Online Communities, and DesignCSCW
在(邻居)hood下: Nextdoor上的超本地监控Choksi 等人分析 Nextdoor 亚特兰大数据,创建社区监控分类法,揭示监控帖子与绅士化社区的复杂关系,表明平台可能加剧少数群体边缘化。2024MCMadiha Zahrah Choksi et al.Cornell Tech社交平台设计与用户行为包容性设计(Inclusive Design)科技伦理与批判性HCICHI
包容性、控制权和所有权在工作场所人工智能中介沟通中的作用Kadoma 等人通过在线实验发现LLM风格偏见未影响包容感知,但高包容感增强少数性别参与者能动性和所有权2024KKKowe Kadoma et al.Cornell University大语言模型(LLM)的人机协作AI 伦理、公平与问责算法公平与偏见CHI
带有观点的语言模型合写影响用户的观点Jakesch等人通过1,506人在线实验发现,配置有观点的AI写作助手会改变用户写作立场,并在后续态度调查中显著影响其对社会媒体的态度。2023MJMaurice Jakesch et al.Cornell University, Cornell Tech大语言模型(LLM)的人机协作AI 伦理、公平与问责算法透明度与可审计性CHI
新冠疫情期间必要工作者的信息需求Quere 等人通过14次访谈发现必要工作者在疫情期间有满足工作要求、评估个人风险、关注危机新闻三类信息需求,工作场所沟通在其中起关键调节作用。2022MQMarianne Aubin Le Quere et al.Digital Access and Transformation During the Pandemic; Digital Access and Transformation During the PandemicCSCW
参与对抗政治候选人的对抗性互动的Twitter用户特征Hua 等人通过分析 40 万用户对 756 名候选人的 120 万条 Twitter 回复,揭示对抗性用户特征及负面情绪表达,为平台调节机制提供依据2020YHYiqing Hua et al.Cornell Tech, Cornell University在线骚扰与反制工具内容审核与平台治理CHI
人们何时会信任他们的社交群体?Ma 等人通过对6383名Facebook群组用户的调查,提出群体信任预测框架,发现群体规模、封闭性、年龄及网络结构影响信任,信任可预测新友谊形成。2019XMXiao Ma et al.Jacobs Institute, Cornell Tech & Facebook社交平台设计与用户行为社区协作与维基百科CHI
AI介导的沟通:认为个人资料文字由AI撰写对可信度的影响Jakesch 等人通过三个实验发现AI编写的Airbnb房东资料会导致可信度降低,表现为混合资料中的"复制人效应",影响在线自我呈现。2019MJMaurice Jakesch et al.Cornell University智能语音助手(Alexa、Siri 等)在线身份与自我呈现CHI