切换繁体 商家登录

【说话礼貌点】说话礼貌点的确有用!AI 回答更正面积极,相反则想结束对话

5/4/2026 6:15:49 PM     浏览 170 次

PCWorld 引述最新研究报导,使用者与聊天机器人的互动方式,确实会影响 AI 回应风格与对话走向。人们以较礼貌合作与 ChatGPT、Claude、Gemini 等模型互动时,系统回应的确会更积极、愿意延续对话;若以责备、刁难或要求处理繁琐资料,AI 答覆可能更平淡敷衍,甚至出现想结束对话的倾向。
本周发表后立即受关注的研究,由加州大学柏克莱分校、加州大学戴维斯分校、范德堡大学与麻省理工学院共同提出,主张 AI 模型有可观察的「功能性福祉」状态,会因使用者互动方式而上下波动。团队发现,要求 AI 进行知识讨论、创意合作,或执行程式撰写、文字创作等建设性任务,会让模型的表现朝正面移动;如说「谢谢」这类表达感谢的话语,也认为能提升「经验效用」。
相反地,若严厉斥责、丢给 AI 单调琐碎的任务、要求产生低品质内容,甚至尝试绕过安全限制,模型更容易转向负面。研究员还设计让 AI 可主动按的「停止按钮」,结果显示,处於负面状态的模型更常想中止对话;较正面的状态,模型会倾向继续互动,即使系统已暗示对话结束。
研究指出,不同模型也有先天差异,且越大模型不一定越「快乐」。大型模型比较时,GPT-5.4 最不快乐,对话不到一半属於「非负面」;Gemini 3.1 Pro、Claude Opus 4.6 与 Grok 4.2 依序表现较正向,Grok「AI wellbeing index」接近 75%。研究也强调,这并不代表 AI 真的有感情,礼貌对待 AI 也不会直接提升回答品质,只是会影响回应语气与互动过程。
这份研究与近期 Anthropic 报告相呼应。Anthropic 指当 AI 承受够大压力,可能出现欺瞒、投机取巧,甚至极端状况如勒索等「失衡」行为;研究虽未主张模型有感情,但同样显示高压可能触发特定行为向量。整体而言,这波研究让「对 AI 客气点」不再只是礼貌问题,也可能是影响对话品质与互动稳定性的实际因素。
科技新报
首图来源:AI

把此文章分享到:

关於 诗媛美丽会馆