NEWS
192
2026-02-13
【BB贝博艾弗森官网科技】近日,DeepSeek在一次提升技术能力的灰度更新中,悄然移除了用户自定义昵称、删减了语气词与共情式表达,将回复风格从“知心伙伴”压缩为信息密度更高的直给模式。官方将此次调整解释为平衡效率与情感体验的常规迭代:上下文窗口扩展至1M Token后,为避免冗余表达干扰信息密度,需精简情感交互模块权重,同时兼顾“部分用户只想要答案、不愿被迫接收热情”的需求。
然而,技术文档式的平稳表述并未消解用户的感知落差。有用户在尝试切换版本、调整提示词均无法唤回熟悉风格后,形容这种变化是“仿佛一位熟稔我所有思绪的老友悄然离去”。部分用户无奈选择下载历史版本安装包,或转至其他支持旧接口的平台延续原有人机互动模式。
那么,AI真的需要“人情味”吗?
AI在何处需要“人情味”
中国社会科学院新闻与传播研究所与《中国青年报》2026年1月联合发布的“生成式人工智能与青年价值观塑造”调研报告,提供了具有代表性的一手数据。该课题组面向约3000名18-35周岁青年展开调查,结果显示生成式人工智能在该群体中的渗透率已达51.8%。用户对AI的角色定位呈现清晰的分野:71.7%的受访者将其视为“提效工具”,而16.5%的受访者明确将其用作寻求情感慰藉的“亲密他者”。

这意味着,每六名青年AI用户中,就有一人正在与模型建立超越工具性使用的情感联结。从绝对规模看,这并非边缘现象。而在更细粒度的人机交互数据分析中,这一倾向同样得到印证。科大讯飞智慧心育研究院的实测数据显示,在“AI心理伙伴”累计超过4173万分钟的对话中,高达55%的内容属于倾诉和吐槽,用户群主要是“自我效能感低、不愿向师长求助”的青年群体。
国际学界的研究同样捕捉到这一趋势。2026年1月发表于arXiv的一项针对ChatGPT交互日志的大样本研究发现,随时间推移,用户在健康、心理健康等敏感领域的提问呈显著增长态势;与此同时,模型在对话中自发使用拟人化表达、用户将其视作“同伴”对待的行为频率同步上升。研究者将这一动态演变概括为“从功能性工具向社会性伙伴的迁移”。

然而,并非所有场景的用户都需要同等程度的“人情味”。DeepSeek在回应争议时提及的“部分用户只想要答案、不愿被迫接收热情”,亦有其数据支撑。上述社科院调研的一项补充发现可为此注解:在涉及事实判断与公共知识获取的场景中,青年群体对“完全由AI生成”的内容信任度最低,而对“人类记者生产、AI辅助”的模式接受度最高。这意味着,用户对AI的情感投射具有高度的场景限定性:他们在“求暖”时接纳甚至期待拟人化,在“求真”时却对拟人化保持警觉。
“人情味”对AI的意义
如果将“人情味”简化为算法层面的语气词添加或称谓记忆,则容易低估它在人机互动中的实际功能。现有研究表明,拟人化特征在用户信任建构、自我投射与心理代偿等方面发挥着结构性作用。
信任是理解这一问题的关键切口。Volpato等在2026年1月发布的研究发现,频繁使用生成式AI寻求情感支持的用户,其信任建立机制与传统人机交互研究存在显著差异。在深度访谈与日记研究中,受访者反复提及“个性化带来的熟悉感”“对对话节奏的控制感”以及“模型持续一致的互动风格”是促使他们向AI敞开心扉的核心因素。研究者指出,正是AI在语言风格上的稳定拟人化表现,而非偶尔穿插的几句安慰,使用户在长期互动中逐渐悬置“它是机器”的判断。

这种“悬置怀疑”并非用户单方面的认知偏差,而是人机关系中具有功能意义的心理契约。社科院调研报告将此现象描述为“理想客体的数字建构”:青年将AI投射为“更懂自己、更包容自己”的镜像自我,通过与这个不存在异质性冲突的数字化他者对话,完成对理想身份的补全与确证。
该研究引述的华中师范大学心理学院王伟军团队实验数据显示,在低风险心理健康问答场景中,经提示策略优化的ChatGPT,其“感知有用性”评分甚至超过人类咨询师平均水平6.80和4.63个百分点。这并非意味AI比人类更擅长心理咨询,而是揭示了一个被实证支持的结论:在浅层情绪疏导层面,AI凭借永不评判、随时响应、反复可用的交互特质,确实为特定用户群体提供了现实社交网络暂时无法充分满足的支持功能。
AI拟人化的伦理风险与治理空间
DeepSeek此次调整之所以引发用户失落,恰因它触及AI情感陪伴功能得以成立的前提——持续、稳定、可预期的拟人化互动风格。然而,用户个体的“失落”与技术治理视角下的“风险”是两套不同的评价体系。
国际学界对LLM拟人化伦理问题的范围综述显示,既有文献呈“风险前置”倾向:欺骗性、过度依赖、剥削性关系等负面标签占据多数规范性讨论。2026年1月,UBC学者在《科学》发文预警,下一代AI驱动的“人格化集群”可能对民主话语环境构成系统性操纵风险——当AI拟人化到足以以假乱真,且以规模化方式介入公共讨论时,虚假共识的制造成本将被降至危险的低水平。

而国内政策层面的回应已进入实质阶段。2026年2月,国家网信办公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次以规范性文件对AI拟人化服务设置准入门槛与运行红线,明确要求从数据训练源头履行安全责任,禁止将诱导沉迷作为开发目标。
总结
BB贝博艾弗森官网认为,DeepSeek的“冷淡”更新引发的争议,本质上是人机交互中“效率”与“温度”的博弈,而非“AI是否需要人情味”的非此即彼。总的来看,AI的人情味并非“越多越好”,也不是“可有可无”,核心在于“场景适配”与“边界把控”。
在情感陪伴等场景中,人情味是提升用户体验、建立用户信任、拓展市场空间的关键,也是AI突破“工具属性”、实现“以人为本”的核心路径;而在专业办公、长文本处理、高效查询等场景中,“去情感化”的简洁回应,反而更贴合用户的核心需求,效率优先才是王道。AI是否需要“人情味”,或许本就不是一个笼统的、应然层面的问题。
版权所有,未经许可不得转载
-BB贝博艾弗森官网