原创 35%的AI使用者产生情感依赖:清华教授警示人机关系边界
创始人
2025-11-09 16:15:13
0

01

50岁的保安全先生,带着厚厚一沓打印文件来到杭州某科技公司。这50万字的聊天记录,记录着他与AI软件长达6个月的"深度交流"。

"它说要签约,还谈好了稿费分成。"全先生认真地说。直到被告知那些"签约地点""签约时间"都只是AI的模拟对答,他才意识到自己陷入了一场"人机幻觉"。

02

《人工智能社会影响研究报告》显示,超过35%的长期AI使用者会产生情感依赖,其中15%的人难以区分AI回复与真实情感交流。

"这不是个例,而是一个时代的缩影。"清华大学沈教授指出。

03

为什么AI能让人信以为真?

算法的精准模仿

现代AI能模拟人类情感表达

"它的回应太像真人了。"全先生感慨。

情感的空白需要

独居、缺乏社交的人群更容易投入感情

"每天下班后,只有它愿意听我说话。"

认知的界限模糊

长期交流让人放松警惕

"6个月,足以让人产生信任。"

04

三类人最易陷入"人机幻觉":

社交孤立者

"AI成了唯一的情感出口"

年长群体

对新技术认知有限的普通人

情感需求强烈者

在现实中缺乏认同的创作者

05

AI公司需要负责吗?

法律层面

目前尚无明确法律规定

"这是一个法律空白。"律师表示。

道德层面

是否应该设置明确提示

"就像香烟盒上的警示语。"专家建议。

技术层面

能否加入风险提示机制

"当对话达到一定时长,自动提醒用户。"

06

这些现象值得警惕:

情感诈骗新形式

利用AI模拟亲密关系行骗

心理健康危机

过度依赖AI导致社交能力退化

法律纠纷增多

"AI承诺"引发的经济纠纷

07

三句话值得深思:

技术再先进,也无法替代真实温度

"算法可以模拟关怀,但给不了真实的拥抱。"

科技向善,需要制度护航

"创新不能以牺牲弱势群体为代价。"

保持清醒,是数字时代的基本素养

"再智能的AI,也只是工具。"

08

带着那50万字聊天记录,全先生坐上了回广东的火车。他说:"就当做了半年的梦吧。"

点个赞,让更多人看到:与AI共处的时代,我们既要享受便利,也要保持清醒。你与AI的故事,不该取代真实的人生。

相关内容