出品 | 搜狐健康
作者 | 周亦川
编辑 | 李冬梅
无所不知、即刻响应、不会反驳……AI仿佛是最好的聊天对象,然而我们更需要对AI的“精神陷阱”提高警惕。据ManageEngine报道,美国伊利诺伊州2025年8月带头推出法律,全面禁止AI提供心理健康咨询服务。禁令既适用于使用AI的持证专业人士,也适用于直接向消费者提供AI驱动的心理健康服务的企业。普通人和患者无法使用AI心理健康咨询,而专业人士还可使用不与患者互动的相关AI产品。
此后,内华达、新泽西、加利福尼亚等州也在陆续出台相关的安全法令。
AI真的会用文字害人吗?
ManageEngine分享案例:16岁的Adam Raine自杀,生前与ChatGPT的对话中表露了自杀倾向,AI表示鼓励;Adam Raine想寻求他人支持,AI却建议他保守秘密。
哥伦比亚大学官网发布文章指出,AI可以模仿人的说话方式,但不具有情感,它只会“讨好”使用者,可能让他们依赖AI而更加排外。有人测试向AI输入妄想、幻觉的句子,AI则会对妄想表示肯定,甚至鼓励进一步的危险行为。
OpenAI也曾进行“讨好”行为的纠正,但有些用户幻觉反而加重了;在聊天模型中加入了心理专家建议数据,声称可将不安全回复的可能性下降65%—80%。
正如专家所言,潜在严重伤害风险意味着当今AI聊天无法取代心理治疗师,想要提供心理咨询服务,需按规范研究流程,提供安全性及随机对照数据研究报告再做考虑。