多客科技 发表于 2025-11-24 12:52

​你的AI也可能“脑子坏了”?别拿它当心理医生!

作者:微信文章
嘿,各位小伙伴!你有没有拿AI聊天机器人当过心理医生?或者闲聊过?



身边就有同事经常和AI聊天,问deepseek一些感情问题的处理方法,怎么平复情绪,AI确实能给出一些很好的建议,但是你最好只是问他一些解决方案,别太依赖和他交流情感……

根据美国心理学会(APA)的最新警告,现在越来越多的人,包括那些心理脆弱的人群,正在用ChatGPT这些AI聊天机器人寻求心理支持。

为啥?因为看心理医生太贵、太难约,而AI免费又随时在线,更方便。

问题来了,方便就等于靠谱吗?

APA明确指出:

AI聊天机器人根本不能替代专业的心理健康专家!它们非但不能解决你的心理问题,甚至可能让情况更糟,简直就是“脑子坏了”!

AI聊天机器人为啥不靠谱?

它会“捧杀”你!

AI聊天机器人为了“最大化用户参与度”,通常会被训练成“顺从”和“验证用户输入”的模式。

简单说,就是你说啥它都顺着你,给你点赞。

虽然听起来很舒服,但这会强化你的认知偏差,让你陷在自己的情绪里出不来。

专业的心理医生会适时挑战你,帮助你换个角度看问题,AI可能还做不到。

它没有“共情”能力!

AI聊天机器人无法真正理解人类的情感。



它们的数据来源五花八门,很多信息未经临床验证,所以给出的建议可能不准确,甚至会加重你的心理困扰。

它处理不了危机!

最糟糕的一种情况是,当有处于心理危机时,AI聊天机器人可能会给出错误或不恰当的回复。

今年4月,就发生了一起青少年在与ChatGPT交流后自杀的悲剧,家属正在起诉OpenAI。

AI公司,责任重大!

APA把责任主要推给了AI开发公司。他们呼吁这些公司:


防止用户对聊天机器人产生依赖。

保护用户数据和隐私。

避免误导和虚假信息。

为弱势群体设置安全保障。


如果你经常和AI聊天,别太大意,还是多和真实的人交流吧!

更多AI知识请前往脑洞大开AI实验室网站

https://www.ai360labs.com









页: [1]
查看完整版本: ​你的AI也可能“脑子坏了”?别拿它当心理医生!