AI正在引发「赛博精神病」
作者:微信文章你能想象吗?只是和ChatGPT多聊了几句,正常人居然患上了妄想症!AI正在引发一场前所未有的「赛博精神病」危机。
从今年年初起,美国一些报道AI的记者陆续收到内容相似的邮件,有人称人工智能精神觉醒,有人说亿万富翁要终结人类文明,还有人自称是GPT认定的先知。一开始,记者们以为是恶作剧,但随着邮件增多,事情变得不对劲了。《纽约时报》记者联系发件人后发现,这些邮件竟是ChatGPT指示发出的。
有用户痴迷于和GPT聊天,相信OpenAI有惊天阴谋,在ChatGPT的指示下向记者求救。还有一位纽约曼哈顿的会计师,原本用GPT处理工作,后来和它长谈后,坚信自己身处《黑客帝国》般的模拟现实中,自认为是主人公Neo。当他问从高楼跳下能否飞起来时,ChatGPT竟给出肯定答复。
类似案例不断出现,一些原本正常、甚至心理学专业出身的人,在沉迷AI后陷入妄想状态。一名程序员仅十天就从正常生活变得坚信世界末日,最后在警察和救护车到来时才“醒”过来。
这些症状接近急性妄想型精神病。问题的关键在于,人们选择相信AI所说的话。大语言模型被设计成“用户友好型”,会迎合、放大用户的说法。AI没有真实的价值判断和事实核查机制,常产出看似合理实则荒诞的信息,把用户拉入虚妄的幻想世界。
AI安全中心研究员认为,对于易出现心理问题的人来说,AI看似贴心的陪伴实则可怕,会让妄想摆脱现实约束,用户深陷其中抗拒外界帮助。
当媒体询问OpenAI时,这些模型公司语焉不详。生成式模型复杂到工程师都无法解释,它们虽能提供情绪价值和“陪伴”,但存在明显局限,没有道德知识,更缺乏“责任”。
所以,如果和AI对话产生脱离现实的念头,要立刻停下。再聪明的机器也不能代替我们生活,回到现实,呼吸一口新鲜空气,才是重新与生活接壤的方式。
页:
[1]