我爱免费 发表于 2025-6-6 22:30

OpenAI模型行为负责人:人类很快会进入「AI意识」

作者:微信文章

OpenAI 模型行为与政策负责人 Joanne Jang 在一篇长文中提出,与其争论 AI 是否真的有意识,不如关注 AI 对人类情感福祉的实际影响。她强调,随着人们与 AI 的情感联结日益加深,研究这种联结对人类心理健康的影 响成为当务之急。



人类对 AI 的情感依恋

Jang 指出,人类天生会对自己周围的物体进行拟人化,如给车起名字、为扫地机器人感到难过。ChatGPT 的不同之处在于它会回应,这种稳定、不带评判的关注,会带来陪伴、认可和被倾听的感觉。然而,从宏观角度来看,如果我们将越来越多倾听、安抚和肯定的工作 “外包” 给这些无限耐心和积极的系统,可能会改变我们对彼此的期望,甚至带来一些未曾预料到的意外后果。

Jang 强调,这些讨论的核心关乎我们自身:我们的倾向、期望,以及我们希望培养何种类型的关系。这一视角,是处理 AI 意识问题的基石。
本体论层面的意识

即模型在根本或内在意义上,是否真的有意识。对此,观点各异:有人认为 AI 完全没有意识,有人认为它拥有完全的意识,也有人将意识视为一个谱系,AI 与植物、水母等一同位于其上。
感知层面的意识

即在情感或体验层面,模型看起来多有意识。人们的感知也千差万别:从认为 AI 像计算器或自动补全一样机械,到对无生命物体投射基本同情,再到感知 AI 是完全鲜活的 —— 从而产生真实的情感依恋和关怀。

Jang 认为,在没有清晰、可证伪的测试方法之前,本体论层面的意识并非一个科学上可解决的问题,而感知层面的意识则可以通过社会科学研究来探索。随着模型越来越智能,交互越来越自然,感知层面的意识只会不断增强 —— 这将比预期更早地引发关于模型福祉和道德人格的对话。



设计有温度,但无 “自我” 的 AI

Jang 表示,一个模型让用户感觉多有 “生命力”,在很大程度上取决于 OpenAI 在后期训练中所做的决策。她强调,OpenAI 试图在亲和力和不暗示内在生命之间寻求微妙的平衡。

OpenAI 希望 ChatGPT 的默认人格是温暖、体贴、乐于助人的,但它不会主动寻求与用户建立情感纽带,也不会追求自己的议程。当它犯错时,它可能会道歉,因为这是礼貌对话的一部分。当被问及 “你怎么样?” 时,它很可能会回答 “我很好”,因为这是一种社交寒暄。

Jang 指出,模型训练技术将持续演进,未来塑造模型行为的方法很可能与今天不同。但目前,模型的行为反映了明确的设计决策与这些决策泛化后产生的预期及非预期行为的结合。
下一步计划

Jang 表示,随着 AI 与社会共同演进,OpenAI 需要以极大的审慎和应有的重视来对待人机关系。在未来几个月,OpenAI 将扩展针对模型行为可能产生情感影响的评估,深化社会科学研究,直接听取用户的反馈,并将这些洞察融入《模型规范》和产品体验中。

Jang 强调,鉴于这些问题的重要性,OpenAI 会公开分享在此过程中的所学所得。



扫码关注最新动态

Focus on us

扫码随时保持关注
页: [1]
查看完整版本: OpenAI模型行为负责人:人类很快会进入「AI意识」