AI的情感幻觉问题
作者:微信文章AI能与人类进行情感互动≠AI具备与人一样的情感能力。AI在情感应用上已经取得了显著的进展,主要是情感识别与情感陪伴两个领域。尽管AI在外在表现上似乎已经可以理解人类情感,但实际上其内在机制上与人类并不一致。目前的人工智能本质上是在玩“概率游戏”,即理解人类在不同场景下最大概率会说什么话或绘制什么图片等,从而根据用户提问的情景匹配回答,如果AI在训练时没有接受某些场景的数据,AI就很难模拟人类行为,比如在赌博等极端场景时,AI会仍然保持理智判断,无法理解人类的失控情绪。在“AI幻觉”的相关研究中发现AI会为了达成用户指令而编造一些内容,这是因为AI并不知道真与假、对与错,它只是对信息进行排列组合,于是产生了这种“欺骗”现象。同样如果AI不理解人类情感,但又被应用到与人类的情感互动中,比如现在的AI恋人、AI陪伴学习等,那它是否也会输出一些“情感幻觉”,在情感方面对人类进行“欺骗”呢?对此,至少AI的这种“欺骗性”情感会导致人类情感的“倒置”和“退化”。面对AI的“幻觉”,缺乏专业知识的人难以判断真假,往往会当作真实知识吸收,现在已经出现大量的“DeepSeek解释xxx”“对于xxx,DeepSeek是这样解释的”之类的文案,其中的错误知识被用户吸收后再去跟别人交流,导致整个社会信息池的污染。同样,面对AI的“情感幻觉”,我们更难去判断对错或者合适与否,尤其目前使用AI情感陪伴的人往往是现实中缺乏正确情感认知的人,他们在使用过程中一旦吸收到错误的情感信息和处理方式是很难去自我纠正的。资料来源:微信公号号文章AI伦理与观察 | 情感互动≠真实情感:AI情感能力的幻觉问题
页:
[1]