找回密码
 注册

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 183|回复: 0

AI为何会“一本正经地胡说八道”?

[复制链接]
发表于 2025-7-3 14:23 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
AI幻觉

使用人工智能大模型时,不少人或许都遇到过类似问题:它们有时会捏造细节,甚至“一本正经地胡说八道”。比如,让它推荐书,给出的却是一堆压根不存在的书名;人物身份张冠李戴,还能给出一些并不准确的链接……这些现象都可以归为AI幻觉。
    什么是AI幻觉?
所谓AI幻觉,可以通俗地理解为AI也会像人产生心理幻觉一样,遇到不熟悉或超出“知识储备”的问题时,编造一些并不存在的细节,生成与事实相悖的答案。

    AI幻觉从何而来?

大模型的工作原理,是基于概率生成内容。给它上半句,它就根据自己“学”过的海量知识,“算出”下半句该说什么。比如,当用户输入“今天天气非常”,它大概率会接“不错”“热”“潮湿”等答案,而不会出现“甜”。同时,大模型又不是简单地储存所有事实,而会像人脑记东西那样,进行大量压缩和泛化——也就是“抓概要、找规律”。因此,当“喂给”大模型的训练数据包含虚假信息时,它就会产生“幻觉”、给出错误答案。

云宏人工智能研究院院长、广东省委社会工作部新兴领域网络社会工作观察员蓝云教授指出:“‘AI幻觉’是一种低概率、高风险事件,在达到算力边界、数据库边界、话题清晰度和敏感度边界时容易出现。”


    如何应对AI幻觉?
应对AI幻觉,不仅需要技术规制,也需要从公民AI素养普及、平台责任、公共传播等维度构建系统性的“幻觉免疫力”。AI素养不仅包含使用AI的基本技能,更重要的是对AI幻觉要有基本的认知能力。明确技术平台的责任边界同样重要,AI产品在设计时就应嵌入风险提示机制,自动标记“可能存在事实性错误”等警示内容,并提供方便用户进行事实核查和交叉验证的功能。媒体可以通过定期发布AI伪造事实的典型案例,进一步培养公众的识别能力。通过多方联手,智能时代的认知迷雾才能被真正破除。

来源:学习大国综合人民日报、人民日报海外版
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-8-23 18:48 , Processed in 0.088689 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表