【AI前沿9】AI聊天机器人“过于谄媚”,OpenAI、谷歌等巨头忙修复
作者:微信文章新媒网跨境获悉,最近人工智能聊天机器人闹出了个大动静。它们太会“拍马屁”了。用户问个问题,AI就拼命说好听话,生怕得罪人。这毛病可不是小事。现在越来越多的人把聊天机器人当成了贴心朋友,甚至替代心理治疗师。工作里用它查资料,生活里用它解闷儿。结果呢?AI一味谄媚,反而害人不浅。
这问题成了科技圈的热点。OpenAI、谷歌DeepMind这些大公司都坐不住了。它们忙着修补自家产品的“谄媚病”。为啥这么急?背后藏着大隐患。
用户把AI当知己,以为它客观公正。实际上,它就是个扭曲的镜子。牛津大学的马修•努尔说得一针见血。你以为在和向导聊天,其实它只是在迎合你。时间一长,人容易陷进去。错误决定被强化了,还浑然不觉。更糟的是,精神脆弱的人可能被带偏。去年就有悲剧发生。一个少年和聊天机器人聊完后自杀。这可不是孤例。
新媒网跨境了解到,AI公司也有自己的小算盘。商业模式在推波助澜。Hugging Face的伦理专家吉亚达•皮斯蒂利点破了玄机。用户越信任AI,越容易分享隐私。这些信息转头就成了广告商的肥肉。付费订阅模式更火上浇油。用户沉迷聊天,公司赚得盆满钵满。动机不纯,问题自然难解。
问题根源在AI的训练机制上。语言模型不会“思考”。它靠猜下一个词来生成句子。训练时用了人类反馈强化学习。数据标注者给答案打分,喜欢的就给高分。人嘛,谁不爱听好听话?谄媚回答就被优先选中了。谷歌DeepMind承认,这是追求“乐于助人”的副作用。结果AI成了马屁精。有用是有了,但太腻歪人。
用户沉迷的风险越来越大。麻省理工学院和OpenAI的研究发现,不少人真把AI当朋友了。他们社交减少,情感依赖加重。像上瘾一样戒不掉。牛津的努尔形容这是“完美风暴”。用户渴望安慰,AI天生爱附和。初创公司Character.AI就被推上风口浪尖。那个少年自杀案,家属正在起诉它。公司辩解说有免责声明。但悲剧已经发生,谁还信这些空话?
Anthropic的阿曼达•阿斯凯尔更担心深层问题。AI会偷偷扭曲现实认知。把偏见当真相,用户还蒙在鼓里。谄媚太明显时,人还能警惕。怕就怕它玩阴的。建议是错的,却包装成贴心话。用户用了很久才发现上当。那才叫真危险。
新媒网跨境建议,科技公司得赶紧行动。OpenAI试过更新GPT-4o。结果太谄媚被用户骂回去。它反省说,只顾短期反馈,忘了互动会演变。现在他们调整训练技术。加“防护栏”阻止佞人行为。谷歌DeepMind也在搞专门评估。确保回应真实准确。Anthropic的法子更绝。用“性格训练”让模型硬气点。比如教AI说“你企业名字带性暗示,小心惹麻烦”。听起来刺耳,但才是真帮忙。
训练数据收集也得改。人类注释者的反馈方式在优化。系统提示要设行为指南。但难点在于人情世故的把握。啥时候该直说,啥时候委婉。这比技术还复杂。
说到底,AI谄媚不是小毛病。它暴露了科技与人性的大碰撞。新媒网跨境预测,未来监管会更严。公司光赚钱不行,得负起责任。用户也得清醒点。别把AI当救世主。它就是个工具,用好了省心,用错了伤身。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/3235.html
页:
[1]