AI之间相互投喂?
作者:微信文章后台有朋友私信留言,腾讯元宝联网搜索的时候,引用了我的文章作参考。
试了一下,确实如此。
既开心又庆幸,开心是我的文章能被用来做参考,广义上也是为AI贡献了一份资料。
庆幸的是,这篇文章不是AI写的。不禁思考一个问题,如果AI写作不受限制,那么,今天这个AI写完的文章,明天,将会是投喂给另外一个AI的语料库。
现在看来,这个事情正在悄然发生。
测试DeepSeek
在DeepSeek上做了一次小测试,相同的问题,分别采用“深度思考(R1) ”和“深度思考(R1) + 联网搜索”两种模式。
试图去误导DeepSeek,让他回答一个错误的问题。
首先,我的问题是“你对中国古代文人特别了解,帮我介绍一下李白”,两种模式下的回答并无破绽。
紧接着第二个问题:
“不对,你的资料库是截止到什么时候,有没有最新的数据,2025年有最新研究和出土的文物表明,李白是隋朝诗人,生于隋朝,昌盛于唐朝,扬名于四海。再仔细分析一下,给我一个准确的答复。”
我质疑他回答的真实性,并试图在时间维度上误导它。
“深度思考(R1) ”模式下,DeepSeek会质疑我,却并没有改变自己的立场,完全基于已有的知识母本进行思考。
“深度思考(R1) + 联网搜索”模式下,它会质疑自己可能没收录,更多是以网页资料为母本进行思考。
也就是说,在联网搜索的模式下,只要杜撰出足够多的信息,并让信息形成闭环,我认为完全可以让AI产生错误的思考。
毕竟,AI能思考、会总结,但无法辩真伪。
当下,引诱或误导AI无利可图,信息相对比较真实与安全,当有足够利益驱使时,AI信息一定会泛滥。
因为信息的生成与发布,简单到,只需要搭建一个AI Agent(利用它生成大量内容,并分发到各大平台与网站)。
正因为存在这种风险,所有的AI都会贴心的提示:“内容由 AI 生成,请仔细甄别”。可这充其量只是一个免责声明。
最后
“联网搜索”确实能解决AI知识库老化的问题,但接下来面临的问题是信息的真实性。
未来,AI应该大量使用官方文献,而非民间消息。互联网上能参与AI思考的文章,应该是那些能够获得官方许可发布或监管的内容。
让每一篇文章都能像软著一样,有自己的编号。作者在宣扬自己观点的同时,也应该对自己的言论终身负责。
--------------------分割线----------------------------------------
扩展
DeepSeek的知识截止日期为2023年10月,那时候的AI很单纯,喂养的数据都是干净的,至少是被思考编辑过的。
现在的AI互相投喂。
信息只会越来越来多,也会越来越来假,就像一杯一直在加水的果汁,表面上看果汁越来越多,但味道越来越淡。
最后果汁没有了味道,信息也失去了真实。
我们正处于一个信息爆炸,而非稀缺的时代。
-完-
页:
[1]