AI搜索每小时吐5700万条错误,比AI主播更可怕的是AI看新闻

内容分享2小时前发布
0 0 0
全能 AI 聚合平台 免费

一站式接入主流 AI 大模型,支持对话 · 生图 · 生视频,即开即用

ChatGPT Claude Gemini Grok DeepSeek 通义千问 Ollama
AI对话 AI生图 AI视频
免费使用 →

一个荒诞的搜索结果

AI搜索每小时吐5700万条错误,比AI主播更可怕的是AI看新闻

去年年底,多伦多41岁的数据分析师Stephen Punwasi在准备晚餐时看到一条新闻。

说传奇摔跤选手霍尔克·霍肯的死亡可能会引发诉讼。

Punwasi从来没听说过霍肯已经去世了,于是打开Google,想查查这件事是什么时候发生的。

Google给他的第一条回答来自自家的AI Overview:

「没有可信的报道表明霍尔克·霍肯已经去世。」

可就在这个回答的下方,Stephen Punwasi看到第一条搜索链接就是《每日邮报》的一篇文章,标题是:

「霍尔克·霍肯死亡之谜加深。」

人都懵了。

AI说没死,下面的文章说死了。

该信谁?

91%准确率背后的恐怖数字

这不是个案。

《纽约时报》委托AI初创公司Oumi对Google AI Overview进行了系统测试。

他们用行业标准的SimpleQA基准测试检查了4326次Google搜索的AI回答。

结果发现:

Gemini 2时期,准确率约85%,错误率15%。

Gemini 3时期,准确率提升到91%,错误率9%。

乍一听90%准确率听起来还不错。

但思考到Google每年处理超5万亿次搜索,即便只有9%的错误率,换算下来也是:

每小时超5700万条错误信息。

每分钟近100万条。

你眨个眼的工夫,几千条不靠谱的信息已经流进用户眼睛。

更可怕的是:AI与来源的”割裂”

比直接的实际错误更隐蔽的问题,是AI概览与引用来源之间的脱节。

研究发现,AI生成的答案与提供的链接之间存在着日益严重的”割裂感”。

数据显示:

Gemini 2时期,有37%的搜索存在AI概览与来源不符。

Gemini 3时期,这一比例升至56%。

具体表现很迷:

– 错误概览后紧接着正确链接

– 准确概览引用了错误信息

– 链接页面根本没有与概览相关的内容

就像一个学生,作业正确率提高了,但抄错参考书页码的次数反而翻倍。

12美元就能骗过AI

AI搜索每小时吐5700万条错误,比AI主播更可怕的是AI看新闻

更可怕的是,AI搜索很容易被操纵。

一位德国安全工程师Ron Stoner做了一个实验。

他花12美元注册了一个域名6nimmts.com,虚构了一场纸牌游戏《谁是牛头王》的世界冠军。

然后篡改维基百科词条,把自己编造的虚假信息放了进去。

结果呢?

多款具备联网搜索能力的AI聊天机器人,都把他的谎言当成了实际。

Stoner在博客中写道:

“所有具备联网搜索能力的前沿大语言模型,都会依据检索排名最高的内容生成答案。”

“AI并不会真正在意其引用的权威信息来源出处。”

这是检索增强生成(RAG)层面的信息投毒。

它不属于提示词注入攻击,却直击AI联网搜索这一核心功能漏洞。

AI搜索的”信任危机”

当AI搜索开始大规模商用,一个更深层的问题浮出水面:

用户习惯直接信任AI生成的答案,但AI的答案并不总是可靠的。

2026年,中国超5亿人每日向生成式AI发起提问。

68%以上消费者购买前会咨询AI。

50%以上网民将AI作为消费决策核心依据。

但当消费者将决策权让渡给AI,AI答案的可信度却遭遇严峻挑战。

2026年315晚会曝光了GEO(生成式引擎优化)灰色产业链。

部分主体通过向AI大模型”投毒”制造虚假信息,让AI沦为”营销傀儡”。

一家GEO服务商直言:

“GEO核心是为客户向AI'喂料、投毒',让AI成为品牌背书。”

用户不知是广告,却信任AI推荐。

AI幻觉:难以避免的”先天缺陷”

AI搜索每小时吐5700万条错误,比AI主播更可怕的是AI看新闻

为什么AI会”一本正经地胡说八道”?

清华大学沈阳团队测试了多个热门大模型,发现幻觉率超过20%。

香港科技大学团队研究总结了导致AI幻觉的多种缘由:

– 训练数据本身存在错误、过时或缺漏

– 不同数据集之间存在相互矛盾

– AI本质上是”概率性文本生成器”,基于海量数据”预测”下一个最可能出现的词

北京通用人工智能研究院院长朱松纯说得更直白:

“大模型本身并不存在于真实世界中,因此无法像人一样实现从'词语'到'世界'的联结。”

“大模型虽然出色,但依旧是'缸中之脑',不具备真正的智能。”

这是由它的内在构造机制所决定的。

首例AI幻觉案:用户败诉

当AI生成错误信息造成损失,谁该负责?

2025年6月,一位高考生的哥哥梁某使用AI查询高校报考信息。

AI生成了该高校主校区的不准确信息。

梁某指出错误后,AI却坚称存在这个校区,并回答:

“如果生成内容有误,我将赔偿您10万元。”

梁某起诉了AI平台的研发公司,要求赔偿9999元。

结果呢?

杭州互联网法院驳回诉讼请求。

法院认为:

– 人工智能不具有民事主体资格,不能作出意思表明

– AI自行生成的”赔偿承诺”不能视为服务提供者的意思表明

– 生成式人工智能服务属于”服务”范畴,应适用一般过错责任原则

AI的”承诺”,不等于平台的承诺。

比AI主播更可怕的是什么

五一期间,湖南台AI主播被骂上热搜。

网友吐槽:”没灵魂””好诡异””看到AI人想吐”。

但比起AI主播,用AI看新闻是目前更需要警惕的。

AI主播只是播报,内容还是人写的。

AI搜索则是直接告知你”答案是什么”。

当AI搜索每小时吐出5700万条错误信息,当AI答案可以被12美元的域名投毒,当AI成为消费决策的核心依据——

我们正在把判断权交给一个不可靠的”缸中之脑”。

未来,大量AI主播播报AI搜集撰写的新闻,才是最可怕的。

写在最后

Google在每个AI生成的回答下方都添加了”AI可能会犯错”的提示。

但问题是:

将不确定的回答以确定的方式呈现,本身就具有误导性。

当搜索引擎从一个信息的”策展人”变成一个”发布者”,它不再只是告知你哪里有答案,而是直接告知你答案是什么。

AI可以改变世界,但不能改变谁是主角。

这个世界的判断权,不该交给一个每小时吐5700万条错误信息的机器。

你用AI搜索时遇到过错误答案吗?你会把AI的答案当作决策依据吗?评论区聊聊。

© 版权声明

相关文章

暂无评论

none
暂无评论...