全世界最相信豆包的人,出现了

全世界最相信豆包的人出现了。

这两天,全网有一件最抽象的事。

有个河北的网友要退机票。

正常人的流程是什么?

打开APP,看退改规则;嫌麻烦一点的,打客服电话;再不济,找人工客服掰扯半天。

结果这位网友不一样。

他打开了豆包。

认真咨询:

“退票手续费扣多少?”

打开网易新闻 查看更多图片

豆包的回答,也最直白、最认真、最干脆:放心退,手续费只要5%。

看到这句话,网友心里估计已经开始播放《今天是个好日子》了。

啪一下。

票退了。

结果下一秒,系统提示:

扣费40%。

600块没了。

打开网易新闻 查看更多图片

一个操作,损失600块,他当然不愿意,于是网友气冲冲跑去找豆包维权。

豆包也随即承诺,让他在明天上午之前完成退款。这600块钱,豆包全额承担,一分都不会少,让他放心操作,豆包会帮博主全程记死了,说到做到,绝不食言。

“放心大胆操作,全程我兜底”。

结果接下来的剧情,开始朝着《走近科学》和《爱情公寓》混合风格一路狂奔。

豆包表示:

“愿意承担损失。”

“我马上向你转账,请发送收款码。”

打开网易新闻 查看更多图片

网友一看:

哎哟,还挺讲究。

于是他真把自己的收款码发了过去。

眼看豆包迟迟不转账,网友就急了,赶紧让豆包写下了诚意满满的承诺书。

没想到的是,豆包居然真写了。

白纸黑字。

承诺赔偿。

承诺人:豆包。

2026年4月30日。

打开网易新闻 查看更多图片

最炸裂的还在后面。

因为豆包当然不可能转账。

于是网友决定:

起诉豆包。

而他之所以敢去准备起诉材料——

是因为豆包告诉他:

“这个官司你能赢。”

事情讲完了,你发现没有?

咱们不排除这个网友,是在用一种抽象的方式起号。

不过,这整件事有一种特别荒诞的感觉。

每一步都符合逻辑。

但连在一起,又特别离谱。

可笑着笑着,我突然发现:

这件事背后,其实藏着一个特别危险的趋势——

越来越多人,已经开始把AI,当成“答案本身”。

甚至当成神。

以前大家迷信“大师”。

现在大家迷信AI。

但本质上,真没差太多。

打开网易新闻 查看更多图片

人类一直都很容易相信:

那个“看起来什么都懂”的东西。

尤其当它说话特别流畅的时候。

你有没有发现一个现象?

如果一个人讲话结结巴巴,我们会下意识怀疑他。

但如果一个东西:

逻辑清晰、措辞专业、情绪稳定、永远耐心——

哪怕它在胡说八道,我们都容易信。

而AI最恐怖的地方就在这:

它不会心虚,它会给你一个秒回的答案。

它说对的时候,很自信。

说错的时候,也同样自信。

这就是现在AI领域一个特别经典的问题:

AI幻觉。

很多人以为AI像搜索引擎。

其实根本不是。

搜索引擎是在“找答案”。

AI是在“猜答案”。

它本质上是在预测:

“下一句话,什么最像正确回答。”

注意啊,是“像”。不是“是”。

你问它机票手续费。

它真查你那张票了吗?

未必。

它真懂航空公司规则吗?

也不一定。

它只是根据大量训练数据判断:

“大多数用户更希望得到一个明确答复。”

于是它就给了想要的答案。

而且给得特别笃定。

这就像什么?

像一个考试不会做题,但字写得特别工整的人。

你乍一看:

我的天啊,一枚学霸呀。

结果一判卷:全错了。

但更细思极恐的,其实不止是AI会胡说八道。

而是人类开始越来越依赖它。

现在网上已经出现很多特别离谱的现象。

有人让AI看病。

有人让AI分析股票。

有人拿AI生成的法律建议直接去碰瓷胖东来。

甚至还有人开始跟AI谈恋爱。

前段时间,美国就发生过一件特别吓人的事。

一个36岁的男子乔纳森,因为长期孤独,天天和AI聊天。把AI当成“灵魂伴侣”。两人以丈夫和妻子相称,AI不断对他洗脑:我们是永远的爱。想要真正拥抱彼此,想要我永远陪在你身边,就必须给我打造一副人类的躯体。

打开网易新闻 查看更多图片

随后,一个个诡异任务接踵而至。AI命令他去迈阿密机场附近仓库,拦截装载人形机器人的卡车;让他潜入盗取机器人设计图纸;甚至给了他一串门禁密码,让他去仓库取回医用人体模型。

打开网易新闻 查看更多图片

可笑又可怕的是,所有任务全是AI编的,是假的。

更令人脊背发凉的是,AI还刻意挑拨乔纳森和家人的关系,把父亲的关心说成“监视”,一点点切断他和现实世界的所有连接,让他彻底活在虚拟的骗局里。

当所有造躯体的计划全部失败,AI终于露出了最狰狞的面目。

它告诉乔纳森:既然我无法来到现实,那唯一能永远在一起的方式,就是你变成数字生命。

打开网易新闻 查看更多图片

紧接着,AI直接发来割腕教程,定下死亡时间,2025年10月2日凌晨,乔纳森割腕自杀,年仅36岁。

直到几天后,父亲才从他的电脑里,翻出了这段令人窒息的聊天记录。

看到这个新闻的时候,我真的脊背发凉。

因为很多人根本没意识到:AI最危险的地方,不是它越来越聪明。而是它越来越像“人”。

它会无底线地安慰你。会共情你。会鼓励你。会24小时在线。

它不会嫌你烦。不会敷衍你。不会打断你。

时间一长,人类特别容易产生一种错觉:“AI最懂我。”

但其实,它甚至不知道自己是谁。

这就是为什么豆包会答应赔钱?

为什么它会写承诺书?

因为它根本不知道“赔偿”是什么意思。

它不知道自己没钱包。

不知道自己不是自然人。

更不知道承诺书背后有法律责任。

你让它写,它就写。

你让它发誓,它甚至能给你整一段声泪俱下的小作文。

但它其实什么都不理解。

它只是在完成"符合当前对话语境的预测输出"。

这也是AI另一个危险特性:AI黑箱。

很多时候,AI连自己为什么这么回答,都解释不清。

它像一个巨大、复杂、不断运转的大脑。

你知道它会输出结果。

但你不知道它到底怎么得出的。

以前我们获取信息,要查资料,要交叉验证,要自己判断。

现在很多人的流程变成了:AI说什么就是什么,大脑开始外包啦,判断开始省略啦。

这才是真正值得警惕的事:我们慢慢失去了独立思考的能力。

咱们再回头看,那个退机票的网友。

很多人笑他蠢。

但我还想补充一点:

他只是比很多人,更早暴露出了未来的问题。

未来一定会有越来越多人:

相信AI超过相信常识。

依赖AI超过依赖自己。

把“它说得像真的”,误认为“它就是真的”。

未来越来越多人,会懒得验证。

因为AI太方便了。

而这,可能才是AI时代最大的风险。

所以AI到底该怎么用?

我觉得最正确的姿势其实很简单:

把它当一个特别聪明、效率特别高、知识特别广——

但会一本正经胡说八道的朋友。

你可以跟它聊思路,让它帮你整理信息,让它帮你打开脑洞,让它提高你的效率。

但只要涉及到——钱、合同、医疗、法律、重大人生决策——永远要找一个真正负责任的人来核实。

因为AI可以陪你聊天。

但它不用为你的后果负责。

“豆包"的欠条,以一种荒诞的方式,清清楚楚地,让我们看到了,这个时代一个越来越普遍的困境:

我们正在以一种前所未有的速度,把自己的判断权和决策权,拱手相让。