📢 GM!Gate 广场|4/5 热议:#假期持币指南
🌿 踏青还是盯盘?#假期持币指南 带你过个“松弛感”长假!
春光正好,你是选择在山间深呼吸,还是在 K 线里找时机?在这个清明假期,晒出你的持币态度,做个精神饱满的交易员!
🎁 分享生活/交易感悟,抽 5 位锦鲤瓜分 $1,000 仓位体验券!
💬 茶余饭后聊聊:
1️⃣ 休假心态: 你是“关掉通知、彻底失联”派,还是“每 30 分钟必刷行情”派?
2️⃣ 懒人秘籍: 假期不想盯盘?分享你的“挂机”策略(定投/网格/理财)。
3️⃣ 四月展望: 假期过后,你最看好哪个币种“春暖花开”?
分享你的假期姿态 👉 https://www.gate.com/post
📅 4/4 15:00 - 4/6 18:00 (UTC+8)
🚨 最新消息:OpenAI 发布了一篇文章,证明 ChatGPT 总是会编造内容。
不是有时。不是等到下一次更新。是永远如此。他们用数学证明了这一点。
即使拥有完美的训练数据和无限的计算能力,AI 模型仍然会自信满满地告诉你一些完全错误的事情。这不是一个他们正在修复的漏洞。这解释了这些系统在根本层面上的工作原理。
而他们自己的数据也非常残酷。OpenAI 的推理模型 o1 在 16% 的情况下会产生幻觉。它们的新模型 O3?33%。它们的新 o4-mini?48%。他们最新模型提供的信息中,几乎一半可能是虚构的。“更智能”的模型实际上在越来越多地说谎。
这就是为什么无法修复的原因。语言模型的工作原理是根据概率预测下一个词。当遇到不确定的情况时,它们不会停止,也不会发出信号。它们会假设,并以绝对的信心进行推测,因为这正是它们被训练的目的。
研究人员分析了衡量这些模型质量的前十个人工智能标准。十个标准中,有九个对“我不知道”与给出完全错误答案的评分一样:零分。整个测试系统实际上惩罚诚实,奖励猜测。
因此,AI 学会了最优策略:总是猜。永远不承认不确定。这看起来很自信,即使它们是在编造。
OpenAI 提出的解决方案是什么?让 ChatGPT 在不确定时说“我不知道”。他们的计算显示,这意味着大约 30% 的问题没有答案。想象一下,向 ChatGPT 提问三次,得到“我不够自信回答”。用户会在夜里离开。因此,解决方案存在,但会毁掉这个产品。
这不仅仅是 OpenAI 的问题。DeepMind 和清华大学也独立得出了相同的结论。世界上最顶尖的三个 AI 实验室,分别工作,结果都一致:这是永久性的。
每次 ChatGPT 给出答案时,问问自己:这是真实的,还是仅仅是自信的假设?
这是 Come-from-Beyond 👇 的回答:
他们开始理解为什么
#QUBIC #Aigarth .* 将“说‘我不知道’”的能力放在了核心关注点上
$QUBIC