12 月 ETH 价格预测 · 发帖挑战 📈
12 月降息预期升温,ETH 热点回暖,借此窗口期发起行情预测互动!
欢迎 Gate 社区用户 —— 判趋势 · 猜行情 · 赢奖励 💰
奖励 🎁:预测命中的用户中抽取 5 位,每位 10 USDT
时间 📅:预测截止 12 月 11 日 12:00(UTC+8)
参与方式 ✍️:
在 Gate 广场发布 ETH 行情预测帖,写明价格区间(如 $3,200–$3,400,区间需<$200),并添加话题 #ETH12月行情预测
发帖示例 👇
示例①:
#ETH12月行情预测
预测区间:$3,150-$3,250
行情偏震荡上行,若降息如期落地 + ETF 情绪配合,冲击前高可期 🚀
示例②:
#ETH12月行情预测
预测区间:$3,300-$3,480
资金回流 + L2 降费利好中期趋势,向上试探 $3,400 的概率更高 📊
评选规则 📍
以 12 月 11 日 12:00(UTC+8)ETH 实时价格为参考
价格落入预测区间 → 视为命中
若命中人数>5 → 从命中者中随机抽取 5 位 🏆
吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界
来源:量子位
没想到时至今日,ChatGPT竟还会犯低级错误?
吴恩达大神最新开课就指出来了:
比如让它反转下lollipop这个词,输出是pilollol,完全混乱。
以至于听课网友在Reddit上发帖后,立马引来大量围观,帖子热度火速冲到6k。
甚至包括Bard、Bing、文心一言在内等一众产品都不行。
还有人紧跟着吐槽, ChatGPT在处理这些简单的单词任务就是很糟糕。
比如玩此前曾爆火的文字游戏Wordle简直就是一场灾难,从来没有做对过。
关键在于token
之所以有这样的现象,关键在于token。token是文本中最常见的字符序列,而大模型都是用token来处理文本。
它可以是整个单词,也可以是单词一个片段。大模型了解这些token之间的统计关系,并且擅长生成下一个token。
因此在处理单词反转这个小任务时,它可能只是将每个token翻转过来,而不是字母。
根据经验总结,也就诞生出这样一些不成文法则。
单词如何划分还取决于语言。此前有人统计过,中文要用的token数是英文数量的1.2到2.7倍。
可以这样理解,token是大模型认识理解人类现实世界的方式。它非常简单,还能大大降低内存和时间复杂度。
但将单词token化存在一个问题,就会使模型很难学习到有意义的输入表示,最直观的表示就是不能理解单词的含义。
当时Transformers有做过相应优化,比如一个复杂、不常见的单词分为一个有意义的token和一个独立token。
就像annoyingly就被分成**“annoying”和“ly”**,前者保留了其语义,后者则是频繁出现。
这也成就了如今ChatGPT及其他大模型产品的惊艳效果,能很好地理解人类的语言。
至于无法处理单词反转这样一个小任务,自然也有解决之道。
最简单直接的,就是你先自己把单词给分开喽~
总之,token就是AI理解自然语言的基石。
而作为AI理解人类自然语言的桥梁,token的重要性也越来越明显。
它已经成为AI模型性能优劣的关键决定因素,还是大模型的计费标准。
甚至有了token文学
正如前文所言,token能方便模型捕捉到更细粒度的语义信息,如词义、词序、语法结构等。其顺序、位置在序列建模任务(如语言建模、机器翻译、文本生成等)中至关重要。
模型只有在准确了解每个token在序列中的位置和上下文情况,才能更好正确预测内容,给出合理输出。
因此,token的质量、数量对模型效果有直接影响。
今年开始,越来越多大模型发布时,都会着重强调token数量,比如谷歌PaLM 2曝光细节中提到,它训练用到了3.6万亿个token。
以及很多行业内大佬也纷纷表示,token真的很关键!
今年从特斯拉跳槽到OpenAI的AI科学家安德烈·卡帕斯(Andrej Karpathy)就曾在演讲中表示:
比如LLaMA的参数规模远小于GPT-3(65B vs 175B),但由于它用更多token进行训练(1.4T vs 300B),所以LLaMA更强大。
以OpenAI的定价标准为例,他们以1K个token为单位进行计费,不同模型、不同类型的token价格不同。
嗯,甚至衍生出了token文学……
直译“令牌”总是有点怪怪的。
GPT-4觉得叫“词元”或“标记”比较好,你觉得呢?
[1]
[2]
[3]