Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
微软 Fara-7B 性能碾压 GPT-4o,70亿参数模型如何实现本地端秒级运算
微软最新推出的 Fara-7B 不只是又一款 AI 模型,它用实际数据打脸了「模型越大越聪明」的传统认知。这款仅有 70 亿参数的「电脑使用代理」在多项基准测试中反超 OpenAI 的 GPT-4o,同时还能直接在你的个人电脑上跑起来,完全无需依赖云端。
性能数据说话:小模型凭什么赢了
在 WebVoyager 基准测试中,Fara-7B 达成了 73.5% 的任务完成率,直接超越 GPT-4o 的 65.1%。更夸张的是效率指标——完成同样的操作仅需 16 步,而同级别的 UI-TARS-1.5-7B 则需要 41 步,足足少了 60% 的冗余步骤。
这不是偶然,而是源于微软采用了 知识蒸馏 的训练方法。通过整合多代理系统 Magentic-One 生成的 14.5 万笔导航范例,微软成功将大模型的能力压缩至单一精简模型中。底层基于 Qwen2.5-VL-7B,配备 128,000 token 的超长上下文窗口,让视觉理解能力达到新高度。
看屏幕、点鼠标:像素级推理重新定义自动化
Fara-7B 的杀手锏在于采用「看屏幕操作」的逻辑。传统方式依赖浏览器结构化代码,而 Fara-7B 完全基于像素级数据进行推理——读取屏幕截图,预测鼠标点击、文字输入、页面滚动等动作,就算面对代码混乱的网站也能正常运作。
微软研究院产品经理 Yash Lara 称这为「像素主权」,让医疗、金融等高监管产业也能安心部署在本地。这意味着企业的敏感信息再也不用上传到云端,延迟大幅降低,资料隐私有了真正的保障。
安全机制:自动暂停防线守护关键操作
值得一提的是 Fara-7B 内建的「关键确认点」机制。当遇到涉及用户个人资或不可逆操作时(如发送信件、资金转移),模型会自动暂停并请求人工确认,搭配 Magentic-UI 互动界面,形成真正的人机协作防线。
开源释出,但还不是生产级别
11 月 24 日,微软正式将 Fara-7B 以 MIT 授权开源,已在 Hugging Face 与微软 Foundry 平台上线,支持商业应用。不过微软也坦白——模型目前还 尚未达到生产环境部署标准,主要适合开发者用于原型测试与功能验证。
这次发布反映了一个重要转向:微软明确表示未来不会盲目追求更大的模型,而是致力于打造「小而聪明、安全」的解决方案。后续还计划导入强化学习在沙箱环境中进行自训,进一步提升模型的自主学习潜力。