🔥 WCTC S8 全球交易赛正式开赛!
8,000,000 USDT 超级奖池解锁开启
🏆 团队赛:上半场正式开启,预报名阶段 5,500+ 战队现已集结
交易量收益额双重比拼,解锁上半场 1,800,000 USDT 奖池
🏆 个人赛:现货、合约、TradFi、ETF、闪兑、跟单齐上阵
全场交易量比拼,瓜分 2,000,000 USDT 奖池
🏆 王者 PK 赛:零门槛参与,实时匹配享受战斗快感
收益率即时 PK,瓜分 1,600,000 USDT 奖池
活动时间:2026 年 4月 23 日 16:00:00 -2026 年 5 月 20 日 15:59:59 UTC+8
⬇️ 立即参与:https://www.gate.com/competition/wctc-s8
#WCTCS8
我刚刚看到PrismML推出了一些相当有趣的东西:Ternary Bonsai系列的语言模型。让我注意到的是他们成功大幅度降低了GPU内存的消耗,比起16位模型减少到九分之一。基本上,他们使用了只有1.58比特的三值权重,这些权重只能取三个值:-1、0或+1。听起来很技术性,但其核心思想是去除神经网络中的冗余连接,以提升推理能力而不牺牲性能。
关于价格和可访问性,Bonsai 8B模型的权重存储仅占用1.75 GB,非常适合边缘设备使用。相比一些更重的方案,性价比非常高。在基准测试中平均得分达75.5,甚至超过了其1比特前身和类似的稠密模型。最棒的是,它可以在苹果设备上原生运行,无需特殊的变通方法。
在速度方面,在iPhone 17 Pro Max上实现了每秒27个tokens,能耗效率比之前高出3到4倍。这对于移动设备上的推理来说是一个显著的飞跃。目前,他们提供了8B、4B和1.7B参数的模型,全部在Hugging Face上以Apache 2.0开源。对于那些希望在不花大钱的基础设施上实现高性能AI解决方案的开发者来说,这些Bonsai模型看起来是一个相当稳妥的选择。