Tether推出跨平台LoRA微调框架 支持手机端AI模型训练

Web3 2026-03-18 06:10:36
核心提要:Tether发布面向微软BitNet大语言模型的跨平台LoRA微调框架,支持在智能手机、消费级GPU及笔记本电脑上实现无英伟达硬件依赖的人工智能训练。该框架基于QVAC Fabric平台,可在AMD、英特尔、苹果芯片及移动GPU上运行,显著降低显存需求并提升推理效率。

Tether发布跨平台LoRA微调框架

Tether于本周二推出专为微软BitNet大语言模型设计的跨平台LoRA微调框架,使智能手机、消费级GPU和笔记本电脑无需依赖专业英伟达硬件即可开展人工智能训练。该框架作为QVAC Fabric平台的重要组成部分,是首个支持非英伟达芯片(包括AMD、英特尔、苹果芯片及移动GPU)进行BitNet模型微调的解决方案,标志着边缘计算在AI领域的关键突破。

异构硬件原生支持与性能表现

新框架针对多样化消费级设备实现原生的BitNet LoRA微调与推理加速,摆脱对企业和云基础设施的依赖。在三星Galaxy S25上,工程师使用约1.8万词元的生物医学数据集,完成1.25亿参数模型的微调仅耗时约10分钟;10亿参数模型任务耗时1小时18分钟,iPhone 16上则需1小时45分钟。旗舰手机已可支持最高38亿参数模型的微调,而iPhone 16更实现了130亿参数模型的微调能力。移动GPU上的推理速度相较CPU提升2至11倍,且10亿参数模型在内存占用上较同规模16位Gemma-3-1B模型降低77.8%。

技术融合推动边缘AI发展

BitNet采用三元权重系统(-1、0或1),大幅压缩模型体积并减少显存消耗。结合LoRA技术仅更新小型适配层而非全模型重训,进一步降低微调成本。两者协同使边缘设备上的模型训练成为现实。该框架还支持联邦学习工作流,可在分布式设备间实现模型更新而不传输原始数据。相关代码已按Apache 2.0许可证开源,推动技术生态共建。

加密与AI交汇的新趋势

此次发布正值加密货币基础设施与人工智能计算边界持续融合之际。随着更多加密平台集成人工智能代理以支持链上交易,行业正迈向技术交叉发展的新阶段。Tether此举不仅拓展了其在算力生态中的角色,也为去中心化智能应用提供了底层支撑。
上一篇 AI代理经济迎来可信身份验证新范式...
下一篇 参议院推进加密市场结构法案 面临稳定币收...

声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!