Tether推出跨平台AI训练框架,降低大模型部署门槛
核心提要:Tether发布基于BitNet架构的新型AI训练框架,支持在智能手机与非英伟达硬件上完成百亿参数模型微调,显著降低算力与显存需求。该技术推动分布式训练与联邦学习应用,加速加密领域智能代理发展。
Tether发布跨平台AI训练新框架
全球市值最大的稳定币发行商Tether近日推出全新人工智能训练系统,集成微软BitNet架构与LoRA技术,可在消费级设备上实现大型语言模型的高效微调。该框架突破传统对高端显卡的依赖,支持包括AMD、英特尔、苹果芯片及高通、苹果移动端显卡在内的多类处理器,实现真正意义上的跨平台运行。
硬件门槛大幅降低
据官方公告,工程师团队已在智能手机上完成10亿参数模型的两小时微调,小型模型仅需数分钟即可完成,部分设备甚至可运行高达130亿参数的模型。基于1比特模型架构的BitNet设计,相较16比特模型可减少77.8%的显存占用,有效缓解低配设备资源压力。该系统还首次实现非英伟达硬件对1比特模型的LoRA微调,拓展了人工智能开发的硬件兼容边界。
推理性能与分布式应用并进
在推理环节,移动显卡运行BitNet模型的速度可达传统中央处理器的数倍。该框架支持设备端训练与联邦学习,使模型更新可在本地完成,无需将数据上传至中心服务器,有助于减少对云端基础设施的依赖,提升数据隐私与系统韧性。
行业融合趋势持续深化
随着加密货币企业向算力与机器学习领域延伸,Tether进军人工智能基础设施的举措标志着行业融合加速。比特币挖矿与人工智能代理的协同发展正成为新焦点。2026年二月,HIVE数字科技凭借高性能计算业务实现9310万美元营收;三月,Core Scientific获得摩根士丹利5亿美元信贷支持,可选额度最高达10亿美元。
智能代理生态逐步成型
自主执行交易、服务交互与任务管理的人工智能代理正快速演进。周二,由OpenAI联合创始人参与构建的身份验证网络发布AgentKit工具包,赋予代理身份认证能力,并通过微型支付协议实现安全交易,为去中心化智能体生态提供关键支撑。
声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!