Tether旗下QVAC Fabric发布跨平台LoRA微调框架

该框架专为微软BitNet设计,实现对大语言模型的高效微调与推理加速,覆盖Intel、AMD、Apple Silicon M系列处理器以及Adreno、Mali、Apple Bionic等移动GPU架构。

显著降低算力与显存需求

通过优化内存调度与计算流程,框架在保持模型性能的同时大幅减少显存占用,使更多设备具备本地化部署与训练能力,推动人工智能应用向更广泛终端延伸。