Tether QVAC AI的最新发展使人工智能更加贴近日常用户,该系统允许大型模型直接在智能手机和消费硬件上运行。此项技术由Tether不断壮大的人工智能团队推出,消除了对云端处理的需求,支持在设备上进行训练和推理,无论是智能手机、笔记本电脑还是普通GPU都能实现。
QVAC Fabric是此次发布的核心,它是Tether QVAC的引擎,集成了BitNet LoRA,能够在消费级GPU和旗舰手机上微调和运行多达数十亿参数的AI模型。这一系统使开发者能够在本地消费硬件上运行和微调大型语言模型,避免了昂贵的云基础设施的需求。
以往,先进模型的训练和部署需要专门的数据中心或高性能GPU集群,而Tether QVAC AI的推出显著降低了这些要求。该框架支持多种硬件,包括AMD和Intel GPU、Apple Silicon以及移动芯片组,并兼容主要操作系统,使得不同平台的开发者都能加以利用。
Tether的目标十分明确:让用户和企业能够在自己现有的机器上创建和执行AI,而无需将敏感信息传输到第三方服务器上。


亿级规模的AI模型现已可在智能手机上运行
Tether QVAC AI的一个惊人之处在于,它能够在原本无法承载如此大规模模型的设备上运行。该系统允许在移动GPU上进行微调,这种芯片正是现代智能手机中所使用的。这意味着AI模型可以直接从手机上进行训练和适应,无需依赖外部计算能力。
Tether团队表示,已在Pixel 9、Galaxy S25和iPhone 16等设备上完成了高达38亿参数模型的微调,特别是在iPhone 16上,微调的参数量甚至达到130亿。这一技术突破与当前行业的常规做法截然不同。如今大多数移动AI工具要么基于较小的模型,要么在处理复杂任务时依赖云计算。
而Tether QVAC AI能够支持更大规模的本地模型,这意味着智能手机不仅仅是简单的AI接口,它们正逐渐成为完整的AI处理单元。这将为用户带来更快的响应、更好的个性化体验以及更高的隐私保护,因为数据将保留在设备上。
由于开放源代码推动开发者的更多接入
开放源代码是Tether QVAC发布的另一个亮点。该框架已根据Apache 2.0许可证发布,开发者可以根据自己的需求自由使用和修改该系统。

