Tether,这家全球市值最大的稳定币USDT的发行方,近期推出了一种新的AI训练框架。该框架旨在使大型语言模型能够在消费硬件上进行微调,包括智能手机和非Nvidia的GPU。
该框架支持跨平台的训练和推理,兼容多种芯片,包括AMD、Intel和Apple Silicon,以及来自Qualcomm和Apple的移动GPU。

Tether表示,其工程师能够在不到两小时内在智能手机上微调高达10亿参数的模型,而对于较小的模型则只需几分钟,支持的模型大小甚至可以达到130亿参数。
该框架基于BitNet,一种1比特模型架构,能够将VRAM需求减少多达77.8%,与类似的16比特模型相比,从而使得更大的模型能够在有限的硬件上运行。此外,它还支持在非Nvidia硬件上进行1比特模型的LoRA微调,扩展了对通常用于AI训练的GPU以外的支持。

公司表示,这些性能提升同样适用于推理,移动GPU运行BitNet模型的速度是CPU的数倍。它还指出了诸如设备端训练和联邦学习的应用场景,在这些场景中,模型可以在分布式设备间更新,而无需将数据发送到集中服务器,从而可能减少对云基础设施的依赖。
随着加密公司逐渐向计算和机器学习领域拓展,Tether的这一举措恰逢Bitcoin挖矿和AI代理的兴起,展现了加密行业在AI和高性能计算(HPC)方面的活跃趋势。AI代理作为能够进行交易、与服务互动及执行任务的自主程序,正在加密领域中获得越来越多的关注。

