微软专家开发了BitNet b1.58 2B4T语言模型,尽管其体积小,但提供的结果与更大模型相当。其关键特性是能够在标准CPU上运行,无需图形加速器。这为资源有限的设备打开了访问AI技术的大门。
该模型使用简化的1位操作,具有三种状态:-1、0和+1,而不是标准的16位或32位计算。这种方法将内存使用量减少到400MB——相比之下,谷歌的竞争对手(Gemma 3 1B)需要1.4GB。节省是通过根本不同的数据处理方法实现的:系统依赖于优化的二进制算法,而不是复杂的数学运算。
在测试中,BitNet与Meta(LLaMa 3.2 1B)、谷歌(Gemma 3 1B)和阿里巴巴(Qwen 2.5 1.5B)的模型进行了比较。尽管体积较小,微软的开发在综合测试中获得了54.19的平均分,超越了LLaMa(44.90)和Gemma(43.74),仅稍微落后于Qwen(55.23),后者占用的内存是其6.5倍。在与文本分析相关的特定任务中,BitNet表现出色。
为了实现最大效率,该模型需要特殊的bitnet.cpp框架, 可在开放的GitHub仓库中获取。像Transformers库这样的标准工具无法充分发挥其潜力。开发者指出,当前版本已针对CPU进行了优化,但未来的更新将增加对神经处理器和GPU的支持。
BitNet是“轻量级”AI模型趋势的一个例子。这种解决方案减少了能耗,并允许复杂算法在没有云服务访问的设备上运行。这在互联网速度较慢的地区或处理机密数据时尤为相关,因为将信息传输到数据中心是不理想的。开发者表示,他们的目标是使AI技术在不进行硬件升级的情况下可用,这可能会改变开发AI驱动应用程序的方法。