导读 Writer这家初创公司专门为企业研发人工智能工具,该家公司的联合创始人兼公司的首席技术官阿尔谢赫表示在最近3个月到4个月时间内,一些传统
Writer这家初创公司专门为企业研发人工智能工具,该家公司的联合创始人兼公司的首席技术官阿尔谢赫表示在最近3个月到4个月时间内,一些传统的人工智能芯片价格正在逐渐下滑,帮助公司在模型培训方面的成本降低了60%左右。另外英伟达公司还优化了公司旗下软件产品的性能,让所有的开发者能够以这些芯片进行更加高效的训练。
研发大语言模型的成本较高,已经成为了整个科技行业的共识,其中不仅仅包括模型的研发费用,还包括模型的运营费用。就比如人工智能领域的初创企业Anthropic,这家公司在云端运行语言模型的成本在公司总收入的占比已经达到了50%以上。近段时间内随着技术的不断进步,降低了大语言模型的研发和运行成本,目前还并不清楚大语言模型是否因此可以变成拥有更高利润的软件业务,不过现在已经帮助多家公司缓解了成本方面的问题。
Writer公司现在已经开始使用英伟达公司的新款芯片来训练大语言模型,阿尔谢赫表示这些新芯片的价格比较高,不过在训练大语言模型的效率方面要比A100更快。除了芯片以外,开发者还有可能会通过技术改进和配置的更改来降低成本,就比如GPT-4其实并不是一个庞大的模型,而是由多个模型组成的,这种混合系统的效率更高。
现在开发者已经发现了如何去控制硬件的使用方法,谷歌公司的研究人员预计,openai在训练GPT-3到时候GPU大约有80%的时间都在等待数据输入,也就意味着openai并没有完全使用GPU的性能。GPU经销商Together的首席科学家特里·道表示,使用FlashAttention-2的技术,就可以将等待输入数据的时间缩短到30%左右,许多的开发者现在都已经开始使用这项技术。