【人工智能】GPT-4 的使用成本,竟然是GPT-3.5的50倍之多 —— 大语言模型(LLM)开发者必须知道的数字
禅与计算机程序设计艺术 2024-07-18 15:01:02 阅读 77
GPT-4的使用成本,竟然是GPT-3.5的50倍之多;
而让大语言模型同时处理25个请求的时间,仅是处理单个请求的2倍……
这些数据听上去可能有些出乎意料,但都是真实的。
它们出自一篇名为《大语言模型(LLM)开发者必须知道的数字》的GitHub文章。
GitHub - ray-project/llm-numbers: Numbers every LLM developer should knowNumbers every LLM developer should know. Contribute to ray-project/llm-numbers development by creating an account on GitHub.
https://github.com/ray-project/llm-numbers
目录
提示工程
40-90%:在提示词中加入“Be Concise”节约的成本
1.3:每个单词的平均token数
约50倍:GPT-4与GPT-3.5花费的比值
5倍:GPT-3.5-Turbo生成与使用OpenAI embedding的成本比
10倍:OpenAI embedding与自建embedding的成本比
6倍:微调版与基本版OpenAI模型的成本比值
1倍:自建模型是否进行微调的成本比
训练与微调
约100万美元:在1.4万亿token上训练130亿参数模型的成本
<0.001:微调与从头开始训练的成本比
GPU消耗
V100: 16GB, A10G: 24GB, A100: 40/80GB:GPU内存大小
参数量的2倍:LLM的典型GPU内存需求
约1GB:嵌入式模型的典型GPU内存需求
超过10倍:批量处理LLM请求带来的吞吐量改善
约1MB:130亿参数模型输出1个token所需的GPU内存
作者简介
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。