据报道ChatGPT每天的运行成本为700万美元
在服务器上运行大规模机器学习模型(如 ChatGPT)可能很昂贵,因为训练和维护这些模型需要大量的计算资源。此外,成本可能会有所不同,具体取决于模型的大小和复杂性、正在处理的数据量以及用户需求级别等因素。尽管如此,使用AI语言模型的组织可能会认为其功能的好处值得在其服务器上运行它们的成本。ChatGPT 是目前世界上最受欢迎的语言模型,根据最近的报道,运行它的成本相当高。
ChatGPT 每天运行成本为 700,000 美元,GPT-4 成本可能更高
OpenAI的语言模型ChatGPT提供自然语言处理(NLP)服务,需要大量的计算能力,运行成本高达700万美元。高成本主要来自根据用户输入提供反馈所需的昂贵服务器,包括撰写求职信、生成教学计划和优化个人数据。此外,虽然SemiAnalysis首席分析师Dylan Patel估计了GPT-000模型的成本,但在采用最新的GPT-3模型后,ChatGPT现在可能更加昂贵。
人工智能推理成本远远超过训练成本,ChatGPT 的推理成本超过训练成本。过去几年,一直使用 OpenAI 语言模型的公司一直在付出高昂的代价,200 年运行 AI 模型和为初创公司 Latitude 的 AI 地牢游戏购买亚马逊 AWS 云服务器的成本每月高达 000,2021 美元。微软正在开发一款代号为Athena的人工智能芯片,以降低生成式人工智能模型的运行成本,但该芯片最早将在明年发布,供微软和OpenAI内部使用。