ChatGPT 每天运行成本 70 万美元 微软自研 AI 芯片试图让它变得更便宜 – 茶咖啡加盟资讯网
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
站长之家【【网址】】) 4月21日消息:人工智能目前非常热门,每天有数百万用户使用 ChatGPT。由于需求如此之高,因此运营 ChatGPT 需要的费用也很高。研究公司 SemiAnalysis 的首席分析师 Dylan Patel 估计,ChatGPT 目前每天要耗费 OpenAI 公司 70 万美元,或每个问题回复耗费 36 美分。
这是一笔不小的开支,而且 AI 公司,包括微软,需要从英伟达等公司大量购买 GPU 以帮助维护其 AI 服务,因为需求不断增加。行业分析师估计,OpenAI 可能需要在今年订购 3 万个额外的英伟达 GPU 来支持其商业努力。
构建自己的 AI 芯片可以帮助降低成本,这似乎正是微软正在做的事情。微软自己的 AI 芯片代号为「【【微信】】 雅典娜」。据报道,它已经有了足够的优势,并已在微软内部的某些团队进行了测试。该公司计划在明年将其 AI 芯片分配给其 Azure AI 服务。
行业内部人士表示,他们不指望微软直接取代 英伟达,而是减少对其的依赖。由于 ChatGPT 运行在 Azure 服务上,降低成本将有助于 OpenAI 以更便宜的费用运行 ChatGPT,以及其他选择 Azure 作为主机的 AI 服务。
在谷歌推出名为 Bard 的 AI 产品之后,微软在过去几个月里一直在积极推动人工智能。最近的报道称,一些谷歌员工对 Bard 没有信心,觉得谷歌为了对抗微软的 Bing AI 而匆忙面向市场推出了该产品。
(举报)
ChatGPT 每天的运营成本或超过 480 万元|Patel|美元|AI
chatgpt,chatgpt国内能用吗,chatgpt怎么用,chatgpt开源半导体研究公司 SemiAnalysis 的首席分析师 Dylan Patel 在接受 IT 外媒 The Information 采访时表示,由于 AI 运行所依赖的技术基础设施成本高昂,使用 ChatGPT 撰写求职信、制定课程计划和重做约会资料使 OpenAI 每天可能要花费高达 70 万美元(482.5 万人民币)。
这是由于 ChatGPT 需要庞大的算力根据用户提示生成响应。
Patel 称:“其中大部分成本来自它们所需的昂贵服务器。”
Patel 在接受《商业内幕》杂志的电话采访时表示,目前运营成本可能更高,因为他的初步估计基于 OpenAI 的 GPT-3 模型。他告诉《商业内幕》杂志,该公司最新的模型 GPT-4 运行起来会更烧钱。
虽然训练 ChatGPT 的大型语言模型可能要花费数千万美元的运营费用或推理成本,但“在任何大规模环境上部署模型后,运营费用或推理成本都远远超过训练成本”,Patel 和 SemiAnalysis 的另一位分析师 Afzal Ahmad 告诉《福布斯》杂志。他们说:“事实上,推理 ChatGPT 的成本超过了每周的训练成本。”
多年来,使用 OpenAI 语言模型的公司一直在付出高昂的代价。
Latitude 是一家开发AI 地牢游戏的初创公司,该游戏使用提示来生成故事情节。据 CNBC 报道,该公司首席执行官 Nick Walton 表示,由于运行该模型以及为 AWS 服务器支付的费用,这家公司在 2021 年每月为 AI 回复数百万用户查询花费 20 万美元。
高昂的成本是 Walton 决定改而选择 AI21 Labs 支持的一家语言软件提供商的原因,他表示,这使其公司的 AI 成本降低了一半,降至每月 10 万美元。
Walton 在接受 CNBC 采访时表示:“我们开玩笑说,我们有人类员工,也有 AI 员工,我们在两者身上所花的钱都差不多。我们每个月在 AI 上花费数十万美元,我们不是一家大型初创公司,所以这是一笔非常巨大的成本。”