文章探讨了当前普遍存在的误解,即大规模语言模型(LLM)如ChatGPT等非常昂贵。然而,实际上,这些LLM的运行成本已经比过去降低了很多,与网络搜索相比,其成本甚至更低。
随着推理成本的下降,LLM的市场需求增加,使用场景也越来越多样化。这意味着人工智能公司在财务上的表现实际上比某些评论家想象的要好得多。
文章指出,尽管在一些领域人工智能仍在持续亏损,但这主要是因为他们未急于盈利,并且尚未集中精力将用户流量变现。
文章还强调,目前的人工智能系统面临的真正成本问题在于AI代理将要访问的所有后台服务,而不是AI本身的运行成本。
尽管LLM的成本下降,使用AI代理访问第三方服务的费用可能会增加,引发服务提供者与AI之间可能的对抗性竞赛。
Get notified when new stories are published for "🇨🇳 Hacker News 简体中文"