当诗人们开始为机器打工|AI Insider#183

当诗人们开始为机器打工|AI Insider#183
Photo by jules a. / Unsplash

Editor’s Note

今天是 2023 年 10 月 9 日,您正在阅读的是第 183 期 AI Insider。

过去两周时间,围绕生成式 AI 产业链发生了或将影响深远的事件,本期将通过资金流向、产品动态、应用场景等多视角展示整个产业链的最新动态,并给出一些值得关注与思考的方向。

  • 计算:OpenAI 自研芯片传闻、中美日三国半导体产业政策更新;
  • 巨头:阿里云开源大模型、AWS 的云上大模型产品、智能音箱与大模型如何结合?
  • 市场:如何看待 AWS 40 亿美元投资 Anthropic、孙正义如何投资生成式 AI 公司;
  • 监管:反垄断阴影下的 AWS、微软与英伟达;
  • 应用:呼叫中心、销售与诗人们的全新工作方式;

接下来,欢迎和我一起复盘近期围绕数据与智能的产业关键事件。


计算

关于 OpenAI 自研芯片的事情已经传了很久,最近路透社做了一番看似详细但实则没有多大信息的报道,两个基本事实:

  • OpenAI 公司高层希望通过自研芯片降低大模型运营成本,同时减少对包括英伟达等芯片公司的严重依赖;
  • 无论是从零开始还是买下一家芯片公司,芯片研发都需要相当一段时间,换句话说,距离 ChatGPT 运行在 OpenAI 自家芯片的时间还有很久;

上述两个事实也是任何一家试图通过大模型实现业务发展的巨头、创业公司所面临的共同问题:大模型的计算成本实在是太高了。结合此前 Bernstein 分析师 Stacy Rasgon 给出的数字,如果 ChatGPT 的业务规模达到 Google 搜索的十分之一,OpenAI 需要投入大概 481 亿美元购买 GPU,同时还要每年准备 160 亿美元的芯片采购预算。