监管 AI 的两条路线、AI 芯片不是好生意、AI 辅助编程市场|AI Insider#239
中国科技巨头的资本支出流向哪里?
☕ Editor’s Note
🗓️ 2024.8.28 | Issue#239
本周开始,「AI Insider」将以每周三期的篇幅梳理、点评 AI 产业事件,也会分享一些个人大模型工具相关的心得体会或教程,每期篇幅(3500+字)较长,不妨放在收件箱里慢慢看。
本期为「Dailyio Premium 会员」专属内容,重点谈以下几个话题:
- AI 监管到底是「存在性风险」还是当下 AI「存在的风险」?
- 为什么 AI 芯片不是一门好生意;
- 印度 AI 市场押注语音;
- 中国科技巨头的资本支出流向哪里?
- 资本、产品、客户,AI 辅助编程有多火热?
👮♂️ 监管
美国加州 AI 监管法案 SB 1047 引发持续争议,该法案要求对大型 AI 模型进行安全测试,设置紧急关闭机制,并赋予州检察长起诉权。
支持者包括知名研究者 Yoshua Bengio、Geoff Hinton 等人。Bengio 作为 AI 领域的先驱之一,曾认为人类级别的 AI 还需数十年时间,ChatGPT 的发布彻底改变了他的看法,让他意识到 AI 发展速度远超预期,这一转变促使 Bengio 更多地投入到 AI 政策讨论中。
法案遭到包括 OpenAI、Google 和 Meta 在内多家科技巨头的反对:
- Meta 认为该法案可能使加州对 AI 开发和部署不利,Meta 首席科学家 Yann LeCun 称该法案可能损害 AI 研究;
- OpenAI 表示 AI 应由联邦政府监管,SB 1047 会创造不确定的法律环境。
SB 1047 法案已在加州参议院以 32:1 的压倒性票数通过,并在州众议院拨款委员会获得通过,即将进行全体表决。如果在 8 月 31 日立法会期结束前通过,将交由加州州长 Gavin Newsom 在 9 月 30 日前签署或否决。
如果从 AI 风险的角度去看,SB 1047 更像是对所谓「存在性风险」的监管,法案预置了一个前提,即大语言模型等 AI 技术将成为人类生存的重要威胁,其代表性的说法就是:「在 AI 技术发展变得难以控制之前,立法是保护公众所必需的」。