「AI 男友」是一门好生意|AI Insider#224

如何理解 OpenAI 成功的「秘密」?

「AI 男友」是一门好生意|AI Insider#224
Photo by Igor Omilaev / Unsplash

☕ Editor’s Note

🗓️ 2024.7.30 | Issue #224

今天重点推荐以下新闻:

  • OpenAI 成功的「秘密」;
  • 苹果使用 Google 自研的 TPU 训练大模型;
  • 「AI 男友」是一门好生意;
  • AI 对创意写作的复杂影响;

您可通过这里查看过往 AI Insider 的精选内容。


🔥 观点

OpenAI 距离成功还很遥远

OpenAI 成功的「秘密」其实并不神秘。他们证明了一个简单而大胆的假设:通过扩大 Transformer 架构中的 QKV 矩阵、增加层数、维度和(多)注意力,模型能够更有效地提取和学习数据中的高质量特征。这种方法虽然直观,却因其所需的巨额投资而鲜有人敢于尝试。OpenAI 的成功,不仅验证了这一路径的可行性,更为整个行业指明了前进方向。

然而,「先发优势」在 AI 领域往往是一把双刃剑。OpenAI 确实在 LLM 技术链路上领先他人约两年,但这种领先并非不可逾越。随着资本的涌入和人才的流动,其他公司正在以惊人的速度缩小差距。正如 19 世纪的「淘金热」一样,第一个发现金矿的人固然重要,但真正受益的往往是那些提供铁锹和牛仔裤的商人。

在这场「规模为王」的竞赛中,模型架构的细节似乎变得不那么重要了。就像人类社会中「努力更重要,还没到拼天赋的时候」一样,在当前阶段,简单地增加模型参数量就能带来显著的性能提升。这种现象不禁让人联想到摩尔定律在半导体行业的影响:技术进步的路径虽然清晰,但真正的挑战在于如何持续投入并克服规模化的障碍。

深度学习的「黑盒」特性,使得 AI 研究一直呈现出「先射击后瞄准」的独特风格。研究人员们先通过实验验证某种架构的效果,然后再尝试解释其成功的原因。这种方法论上的特点,使得 AI 领域的创新既充满不确定性,又充满机遇。

随着 LLaMA 3.1 逼近 GPT-4 的水平,AI 巨头们似乎已站在了同一起跑线上。未来的竞争可能沿着两条主要路径展开:一是继续在参数规模上较量,直到遇到瓶颈或引发价格战;二是寻找突破性的新架构,可能彻底改变现有的竞争格局

不过,真正令人期待的,或许是在应用层面上的创新。正如互联网改变了信息传播方式一样,大语言模型可能会重塑人类与知识、创造力之间的关系。在这个层面上,人类的想象力和创造力将扮演更加关键的角色。

毕竟,技术的意义不仅在于其本身,更在于它如何服务和改变人类社会。在这场 AI 竞赛中,最终的赢家可能不是那个拥有最大模型的公司,而是那个最懂得如何将 AI 融入人类生活,并创造真正价值的一类企业。


💰 市场

苹果使用 Google 自研的 TPU 训练大模型

根据 CNBC 的报道,苹果公司近日透露其 AI 模型是在谷歌自研的 TPU 芯片上进行训练的,这一决定揭示了科技巨头在 AI 芯片领域的新型合作关系。

苹果在最新发布的技术论文中详细说明,其 Apple Foundation Model (AFM) 和 AFM 服务器是在「Cloud TPU 集群」上进行预训练的。具体而言,AFM 设备端模型使用了 2048 个 TPU v5p 芯片,而 AFM 服务器则采用了 8192 个 TPU v4 芯片。这一选择表明,科技公司正在积极寻求英伟达 GPU 之外的 AI 训练替代方案。

「AI 男友」是一门好生意

根据 Axios 的报道,越来越多女性正在与聊天机器人建立亲密关系,并发现这些 AI 伴侣的同理心比许多人类伴侣更加可靠,这一现象颠覆了人们对「宅男与 AI 女友聊天」的刻板印象。

Axios 援引投资公司 Andreessen Horowitz 的数据,2024 年有 8 款 AI 伴侣应用跻身该公司评选的前 100 大 AI 消费应用,而 2023 年仅有 2 款。用户对这类应用的参与度「异常高」,平均每月使用次数是一般助手类、内容生成类甚至是即时通讯类应用的 10 倍以上。

OpenAI 今年或面临 50 亿美元亏损

The Information 的报道称,OpenAI 可能在 2024 年面临高达 50 亿美元的亏损,并可能在 12 个月内需要寻求新一轮融资以维持运营。

报道援引未公开的财务数据和内部消息人士的信息称,OpenAI 预计今年将在 AI 训练和推理上花费约 70 亿美元,其中包括向 Microsoft 支付近 40 亿美元的服务器容量费用,以及高达 30 亿美元的模型训练成本。此外,该公司约 1,500 名员工的劳动力成本估计每年达 15 亿美元。

尽管 OpenAI 的 CEO Sam Altman 在今年 6 月报告公司年化收入已达 34 亿美元,较去年年底的 16 亿美元有显著增长,但这一收入水平仍难以覆盖其巨额支出。这份分析报告引发了外界对 OpenAI 短期盈利能力的质疑,尽管该公司已通过多轮融资筹集超过 110 亿美元,并在今年 2 月估值超过 800 亿美元。


🧐 研究

新型 CRAM 设备将 AI 应用能耗降低 1000 倍

根据 Interesting Engineering 的报道,明尼苏达大学双城分校的研究人员开发出一种名为计算随机存取存储器(CRAM)的硬件设备,有望将人工智能应用的能耗降低至少 1000 倍,解决 AI 领域最紧迫的挑战之一。

该研究的第一作者、明尼苏达大学电气与计算机工程系博士后研究员 Yang Lv 表示,这是 CRAM 的首次实验性演示,数据可以完全在存储阵列内处理,无需离开计算机存储信息的网格。

与传统 AI 方法需要在逻辑单元和存储器之间传输数据不同,CRAM 通过将数据保留在存储器内,消除了这些耗能传输的需求。研究团队估计,基于 CRAM 的机器学习加速器与传统方法相比,可实现高达 2500 倍的节能。

AI 对创意写作的复杂影响

根据 VentureBeat 的报道,一项新研究发现,生成式 AI 在提升个人创造力的同时,可能会降低集体创作的多样性。这项由伦敦大学学院管理学院和埃克塞特大学的研究人员进行的实验,揭示了 AI 对创意写作的复杂影响。

研究发现,使用 AI 生成的创意能显著提高短篇故事的新颖性和实用性,特别是对于基础创造力较低的作者。评估者认为 AI 辅助的故事更加有趣、写作质量更高,且更可能包含情节转折。不过,研究也指出了一个潜在的问题:基于 AI 生成创意的故事之间相似性更高,这可能导致创意内容的同质化。

研究者警告,如果作者过度依赖有限数量的生成式 AI 模型,可能会导致集体新颖性的丧失。这一发现对于越来越多提供 AI 驱动写作工具的公司,以及使用大型语言模型大规模创建内容的组织具有重要意义。


以上就是今天「AI Insider」的所有内容,作为一档新栏目,我们愿意聆听您的所有建议,欢迎通过评论的方式告诉您的想法。

我们明天再见。