白宫政策与选情变化,持续搅动全球半导体市场|AI Insider#216
Meta 放弃在欧洲推出多模态模型。
☕ Editor’s Note
🗓️ 2024.7.18 | Issue #216
今天重点推荐以下话题:
- 不确定性持续搅动全球半导体市场;
- Anthropic 成立新投资基金;
- 李飞飞新公司估值超过 10 亿美元;
- 监管压力下,Meta 不会在欧洲推出多模态模型;
- OpenAI 新研究有望突破黑箱困境;
🔍 焦点
不确定性搅动全球半导体市场
根据 CNBC 的报道,全球半导体股票昨天出现大幅下跌,其中包括 ASML、英伟达和台积电等行业巨头。这一波跌势主要源于两个因素:美国可能收紧出口限制的传闻,以及前总统特朗普关于台湾问题的言论引发的地缘政治紧张局势。
彭博社报道称,拜登政府正考虑实施更广泛的规则,以限制向中国出口关键芯片制造设备。这一消息导致 ASML 在荷兰的股价下跌 11%,东京电子在日本的股价也下跌了近 7.5%。同时,Arm、AMD、Marvell、高通和博通等公司的股价也均下跌超过 7%。
此外,特朗普在共和党全国代表大会上关于台湾防卫问题的言论,也引发了市场对美国承诺的质疑,进一步加剧了地缘政治紧张局势。台积电在台湾的股价随之下跌 2.4%。这些因素共同导致了 VanEck 半导体 ETF 超过 7% 的跌幅,反映出整个行业所面临的不确定性。
与此同时,光刻机公司 ASML 公司的财报显示,第二季度净销售额达到 62.4 亿欧元(约合 68 亿美元),净利润为 15.8 亿欧元,均超出市场预期。净订单量同比增长超过 24%,达到 56 亿欧元,显示出强劲的市场需求。
然而,ASML 对第三季度的预期略低于分析师预期。公司预计第三季度净销售额将在 67 亿欧元至 73 亿欧元之间,而分析师此前预期为 76 亿欧元。这一谨慎的展望可能反映了当前半导体行业面临的不确定性。
尽管如此,ASML CEO Christophe Fouquet 仍对行业前景保持乐观,特别强调了人工智能领域的强劲发展正推动着行业复苏和增长。作为极紫外光刻机(EUV)的唯一供应商,ASML 在先进芯片制造中的关键地位不容忽视。
值得注意的是,ASML 也面临地缘政治风险,特别是美国可能限制向中国出口关键芯片制造设备,这对于中国市场占比高达 49% 的 ASML 来说是一个潜在的重大挑战。
💰 市场
Menlo Ventures 与 Anthropic 启动 1 亿美元 AI 基金
根据 TechCrunch 的报道,知名风投公司 Menlo Ventures 与 AI 初创公司 Anthropic 宣布合作成立一项 1 亿美元的投资基金,名为「Anthology Fund」。该基金旨在投资 AI 领域的早期创业公司,重点关注种子轮前和 A 轮阶段。
Anthology Fund 将为入选的初创公司提供至少 10 万美元的资金支持,以及价值 2.5 万美元的 Anthropic 模型使用额度。值得注意的是,Menlo Ventures 将使用其专有的机器学习工具来评估和排序申请项目,简化尽职调查流程。
李飞飞的新征程:四月创业,估值即破十亿美元
根据《金融时报》的报道,斯坦福大学人工智能领军人物李飞飞于今年 4 月创立的初创公司 World Labs,在短短 4 个月内估值已超过 10 亿美元。这家专注于 AI「空间智能」的公司迅速吸引了顶级投资机构的青睐。
World Labs 已完成两轮融资,最新一轮融资额约 1 亿美元。投资方包括知名风投 Andreessen Horowitz 和专注 AI 的 Radical Ventures。李飞飞目前正从斯坦福大学请假,专注于公司发展。
World Labs 的核心目标是开发 AI 的「空间智能」,即赋予机器理解和导航三维空间的能力。这一突破性技术有望推动 AI 与现实环境的深度交互,为自动驾驶、机器人等领域带来革命性进展。
🧐 研究
OpenAI 借助「证明者-验证者」游戏突破黑箱困境
根据 VentureBeat 的报道,OpenAI 研究人员开发了一种新算法,通过「证明者-验证者」游戏显著提升了大型语言模型的自我解释能力。这项突破性研究有望解决 AI 系统长期以来的「黑箱」问题,为增强 AI 在各领域的可信度铺平道路。
研究团队利用两个定制的 GPT-4 模型,分别扮演「证明者」和「验证者」角色,通过多轮对弈来优化模型的正确性和可解释性。在游戏中,「证明者」模型被设置为「有帮助」或「狡猾」两种模式,而「验证者」模型需要评估答案的正确性,不知道对手的真实意图。
OpenAI 研究员 Jan Hendrik Kirchner 表示:「我们非常兴奋能够尽快与社区分享这些见解,让更多人了解可读性问题并为解决方案做出贡献。」这项研究不仅有助于提高当前 AI 模型的透明度,还为应对未来可能超越人类智能的 AI 系统提供了潜在的解决方案。
AI 模型部署前可靠性评估新方法
根据 MIT News 的报道,MIT 和 MIT-IBM Watson AI 实验室的研究人员开发了一种新技术,可在部署前评估通用 AI 模型的可靠性,无需预知其未来的具体应用任务。
这项研究针对的是基础模型(foundation models)——那些在海量无标签数据上预训练的大型深度学习模型,如 ChatGPT 和 DALL-E 的底层技术。虽然这些模型功能强大,但在关键场景中的错误可能导致严重后果。
研究团队提出的方法基于「邻域一致性」概念。他们通过训练多个略有差异的基础模型,然后评估这些模型对同一测试数据的表示一致性来估计可靠性。如果不同模型的表示高度一致,则认为该模型可靠。
这种技术在多个下游分类任务中的表现优于现有方法。它的独特之处在于无需针对特定任务进行测试,特别适用于因隐私问题无法获取数据的领域,如医疗保健。
👮♂️ 监管
Meta 不会在欧盟推出多模态 AI 模型
根据 Axios 的报道,Meta 宣布将不会在欧盟地区提供其即将推出的多模态 AI 模型以及未来的相关产品。Meta 表示,这一决定源于欧盟监管环境的不确定性。
Meta 计划在未来几个月内发布一款多模态 Llama 模型,但不会在欧盟推出。这一决定可能会影响欧洲企业使用该开源模型,甚至可能阻碍非欧盟公司在欧洲提供基于该模型的产品和服务。
Meta 表示,问题并非出在正在制定中的 AI 法案,而是在如何在遵守现有 GDPR 的同时使用欧洲用户数据训练模型。同时该公司强调,在欧洲数据上进行训练对确保其产品能够正确反映该地区的术语和文化至关重要。
欧盟反垄断调查: Google 与三星的AI 合作是否阻碍竞争?
根据路透社的报道,欧盟反垄断监管机构正在对 Google 与三星的生成式人工智能(AI)合作展开调查。
监管机构向业内人士发出问卷,询问 Google 将 Gemini Nano 嵌入三星 Galaxy S24 系列智能手机的做法是否会阻碍其他聊天机器人在三星设备上的使用。
这份长达 8 页的问卷重点关注以下几个方面:Gemini Nano 的预装是否限制了其他 AI 系统在同一设备上的预装数量;是否影响了其他聊天机器人和预装应用之间的互操作性;其他公司是否曾尝试但未能与设备制造商达成预装协议,以及被拒绝的原因。
以上就是今天「AI Insider」的所有内容,作为一档新栏目,我们愿意聆听您的所有建议,欢迎通过评论的方式告诉您的想法。
我们明天再见。