收购 Twitter、抢占 AI 话语权,马斯克要如何塑造人类的未来?|Deep Reading#143
为什么人类考试不是大模型能力测试的最好方法、Spotify 的崛起与困境。
Editor’s Note
今天是 2023 年 9 月 8 日,您正在阅读的是第 143 期 Deep Reading。
本期首先推荐三篇关于伊隆·马斯克的长文,以周围人的视角勾勒这位亿万富翁的过去与现在,你会看到控制欲极强、以自己为中心等性格特点,如何塑造他的工作与生活,特别是在收购 Twitter 与探索 AI 风险的过程中,马斯克的这些性格特点展露无遗,而后两者,势必将对人类未来产生巨大影响。
本期还将推荐以下主题的长文:
- 为什么人类考试不是大模型能力测试的最好方法?
- Spotify 的崛起与困境;
「More Reading,Less Junk」,欢迎进入本周的深度阅读时间。
如果测试大模型的方法是错误的,结果会怎样?
自去年 11 月 ChatGPT 发布以来,我们已经听到或看到各类模型通过人类考试的报道,特别是 GPT-4 问世之后,大语言模型所展示的「推理」能力或「逻辑」能力,能够在更多人类考试场景中一骑绝尘。
但就像考试仅仅是人类智力水准的一种测试一样,即便大语言模型能够通过这些考试,并不代表其具有人类同等智力。更何况,大语言模型对于应对考试具有天然的优势,其强大的算力,能够比人类个体更快、更好获得考试的结果。