为新闻场景定制提示词、200 美元的 ChatGPT Pro 值得吗、年终盘点清单|Digital Explorer#048
对我来说,新闻消费更多是在工作。
Editor’s Note
今天是 2024 年 12 月 9 日,您正在阅读的是第 48 期 Digital Explorer。
本期首先分享一个面向新闻消费场景定制的提示词,并聊聊我对利用大模型或 AI 搜索获取信息的看法。
200 美元的 ChatGPT Pro 是否值得、Llama 3.3 亮点在哪里、𝕏 的新图像生成模型等是本期「信息加工」栏目的关注点;而在本期新栏目「清单」里,我会梳理近期 Google、Spotify、苹果的年度盘点或榜单。
接下来,欢迎和我一起探索关于数字工具的所有可能。
📱消费·大模型
新闻消费。对我来说,新闻消费更多是在工作,所以我会有意无意避开一些影响我工作效率的「甜蜜陷阱」,包括但不限于:
- 不会使用基于算法推送的应用,比如今日头条、小红书等应用,我也没有小红书帐号;
- 减少查看社交媒体上各类「For You」的 Tab 或功能,比如我很少看 Twitter 或知乎上「推荐」的内容;
- 拒绝各类短视频应用,包括 YouTube Shorts、抖音、快手等,我也没有后面两个产品的帐号;
更多的时候,我会自己定制自己的消息源,从「老旧」的 RSS 到 Newsletter,再到更「老旧」的网页或社交媒体搜索,我希望可以自主了解自己所感兴趣的内容。
大语言模型流行之后,我发现身边越来越多的朋友——甚至包括一些媒体或新媒体同行——迷恋上使用大模型服务获取信息。有个媒体朋友前几天告诉我,他现在既不用百度,也不用 Google,而是使用 Kimi 获取中文新闻、使用 Perplexity 或 ChatGPT(搜索)了解英文新闻。
这种现象并不局限在中国,在美国,一些媒体工作者对拜登赦免自己儿子之后的评论被证实存在诸多错误,比如评论员 Ana Navarro-Cardenas,在社交媒体上发布了关于伍德罗·威尔逊总统赦免其妹夫的信息,并声称信息来源是 ChatGPT。经核实,该信息为虚假信息,威尔逊总统并没有名为「Hunter deButts」的妹夫。类似地,Esquire 杂志也发布了一篇关于老布什总统赦免其子 Neil Bush 的错误文章,后撤回。
这些事件都指向一个共同点:ChatGPT 等 AI 工具生成的虚假信息正在污染信息环境,并被不加求证地传播,而当这些虚假信息被进一步「抓取」到大模型或 AI 搜索的训练数据库里,我们很难想象接下来会制造出怎样的虚假信息。
我一直不建议使用各类 AI 工具直接获取新闻信息,无论哪类模型或哪类基于最先进模型的 AI 搜索,它们都不是信息获取的可靠工具。大模型写文章或回答问题的「幻觉」或许还可以接受,毕竟不会造成多大影响,而大模型整合新闻过程中出现的「幻觉」,将对用户造成不小的影响,特别是大量依托新闻、消息工作的知识工作者。
但大模型服务的确正在改变新闻消费的流程。