详细版!我是如何用AI学习的
Key Takeaway
- AI将成为衡量个人能力的标准,其应用能力将成为基本技能。
- 作者分享了一套AI学习法:首先对议题进行拆解,梳理个人初步判断和问题,为AI提供上下文。
- 利用Gemini的Deep Research功能生成多份详细报告,并通过Google文档导入NotebookLM进行AI辅助学习。
- 使用Cursor结合Gemini 2.5 Pro对所有资料进行整合、精简和脱水,最终输出为Markdown格式的文件。
- 强调Markdown格式是AI时代最适合的文件格式,便于人机理解和长期保存。
- 整个AI学习流程显著提高了学习效率,拉开了人与人之间的差距。
Full Content
很快,AI就会成为人的标准。
AI生成的东西,是平庸的标准。如果你做出来的东西,比如写了一篇稿子或者弄了个报告,比不过AI的话,那么你在这个方面就是平庸的。
对AI的应用,是基本技能的标准。不会在工作中把AI用起来,就好比今天不会用Office软件。不会在学习中把AI用起来,就好比今天不会用搜索引擎查资料。
我一直觉得,今天的AI已经足够强了。按照这个趋势再更新一代,也就是GPT-5、Claude 4、Gemini 3.0的那一代,AI就会达到一个成熟的状态。AGI能不能实现不重要,因为现有的已经足够深刻改变人类社会了。
大部分人还意识不到这一点。这就是为什么我要一直出视频的原因——我要把那些能看到未来的人筛选出来、聚集起来。本期视频,我会用一个具体的例子,分享我目前是怎么用AI学习的。如果你看了有感觉,记得加入我们社群。
OK,咱们开始吧。
当我想深入了解某个议题的时候,我不会直接问AI,而是先自己做拆解。
比如,我对AI PC有疑惑。如果我上来就直接问AI,那大概率就是:请给我生成一份AI PC发展趋势报告。
不客气地说,这种搞法,是非常低效、无效的,也是非常没水平的。我不用看结果都知道,肯定是一份四平八稳、特别水的报告。
正确的做法是,你要先在自己脑子里过一遍,先做拆解,把你对这个议题的初步判断、大致理解、特别想弄明白的问题梳理出来。比如,关于AI PC,我特别想知道的有两点:
第一,AI PC是不是伪命题?
我知道,在最关键的算力问题上,AI PC用CPU、NPU和GPU来分配和调度。那么,NPU真的靠谱吗?真的不是鸡肋吗?这个在我这边是要打个问号的。
所以第一个问题其实是关于这个品类的问题,会涉及到品类的定义、行业的标准。
第二,AI PC发展得起来吗?
我知道,目前除了英特尔在推,高通、AMD也都在搞。虽然我还不了解具体情况,但根据江湖经验,大概率这三家会有自己的路线、架构以及工具链。这就会给开发者造成很多优化上的麻烦,因为标准不统一嘛。
所以第二个问题其实是关于行业格局、生态发展的问题。
你看,这个做拆解的过程,其实就是融入个人思考上下文的过程。对于一个议题,每个人都有不同的理解、不同的侧重点。你不做拆解,就无法提炼出来,就无法给AI提供更多的Context,那AI又怎么可能生成你想要的东西呢?
就像我之前在社群里说的:
AI时代,答案都在那里,只要你能问对问题。
当做完拆解之后,我就可以通过Deep Research生成多份报告,各有各的针对性。就像AI PC的例子,我让Gemini帮我生成了两份报告。
为什么是两份而不是整合成一份?因为单份的会更详细、更聚焦。而且,两份报告之间肯定有重叠的部分。没准能互相补充或者验证。
报告好了之后,就可以导出到Google文档了。我前两天在社群里说过,这是别家都没有的功能和体验。因为,导出之后,就可以在NotebookLM里添加了。
NotebookLM是目前最好的AI学习工具,我推荐过好多次了。它特别适合有教材、有文档的场景。
在这个框的左下角,我们可以从Google文档里加载。刚才导出的两份Deep Research报告都在里边。
等个几秒钟,模型会完成解析。这时就可以对话了。比如,我会问它:AI PC是伪概念、智商税吗?NPU是鸡肋吗?英特尔、高通、AMD在发展AI PC上,有哪些路线、架构的不同?
这些回答,如果觉得OK的话,可以Pin一下,把它们变成笔记。
我知道,有的人可能还是会抱怨,Deep Research出来的东西还是不太行。其实在我看来,不管是好的反馈还是坏的反馈,都是反馈,都有价值。
比如Gemini做这两份报告,应该查了上百个网页,把目前关于AI PC的公开报道都覆盖了。所以,假如这两份报告不太OK,我也会很高兴——因为它代表了目前媒体、自媒体的看法,说明目前的市场共识是有问题的。而我将要去挖掘更正确、更有可能成为下一阶段市场共识的非共识。
如果你有投资、有创业的Mindset,遇到这种共识偏差情况,应该会非常兴奋。当然啦,普通大众没有,他们只会抱怨。
好了,不跑题。我这个AI学习过程还没完,咱们继续。
通过刚才的问答,我们在NotebookLM的帮助下,把资料消化得差不多了,也保存了一些笔记。那么下一步,我会让AI帮我把所有的资料都整合成一份,包括最初生成的两份报告,以及在探讨过程中存下来的、我感兴趣的笔记。
之所以要这么做,主要原因是,学习不是这一趟学了就完事了——之后还得重温,还得学而时习之,有需要的时候肯定还会回来翻看。所以,我需要把这个过程中的所有产出都整合,变成一份完整的东西。而且,还要做精简、脱水,只保留最精华的部分,这样下一次我查看的时候,效率更高。
为了实现这个效果,我这边用到Cursor,搭配Gemini 2.5 Pro。
之前我也在社群里说过,Gemini 2.5 Pro这个模型可能是当下最被忽视的顶级模型。它的推理能力非常强,该有的技能都有,而且还有超大上下文窗口。所以,用它来整合报告什么的,再适合不过了。
我从Google文档里把刚才的两份报告下载到了本地。然后用Cursor打开存放的文件夹。在对话框里跟它说:帮我把这两份报告整合为一份,务必做到逻辑清晰,内容简洁。注意,核心观点和论证不要遗漏。最终输出为Markdown格式。
Markdown格式是AI时代最适合的文件格式。人看得懂,AI也能理解。我强烈建议大家从现在开始,把所有有价值、想长期保存的资料,都转成Markdown格式。
这个过程咱们看着就好了。Cursor会全自动完成。比起生成代码,只是做些文字工作,对Cursor和Gemini来说完全没难度。
最后,拿到整合好的Markdown文件之后,我会把它存放到我的Obsidian笔记仓库里。这样一来,关于一个议题的AI学习就完成了。
我来复盘一下整个过程。
首先,我先对议题做拆解。这一步非常关键。因为,我们需要把自己对议题的理解、感兴趣的问题作为上下文告诉AI。否则,AI只能给你输出平平无奇的答案。
接着,我会把包含了我的思考上下文的Prompt给到Gemini,让它帮我做Deep Research。最近Google把Deep Research的模型更新到Gemini 2.5 Pro,这个功能变得更好用了。我个人感觉,它已经可以跟OpenAI持平了,各有各的优势。
然后,拿到报告之后,通过Google文档,导入到NotebookLM里,就可以进行AI辅助学习了。
最后,把所有资料交给Cursor,借助Gemini 2.5 Pro的超大上下文,做全局理解,完成资料的精简、整合,形成一份Markdown格式的文件,保存起来。
你看,在AI的加持下,整个学习效率会比传统的做法高太多太多。还是那句话:人和人之间的差距,就是这么拉开的。
OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!