学习方法
Key Takeaway
- AI不会替代人,但会使用AI的人将替代不使用AI的人。
- AI赋能个体并非平等过程,早期阶段AI的特点是“遇强则强,遇弱则弱”。
- 少数派(约5%)能用好AI,他们具备“不吹不黑”的态度和“AI视角”。
- 学习使用AI的两个关键方法是:DYOR(Do Your Own Research),即深入研究源头知识;学习Python编程,以便理解AI底层逻辑。
- 文章强调了认知差比技术差更大,以及编程能力在AI时代的重要性。
Full Content
有一个好消息,一个坏消息。
好消息是:AI不会替代你。
坏消息是:用AI的人才会。
所有厂商都在喊:AI for ALL。AI确实能帮到每一个人。但是,AI赋能个体过程一定不是一个平等的过程。
尤其是在现在这个早期阶段,AI技术才刚刚开始产品化,还非常不完善,接触起来很有门槛。所以,AI在这个阶段的特征是八个字:
遇强则强,遇弱则弱。
AI遇到什么样的人会变强?遇到什么样的人会变弱?
以使用ChatGPT为例。我看到的人当中,至少95%是这样的:
没头没脑地贴了几篇文章过去,然后叫AI生成一篇新的文章。拿到结果一看,很不满意,于是下了结论:
AI真垃圾,都是资本吹起来的。
只有少于5%的人会这样做,他们会想明白两件事:
第一,自己到底要的是啥?比如,文章的核心内容是什么,结构是怎样的,风格是怎样的?
第二,AI是怎么执行的?比如,它会怎么思考我们的指令,它都需要什么东西才能把活儿做好,过程中需不需要我们给个反馈、指导一下?
这样的少数派具备两个非常宝贵且重要的品质。
一是态度,用一个流行词来形容就是:
不吹不黑。
他们既不会去神话AI,觉得AI无所不能,也不会完全否定,觉得AI做不到100分就是没价值。
因为现在的AI只能当Copilot,也就是副驾驶。握方向盘的人还是Pilot,也就是用户。所以对于没脑子的Pilot来说,Copilot再强都没用。
这些5%的少数派的态度就是,AI能做多少,就用多少。做得好的地方,该花钱就花钱,不犹豫。做不到的地方,也不焦虑,反正咱又不是模型厂商,AGI能不能实现咱不操心。
二是视角,AI的视角。
大模型是什么?是知识的容器。
训练大模型的过程,是对知识进行压缩的过程。使用大模型的过程,是对知识进行解压的过程。其它的一切,都是从大模型出发去做扩展。比如:
- Fine-tune是什么?是给大模型开个补习班,再学点新知识。
- RAG是什么?是给大模型一堆参考书,要用的时候翻一翻。
- Agent是什么?给大模型一个工具箱、一本操作手册,让它正式上岗去帮我们干活。
如果你读过KK的《科技想要什么》这本书就会有感觉:这绝对是一个不同于我们常规定义的生命体、智能体。这也是我们第一次面对除了人类以外的复杂系统。
所以想要了解并利用好AI的话,一定要转换视角,站在AI的角度、站在系统的角度去窥探和理解。
如果你是那5%的少数派的话,或者你真心想学会怎么用AI的话,我这边有两个建议,都是我自己的经验总结。
我在刚创建知识星球newtype的时候分享过我的经历。其实我没有任何相关背景,最初也不懂编程啥的,完全是从零开始、自学半年。我所用的,就是以下这两个方法。
第一,DYOR,Do Your Own Research。
这句话在币圈很流行,意思是,做好你自己的研究,别都听别人的。对于学习使用AI也适用。
有一个很扎心的事实我不得不说说:关于中国和国外在AI方面的差距,比技术差更大的,是认知差。
从媒体到商业大佬,大家都还在学。尤其是那些大佬,等你真正做了研究就会发现,他们都是一知半解。但是,人家为什么敢出来说、敢出来教?两个原因:
一是为了影响力。在AI这种级别的技术革命面前,所有人都是从新开始,不管你之前有多牛、地位有多高。为了抢个先手,他们当然要主动抛头露面,趁着在上个时代的影响力还有点余温的时候。
二是为了学习。在精英眼中,输出也是一种学习的过程,而且特别有效。所以,看着是他们在教你,其实人家只是对着镜头在背作业。
最先进的、最及时的AI内容都在国外。你只能自己学,没人能手把手教你。
当你开始学之后,这边有一个点要注意:尽可能找到源头。
比如,你看到很多人都在讨论,大模型训练用的高质量数据快不够用了,将会限制模型性能的进一步提升。
如果你只停留在这一步,那只能得到一个其实没什么用的、所谓的观点。如果你肯多问几句,比如:为什么需要海量数据?大模型从这些数据中究竟学的是什么?数据不够的话,合成行不行?让现有的大模型生成数据,给下一代大模型训练,可不可以?
顺着逻辑一路追问下去,并且找到每一个答案,你就能在源头层面把这个问题吃透。
不用纠结要不要很系统地去学习,只需要把每一个点都弄扎实了,一段时间之后你就会发现,这些点都串联成了一张网。而且,它们背后是同一套根本的逻辑。
当你走到这一步,恭喜你,入门了。
第二,学Python。
很多大佬都在吹:不需要学编程了,人人都可以是程序员。
我可以很肯定地跟你说,也许几年之后是这样。但现在,编程还是一个不可替代的能力。
那么,学AI为什么要学Python编程?
Key Takeaway
- AI时代,大模型作为知识容器,人类在知识广度上无法胜出,唯一的解是“Go Fundamental”(深入基本原理)。
- 基本原理相对稳定且具有普遍性,能应对技术快速更新,并应用于多个领域。
- 人类在AI时代的独特优势在于抽象思考、跨领域联想和创造性思维。
- 将人类独特优势与对基本原理的掌握相结合,能带来巨大的创新和成就。
- 掌握基本原理能帮助个体在AI时代更具竞争力,将AI作为杠杆,撬动更大的价值。
Full Content
如果你知道在AI时代如何学习的话,那么大模型变得再牛逼,你也不会慌。
为什么大模型会让大家这么焦虑?
因为大模型的本质,是知识的容器。
大模型的训练过程,就是对知识的压缩过程。
大模型的使用过程,就是对知识的解压缩过程。
这个容器,容量大,使用难度低,而且谁都可以用。所以,在知识的广度上,咱们人类是不可能有胜算的。
我认为唯一的解是:Go Fundamental。
也就是说,在AI时代,如果你要学习,不管是哪个领域,一定一定要深入到基本原理层面。
为什么这么说?我总结了两个根本原因。
第一,技术的更新速度非常快,但基本原理相对稳定。而且,基本原理通常具有普遍性,可以应用到多个领域。
举个例子,计算机科学领域的算法复杂度分析,最早可以追溯到图灵那个年代。到了今天,这个这么老的理论依旧被用来评估模型的效率。
什么叫算法复杂度分析?
举个例子,一个客服中心,给50个客户打电话,需要3个人、一天的时间。当客户数量增加到5000的时候,又需要消耗多少人力资源和时间呢?
同样的道理,在大模型领域,当数据量增加的时候,训练时间会怎么变化?它所需要的计算资源会怎么变化?
所以,算法复杂度分析关注的就是,当任务规模增大的时候,完成任务所需时间或资源的增长速度。这个在今天的AI时代依然有效,而且特别重要。
我再举个例子:数学中的优化理论,是算法的核心。比如,训练神经网络本质上就是一个优化过程,目标是找到能最小化预测误差的网络参数。
那么你知道这个优化理论最早是从哪来的吗?
欧几里得在《几何原本》当中讨论了求两点间最短距离的问题,算是最早对优化问题的思考。不过那个时候只是开始思考,还没形成系统理论。
到了18世纪末到19世纪初,在物理问题驱动下,这个理论的基础开始形成。到了20世纪中后期,随着计算机科学的发展,优化理论成为一个独立且重要的数学分支。
这就是为什么说,基本原理基本不变,并且具有普遍性。
那些日新月异的变化,统统交给AI去学习。咱们就把握最基本的、最底层的理论,建立起最扎实的理解。
我相信大家应该都听过这样的话:当你在某个领域爬到山顶的时候就会发现,领域之间其实是相通的——你在这个山顶其实能看到那个山顶。这其实是一个意思,只不过,与其说是向上爬,不如说是向下深入,一直深入到基本原理层面,于是一通百通。
OK,这是第一个原因。第二个原因是,跟AI相比,人类的独特优势在于抽象思考、跨领域联想,以及创造性思维。当这种独特优势和对基本原理的掌握相结合,往往能带来意想不到的、极其巨大的结果。
我举几个牛逼的例子:
达芬奇结合艺术和解剖学知识,创作出精确而富有美感的人体绘画。
毕加索融合非洲艺术元素和欧洲绘画传统,开创了立体主义。
爱因斯坦将数学知识应用到物理学上,提出了相对论。
沃森和克里克结合生物学和化学知识,发现了DNA双螺旋结构。
在我看来,这些都属于把抽象思考、跨领域联想、创造性思维这些独特优势和基本原理结合的成功案例。
试想一下,如果真的能做到Go Fundamental,并且尝试将这些原理与其他领域的知识相结合,去碰撞、去延展、去发散,我相信,这样的个体在AI时代会非常有竞争力。他一定不会焦虑AI,反而能把AI当做杠杠——那么宽广的知识储备就是一根超级长的杠杠,而他自己就是那个支点。这样的超级个体和AI所组成的超级系统,肯定能撬动非常大的质量,取得很高的成就。
OK,以上就是本期内容。今天聊的有点虚,但是我觉得会比之前介绍某个具体的技术、工具都更有价值。大家想进一步交流的话,就来newtype找我,我都在。那咱们下期见!
Key Takeaway
- 提示词的本质是通用沟通技巧,而非AI独有技术,其底层是逻辑和方法论。
- 学习提示词应侧重于提升逻辑思维、沟通方法论和写作能力,而非购买提示词课程。
- 好的提示词需要针对不同AI模型的“认知模式”进行优化,这需要通过反复尝试和对比来了解。
- 对于普通用户,掌握提示词的底层逻辑即可,无需深入模型优化层面。
- 文章批判了提示词工程的“天花板低”和“被小白崇拜”的现象,鼓励追求更高层次的认知。
Full Content
最近很多人问我怎么学提示词工程。尤其是要不要买那些提示词课程。我回想了一下,做了快一百期的AI视频了,还真没聊过提示词。所以本期就算是一个统一回复。
先说结论:别学提示词,更别买那些课程,没用。
提示词有两层。处于最底层的,是逻辑和方法论。就像我在星球里说的,这一层跟AI没啥关系。
你想嘛:提示词的本质是什么?
一句话:通过清晰的逻辑结构和表达方式,向AI传达任务或问题。
用户提供明确的目标、上下文、约束条件,最终引导模型输出符合预期的结果。
所以,提示词说白了就是组织语言来驱动模型推理,它其实是一个通用的沟通技巧,非常类似人类之间的任务指令。
我举个例子,你们就明白了。
我问Claude一个观点性的问题:你对本赛季皇马的表现有什么观点?
Claude使用MCP搜了资料之后,采用我们常见的“总分总”的逻辑来回答:
在开头和结尾提到了皇马依旧是顶级俱乐部,仍然很有竞争力;中间列举取得的成绩,当然也包括一些挫折。
抛开结论不说,这个回答看起来没什么毛病。大多数人在表达观点的时候如果能做到“总分总”就已经非常不错了。
但是,如果你的逻辑好,懂一些关于表达的方法论,那么AI给出的答案会很不一样。
我开了个新窗口。这一次,我给了Claude一套我最常用的方法论。
使用Point-Reason-Example-Point的逻辑进行回答。
- Point:先提出观点;
- Reason:给出理由;
- Example:基于观点和理由,给出对应的例子;
- Point:最后重申观点。
还是同样的问题:你对本赛季皇马的表现有什么观点?
你看这一次,Claude的回答就清晰非常多了。
首先,它给出明确的观点:皇马多条战线失利,表现不尽如人意。
接着给出理由:伤病问题,战术体系没闭合,跟巴萨的关键比赛都输了,几个核心球员的共存问题。
然后举了一堆例子:比如,欧冠、西甲、国王杯、超级杯都挂了。
最后,再次重申观点:皇马本赛季四大皆空,哪哪都是问题。
刚才我给的那套提示词——Point、Reason、Example、Point,也就是PREP,是专门用来组织、表达观点的方法论。
那么,这套PREP属于“提示词工程”吗?是,也不是。
说是,是因为,我确实把它放到提示词里了,发挥了提示词的作用。
说不是,是因为,它压根就不是什么独特的、专门给AI用的东西。我写脚本的时候都在用。我平时说话的时候也经常不自觉地在用。为了让AI的观点表达更有逻辑,我把这套东西教给它,仅此而已。
类似的例子还有很多。你只要把那些花里胡哨的提示词拆开来,仔细研究就会发现,给模型下Brief,其实和给你的同事、你的供应商下Brief是一样的。就像前边说的,它真的就是一个通用的沟通技巧。
如果你像我一样,有很强的逻辑,也很懂得提炼方法论,那么完全不需要专门去学什么提示词工程。我看到任何关于这方面的内容都是直接跳过的。
如果你自身的逻辑不太行,那么学了提示词有没有用呢?有,但是不多。因为没有逻辑能力的支撑,你很难举一反三,只能在有限的场景里使用别人做出来的提示词。
这个就是今天提示词课程的尴尬。懂的人不需要,不懂的人用起来也就那样。而且卖课的人不敢教最底层、最本质的东西。因为一旦戳破了,大家就会发现,这跟AI关系不太大。一旦没了AI这个噱头,还怎么卖钱?
所以我才建议社群里的小伙伴,别去买什么提示词的课程。要学就去学逻辑,学沟通的方法论,学写作的方法,等等,都可以。但就是别特意去学什么提示词。
OK,这是提示词的底层,大家都理解了。那么,再上一层,是针对模型进行优化。
不同AI模型对提示词的敏感度、理解方式和响应风格不同。比如,有的模型需要很具体的指令,有的模型更擅长处理开放式问题。
所以,好的提示词需要针对模型的“认知模式”进行优化。
那么,我们怎么知道各种模型的“认知模式”呢?很遗憾,只能靠反复尝试、对比,逐渐了解模型的行为模式。
比如,上下文敏感度,看看模型会不会遗漏关键细节;指令遵循性,看看模型会不会忽略细微的指令;创造性,看看模型想象力有多少。
对于普通用户来说,完全不需要进入到这个层面,只需要把最底层、最基础的做好就行了。就像我刚才演示的那个例子,模型给出的观点表述会好得多。
如果你真打算靠提示词收割流量,那就花点时间进入第二个层面。要当个所谓的“提示词大佬”一点都不难。只是挺无聊的。一是因为天花板太低了;二是因为整天被一群小白崇拜。
鹤立鸡群不值得骄傲。离开鸡群才是当务之急。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Agent平台分为生态流派(如钉钉)和工具流程流派(如dify),dify通过提供知识库和工具来创建Multi-Agent System。
- 学习Agent应从dify入手,因为它将代码逻辑以直观的流程图形式呈现,便于理解和实践。
- dify的工作流设计强调逻辑和流程的整体性,大模型仅在需要时介入,而非主导一切。
- 工作流可以根据用户输入进行条件判断和分支处理,实现更精细化的任务执行。
- dify的工作流示例(如文本总结)展示了如何结合知识库和Prompt来提升大模型的专业能力。
- 通过dify实践Agent,有助于建立对Multi-Agent System的基本认知,并为学习其他Agent框架打下基础。
Full Content
Agent平台有两大流派:
一是生态。比如钉钉这种。
在钉钉上边,已经承载了大量企业的部分业务,沉淀了很多内部数据。这时候你在原有生态基础上添加Agent,让企业能调用大模型的能力,并且围绕这个能力去构建智能化的工作流,是非常顺理成章的事儿。
二是工具流程。比如dify这种。
dify提供了创建Multi-Agent System需要的两个基础:
知识库和工具。其中,工具你可以用现成的,也可以自己创建。在这两个基础上,你再去搭建Chatbot、Agent,或者一大套工作流。
很多小伙伴看了我前几期视频,跑来私信问我该怎么学习Agent。我的建议是,通过擅长工具和流程的dify来上手。两个原因:
第一,之前在知识星球newtype里反复讲的——Agent最核心的,不是技术,而是工作流,是你想让它们具体怎么做。
dify在这方面做得特别直观——它把代码的逻辑,用流程的方式,在画板上呈现出来。你一用就明白。我待会儿会演示。
第二,也是我之前总强调的,Learning by Doing,边做边学。
对咱们来说,AI不是一个理论问题,而是一个实操问题。而dify特别适合拿来拆卸和组装。你就把它当作玩具、当作积木。当你把一个Workflow跑通了,不仅能学到点东西,而且还挺有成就感的。
那么,具体该怎么上手好呢?很简单:
先看看人家是怎么做的。dify官方提供了好多现成的工作流,你随便挑一个感兴趣的,拆开研究研究。然后再自己亲自动手,搭建一个简单的试试。
我带大家过一遍官方提供的工作流Sample,这个叫“文本总结工作流”。
一般来说,一套工作流是以用户的输入作为起点的。在这个文本总结工作流里,它要求用户输入需要总结的文本,并且选择总结之后是个概述,还是技术摘要:
如果只是概述的话,那很简单,直接让大模型搞就好;如果是技术摘要的话,就会涉及到很多专业的概念和表述,这就需要用到知识库,毕竟大模型的预训练资料中不包含这些Domain Knowledge。
第一步让用户二选一,那么在第二步,就需要根据用户的选择,做一个条件判断,用到if、else——这个对有编程经验的小伙伴来说,应该非常亲切。
因为有了条件判断,所以在第三步出现分叉,就像前边说的:
如果用户要的东西会涉及到专业内容,那么就去知识库里检索一下。然后把用户要总结的文本,以及从知识库里找到的相关内容一起给到GPT-3.5。
如果用户单纯只是要一个文本的概述,那就直接把需要总结的文本给到GPT-3.5,省掉知识库检索的步骤,速度会快一些。
当分叉的第四步完成之后,第五步就是把两个分支进行合并。不管是哪种情况,反正把结果拿过来,给到第六步,套进一个模板,最后全部完成。
这就是一个典型的工作流。我之所以拿出来介绍,是希望大家能理解人家的思路:
第一,大模型并不是全部,而是在一些需要它发挥作用的环节才出手。最重要的还是逻辑、流程,是一个整体性的东西,需要你有全局观。
就像刚才那个分叉,你如果在一开始没有特意让用户帮你做一个选择,以及后边不加条件判断环节的话,那你只能不管三七二十一都去知识库里做检索,这样速度会慢很多。
第二,如果涉及到知识库的话,需要给大模型提供两个东西:知识库里检索到的信息,和最初用户的需求。这一步跟RAG里的流程是一样的。
这两个输入,可以在大模型的Prompt里交代清楚。你愿意的话,可以在这边把你期望的格式也告诉大模型,其实也就是CrewAI里的expected output。
除了我刚演示的官方Sample,其它的也建议大家看看,就知道一般都有哪些玩法了。举个例子:
如果需要根据用户的输入来判断后边怎么执行的话,除了刚才那个if、else的条件判断,还可以用“问题分类条件”——根据不同的内容,去对应的知识库里找参考资料,然后再给大模型回答。
当你把这些现成的工作流都吃透了,就可以自己上手组装一个了。一旦跑通了,你对Multi-Agent System的基本认知就有了。
假如你之后学了某个Agent框架(比如AutoGen)就会发现,逻辑都是一样的。而有了在dify上建立起来的理解,你再用Agent框架应该会顺手得多。
OK,以上就是本期内容。有什么想聊的,来知识星球newtype找我,我都在。咱们下期见!
Key Takeaway
- AI将成为衡量个人能力的标准,其应用能力将成为基本技能。
- 作者分享了一套AI学习法:首先对议题进行拆解,梳理个人初步判断和问题,为AI提供上下文。
- 利用Gemini的Deep Research功能生成多份详细报告,并通过Google文档导入NotebookLM进行AI辅助学习。
- 使用Cursor结合Gemini 2.5 Pro对所有资料进行整合、精简和脱水,最终输出为Markdown格式的文件。
- 强调Markdown格式是AI时代最适合的文件格式,便于人机理解和长期保存。
- 整个AI学习流程显著提高了学习效率,拉开了人与人之间的差距。
Full Content
很快,AI就会成为人的标准。
AI生成的东西,是平庸的标准。如果你做出来的东西,比如写了一篇稿子或者弄了个报告,比不过AI的话,那么你在这个方面就是平庸的。
对AI的应用,是基本技能的标准。不会在工作中把AI用起来,就好比今天不会用Office软件。不会在学习中把AI用起来,就好比今天不会用搜索引擎查资料。
我一直觉得,今天的AI已经足够强了。按照这个趋势再更新一代,也就是GPT-5、Claude 4、Gemini 3.0的那一代,AI就会达到一个成熟的状态。AGI能不能实现不重要,因为现有的已经足够深刻改变人类社会了。
大部分人还意识不到这一点。这就是为什么我要一直出视频的原因——我要把那些能看到未来的人筛选出来、聚集起来。本期视频,我会用一个具体的例子,分享我目前是怎么用AI学习的。如果你看了有感觉,记得加入我们社群。
OK,咱们开始吧。
当我想深入了解某个议题的时候,我不会直接问AI,而是先自己做拆解。
比如,我对AI PC有疑惑。如果我上来就直接问AI,那大概率就是:请给我生成一份AI PC发展趋势报告。
不客气地说,这种搞法,是非常低效、无效的,也是非常没水平的。我不用看结果都知道,肯定是一份四平八稳、特别水的报告。
正确的做法是,你要先在自己脑子里过一遍,先做拆解,把你对这个议题的初步判断、大致理解、特别想弄明白的问题梳理出来。比如,关于AI PC,我特别想知道的有两点:
第一,AI PC是不是伪命题?
我知道,在最关键的算力问题上,AI PC用CPU、NPU和GPU来分配和调度。那么,NPU真的靠谱吗?真的不是鸡肋吗?这个在我这边是要打个问号的。
所以第一个问题其实是关于这个品类的问题,会涉及到品类的定义、行业的标准。
第二,AI PC发展得起来吗?
我知道,目前除了英特尔在推,高通、AMD也都在搞。虽然我还不了解具体情况,但根据江湖经验,大概率这三家会有自己的路线、架构以及工具链。这就会给开发者造成很多优化上的麻烦,因为标准不统一嘛。
所以第二个问题其实是关于行业格局、生态发展的问题。
你看,这个做拆解的过程,其实就是融入个人思考上下文的过程。对于一个议题,每个人都有不同的理解、不同的侧重点。你不做拆解,就无法提炼出来,就无法给AI提供更多的Context,那AI又怎么可能生成你想要的东西呢?
就像我之前在社群里说的:
AI时代,答案都在那里,只要你能问对问题。
当做完拆解之后,我就可以通过Deep Research生成多份报告,各有各的针对性。就像AI PC的例子,我让Gemini帮我生成了两份报告。
为什么是两份而不是整合成一份?因为单份的会更详细、更聚焦。而且,两份报告之间肯定有重叠的部分。没准能互相补充或者验证。
报告好了之后,就可以导出到Google文档了。我前两天在社群里说过,这是别家都没有的功能和体验。因为,导出之后,就可以在NotebookLM里添加了。
NotebookLM是目前最好的AI学习工具,我推荐过好多次了。它特别适合有教材、有文档的场景。
在这个框的左下角,我们可以从Google文档里加载。刚才导出的两份Deep Research报告都在里边。
等个几秒钟,模型会完成解析。这时就可以对话了。比如,我会问它:AI PC是伪概念、智商税吗?NPU是鸡肋吗?英特尔、高通、AMD在发展AI PC上,有哪些路线、架构的不同?
这些回答,如果觉得OK的话,可以Pin一下,把它们变成笔记。
我知道,有的人可能还是会抱怨,Deep Research出来的东西还是不太行。其实在我看来,不管是好的反馈还是坏的反馈,都是反馈,都有价值。
比如Gemini做这两份报告,应该查了上百个网页,把目前关于AI PC的公开报道都覆盖了。所以,假如这两份报告不太OK,我也会很高兴——因为它代表了目前媒体、自媒体的看法,说明目前的市场共识是有问题的。而我将要去挖掘更正确、更有可能成为下一阶段市场共识的非共识。
如果你有投资、有创业的Mindset,遇到这种共识偏差情况,应该会非常兴奋。当然啦,普通大众没有,他们只会抱怨。
好了,不跑题。我这个AI学习过程还没完,咱们继续。
通过刚才的问答,我们在NotebookLM的帮助下,把资料消化得差不多了,也保存了一些笔记。那么下一步,我会让AI帮我把所有的资料都整合成一份,包括最初生成的两份报告,以及在探讨过程中存下来的、我感兴趣的笔记。
之所以要这么做,主要原因是,学习不是这一趟学了就完事了——之后还得重温,还得学而时习之,有需要的时候肯定还会回来翻看。所以,我需要把这个过程中的所有产出都整合,变成一份完整的东西。而且,还要做精简、脱水,只保留最精华的部分,这样下一次我查看的时候,效率更高。
为了实现这个效果,我这边用到Cursor,搭配Gemini 2.5 Pro。
Key Takeaway
- Google Gemini提供了教育优惠,可免费使用Gemini Advanced、NotebookLM Plus和2TB网盘空间。
- Gemini的超大上下文长度(100万token)使其在处理长文档(如PDF翻译)方面表现出色,远超其他模型。
- Gemini与Google生态系统深度整合,能无缝处理YouTube视频总结(带时间戳)、Gmail邮件翻译和回复、Google Docs和Sheets的内容编辑和生成等。
- Gemini的强大生态和模型能力使其在AI应用竞争中具有显著优势。
Full Content
最近是入手Gemini的好时机。因为Google推出了教育优惠,可以免费使用15个月的AI产品,包括Gemini Advanced、NotebookLM Plus,以及2TB的网盘空间。
我在Twitter上看到好多人已经薅到这一波价值300美金的羊毛了。听说那些卖教育邮箱的都赚翻了。具体方法网上很多教程都有,这里就不展开了。
那么,当注册好之后,该怎么用好Gemini呢?我这边分享两点经验,也是Google和OpenAI在模型及产品方面的很大不同。如果你有好的用法,也欢迎在评论区告诉我。
第一,上下文长度。
当大部分模型还停留在128K的时候,Gemini已经达到100万了,并且之后还准备扩展到200万。所谓上下文长度,你可以简单理解就是AI一次性能处理多少内容。那么,超大上下文不管是在编程还是日常使用,都非常有价值。我演示一下你们就明白了。
我这边有一份几十页的PDF文档,分别让ChatGPT和Gemini帮我全文翻译。
先来看ChatGPT这边。当我把文档扔进去之后,它说,这个文档太大了,只能分批翻译。
而Gemini那边特别干脆,直接一口气就全搞定了,而且速度快多了。
你看,这个就是硬实力,也是我非常喜欢Gemini的原因。这就好比是,ChatGPT一杯酒扭扭捏捏还没喝完,Gemini已经吹一瓶了。
所以,以后有任何英文的PDF,你都可以放心交给Gemini处理。“全文翻译”这四个字的含金量,你用了就知道。
第二,生态打通。
AI已经到了拼应用的阶段了。这个时候,有生态和没生态,那完全是两种用户体验。
举个最简单的例子:处理YouTube视频。
很多YouTube视频非常有质量,比如Lex的。但是,他的播客动不动就三个小时,我是真没时间看下去。所以,贴到Gemini里边,让它帮我总结Key takeaway。
这时可以看到,Gemini会调用YouTube,把Key takeaway和对应的时间戳都一起输出。如果对哪个部分感兴趣,点击时间戳就可以直接跳转过去,非常方便。
作为对比,我把同样的需求给到ChatGPT。它应该是调用第三方插件完成的,但是效果差多了。一是颗粒度不够,二是没有添加用来跳转的时间戳。
把YouTube链接给Gemini处理算是比较高频的需求了,不管你是学习还是做自媒体都用得着。除此之外,Gemini跟Google的其它产品还有更多联动。
之前我在视频里分享了Gemini Deep Research、Google Docs、NotebookLM之间的配合。其实,Gemini已经遍布Google全家桶。
当你成为付费用户之后,打开Gmail就会看到,右侧多了Gemini的对话窗口。你可以让它帮你翻译邮件,或者起草一个英文回复,把大概意思告诉它就好。
还记得刚才我让Gemini全文翻译的文档吗?因为我打开了Canvas功能,所以可以把结果导出到Google Docs。然后,在Google Docs里边,可以对这个文档做进一步的编辑处理。
比如,我可以让Gemini更通俗易懂地总结全文核心要点。然后在文档的开头直接插入。
除了操作文档,Gemini还可以帮我们操作表格。这个太无聊了,我就不演示了。简单来说就是,以前我们在单元格里输入等号,然后可以做一些加减乘除。那现在有了Gemini之后,同样输入等号,后面跟AI加括号,就可以把提示词和要操作的单元格输入进去,让AI帮你搞定。
你看,这个就是老牌互联网厂商的家底。人家要模型有模型,要生态有生态。你要是敢打价格战,人家高兴还来不及呢。OpenAI作为新公司,上半场很风光,到了下半场的淘汰赛,会很有压力。
刚才介绍的那些,都是最常用的。除此之外,还有Gem可以做定制化,输入提示词、上传文档就行,这个大家就自己尝试吧。
OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!