知识管理
Key Takeaway
- 秘塔AI搜索的专题功能是其核心更新,提供了知识库功能,支持多人协作和API调用。
- 知识库的创建和分享加速了知识的流动,实现了“RAG as Service”。
- AI要变得有用,需补充领域知识和领域经验,秘塔通过专题和工作流来解决。
- 专题功能通过整合搜索结果、文档、网址和文章,强化了AI的输入能力。
- 秘塔通过概念图、术语表等功能强化了AI的输出,提升了知识库的可用性。
- 问答引擎的未来形态将是更精细化的知识流动和用户与AI的深度协作。
Full Content
我给自己的博客加了一个AI客服。现在,你有任何关于AI相关的问题都可以问它。比如,什么是过度拟合?大模型是如何预测下一个Token的?或者,大模型能像人类一样思考吗?
在这个AI客服的背后,是一个超大的知识库,有将近2000篇专业论文和文章。而知识库的后边,是秘塔的RAG技术。
前些天秘塔AI搜索上线了专题功能,其实就是大家非常需要的知识库功能。
用户可以把文档、网页、文章,甚至秘塔的搜索结果全都保存进知识库。秘塔会对这些资料做数据清洗、解析等等。然后大模型再根据资料回答用户的问题。
秘塔的这次更新,我个人最最喜欢的,是分享和API两大功能。
在专题分享设置中,如果你把“可编辑”权限打开,那么被分享的人也可以上传资料到专题的知识库当中。这意味着可以多人运营同一个专题。
比如,办公场景,团队里的每个人都可以及时更新专题知识库,让AI跟上你们的业务进度。在学术场景,一起搞研究的小伙伴,不管是谁发现了有价值的论文,都可以上传,特别方便且有用。
至于API功能,它让专题内沉淀的大量宝贵资料可以被应用到更多地方。比如,我开头说的那个包含2000篇专业论文的专题,就是秘塔官方做的。我拿到API信息之后,在Cursor的帮助下,没写一行代码,就是纯对话,不到半小时就把AI客服给做出来了。
这个其实就是国外特别火的RAG as Service。如果你只是一些轻量化的需求,那真的没必要去本地部署那些消耗特别大、调试起来特别复杂的RAG,性价比太低太低了。真的,我自己折腾过之后发现,用人家现成的就挺好。
回过头来再看专题这个功能:创建知识库是把知识引入——Input;分享和API是让知识流出——Output。整个加起来,秘塔其实在做一件事:加速知识的流动。
哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600位小伙伴付费加入啦!
回到今天的主题:秘塔AI搜索的专题功能。
秘塔是一款问答引擎产品。但是我觉得,它应该不会止步于问答引擎,或者说,问答引擎不应该是它的终极形态。
我之前在社群专属视频里说过,AI要变得有用起来,一定要补上两点:领域知识,和领域经验。
很多知识是非公开的,只在特定领域内流通 ,AI获取不到。或者,它虽然公开,虽然也上网了,但是网上压根搜不着。如果AI接触不到这些领域知识,那么,它就无法在知识层面、信息层面上跟用户同步和对齐,这就没法协作了。
所以,AI需要RAG,需要知识库,把领域知识补上。
再来看领域经验。经验是比知识更加非标准化、私密化的东西。比如你是开足疗店的或者开美容院的,从客户一进门的问候,到引导他选择套餐,所有环节加起来得有几十项的经验,这些都装在老板的脑子里,是最佳处理方式。如果AI接触不到领域经验,那它就只能以一个新人身份、硬着头皮往上顶了。
所以,AI需要Prompt,需要Agent Workflow去对接SOP,把领域经验补上。
从知识和经验的视角看问答引擎,我们会发现,在输出方面,问答引擎已经做得很好了——它给你的不是网页,而是答案。但是在输入端,互联网上的信息只是补充和更新了它原本就具备的通用知识。领域知识和领域经验还是欠缺的。
所以,秘塔做了两件事:
在搜索范围之外,秘塔增加工作流。比如市场营销分析、股票分析等等。这个就是把领域经验传授给AI的初级方式。后续还有很大的迭代空间。
另一个就是最近上线的专题功能。它给AI添加了一个外挂知识库。这个知识库包含四种内容。
一是搜索结果。直接点击问题右边的加号按钮就可以保存进专题。这样一来,很多我们觉得有用的搜索结果就可以分类存起来,以文章的形式进入知识库。这一点秘塔做得很赞。
二是文档。比如PDF、Word。我最经常做法是,先大致扫一遍论文,有个初步的概念,不然都不知道该问啥、聊啥。然后再给到AI,做进一步交流。
三是网址。比如,一些公司的官网上有大量的新闻稿和产品信息。这时候就可以让AI爬取里边的内容作为参考。这算是一种强指向型的指令——让AI别到处瞎搜索了,就看这个网站。
四是文章。通过新建文章,我们可以直接贴文本进去。省去了还得创建一个文档,然后再把文档上传的麻烦。
通过包含这四种内容的外挂知识库,秘塔给AI补充了它原本不具备的领域知识或者说是来自私域的信息,以及需要AI重点关注的来自公域的信息。
上面这些都属于强化输入。而在强化输出方面,秘塔解决了一个头大的问题:
当知识库里的信息越来越多之后、时间久了之后,我们可能会有点懵,拿不准里边都有什么、该问什么。这个时候,概念图、术语表、学习建议、内容概要、建议问题这五个东西就很重要了。
只要你知识库里的资料超过5份,秘塔就会自动帮你生成这些。
它会读取所有资料,把作者和对应的主题建立关联,以概念图的形式呈现。这个对于论文之类的内容特别有用。
如果你有很强的学习需求的话,那么术语表、学习建议和内容概要肯定能帮到你。知识库的体量越大,效果越显著。
如果说原本的搜索加AI是问答引擎1.0形态的话,那么,强化了输入和输出之后的专题就是问答引擎2.0形态。从原来那个更大、更泛的漏斗进阶到了一个更小、更精的漏斗。
那么,问答引擎3.0形态会是什么样子呢?我建议秘塔可以考虑把Perplexity的Page功能加到专题里边。
因为从1.0到2.0,里边的信息经过用户的主动提纯,更加接近生产需求。用户在专题里边进行多轮对话、进行思考的动力会更强。这时候,像Page这种工具就非常适合,因为它是把是把我们习惯的边搜索、边构思的过程具像化了、产品化了。
在类似Page功能的帮助下,用户和AI互相配合,又对信息或者说知识做了一道提纯,形成新的、下一层级的漏斗。这是我觉得问答引擎3.0形态该有的样子,以及背后的逻辑。
从1.0、2.0到3.0,我有一个感觉:知识的流动就像水流一样,从主干分成无数的支流,最终又汇总回主干,完成循环。在这个流动的过程中,像秘塔这样的产品,它们的价值就在于疏导和加速。
OK,以上就是本期视频。大家看完了记得去试试产品。那咱们下期见!
Key Takeaway
- AI将成为衡量个人能力的标准,其应用能力将成为基本技能。
- 作者分享了一套AI学习法:首先对议题进行拆解,梳理个人初步判断和问题,为AI提供上下文。
- 利用Gemini的Deep Research功能生成多份详细报告,并通过Google文档导入NotebookLM进行AI辅助学习。
- 使用Cursor结合Gemini 2.5 Pro对所有资料进行整合、精简和脱水,最终输出为Markdown格式的文件。
- 强调Markdown格式是AI时代最适合的文件格式,便于人机理解和长期保存。
- 整个AI学习流程显著提高了学习效率,拉开了人与人之间的差距。
Full Content
很快,AI就会成为人的标准。
AI生成的东西,是平庸的标准。如果你做出来的东西,比如写了一篇稿子或者弄了个报告,比不过AI的话,那么你在这个方面就是平庸的。
对AI的应用,是基本技能的标准。不会在工作中把AI用起来,就好比今天不会用Office软件。不会在学习中把AI用起来,就好比今天不会用搜索引擎查资料。
我一直觉得,今天的AI已经足够强了。按照这个趋势再更新一代,也就是GPT-5、Claude 4、Gemini 3.0的那一代,AI就会达到一个成熟的状态。AGI能不能实现不重要,因为现有的已经足够深刻改变人类社会了。
大部分人还意识不到这一点。这就是为什么我要一直出视频的原因——我要把那些能看到未来的人筛选出来、聚集起来。本期视频,我会用一个具体的例子,分享我目前是怎么用AI学习的。如果你看了有感觉,记得加入我们社群。
OK,咱们开始吧。
当我想深入了解某个议题的时候,我不会直接问AI,而是先自己做拆解。
比如,我对AI PC有疑惑。如果我上来就直接问AI,那大概率就是:请给我生成一份AI PC发展趋势报告。
不客气地说,这种搞法,是非常低效、无效的,也是非常没水平的。我不用看结果都知道,肯定是一份四平八稳、特别水的报告。
正确的做法是,你要先在自己脑子里过一遍,先做拆解,把你对这个议题的初步判断、大致理解、特别想弄明白的问题梳理出来。比如,关于AI PC,我特别想知道的有两点:
第一,AI PC是不是伪命题?
我知道,在最关键的算力问题上,AI PC用CPU、NPU和GPU来分配和调度。那么,NPU真的靠谱吗?真的不是鸡肋吗?这个在我这边是要打个问号的。
所以第一个问题其实是关于这个品类的问题,会涉及到品类的定义、行业的标准。
第二,AI PC发展得起来吗?
我知道,目前除了英特尔在推,高通、AMD也都在搞。虽然我还不了解具体情况,但根据江湖经验,大概率这三家会有自己的路线、架构以及工具链。这就会给开发者造成很多优化上的麻烦,因为标准不统一嘛。
所以第二个问题其实是关于行业格局、生态发展的问题。
你看,这个做拆解的过程,其实就是融入个人思考上下文的过程。对于一个议题,每个人都有不同的理解、不同的侧重点。你不做拆解,就无法提炼出来,就无法给AI提供更多的Context,那AI又怎么可能生成你想要的东西呢?
就像我之前在社群里说的:
AI时代,答案都在那里,只要你能问对问题。
当做完拆解之后,我就可以通过Deep Research生成多份报告,各有各的针对性。就像AI PC的例子,我让Gemini帮我生成了两份报告。
为什么是两份而不是整合成一份?因为单份的会更详细、更聚焦。而且,两份报告之间肯定有重叠的部分。没准能互相补充或者验证。
报告好了之后,就可以导出到Google文档了。我前两天在社群里说过,这是别家都没有的功能和体验。因为,导出之后,就可以在NotebookLM里添加了。
NotebookLM是目前最好的AI学习工具,我推荐过好多次了。它特别适合有教材、有文档的场景。
在这个框的左下角,我们可以从Google文档里加载。刚才导出的两份Deep Research报告都在里边。
等个几秒钟,模型会完成解析。这时就可以对话了。比如,我会问它:AI PC是伪概念、智商税吗?NPU是鸡肋吗?英特尔、高通、AMD在发展AI PC上,有哪些路线、架构的不同?
这些回答,如果觉得OK的话,可以Pin一下,把它们变成笔记。
我知道,有的人可能还是会抱怨,Deep Research出来的东西还是不太行。其实在我看来,不管是好的反馈还是坏的反馈,都是反馈,都有价值。
比如Gemini做这两份报告,应该查了上百个网页,把目前关于AI PC的公开报道都覆盖了。所以,假如这两份报告不太OK,我也会很高兴——因为它代表了目前媒体、自媒体的看法,说明目前的市场共识是有问题的。而我将要去挖掘更正确、更有可能成为下一阶段市场共识的非共识。
如果你有投资、有创业的Mindset,遇到这种共识偏差情况,应该会非常兴奋。当然啦,普通大众没有,他们只会抱怨。
好了,不跑题。我这个AI学习过程还没完,咱们继续。
通过刚才的问答,我们在NotebookLM的帮助下,把资料消化得差不多了,也保存了一些笔记。那么下一步,我会让AI帮我把所有的资料都整合成一份,包括最初生成的两份报告,以及在探讨过程中存下来的、我感兴趣的笔记。
之所以要这么做,主要原因是,学习不是这一趟学了就完事了——之后还得重温,还得学而时习之,有需要的时候肯定还会回来翻看。所以,我需要把这个过程中的所有产出都整合,变成一份完整的东西。而且,还要做精简、脱水,只保留最精华的部分,这样下一次我查看的时候,效率更高。
为了实现这个效果,我这边用到Cursor,搭配Gemini 2.5 Pro。
Key Takeaway
- 作者分享了MacBook Pro的配置选择,并解释了为何选择14寸M4 Pro而非16寸M4 Max,以及未来将重负载任务交给Mac Studio的规划。
- 推荐Mac用户安装AI相关软件,如ChatWise,它支持主流闭源模型和开源模型(如Ollama),并提供搜索和Artifacts等工具。
- 强调了OpenRouter作为统一API管理平台的重要性,避免了多平台注册和绑定信用卡的麻烦。
- Cursor被认为是强大的AI编程工具,结合Claude 3.7更强大,并可用于知识库管理和AI辅助创作。
- Obsidian及其AI插件Copilot被推荐用于个人知识库,实现笔记的AI对话和实时信息查询,并强调了数据处理的重要性。
- 建议个人AI工具选择简单轻量化,企业级才考虑重型引擎。
- 此外,还推荐了Input Source Pro(输入法提示)、Rectangle(窗口管理)、Raycast(快速搜索)和Manico(应用快捷键)等效率工具,以提升Mac使用体验。
Full Content
我把新款MacBook Pro买回来了。借着新机入手,我给大家分享一下,Mac都有哪些必装软件,尤其是AI方面。这些工具绝对能提高你的日常效率和幸福感。
我订的这台是M4 Pro芯片,统一内存加到48G,1T硬盘。为了方便对着屏幕拍摄,我还加钱上了纳米屏。那么,为什么不上128G的M4 Max?两个原因:
第一,16寸实在太大了。我去店里看过。带着跑来跑去,真不太方便。14寸对我来说刚刚好。
第二,下半年我准备买Mac Studio。根据业内大佬推测,苹果应该会在年中或者下半年推出Mac Studio,芯片是M4 Ultra,比现在的M4 Max还强大。而且按照M2 Ultra的样子,统一内存能加到192G,比MacBook顶配的128G大多了。这样的机子拿来跑大模型不香吗?
所以,我想来想去,还是决定把重负载任务都交给Mac Studio。MacBook Pro就专心负责移动场景,就不为难它了。而且,M4 Pro加上48G统一内存已经足够给力了。
我平时拍的这些视频都是4K 10bit 422的素材,用达芬奇剪辑。这台机子剪起来完全没压力。跑大模型的话,我也测了两个黄金尺寸的效果:14B能达到每秒21个Token;32B能达到11。这样的表现,我非常满意了。
哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经快1000人付费加入啦!
回到今天的主题:Mac必装软件。咱们先从AI相关的说起。
当你用了一段时间模型厂商出的应用——比如ChatGPT、Claude之后,大概率会希望通过API调用模型,以及试一试在本地运行开源大模型。两个原因:
一是更自由地体验更多的模型,并且用多少Token就付多少钱。二是更自由地去选择和组合一套工具,完全适配自己的习惯和需求,作为日常主力。
这个时候,你就需要一款像ChatWise一样的应用。
在闭源模型方面,主流的模型厂商和主流的算力平台它都支持,肯定有你想用的。
我知道大家最近为了DeepSeek注册了好几个算力平台。但是,要稳定使用的话,我建议用OpenRouter就好了,不用看别的。它不会像国内那些平台那样,总出幺蛾子——你想薅它羊毛,它想割你韭菜。在OpenRouter里,把API Key填进去,市面上所有的模型都可以选择。这就免去了你每家都得注册账号、绑定信用卡的麻烦。
在开源模型方面,大家常用的Ollama和LM Studio都有。像Ollama,你都不用做啥设置,保持软件运行就可以。ChatWise自动把所有模型都列出来了。我平时用最多的就是DeepSeek-R1 14B和Qwen2.5 14B。
光有模型不够,还得给模型配上工具。你看ChatGPT不就是在GPT模型的基础上,加了各种工具,比如搜索和画布。那到了ChatWise这边,同样也有这两个工具。
Artifacts就我之前夸过好多次,就不多说了。搜索方面,你可以用Google的免费API,也可以调用Tavily的。他们是一个专门为大模型优化过的搜索引擎。我之前自己写脚本的时候用过,挺不错的。
或者,还有一个更简单的方法,不用这些搜索引擎,直接用Perplexity的API。他们微调后的模型,有搜索、有推理,效果非常好。
ChatWise这些进阶功能需要付费才能解锁。如果你就是想要免费的,那可以用Cherry Studio。但我还是付费了。并不是冲着功能去的,只是因为它好看,用着舒服。我认为,在功能大差不差的情况下,外观和流畅度就成为选择的关键。
所以,除了Gemini 2.0和Grok 3我是在官方的网站上用,其它的模型,我全通过ChatWise加OpenRouter和Ollama来搞定。
OK,日常AI主力工具说完了,那还有两个补充。
一个是Cursor。市面上的AI编程软件很多,在细分领域各有所长。但综合来看,Cursor就是最强的,没有之一。再加上前几天Claude 3.7发布,Cursor当天就支持了。有了比3.5还强20%的3.7加持,Cursor现在更猛了。
除了编程,Cursor其实还有一些框架之外的奇怪用法。我在上一期“AI学习法”的视频里有介绍过。大家可以找来看看,肯定会有启发的。
另一个是Obsidian。更准确地说,是它的AI插件Copilot。对我来说,它的作用有两个:
第一,当我在写笔记的时候,可以直接在软件内跟AI对话,不需要切换到别的软件去。说真的,切来切去特别打断思路。而且,Copilot也可以连OpenRouter,用Perplexity的模型完成搜索,不用担心查不到实时信息。
Key Takeaway
- 作者利用Gemini 2.5 Pro分析提炼个人IP内核,旨在成为“超级个体”,摆脱对体系的依附。
- 实现“超级个体”的两个核心杠杆是“代码”和“叙事”,它们在AI时代具有巨大潜力。
- 作者通过实践摸索出AI时代的学习和生存方法,强调Learning by doing和Go fundamental。
- 个人AI系统应具备“驾驭混沌”的能力,不完全依赖某一家AI生态,并持续创造产品。
- 文章分享了利用AI进行自我分析的方法,通过概念表、关系表和流程表来理解个人思想操作系统。
Full Content
昨天我跟AI进行了一次非常重要的对话:我让Gemini 2.5 Pro模型帮我分析、提炼个人IP内核。
过去一年多,我做了100多期视频,介绍了好多AI产品、技术、方法。那么,在这些表象背后,我究竟在主张什么?我的源动力又来自哪里?
关于这个问题的答案,说实话,我自己并没有事先想好,这一年多也没总结过。所以,就有了让拥有超大上下文的Gemini 2.5 Pro帮我处理的想法。
为了让Gemini了解我的思想,我把过去100多篇脚本、加起来超过7.5万字的内容全部导出、全部喂进去,然后进行三轮对话。每一轮都更加深入。最后得出一份三四千字的总结。
为了让这份总结更有可读性,我又把它放到最新推出的Gemini CLI里,进行可视化处理。于是,就有了这样一个网页。
我带着大家过一遍,你就知道我真正分享的是什么、主张的是什么。
以终为始。我用AI的目标只有一个:成为“超级个体”。我所有的分享,其实都来自于我自己的需求、我的探索和实践。
为什么会有这样的想法?
因为我在职场十几年,就没见到有好下场的。我特别想摆脱这样的游戏规则,摆脱对体系的依附。所以我要成为“超级个体”,把时间这个唯一的生产资料抓在自己的手里。另外,我还创建了newtype社群,筛选而非教育,去把像我一样的少数派聚集起来。
那么,该怎么实现?
我选择两个杠杆:代码和叙事。人要逆天改命,一定要用杠杆。经典的杠杆有资本和人力。可惜这两个都不适合我。作为一个小镇青年,我唯一可以依靠的,只有代码和叙事。尤其是这这个AI时代,我坚信,代码和叙事是每个人——不管你是大佬还是nobody,都要把握的杠杆。
顺着这个方向,我尝试了很多AI工具和方法。比如,个人AI知识库的搭建,本地大模型运行的方法,等等。我做这一切,都是为了实现系统化和流程化。
在实践的同时,我也摸索出了AI时代的学习方法,或者说是生存方法。比如我一直在社群内强调,要Learning by doing,不要依赖所谓的教程。一定要自己去Go fundamental,不要轻信那些自媒体,尤其是国内的自媒体。
所有这些总结起来,就得出了我这个操作系统的样子,包括内核、驱动、应用和固件。
刚出说的这些,都是Why,也就是我为什么会持续地分享AI的内容。那如果再往下一层,能挖掘出什么呢?
我想要成为独立自主、自我实现的“超级个体”。但是,作为个体,我又没法影响我非常依赖的AI生态。这个是Gemini挖掘出来矛盾点。
所以,我在个人AI系统的搭建上,绝不会完全依赖某一家。比如我的知识库就经历了好几次迭代,不只是完全本地化,还把模型层给抽出去,这样就可以随时更换。
另外,我今年一个很大的改变就是开始创造产品。过去一年,我聚焦在对内优化上,把经验对外分享。到了今年,我开始亲自做产品。用产品来承载我的方法论和价值观,用产品来对外输出。
所以,顺着Why再往下挖,Gemini给出了最终总结:
我其实是想打造一个能够“驾驭混沌”的个人操作系统:
以实现个人终极自由为目标,以代码和叙事为核心驱动,以驾驭外部技术生态的高度不确定性为核心策略,一套活的、不断自我进化的个人操作系统。
这个就是我个人IP的内核,也是我个人认知的内核。
这次我导入的只是我写的视频脚本。其实我还有笔记,准备导入进去,让Gemini帮我再分析一次。
如果你平时也积累了大量个人资料,可以试试这种方式。提示词非常简单:
把人的思想比作操作系统的话,这个操作系统包含三张表——概念表、关系表和流程表。那么,请根据我提供的文档进行分析,我的三张表里面有什么?
这个提示词就是第一步,从你的资料里把What提取出来。
接着,让Gemini进一步分析,挖掘出驱动这套系统运行的底层哲学、核心原则与最终目标,也就是Why。
最后,基于之前的What和Why,再深入一层,得出内在的核心矛盾、进化路径,并且预判可能面临的未来挑战。
这么一大套搞下来,我相信,对你肯定会有很大启发。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!