ChatGPT

ChatGPT最重要的更新:Canvas

Key Takeaway

  • OpenAI最新发布的Canvas是ChatGPT的重要更新,提供文本撰写和代码生成功能。
  • Canvas借鉴了Claude的Artifacts功能,并具有Grammaly的文本撰写风格。
  • AI产业已进入商业落地阶段,白领和程序员是AI替代的重点目标。
  • Canvas的文本撰写功能包括总结、扩写、调整风格、检查文本和添加表情符号。
  • Canvas的代码生成功能支持编写代码、更改编程语言和修复Bug。
  • 文章认为Canvas的推出对创业公司构成威胁,但其功能对已使用Artifacts和Cursor的用户而言并非颠覆性。

Full Content

留给打工人的时间真的不多了。

OpenAI最新发布的Canvas,是ChatGPT最重要的一次更新。它带来两个实打实的功能:文本撰写,和代码生成。

我第一眼看到Canvas就想到了两个产品:

一是Claude。Canvas算是借鉴了它的Artifacts功能。

我之前还在newtype社群里提到过,Artifacts特别像大学老师的黑板。你去请教老师的时候,他从身后拉了一块干净的黑板过来,在上边给你详细讲解和演示。

Artifacts推出之后,获得了所有人一致好评。现在OpenAI也跟进,看来这个功能会成为Chatbot类产品的标配。没准国内大模型厂商已经在开发了。

二是Grammaly。这是一款AI写作辅助工具,日活有3000万。

Canvas的文本撰写很有Grammaly的感觉。后续要更新的话,照着Grammaly抄就好——人家在这方面已经研究得很透彻了。这条赛道这么窄,玩不出什么新东西来。

我之所以说留给打工人的时间不多了,是因为:

整个AI产业已经进入到拼商业落地的阶段。大多数模型厂商都要去卷应用。只有少数能像Deepseek那样一心一意只做模型研发。

那么,往哪个方向去卷,能够向资本证明你的阶段性商业价值呢?

柿子捡软的捏。白领是最容易替代也是最好欺负的一个群体。现在底层的模型能力足够,只需要在产品层多下点功夫,把初级白领淘汰掉是没问题的。

程序员是另一个目标。像代码这种东西,标准化表达,数据量又大,AI学起来没问题。之前我介绍过Cursor和Replit Agent,就是在往这个方向走。

所以,打不过就加入。只有那些从现在开始就全力拥抱AI,并且不断琢磨怎么利用AI的打工人才能活下来。你不需要打赢AI,只需要打赢你的同事。

哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把AI的Why和How讲明白的博主。记得点一波关注,绝对不亏。如果想要链接我,就来newtype社群。已经500多位小伙伴付费加入啦。

回到今天的主题:ChatGPT Canvas。

目前这个功能还是Beta版,不太成熟。比如,它还不是通用功能,需要专门切到带有这个功能的模型版本。以及,我还遇到了聊着聊着GPT突然改用英文的情况。不过瑕不掩瑜,还是值得上手试一试的。

我先测试了它的文本撰写能力。把上期视频的脚本传上去,要求它根据这个内容写一篇博客文章。

这时,类似Artifacts的界面出现了。GPT-4o很快完成了初稿。注意看,OpenAI在右下角放上了几个定制化的功能,包括调整长度等等。

当我们把长度拉满,GPT会在原来基础上做扩写,最多能增加75%的文字量。

第二个功能,看字面的话,你会认为是按照不同学历水平去撰写他们能看得懂的文章。但其实它就是调整文字风格啦。

比如调到幼儿园级别,那么文章会特别通俗易懂。如果调到最高的博士生级别,那基本就是文绉绉甚至有点不说人话的感觉。

说实话,OpenAI这么设计有点冒犯的意思了。这跟学历完全没关系。这又是何必呢?

后边的两个功能很直接。一个是帮你检查文本,看看哪里有错别字,哪里需要加个小标题,等等。

另一个是在文章里加上emoji表情。Twitter上很多人在夸这个功能。我是无感。我绝对不可能在我写的任何文章里加上emoji。

当然,不用右下角这些设定好的功能也OK。咱们可以选中任何一段内容,直接对GPT下需求。比如,把开头改得更吸引人一些。或者,把结尾再升华一下。

以上就是Canvas的文本撰写能力,很简单,很基础。通过提示词和Agent Workflow就可以实现这样的能力。OpenAI把它们都打包进产品里,而且还搞了添加emoji这样的小噱头来取悦用户。你看,他们还是很鸡贼的。

至于代码生成也是差不多的逻辑。

作为测试,我让GPT帮我写个贪吃蛇的小游戏。同样在右下角的位置出现了可以展开的按钮。其中更改编程语言这个有点意思。比如,我们可以让GPT把它已经生成的代码改成JavaScript、TypeScript等等几个主流的语言。

剩下几个功能很简单,比如修复Bug之类的。我就不详细介绍了,看一眼就懂。

目前Canvas的东西就这些。我猜,一些创业公司肯定要睡不着了。OpenAI这是在拿他们的命给自己换时间。作为用户,我感觉还好。可能是因为之前一直在用Artifacts和Cursor,所以看到这个也没那么兴奋。为了体验Canvas,我开了一个月的会员,不打算续费。之后还是继续用Claude。

OK,以上就是本期视频。想交流AI就来newtype社群。那咱们下期见!

ChatGPT的正确打开方式

Key Takeaway

  • ChatGPT在iPhone上效率不高,因为它没有与系统和其它APP打通,无法自动化运行。
  • 利用iPhone的快捷指令功能,可以实现ChatGPT的自动化操作,如自动总结公众号文章、语音问答和内容创作。
  • 快捷指令的核心逻辑是:输入(网页文字、语音转文本)-> 处理(ChatGPT总结、回答)-> 输出(Markdown格式笔记到备忘录)。
  • 这种自动化工作流能显著提升ChatGPT的使用效率和便捷性,弥补其作为聊天机器人的局限。
  • 文章通过“总结GPT”、“问答GPT”和“灵感GPT”三个快捷指令示例,展示了ChatGPT在个人生产力中的应用。

Full Content

ChatGPT在iPhone上还不够好用。主要原因是,它没有跟系统和其它APP打通,没法自动化运行,效率不高。所以,它还只是一个聊天机器人——每次都得打开APP才能用,然后还得输入一堆东西——难怪用户使用频率不高,这也太麻烦了。

在现阶段,要让iPhone上的ChatGPT有用起来,你肯定要用到快捷指令这个功能。我先演示一下我是怎么用的,再详细介绍怎么设置。

我相信大家都很头大这样的事儿:每天要看的公众号文章根本看不过来。怎么搞?

首先,用Google Chrome打开这篇文章。

然后,点击地址栏右边的分享按钮,选择最顶端的快捷指令(我设置的名称叫“总结GPT”)。

最后,稍等一会儿,ChatGPT就会按照我事先设置好的要求,用GPT-4o这个最新的模型,总结文章的核心内容,提炼文章的Key Points,并且在备忘录的指定文件夹里创建一条新笔记,把这些内容都用Markdown格式存进去。

这么做的好处是:

第一,我就不用在APP之间手动切换、各种输入——现在用快捷指令自动化完成,这显然方便多了。

第二,虽然ChatGPT里会有聊天记录,但我还是让它存到备忘录里了。因为备忘录是系统自带的,在iOS和macOS之间同步非常快。这样一来,我回到Mac上就可以直接编辑了。而且它是Markdown格式,我还可以把它贴到写作软件或者笔记软件里进一步处理。

刚才这个是“总结GPT”。按照同样的思路,我还设置了一个“问答GPT”,也是用语音输入。

比如我问:机械键盘的主流轴都有哪些区别?比如红轴、青轴等等。

接到一段语音输入后,这个快捷指令会先把语音转化成文字、给到ChatGPT。

然后,根据我事先的设置,ChatGPT回答完问题之后,同样会用Markdown格式,把内容存到备忘录里,方便我之后查找和编辑。

这两个快捷指令是我平时用得最频繁的。除此之外,还有“灵感GPT”:

当我有任何内容方面的想法时,就像刚才“问答GPT”那样,用语音的方式全部给到GPT。它会把我的那些零散的表述有逻辑地整理一遍,变成一个内容框架,然后往里边做补充和扩展。

你如果看过我上一期视频就会发现,这其实是在用快捷指令去搭建一套简易的Agent Workflow。在新版iOS、新版Siri出来之前,咱们先用这种方式实现AI自动化。

接下来,我拿刚才那个“灵感GPT”给大家详细讲解一下。这三个快捷指令,我已经把iCloud链接分享到知识星球和Patreon里了,newtype社群的小伙伴可以直接拿去用。包括这期视频,我也会在社群内首发,算是给大家的“超前点映”。

就像上期视频里说的那样,一般来说,一套Agent Workflow的起点是用户输入。在“灵感GPT”里,咱们是用语音转成文字,所以要用到“听写文本”这个功能。在“听写文本”的设置中,大家记得点开下拉列表,选择语言,否则会报错。

有了初始输入之后,第二步,咱们要添加一个“文本”,在里边写一段Prompt,把对AI的要求交代清楚,并且把第一步的内容贴在后边,就像我这样。这一整个文本,就是接下来要给到AI去处理的信息。

第三步,添加“询问ChatGPT”,把“文本”加进去。在下拉列表中,把“开始新聊天”勾选上,然后就可以选择要用哪个模型了。

第四步,再添加一个“文本”,把GPT的回答都放进去。你可以在文本的开头添加一些描述,比如我写的是“From GPT”,这样我就知道,这条笔记是AI生成的。

第五步,添加“备忘录”,选择事先创建好的文件夹,让GPT在里边新建一条备忘录,把上一步的文本都存进去,这样就大功告成了。

另外两个快捷指令也是同样的思路。其实这整套Workflow的核心就三个步骤,很好理解:

第一,初始信息从哪来(输入)?是网页里的文字,是语音转文本,还是一张照片?这个需要设置清楚。

第二,你要GPT帮你干啥(处理)?我一般会添加一个“文本”,把固定的指令和每次的需求都放进去。然后把整个文本给到GPT。

第三,你要什么样的结果(输出)?就像我刚才演示的,以备忘录加Markdown做输出。

输入、处理、输出,把这套逻辑想清楚了,你就知道怎么用快捷指令和ChatGPT去搭建一套简易的工作流了。

OK,以上就是本期内容。大家有什么想聊的,可以来newtype找我。那咱们下期见!

LLM = OS

Key Takeaway

  • 大模型被视为凌驾于所有操作系统之上的“操作系统”,具备内存管理(上下文长度)、文件系统(对话历史、知识库)、驱动程序(Function Call)和用户界面(自然语言交互)等组成部分。
  • OpenAI正按照操作系统的逻辑对GPT和ChatGPT进行更新和升级,如提升上下文长度、Function Call能力、记忆功能和自然语言交互速度。
  • 大模型的“操作系统”化将导致其“吃掉”大量应用赛道,对创业者而言,生存空间将受到挤压。
  • 文章通过phidata项目示例,展示了Agent、RAG和GPT-4o如何组装成简易操作系统。

Full Content

为什么所有互联网巨头都要搞大模型?

因为大模型是凌驾于所有操作系统之上的操作系统。

你以为你的产品体验足够好,但再好也得用户自己动手。大模型会让绝大多数用户第一次体验到使唤别人的快感。

你以为你的技术护城河够深了,但再深也只是二维的。在大模型这种更高维度的、飞在天上的技术面前,地上的护城河、边界这种东西是特别可笑的。

大模型就是指环王里的至尊魔戒:One ring rules all。

既然是操作系统,那就得有操作系统该有的组成部分。

第一,内存管理。对大模型来说,就是上下文长度。目前主流的内存容量已经从最早的KB到MB,再到以DDR为代表的GB时代。而大模型上下文长度也在飞速提升,现在动不动就200K。

第二,文件系统。对大模型来说,文件系统包含两部分:一个是对话历史记录。没有这个,大模型就记不得你,也不可能成为你的私人助手。另一个是知识库,这个大家都明白。

第三,驱动程序。对于计算机来说,驱动程序是用来控制硬件设备工作的。对大模型来说,驱动程序就是Function Call,函数调用,让大模型能跟现有的操作系统、各种软件和在线服务连接。

第四,用户界面。从最早的命令交互到后来的图形交互,它们都是基于键盘和鼠标做的交互设计。结果大模型一来就是掀桌子,通过自然语言交互就行,甚至还能察言观色。相比文字输入,通过语音和表情,大模型能获得的信息丰富得多了。

刚才说的那些都是我自己总结的理论,之前在知识星球newtype里分享过。而且我发现,OpenAI跟我想的一样——他们就是在按照操作系统的逻辑对GPT和ChatGPT进行更新和升级。

上下文长度不用说了,从GPT-3.5到GPT-4 Turbo,从4K、16K、32K、128K,现在日常使用基本不会再担心长度的问题。

Function Call也不用说了,GPT-4在这方面属于遥遥领先级别。

历史聊天记录方面,2月新出的记忆功能,可以让ChatGPT记住用户希望它记住的东西,比如个人偏好等等。

自然语言交互方面,最新的GPT-4o大家都看到了,反馈速度已经非常快了。据说可以在0.23秒内响应音频输入,接近人类的水平。

你看,OpenAI的野心就是操作系统级别的。而GPT-4o登陆iPhone绝对会是一个里程碑事件。

有同样想法的,不只是OpenAI,我相信这一定会成为行业共识和行动方向。一些开发者已经在这么做了,比如phidata。他们把Agent、RAG和GPT-4o组装在一起,变成一个简易的操作系统。

你可以把你想添加的内容喂给GPT,比如网页或者PDF文档。

你可以问GPT任何最新的事件,它可以联网帮你搜索。

你可以让GPT当你的投资顾问,让它帮你分析,英伟达的股票还值不值得买。

想体验这个项目,非常简单,有手就行。

第一步,把包含所有文件的压缩包下载下来,解压缩。

第二步,创建一个虚拟环境。比如可以用conda创建并激活,两行代码搞定。

第三步,安装需要的Library,记得一定按照这个txt安装,别自己瞎搞,到时版本有冲突就跑不起来了。

第四步,把OpenAI和EXA的API Key通过export这行命令提供给系统。

第五步,打开docker,安装PgVector。

第六步,通过Streamlit把这些代码变成APP跑起来,打开一个本地链接,就能看到刚才演示过的界面和功能了。

这些功能,在几个月前都是单独的一个个项目。比如,RAG是RAG,Agent是Agent。最近一个月,我发现大家突然开始做集成了。

这个背后,既是技术在进步,也是大家的认知在迭代。从我的知识星球里的内容就能看得出来:

最开始大家都是问我本地大模型、知识库的东西,现在问Agent也多起来了。整个水位、大家的水平在提升。

而且我有一个感觉,或者说粗略的判断:

既然大模型属于中心化极强的操作系统,那么它一定会吃掉很多很多应用赛道。对于创业者来说,也许只能等这头怪兽吃得差不多了,才能分到一杯羹。

所以,不着急出手。

OK,以上就是本期内容。咱们下期见!

人人都是宫崎骏

Key Takeaway

  • 作者介绍了如何使用ChatGPT和Hedra工具生成吉卜力风格的动画视频。
  • 创作流程包括:使用ChatGPT将照片转换为吉卜力风格图片,然后将图片和录制的音频上传到Hedra生成视频。
  • 这种方法成本较低(约30美元),且对分辨率和口型要求不高,适合快速生成动画内容。
  • 更精确的控制可以通过生成首尾帧图片,再利用其他工具(如可灵)补全中间过程来实现。
  • 作者认为AI正在实现艺术创作的平权,鼓励大家积极尝试和利用AI工具进行创作。

Full Content

如果你也想生成这样的吉卜力动画,那么本期视频你一定要看完。

刚才这一段,是我用两个工具完成的:

一个是ChatGPT。他们前几天刚刚把图像生成能力加到GPT-4o里边。现在,只要是Plus会员就可以用,一个月20美金。

一个是Hedra。他们是一个视频生成平台。付费10美金成为会员,给1000个使用点数,不够再买。

所以,我花了30美金,就成为低配版的宫崎骏啦。整个创作过程非常简单:找一张照片,让ChatGPT转成吉卜力风格的图片。用手机录一段你想说的话,MP3格式。然后把图片和音频都给Hedra,等一会儿就可以收货了。

给你们看看我的。这是原始照片,贴给GPT。然后跟它说,生成吉卜力风格,就这么七个字。过一会儿它就生好了。

来到Hedra这边,把图片传上去。把录好的MP3也传上去。Prompt我就简单写了一句话。然后点击发送。等个几分钟,就可以预览和下载了。

做这种风格的好处是,它不太受分辨率的影响。像我这个样子,720P和4K,大家都能接受。至于对口型,本来就是动画,所以口型对个差不多就可以。不像真实系的视频,口型有一点对不上就难受。

我这个只是最简单的做法。如果你想精确控制的话,可以生成两张图片——一张首帧、一张尾帧,也就是开始和结束。然后发给可灵,它会把过程用视频补上。你就一个分镜、一个分镜地做,最后就能做出这种完整的动画作品了。

吉卜力只是一个风格。你还可以用GPT生成更多,比如这个风格也很酷嘛。这就完全取决于你的品味了。就像我前两天说的那样:

这一波就是AI平权,平的是艺术创作的权。上一次是智能手机对摄影的冲击。逻辑一模一样。

所以,我觉得没啥好说的,干就完事了。我都讲到这个程度了,如果你还是无动于衷或者嫌这嫌那,那么,我只能祝你好运。

OK,以上就是本期内容。想交流AI,就来我们newtype社群。那咱们下期见!

如何让ChatGPT做PPT

Key Takeaway

  • ChatGPT无法直接生成PPT,但可以通过Marp和CSS语言作为桥梁,生成Markdown格式的代码,再转换为PPT。
  • Marp是一款能将Markdown文件转换为PPT的工具,其语法简单,能满足日常PPT需求。
  • 结合VS Code和Marp for VS Code插件,用户可以实现ChatGPT生成PPT代码,并在VS Code中预览和导出。
  • 这种方法的核心在于利用Markdown的简洁性和Marp的转换能力,将PPT内容和排版通过代码实现。
  • 文章强调PPT的核心是逻辑而非花哨排版,Marp和CSS能满足日常需求,但生成的PPT无法手动修改,只能通过代码修改。

Full Content

我终于找到让ChatGPT做PPT的方法了。

ChatGPT逻辑好、能联网,让它生成文字内容没问题。但是,要它生成PPT的话,就有点难办了。因为它回给你的还是文字,需要你自己去创建一个PPT,然后手动贴进去做排版。

举个例子。我跟ChatGPT说:帮我写一份介绍本田Dax E的介绍PPT。

ChatGPT会勤勤恳恳地把每一页的内容都写给我。但是,就像刚才说的,这些都只是文字,离PPT还有点距离。

让我来换一个问法。跟ChatGPT说:使用Marp和CSS语言,帮我写一份介绍本田Dax E的PPT。

这时候,ChatGPT给到的不是文字,而是代码。当这一长串的代码都输出完毕后,整个复制下来,贴到VS Code里边。可以看到,右边出现了PPT的预览效果。

跟之前需要手搓的方法相比,现在只需要借助一个软件,也就是VS Code,只需要一个操作,也就是复制、粘贴,就能实现PPT的生成。

要把PPT导出也很简单:

在VS Code命令面板里选择“显示并运行命令”,然后选导出Slide Deck。根据默认选项,它是导出PDF格式。需要PPT的话,在格式列表里选上就OK。等个几秒,它导出后会自动打开。然后咱们打工人就看到非常熟悉的界面了。

我这边使用的方法,核心思路就是通过Marp语言作为桥梁。Marp指的就是Markdown Presentation Ecosystem。顾名思义,它可以把Markdown格式的文件转成PPT。

所以,ChatGPT或者别的AI工具负责按Markdown格式输出,把PPT里该有的内容都放在里边,然后一起交给Marp做转换。这个就是我说它是桥梁的原因。

关于Markdown,你如果之前用过很多生产力工具,比如我之前推荐的Obsidian,还有世界上最好的写作软件Ulysses,那你对Markdown应该不陌生。它的语法超级简单,比如一级、二级、三级标题,还有加粗、加序号、加图片之类的。这些换到PPT里边也是成立的——一般来说,PPT的内容主要是由文本块和图片构成。

而且,根据我这十几年做PPT的经验——请相信我,我在传播营销行业,我们这行业的人是地球上最会做PPT的一群人,越是成功的PPT,越不复杂。因为,PowerPoint的核心是Point;Point的核心是逻辑,不是那些花里胡哨的排版。所以,Marp语言本身对版式的支持,再加上CSS的能力,基本上能满足日常PPT需求。

OK,ChatGPT能输出Markdown,那么,该用什么显示和导出呢?工具有好几种。我选择的是VS Code,因为我平时写Python都是用它。所以我只需要再安装一个Marp for VS Code插件就好了。

就像刚才演示的那样,在VS Code里新建一个md格式的文件,把ChatGPT给的代码都贴进去。如果有任何地方要修改的话,就直接让ChatGPT改去,不管是内容还是版式,让它重新生成一遍。反正Plus包月了,不需要考虑token费用,可以让ChatGPT一直改到满意为止。

不过,从效率角度出发,我建议大家也别全依赖ChatGPT。弄差不多了就自己上手改改代码呗,反正挺简单的。

最后我要提醒两点:

第一,用这种方式生成的PPT,没法手动修改。要改的话只能回到代码里去修改。

第二,Marp的优点是简单、好上手。如果你觉得它太简单的话,还有别的,比如Slidev。这个真的挺复杂的,上手难度高,我之后在社群里分享吧。

OK,以上就是本期内容。想进一步交流的话,来newtype找我,我都在。那咱们下期见!

限制大模型的,是输出长度

Key Takeaway

  • 大模型厂商普遍关注上下文长度,但忽略了输出长度的限制。
  • 目前大模型的输出长度普遍在2-3千字,主要原因是缺乏长文本训练素材。
  • 智谱通过增加长输出数据训练,显著提升了模型的输出长度。
  • 文章呼吁厂商应关注并提升模型的输出长度,以满足日常需求。

Full Content

我一直很不理解,怎么所有大模型厂商都在卷上下文长度,但就是没人关注输出长度。

现在要是发个新版本的模型,没个128K的上下文窗口,你都不好意思跟人打招呼。但是,模型的输出长度,也就是一次最多能回复多少字,好像有点停滞不前——两三千字就顶天了。

我拿ChatGPT和Claude做了个测试。我的需求是:

请帮我撰写一个主题为「黑神话·悟空」玄幻小说。小说以孙悟空为核心,讲述一个天庭腐败不堪、祸害三界,孙悟空与妖怪兄弟对抗天庭、拯救苍生的玄幻故事,不少于10000字。

ChatGPT的表现让我非常不满。

丫一上来就摆烂,说什么写10000字太费劲,只能帮我写一部分内容,以及给个大框架,剩下的还是得我自己来。

现在的AI都这么像打工人了吗?

当我要求它继续往下写的时候,ChatGPT就开始敷衍了。它象征性地写了几章,然后就马上宣布整个故事完结了。

真的,我都想骂人了…

相比之下,Claude就好太多了,大家还是订阅Claude吧。

虽然没法一次性输出10000字,但Claude好歹给出了解决办法:分章节输出,一个章节两三千字;用户可以随时给反馈意见。

这个才是AI该有的态度!

我让Claude写了几章。不得不说,它文笔还是不错的,写得有模有样。如果给它具体指导的话,写点小说发表肯定没问题。

这两个例子很有代表性。今天的模型产品,输出长度大概就是2千字。

为什么会这样?

智谱在论文里解释了。核心原因就是,缺少长文本的训练素材。我们给大模型训练用的数据集,很少有超过2千字的材料。所以,它都没见过、没被训练过,那自然写不出来。

为了解决这个问题,智谱的人特意准备了一份长输出的数据,里边的数据长度从2K到32K都有。把它跟通用数据结合,形成完整的数据集,给到两款支持128K上下文窗口的模型做微调,一个是GLM-4-9B,一个是Llama-3.1-8B。效果立竿见影。

我在Google Colab上做了测试,用A100 GPU分别跑两个模型。还是刚才那个写玄幻小说的任务。

GLM-4-9B完成得比较好。我把它写贴到Ulysses里给大家看看。一共1.1万字,分成13章,从世界背景介绍开始,一直到最终大决战、打败天帝。

Llama-3.1-8B的字数没有达标,只有8千多字。不过即使这样,也大大超出平均水平的两三千字。

说实话,当AI把小说写出来的时候,我还是挺震惊、挺兴奋的——毕竟第一次看到输出这么长的内容。之前的典型情况是,我让AI帮我翻译一个论文,或者修改一篇稿子,结果返回了半截就停下来了,这个就非常不爽、不方便了。

如果说,32K的上下文长度算是够用级别的话,那么至少5千字的输出长度才能满足日常需求。

接下来,我会试着用智谱的训练集去多微调几个模型。我也真心希望,国内的厂商别都在那边无脑地追逐超长上下文窗口,把这个当成一个营销噱头,搞得跟手机厂商跑分一样。是时候把输出长度提上来了。

OK,以上就是本期内容。想找我的话,来newtype社群。咱们下期见!