基本原理

AI时代,如何学习?

Key Takeaway

  • AI时代,大模型作为知识容器,人类在知识广度上无法胜出,唯一的解是“Go Fundamental”(深入基本原理)。
  • 基本原理相对稳定且具有普遍性,能应对技术快速更新,并应用于多个领域。
  • 人类在AI时代的独特优势在于抽象思考、跨领域联想和创造性思维。
  • 将人类独特优势与对基本原理的掌握相结合,能带来巨大的创新和成就。
  • 掌握基本原理能帮助个体在AI时代更具竞争力,将AI作为杠杆,撬动更大的价值。

Full Content

如果你知道在AI时代如何学习的话,那么大模型变得再牛逼,你也不会慌。

为什么大模型会让大家这么焦虑?

因为大模型的本质,是知识的容器。

大模型的训练过程,就是对知识的压缩过程。

大模型的使用过程,就是对知识的解压缩过程。

这个容器,容量大,使用难度低,而且谁都可以用。所以,在知识的广度上,咱们人类是不可能有胜算的。

我认为唯一的解是:Go Fundamental。

也就是说,在AI时代,如果你要学习,不管是哪个领域,一定一定要深入到基本原理层面。

为什么这么说?我总结了两个根本原因。

第一,技术的更新速度非常快,但基本原理相对稳定。而且,基本原理通常具有普遍性,可以应用到多个领域。

举个例子,计算机科学领域的算法复杂度分析,最早可以追溯到图灵那个年代。到了今天,这个这么老的理论依旧被用来评估模型的效率。

什么叫算法复杂度分析?

举个例子,一个客服中心,给50个客户打电话,需要3个人、一天的时间。当客户数量增加到5000的时候,又需要消耗多少人力资源和时间呢?

同样的道理,在大模型领域,当数据量增加的时候,训练时间会怎么变化?它所需要的计算资源会怎么变化?

所以,算法复杂度分析关注的就是,当任务规模增大的时候,完成任务所需时间或资源的增长速度。这个在今天的AI时代依然有效,而且特别重要。

我再举个例子:数学中的优化理论,是算法的核心。比如,训练神经网络本质上就是一个优化过程,目标是找到能最小化预测误差的网络参数。

那么你知道这个优化理论最早是从哪来的吗?

欧几里得在《几何原本》当中讨论了求两点间最短距离的问题,算是最早对优化问题的思考。不过那个时候只是开始思考,还没形成系统理论。

到了18世纪末到19世纪初,在物理问题驱动下,这个理论的基础开始形成。到了20世纪中后期,随着计算机科学的发展,优化理论成为一个独立且重要的数学分支。

这就是为什么说,基本原理基本不变,并且具有普遍性。

那些日新月异的变化,统统交给AI去学习。咱们就把握最基本的、最底层的理论,建立起最扎实的理解。

我相信大家应该都听过这样的话:当你在某个领域爬到山顶的时候就会发现,领域之间其实是相通的——你在这个山顶其实能看到那个山顶。这其实是一个意思,只不过,与其说是向上爬,不如说是向下深入,一直深入到基本原理层面,于是一通百通。

OK,这是第一个原因。第二个原因是,跟AI相比,人类的独特优势在于抽象思考、跨领域联想,以及创造性思维。当这种独特优势和对基本原理的掌握相结合,往往能带来意想不到的、极其巨大的结果。

我举几个牛逼的例子:

达芬奇结合艺术和解剖学知识,创作出精确而富有美感的人体绘画。

毕加索融合非洲艺术元素和欧洲绘画传统,开创了立体主义。

爱因斯坦将数学知识应用到物理学上,提出了相对论。

沃森和克里克结合生物学和化学知识,发现了DNA双螺旋结构。

在我看来,这些都属于把抽象思考、跨领域联想、创造性思维这些独特优势和基本原理结合的成功案例。

试想一下,如果真的能做到Go Fundamental,并且尝试将这些原理与其他领域的知识相结合,去碰撞、去延展、去发散,我相信,这样的个体在AI时代会非常有竞争力。他一定不会焦虑AI,反而能把AI当做杠杠——那么宽广的知识储备就是一根超级长的杠杠,而他自己就是那个支点。这样的超级个体和AI所组成的超级系统,肯定能撬动非常大的质量,取得很高的成就。

OK,以上就是本期内容。今天聊的有点虚,但是我觉得会比之前介绍某个具体的技术、工具都更有价值。大家想进一步交流的话,就来newtype找我,我都在。那咱们下期见!