About This Website

在2026年春节期间,无聊至极,于是将之前的资料重新整理了一下,组成了这个网站。与之前的网站不一样,这个网站主要是用来记录不同课程,阅读笔记,以及还在进行的100 Paper with Code 系列的。之所以把这个网站命名为“Learning Notes”,是因为我觉得这个名字比较贴切,毕竟这个网站的主要内容就是一些学习笔记。希望这个网站能够帮助到一些正在学习相关课程或者对相关领域感兴趣的人。

为什么在AI时代还要写学习笔记?

随着2023年ChatGPT的爆发,随之而来的是各种各样的AI工具,网络上也充斥着各种AI生成的内容。在这种情况下,也有好多小伙伴私信我说,为什么还要写这种学习的笔记?现在AI这么发达,直接AI总结,生成不就好了吗? 的确,从ChatGPT, 到现在(2026年初)大火的OpenClaw,这些AI工具的确可以帮助我们完成很多任务,但是使用下来,给我带来的是一种空虚感,就好像吃了快餐一样,虽然很方便,但是吃完之后就没有什么满足感了。内容爆炸式的增长,每天被各种信息包围,不断用AI填补空白,但却很难真正消化和理解这些信息。包括现在的Vibe Coding,可以在几分钟内搭建,部署一个可运行的网站,然后呢?我们需要的不是一个可运行的网站,而是一个有价值,有内容的网站。就好像现在的AI工具,可以在几秒钟内生成一篇文章,但是我们需要的不是一篇文章,而是一篇有深度,有见解的文章。所以我觉得,在这个AI时代,写学习笔记依然是非常有必要的。通过写学习笔记,我们可以更好地消化和理解这些信息,真正掌握这些知识,而不是被这些信息所淹没。我尝试过用Claude来收集总结我想要的内容,很厉害,一下子创建出来20多个Markdown文件,内容也是可圈可点,有许多我没有了解过的角度,但是我不能立马吸收里面的内容,就好像囫囵吞枣, 过目就忘, 反而是自己写的笔记,虽然可能不够完美,但是在写的过程中,我需要不断地思考,不断地理解,这样才能真正掌握这些知识。所以我觉得,在这个AI时代,写学习笔记依然是非常有必要的。知其然还要知其所以然,只有真正理解了这些知识,才能更好地应用这些知识,而不是被这些知识所束缚。

第二原因就是,在本科期间,有幸拜读过CS自学指南。我算是它的忠实粉丝了,从它在几百个⭐️的阶段,到现在已经有7万多个⭐️,我都一直在关注它的更新。它的内容非常丰富,涵盖了计算机科学的各个领域,从基础的编程,到算法,再到人工智能,机器学习,深度学习等等。从那时起,我就被它的作者,以及里面涵盖的所有课程的大学,教授的Open Source精神所深深吸引了。也正是因为这个网站,我才有了写学习笔记的想法,希望能够把我在学习过程中积累的一些知识和经验分享给更多的人,帮助他们更好地学习和成长。

100 AI Papers with Code

Name Blog Code Description
Transformer Transformer 是一种基于 自注意力机制 的深度学习架构,能够并行处理序列,在语言、视觉和多模态任务中表现出色;并且作为 GPTBERT 等大型语言模型(LLM)的核心基础,推动了当今生成式人工智能的快速发展。在本篇文章中,我们将深入探讨 Transformer 的基本原理,以及关键组件,包括 Word EmbeddingPosition EmbeddingAttentionNormalization LayerFeed Forward Layer。并通过在 Ted Talks 数据集上的实验,展示Transformer 在实际任务中的应用效果。
Table 1

最后

最后,希望这个网站能够帮助到一些正在学习相关课程或者对相关领域感兴趣的人。如果你想要更全面的了解某一方面的知识,我推荐可以去阅读我们的Blog,里面有很多关于不同领域的内容。

当然,由于个人精力有限,网站内容难免有所不足之处,如果你有任何建议或者想要分享的内容,欢迎随时联系我。谢谢!

Back to top