AI思考录-AI:人类智能的递归放大器
这不是一篇结论性的文章,而是我对 AI 本质的一次阶段性理解。
2026年,距离 AlphaGo 击败李世石这个“斯普特尼克时刻”已经整整 10 年,那也是我第一次直觉地意识到:AI 可能会成为影响人类认知结构的关键变量。
AI(Artificial Intelligence)在我看来,这是人类科技中最最激动人心的领域,从小我就对“聪明”这件事异常敏感,也逐渐意识到,人类社会的关键突破,往往来自少数认知能力极强的人。而AI,一种由人工创造的智能,一种能创造,能复制,能解构的智能,怎么能不让人兴奋。
它并非“规则判断”,而是一种更高维度的模拟抽取,即学习如何做事。以往的编程,是人类编程(编写流程)告诉计算机,应该做什么,怎么做,每个步骤都是人设计好。而AI编程,是告诉计算机如何学习,具体要做什么,程序自己去学习,而这个学习的过程就是训练,人类设定的“如何学习”的参数,就是“超参数”。而所谓学习,其实自我试错更新迭代,即不断的更新自我的参数,学习的效率如何,成果如何,不仅取决于多少数据,也取决于模型架构以及“超参数”如何设置。
人工智能是目标,机器学习是实现路径,而深度学习是当前最成功的一种技术手段。

今天我们用的深度神经网络构建的大语言模型,可能只是AI实现方式的一种,也许还有其他很多途径可以实现,最明显的一点就是:大语言模型不等于全部AI
AlphaGo团队,他们个人或全部一起,是没有办法在围棋上战胜李世石的,但他们创造出的程序,却能击败李世石,一个能力有限的团队,能创造出突破自身能力的事物,实在太让人兴奋。这还不同于人类通过汽车飞机,能跑赢猎豹,高于雄鹰这种体力的突破,这是一种智力认知的突破,一个认知能力有限的团队,创造出了突破团队自身认知边界的事物,再让这个事物,递归进行创造,会出现什么场景,这种递归式的能力放大,已经超出了个体人类的直觉想象!乔布斯说计算机是人类思想的自行车,而我觉得AI是人类智能的递归放大器。正因为人类不再规定“该怎么做”,而只规定“如何学习”,AI 才第一次具备了超出创造者直觉的可能性。
若一个人能创造智能,那他一定是能解构智能,知道智能是何物,知道人是怎么思考的,为什么有的人聪明,所以我开始“炼丹”。跟着《python深度学习》,了解到什么是人工智能,什么是机器学习,手动搭建人工神经网络,CNN、RNN等各种模型架构进行搭建训练。
当时认知是,视觉是人类最重要最准确的接受信息的来源,所以专注于图像处理,训练出的模型只能对图像进行处理。忽略了语言的高信息密度性、高易用性,忽略了NLP,当时的处理办法还是LSTM和RNN,并未关注2017年就发布的Transformer架构。直到2022年末,以ChatGPT为代表的语言模型引发广泛关注,并实现跨圈层传播,当时就在思考,AI为什么是以“语言模型”的形式为普通大众所知晓,而不是视觉模型,或是某综合模型(多模态)。恍然大悟:自然语言才是人类与AI沟通最方便的形式,我们的思考、我们的所见、我们的所闻、我们欲做何事,其实都可以用语言来表达,甚至我们的程序代码,也是属于语言。但我认为语言模型只是其中一种可能,而 AI 的真正边界,或许仍然在我们尚未理解的认知结构之中。
上面的思考更多是对 AI 本质的理解,而下面则是一些在收听播客《枫言枫语》过程中,被进一步激发的零散想法。