AI发展简史:回顾人工智能领域10个关键时刻

回顾AI发展史上的10个关键时刻,从达特茅斯会议到大模型,了解AI如何一步步走向技术浪潮之巅。

原文标题:一文讲透 AI 历史上的 10 个关键时刻!

原文作者:图灵编辑部

冷月清谈:

本文回顾了人工智能发展历程中的10个关键时刻,从1956年达特茅斯会议的召开,到2025年大模型时代的到来,详细阐述了AI技术从理论设想到实际应用的演变过程。文章涵盖了感知机、ELIZA聊天机器人、专家系统、深蓝战胜象棋冠军、机器学习的兴起、深度学习革命、生成对抗网络、AlphaGo的突破以及Transformer架构和大模型的涌现。通过梳理这些里程碑事件,展现了AI技术在模拟人类智能、解决复杂问题方面的巨大进步,以及对各行各业产生的深远影响。同时也强调了AI发展道路并非一帆风顺,而是在不断突破和争议中前进,并展望了未来AI技术的发展趋势和潜在的“奇点”。

怜星夜思:

1、文章提到了专家系统在20世纪70年代的兴起,它们在特定领域表现出“类人智能”。那么,你认为专家系统和现在的大模型在本质上有哪些区别?大模型是否取代了专家系统?
2、文章中提到AlphaGo的胜利标志着AI在复杂游戏中超越人类。你认为AI在哪些方面超越了人类的棋类水平?这种超越对于其他领域的人工智能发展有什么启示?
3、Transformer架构的提出被认为是语言模型发展的重要一步。你认为Transformer架构最核心的创新是什么?它对自然语言处理领域产生了哪些深远影响?

原文内容

2025 年,人工智能已经不再只是前沿科技圈的热词,而是真真正正地走进了我们的日常:生成图像、写代码、自动驾驶、医疗诊断……几乎每个行业都在讨论 AI,拥抱 AI。

但今天的大模型奇点不是一夜之间到来的,它背后是一条充满突破、争议、冷寂与复兴交织的进化之路。从 1956 年达特茅斯会议开始,到如今数千亿参数模型引发的全球技术竞赛,AI 的发展史是一部关于人类如何模拟、拓展,乃至重新定义智能的故事。

本文将带你一起回顾这条历程中的 10 个关键的历史性时刻,帮你理清人工智能是如何一步步从纸上设想,走向今天这场技术浪潮核心的。

#1

达特茅斯会议(1956年)

1956 年的达特茅斯会议被广泛认为是人工智能(AI)诞生的标志性时刻。会议由四位人工智能领域的先驱人物约翰·麦卡锡、马文·明斯基、内森·罗切斯特和克劳德·香农发起,汇聚了一群志同道合的研究者,他们共同的目标是探索机器智能这一未知领域。

在为期六周的会议中,与会者进行了深入的讨论、辩论与合作,奠定了人工智能作为一个正式学科的基础。他们尝试定义人工智能的概念、明确其研究目标,并规划可能的研究方向。会议成员探讨了一系列深刻问题,包括问题求解、机器学习和符号推理等。

这次关键性的会议不仅开启了之后数十年人工智能研究与创新的大门,也凝聚了一个充满信念的学术群体——他们相信机器有能力复制人类的认知能力。达特茅斯会议的深远影响在于,它确立了人工智能作为一门学科和实践领域的地位,推动人类迈向一个智能机器与人类协作的未来。

#2

感知机(1957年)

1957 年,弗兰克·罗森布拉特(Frank Rosenblatt)开发了感知机(Perceptron),这是最早的人工神经网络之一。感知机是模仿生物神经元的简化模型,用于进行二值分类决策。

尽管模型结构简单,感知机却首次提出了“用训练数据优化模型”的思想。这种“训练-预测”范式后来成为机器学习和深度学习的核心方法。感知机为我们今天所熟知的神经网络和深度学习技术奠定了基石。

尽管感知机存在一些局限(如不能处理非线性可分问题),它却促成了后续更复杂模型的研究。感知机的影响延续至今,被广泛应用于图像识别、语音处理、自然语言理解等前沿领域。

#3

ELIZA(1966年)

由 MIT 计算机科学家约瑟夫·维森鲍姆(Joseph Weizenbaum)于 1966 年开发的 ELIZA,是第一个被广泛认可的聊天机器人,能够模拟人与人之间的对话。它以心理治疗为模拟场景,将用户的回答转化为追问,从而延续对话——也被称为“罗杰式对话法”。

维森鲍姆本想用 ELIZA 证明机器智能的“拙劣”,结果却适得其反——许多用户认为他们在与真正的心理医生交谈。他在论文中写道:“有些被试很难相信 ELIZA 不是人类。”

尽管以今天的标准来看功能十分基础,ELIZA 却展示了人工智能在自然语言处理方面的潜力。通过与用户进行对话,它证明了计算机可以生成类似人类的回应,激发了人们对对话式 AI 领域的浓厚兴趣。

#4

专家系统(20世纪70年代)

20 世纪 70 年代,AI 研究主要集中在符号主义,以逻辑推理为中心,专家系统的兴起(如 Dendral 和 MYCIN)标志着人工智能首次在实际领域中展现出类人智能。

Dendral 是一个面向化学领域的专家系统,能分析质谱数据,推断有机化合物的分子结构,展现了 AI 在专业领域内模拟专家推理的能力。而 MYCIN 则聚焦于医疗诊断,能够识别细菌感染并推荐抗生素治疗方案。

这些系统证明,AI 不仅能处理通用逻辑问题,也能转化为特定领域的“知识专家”。专家系统的出现,奠定了 AI 在医疗、法律、金融、工程等专业领域广泛应用的基础。


#5

深蓝赢得象棋比赛(1997年)

深蓝(Deep Blue),一台 IBM 超级计算机,与世界象棋冠军加里·卡斯帕罗夫之间的历史性象棋对局,吸引了全世界的关注。深蓝的胜利标志着人工智能的一个重要里程碑,证明了机器能够在需要战略思维、评估和决策的复杂游戏中超越人类。


#6

机器学习(1990-2000年代)

计算机科学家汤姆·米切尔(Tom Mitchell)将机器学习定义为“一个有关计算机算法的研究,旨在允许程序通过经验积累自动提高其性能”。这一定义标志着人工智能研究方向的转变,强调了数据驱动算法的重要性,并推动了能够随着时间不断适应和提升性能的人工智能系统的发展。


#7

深度学习兴起(2012年)

Deep Learning 是一种机器学习算法,核心在于通过多层神经网络结构,以及“反向传播”(Backpropagation)技术来进行模型训练。这一领域由 Geoffrey Hinton 奠定基础。

早在 1986 年,Hinton 与合作者发表了关于深度神经网络(DNN,Deep Neural Networks)的开创性论文,首次系统引入了反向传播算法。这种算法能够在训练过程中动态调整网络中的权重,使神经网络更有效地逼近正确输出,从而实现了对多层网络的高效训练,打破了 Minsky 在 1966 年提出的感知器局限,成为神经网络发展的关键转折点。

AlexNet 在 ImageNet 竞赛中取得了震撼业界的成绩,成为深度学习浪潮的引爆点。

#8

生成对抗网络(2014年)

伊恩·古德费洛(Ian Goodfellow)提出了生成对抗网络(GANs)的概念,彻底改变了生成模型领域。GANs 由两个神经网络——生成器和判别器——相互竞争组成。这一框架使得创建逼真的合成数据成为可能,如图像和文本,并对图像合成、视频生成和数据增强等多个应用领域产生了深远的影响。


#9

AlphaGo(2016年)

DeepMind 开发的 AlphaGo,通过击败世界围棋冠军李世石,达成了一个非凡的壮举。这一里程碑标志着人工智能在一个拥有大量可能棋步、需要直觉和战略思维的复杂游戏中取得了胜利。AlphaGo 的成功突显了人工智能在解决曾被认为是人类独有的挑战中的潜力。



#10

Transformer与大模型

(2017-2025)

大语言模型的发展始于 2017 年 Transformer 架构的提出,其自注意力机制有效解决了长距离依赖问题,为理解和生成长文本奠定了基础。2018 年,GPT-1 与 BERT 分别基于自回归和遮蔽语言模型的预训练方式,确立了“预训练+微调”范式,使模型能从海量无标注语料中学习通用语言能力。2020 年,GPT-3 凭借 1750 亿参数初步展现出“涌现能力”,包括零样本学习、逻辑推理与代码生成,标志着模型规模带来的质变。
2023 年,GPT-4 进一步融合文本与图像的多模态能力,并通过人类反馈强化学习(RLHF)显著提升了模型的安全性与实用性。同时,Anthropic 推出了 Claude,Google 则发布 Gemini 系列,Meta 也发布了开源模型 LLaMA。
国内大模型生态也在迅速演进。百度的文心一言、阿里的通义千问、字节的豆包等等,而 DeepSeek 则以一己之力掀起大众 AI 热潮,凭借其开放参数和高性价比模型引发广泛关注。

从 1956 年达特茅斯会议上的一纸设想到 2025 年大模型走入千行百业,人工智能的发展从未是一帆风顺的直线,而是一条曲折、迂回却令人惊叹的演化之路。这 10 个关键时刻,是人类在探索智能本质、突破技术边界时一次次重要的集体跃迁。回望过去,不只是为了致敬里程碑,更是为了理解今日种种现象的来龙去脉。而下一次“奇点”,也许正在悄然靠近。

全景式了解人工智能的来龙去脉,2025 年你不得不读这本书!

《人工智能简史(第2版)》
尼克 | 著

本书获得第七届中华优秀出版物图书奖、第八届吴文俊人工智能科技进步奖,入围央视“2017年度中国好书”,获选第十三届“文津图书奖”推荐图书。

全方位解读人工智能的来龙去脉,几乎覆盖人工智能学科的所有领域,包括人工智能的起源、自动定理证明、专家系统、神经网络、自然语言处理、遗传算法、深度学习、强化学习、超级智能、哲学问题和未来趋势等,以宏阔的视野和生动的语言,对人工智能进行了全面回顾和深度点评。


《理解图灵》
尼克|著

图灵 1936 年的文章《论可计算数》奠定了计算机科学的基础;而其 1950 年的文章《计算机与智能》则开启了人工智能,本书以注释形式对《计算机与智能》进行了细致解读。

书中首先追溯图灵的生平和思想轨迹,特别是他对智能与机器关系的早期洞察,以及他在计算理论方面的重大贡献——提出图灵机;接着通过分析图灵与同时代其他思想家的交流与辩论,如与哲学家维特根斯坦的深入对话,以及在 BBC 广播讨论中与神经生理学家杰弗逊的激烈交锋,逐步揭示了图灵对于机器智能的独到见解及其思想的演进过程。

AI在棋类水平上超越人类主要体现在:1. 强大的计算能力:可以快速评估大量棋局的可能性;2. 无情感波动:不受情绪影响,始终保持理性决策;3. 持续学习能力:通过自我对弈不断提升棋力。AlphaGo的成功表明,通过深度学习和强化学习,AI可以在复杂决策问题上达到甚至超越人类水平。这启示我们,可以将类似的技术应用于其他需要复杂决策的领域,例如金融投资、资源优化、风险控制等。

AlphaGo的胜利说明,只要有足够的数据和算力,AI就能在特定领域做到极致。但是,这并不意味着AI在所有方面都超越了人类。 棋类这种有明确规则和目标的环境,更容易被AI攻克。 但是现实世界更加复杂,充满了不确定性和变化,AI需要更强的适应性和创造力才能应对。

我理解Transformer就像是给模型加了一个“放大镜”,让它能够同时关注句子里的每个词,然后算出它们之间的关系。你想想,以前的模型只能一个词一个词地看,肯定没有现在这么聪明了!

专家系统是“人工”智能的代表,规则明确,但扩展性差;大模型是“数据”智能的代表,能力涌现,但可解释性弱。虽然大模型在很多场景下更强大,但专家系统在需要精确控制和审计的领域依然不可替代。两者应该是互补关系,而非取代。

我觉得AlphaGo厉害的点在于它打破了我们之前对围棋的认知,下出很多我们人类觉得不可思议的棋。这种超越不仅仅是技术上的,更是思维方式上的。它提示我们,AI可以帮助我们重新审视很多固有的观念,发现新的可能性。

Transformer的出现,真正让AI理解语言成为可能。以前的RNN就像是“死记硬背”,Transformer则更像是“理解记忆”。这种从“死记硬背”到“理解记忆”的转变,是NLP领域的一次革命。

专家系统和现在的大模型在本质上的区别在于知识获取和推理方式。专家系统依赖于人工编码的领域知识和预定义的规则进行推理,而大模型通过海量数据训练自动学习知识和模式。 大模型在很多方面已经取代了专家系统,因为大模型具备更强的泛化能力、自学习能力和处理复杂问题的能力。不过,在一些对准确性和可解释性要求极高的特定领域,专家系统仍然有其存在的价值。

专家系统像是某个领域的老专家,知识都是自己一点点积累的,虽然精但窄;大模型更像个啥都知道一点的通才,知识面广,但可能不够深入哈哈哈。我觉得大模型不完全是取代专家系统,更像是升级,把很多专家系统的知识都整合起来了,效率更高了!

我认为Transformer架构最核心的创新是自注意力机制(Self-Attention)。它允许模型在处理序列数据时,同时关注序列中所有位置的信息,而不是像RNN那样按顺序处理。自注意力机制解决了长距离依赖问题,使得模型能够更好地理解上下文信息。Transformer对自然语言处理产生了深远影响,它不仅提升了机器翻译、文本生成等任务的性能,还推动了大语言模型的发展,使得我们现在可以构建出能够进行复杂对话和推理的AI系统。