从诞生到爆发,见证人工智能的演进之路
达特茅斯会议标志着人工智能学科的正式诞生,John McCarthy、Marvin Minsky等科学家首次提出"人工智能"概念。
关键人物:John McCarthy、Marvin Minsky、Allen Newell、Herbert Simon
Frank Rosenblatt发明感知机(Perceptron),这是最早的神经网络模型,为后续发展奠定基础。
技术意义:首次实现机器学习的简单形式
基于规则的专家系统在特定领域展现专业能力。DENDRAL(化学分析)、MYCIN(医疗诊断)等系统证明AI的实用价值。
代表系统:DENDRAL、MYCIN、XCON
由于计算能力限制、理论瓶颈和过度承诺,AI研究进入低谷期,政府和企业大幅削减投资。
主要原因:算力不足、数据匮乏、期望过高
专家系统维护成本高昂,难以扩展,加上桌面计算机的兴起,AI再次遇冷。
影响:大量AI公司倒闭,"AI"一词成为负面标签
Geoffrey Hinton等人推广反向传播算法,解决了多层神经网络的训练难题,为深度学习复兴奠定基础。
关键人物:Geoffrey Hinton、David Rumelhart、Ronald Williams
IBM深蓝计算机以3.5:2.5击败国际象棋世界冠军,AI在特定任务上首次战胜人类顶尖选手,引发全球轰动。
技术特点:每秒评估2亿个棋局,使用暴力搜索+启发式评估
Yann LeCun发布MNIST手写数字数据集,成为机器学习领域最重要的基准数据集之一。
影响:推动卷积神经网络(CNN)发展
Geoffrey Hinton提出深度信念网络(DBN),通过逐层预训练解决深层网络训练问题,标志深度学习复兴。
关键技术:无监督预训练 + 有监督微调
Alex Krizhevsky的AlexNet在ImageNet竞赛中以15.3%的错误率获胜,比第二名低10个百分点,深度学习进入主流视野。
技术创新:GPU训练、ReLU激活、Dropout正则化
Ian Goodfellow提出GAN,开创生成式AI新纪元,后续衍生出StyleGAN、Stable Diffusion等。
核心思想:生成器与判别器对抗训练
DeepMind的AlphaGo以4:1击败围棋世界冠军李世石,证明AI在复杂博弈中也能超越人类。
技术路线:深度神经网络 + 蒙特卡洛树搜索 + 强化学习
Google发布《Attention Is All You Need》论文,Transformer架构凭借自注意力机制彻底改变NLP领域,成为大模型基石。
核心创新:自注意力机制、并行化训练、位置编码
Google发布BERT,首次实现双向语言理解,在11项NLP任务上刷新纪录,预训练+微调成为主流范式。
技术特点:Masked Language Model + Next Sentence Prediction
OpenAI发布15亿参数的GPT-2,生成能力之强让团队决定不完全开源,引发AI安全讨论。
争议点:担心被滥用生成虚假信息
1750亿参数的GPT-3展现惊人的少样本学习能力,无需微调即可完成多种任务,证明"规模即智能"。
训练成本:约460万美元,使用45TB文本数据
基于OpenAI Codex的GitHub Copilot推出,AI辅助编程进入实用阶段,改变程序员工作方式。
影响:提升编程效率30-40%
ChatGPT发布5天破百万用户,2个月破1亿用户(史上最快),引爆全球AI热潮,各行业开始AI转型。
关键技术:GPT-3.5 + RLHF(人类反馈强化学习)
GPT-4发布,支持图像理解,在各类专业考试中达到人类优秀水平(如律师资格考试前10%)。
能力提升:推理能力显著增强,幻觉大幅降低
DeepSeek、Qwen、Llama 3等开源模型快速追赶,国产大模型崛起,模型成本大幅下降,AI民主化加速。
代表:DeepSeek-V3(671B参数)、Qwen2.5、Llama 3.3
Sora、Pika、可灵等视频生成模型涌现,AI创作从图像延伸到视频,内容创作进入新阶段。
技术:Diffusion Transformer + 时空注意力机制
AI进入"推理之年",OpenAI o1、DeepSeek-R1等推理模型问世,具备规划、反思与自我修正能力,AI Agent成为核心应用形态。
新范式:CoT推理链 + 强化学习 + 长思考时间
计算机科学之父
1950年提出"图灵测试",为AI奠定哲学基础
AI之父
1956年创造"人工智能"术语,发明Lisp语言
深度学习之父
推广反向传播、深度信念网络,2018年图灵奖得主
CNN开创者
发明卷积神经网络,推动计算机视觉革命
深度学习先驱
神经网络序列建模专家,2018年图灵奖得主
OpenAI CEO
推动GPT系列与ChatGPT,引领AI商业化浪潮
• 符号主义(规则推理)
• 连接主义(神经网络)
• 深度学习(多层表征)
• 大模型(涌现能力)
• 推理模型(思维链)
• CPU单机(GFLOPS)
• GPU单卡(TFLOPS)
• GPU集群(PFLOPS)
• 千卡万卡(EFLOPS)
• 专用芯片(TPU/NPU)
• KB级(早期样本)
• MB-GB级(小数据集)
• TB级(ImageNet)
• PB级(互联网语料)
• 合成数据(AI生成)
• 专家系统(规则库)
• 监督学习(标注数据)
• 预训练-微调(迁移)
• 提示工程(Zero-shot)
• AI Agent(自主决策)
12年间,模型参数增长超过10000倍