AI 知识体系全景图
本页面以层次化结构展示 AI 完整生态:从数学基础 到算法理论 ,从大模型 到RAG/Agent ,从训练微调 到生产部署 。
💡 点击各层级卡片展开详细说明 | 🔗 每个知识点标注在生态链中的定位与作用
AI 技术栈层次架构
🔍 放大查看
graph LR
A["🧠 AI 知识体系 Knowledge System"]
A --> B["📚 第一层:基础层 Foundation"]
A --> C["🧮 第二层:算法层 Algorithms"]
A --> D["🤖 第三层:模型层 Models"]
A --> E["🔍 第四层:应用层 Applications"]
A --> F["⚙️ 第五层:工程层 Engineering"]
A --> G["🌐 第六层:生态层 Ecosystem"]
B --> B1["数学 Math"]
B --> B2["计算机 CS"]
B --> B3["编程 Code"]
B --> B4["数据 Data"]
C --> C1["机器学习 ML"]
C --> C2["深度学习 DL"]
C --> C3["强化学习 RL"]
D --> D1["预训练 Pretrain"]
D --> D2["LLM 大模型"]
D --> D3["微调 Finetune"]
D --> D4["推理 Inference"]
E --> E1["RAG 检索增强"]
E --> E2["Agent 智能体"]
E --> E3["应用 Apps"]
F --> F1["训练 Training"]
F --> F2["部署 Deploy"]
F --> F3["MLOps"]
F --> F4["监控 Monitor"]
G --> G1["框架 Framework"]
G --> G2["平台 Platform"]
G --> G3["资源 Resource"]
G --> G4["社区 Community"]
style A fill:#9333ea,stroke:#7c3aed,stroke-width:4px,color:#fff,font-size:18px
style B fill:#3b82f6,stroke:#2563eb,stroke-width:3px,color:#fff,font-size:16px
style C fill:#10b981,stroke:#059669,stroke-width:3px,color:#fff,font-size:16px
style D fill:#f59e0b,stroke:#d97706,stroke-width:3px,color:#fff,font-size:16px
style E fill:#ec4899,stroke:#db2777,stroke-width:3px,color:#fff,font-size:16px
style F fill:#8b5cf6,stroke:#7c3aed,stroke-width:3px,color:#fff,font-size:16px
style G fill:#06b6d4,stroke:#0891b2,stroke-width:3px,color:#fff,font-size:16px
style B1 fill:#dbeafe,stroke:#3b82f6,stroke-width:2px
style B2 fill:#dbeafe,stroke:#3b82f6,stroke-width:2px
style B3 fill:#dbeafe,stroke:#3b82f6,stroke-width:2px
style B4 fill:#dbeafe,stroke:#3b82f6,stroke-width:2px
style C1 fill:#d1fae5,stroke:#10b981,stroke-width:2px
style C2 fill:#d1fae5,stroke:#10b981,stroke-width:2px
style C3 fill:#d1fae5,stroke:#10b981,stroke-width:2px
style D1 fill:#fef3c7,stroke:#f59e0b,stroke-width:2px
style D2 fill:#fef3c7,stroke:#f59e0b,stroke-width:2px
style D3 fill:#fef3c7,stroke:#f59e0b,stroke-width:2px
style D4 fill:#fef3c7,stroke:#f59e0b,stroke-width:2px
style E1 fill:#fce7f3,stroke:#ec4899,stroke-width:2px
style E2 fill:#fce7f3,stroke:#ec4899,stroke-width:2px
style E3 fill:#fce7f3,stroke:#ec4899,stroke-width:2px
style F1 fill:#ede9fe,stroke:#8b5cf6,stroke-width:2px
style F2 fill:#ede9fe,stroke:#8b5cf6,stroke-width:2px
style F3 fill:#ede9fe,stroke:#8b5cf6,stroke-width:2px
style F4 fill:#ede9fe,stroke:#8b5cf6,stroke-width:2px
style G1 fill:#cffafe,stroke:#06b6d4,stroke-width:2px
style G2 fill:#cffafe,stroke:#06b6d4,stroke-width:2px
style G3 fill:#cffafe,stroke:#06b6d4,stroke-width:2px
style G4 fill:#cffafe,stroke:#06b6d4,stroke-width:2px
💡 从左到右展示 AI 技术栈的6层架构及其子模块
AI 技术演进与流动路径
🔍 放大查看
graph LR
A[数学&编程基础] --> B[机器学习算法]
B --> C[深度学习]
C --> D[Transformer架构]
D --> E[预训练大模型]
E --> F1[指令微调SFT]
E --> F2[RAG检索增强]
E --> F3[Agent智能体]
F1 --> G[领域应用]
F2 --> G
F3 --> G
G --> H[生产部署]
H --> I[监控优化]
I --> J[持续迭代]
J --> E
style A fill:#dbeafe,stroke:#3b82f6,stroke-width:2px
style E fill:#fef3c7,stroke:#f59e0b,stroke-width:3px
style G fill:#d1fae5,stroke:#10b981,stroke-width:2px
style H fill:#fce7f3,stroke:#ec4899,stroke-width:2px
📊 从基础到应用的完整技术链路,展示知识点之间的依赖与演进关系
🔗 RAG 与 Agent 的关系
🔍 放大查看
graph TB
LLM["🤖 大语言模型 LLM 基础能力:理解与生成"]
LLM --> RAG["📚 RAG 检索增强生成 Retrieval-Augmented Generation"]
LLM --> Agent["🎯 Agent 智能体 Autonomous Agent"]
RAG --> R1["向量检索 Vector Search"]
RAG --> R2["上下文增强 Context Enhancement"]
RAG --> R3["知识注入 Knowledge Injection"]
Agent --> A1["任务规划 Planning"]
Agent --> A2["工具调用 Tool Use"]
Agent --> A3["记忆管理 Memory"]
Agent --> A4["自主决策 Decision"]
R1 -.-> A3
R2 -.-> Agent
RAG -.->|"知识增强"| Agent
Agent --> APP1["RAG-Agent 知识问答助手"]
Agent --> APP2["纯Agent 任务执行系统"]
RAG --> APP3["纯RAG 文档问答"]
style LLM fill:#fef3c7,stroke:#f59e0b,stroke-width:3px
style RAG fill:#bfdbfe,stroke:#3b82f6,stroke-width:2px
style Agent fill:#fecdd3,stroke:#ec4899,stroke-width:2px
style APP1 fill:#d1fae5,stroke:#10b981,stroke-width:2px
style APP2 fill:#e9d5ff,stroke:#a855f7,stroke-width:2px
style APP3 fill:#dbeafe,stroke:#3b82f6,stroke-width:2px
📚 RAG 检索增强
核心功能:
• 从外部知识库检索相关信息
• 增强 LLM 的上下文
• 解决知识过时和幻觉问题
• 无需重新训练模型
💡 特点:被动响应,基于检索
🎯 Agent 智能体
核心功能:
• 自主规划和分解任务
• 调用外部工具和API
• 维护长期记忆
• 反思和自我修正
💡 特点:主动执行,有自主性
🔗 两者关系
协同模式:
• Agent 使用 RAG: 将 RAG 作为知识工具
• RAG 增强 Agent: 提供实时知识支持
• 混合架构: Agent 编排多个 RAG
• 记忆共享: RAG 检索结果存入 Agent 记忆
💡 关系:互补而非替代
🔗 技术栈依赖与交互关系(完整版)
🔍 点击放大查看
图例说明:
━━ 强依赖
╌╌ 弱依赖
⟲ 反馈循环
📊 数据流
🔧 工具链
graph TB
%% 基础层详细展开
subgraph BASE["📚 基础层 Foundation Layer"]
direction TB
MATH["🔢 数学基础 线性代数·概率统计 微积分·优化理论"]
CS["💻 计算机基础 数据结构·操作系统 网络·数据库"]
PROG["🐍 编程语言 Python·Go JavaScript"]
DATA_ENG["🗄️ 数据工程 ETL·湖仓·特征"]
end
%% 算法层详细展开
subgraph ALG["🧮 算法层 Algorithm Layer"]
direction TB
ML["🎯 机器学习 分类·回归·聚类 树模型·集成学习"]
DL["🧠 深度学习 CNN·RNN·GAN Transformer·Diffusion"]
RL["🎮 强化学习 Q-Learning·PPO RLHF·DPO"]
OPT["⚡ 优化算法 SGD·Adam·调度器 正则化·早停"]
end
%% 模型层详细展开
subgraph MODEL["🤖 模型层 Model Layer"]
direction TB
PRETRAIN["🌟 预训练 大规模语料 自监督学习"]
LLM["🦙 LLM模型 GPT·Claude·Llama Qwen·DeepSeek"]
FINETUNE["🔧 微调适配 SFT·LoRA·QLoRA Prompt Tuning"]
EVAL["📊 模型评测 MMLU·HumanEval Arena·C-Eval"]
INFER["⚡ 推理优化 vLLM·量化 KV Cache·批处理"]
end
%% 应用层详细展开
subgraph APP["🔍 应用层 Application Layer"]
direction TB
EMB["📐 向量嵌入 bge·E5·Embedding 相似度计算"]
VECTOR["🗃️ 向量数据库 Milvus·Qdrant PgVector·Chroma"]
RAG_SYS["📚 RAG系统 检索·重排 上下文构建"]
AGENT_SYS["🎯 Agent系统 规划·工具调用 记忆·反思"]
PROMPT["✍️ Prompt工程 Few-Shot·CoT ReAct·ToT"]
MULTIMODAL["🎨 多模态 图文·语音·视频 跨模态理解"]
end
%% 工程层详细展开
subgraph ENG["⚙️ 工程层 Engineering Layer"]
direction TB
DATA_PREP["📦 数据准备 清洗·标注 增强·版本管理"]
TRAIN_SYS["🏋️ 训练系统 分布式·混合精度 实验跟踪"]
MODEL_REG["📋 模型注册 版本·元数据 血缘追踪"]
SERVE["🌐 模型服务 API网关·负载均衡 限流·缓存"]
MONITOR["📊 监控治理 性能·漂移 告警·审计"]
SECURITY["🔒 安全合规 数据脱敏·模型安全 隐私计算"]
end
%% 生态层详细展开
subgraph ECO["🌐 生态层 Ecosystem Layer"]
direction TB
FRAMEWORK["🛠️ 开发框架 PyTorch·TensorFlow LangChain·LlamaIndex"]
CLOUD["☁️ 云平台 AWS·Azure·GCP 阿里云·腾讯云"]
OPENSOURCE["🌟 开源社区 HuggingFace·GitHub ModelScope"]
TOOL["🔧 工具链 Dify·Flowise Label Studio"]
end
%% 基础层内部关系
MATH --> OPT
CS --> DATA_ENG
PROG --> FRAMEWORK
%% 基础层到算法层
MATH --> ML
MATH --> DL
MATH --> RL
DATA_ENG --> ML
CS --> OPT
%% 算法层内部关系
ML --> DL
OPT --> ML
OPT --> DL
OPT --> RL
%% 算法层到模型层
DL --> PRETRAIN
RL --> FINETUNE
PRETRAIN --> LLM
LLM --> FINETUNE
FINETUNE --> EVAL
EVAL --> INFER
LLM --> INFER
%% 模型层到应用层
INFER --> EMB
INFER --> PROMPT
EMB --> VECTOR
VECTOR --> RAG_SYS
INFER --> RAG_SYS
INFER --> AGENT_SYS
PROMPT --> AGENT_SYS
PROMPT --> RAG_SYS
LLM --> MULTIMODAL
%% 应用层内部协作
RAG_SYS -.->|"知识工具"| AGENT_SYS
EMB -.->|"语义理解"| AGENT_SYS
VECTOR -.->|"记忆存储"| AGENT_SYS
%% 工程层支撑
DATA_PREP --> PRETRAIN
DATA_PREP --> FINETUNE
DATA_PREP --> RAG_SYS
TRAIN_SYS --> PRETRAIN
TRAIN_SYS --> FINETUNE
MODEL_REG --> INFER
MODEL_REG --> SERVE
SERVE --> RAG_SYS
SERVE --> AGENT_SYS
MONITOR --> SERVE
SECURITY --> SERVE
SECURITY --> DATA_PREP
%% 生态层支撑
FRAMEWORK --> TRAIN_SYS
FRAMEWORK --> RAG_SYS
FRAMEWORK --> AGENT_SYS
CLOUD --> TRAIN_SYS
CLOUD --> SERVE
OPENSOURCE --> LLM
OPENSOURCE --> EMB
TOOL --> RAG_SYS
TOOL --> DATA_PREP
%% 反馈循环(虚线)
MONITOR -.->|"性能反馈"| FINETUNE
EVAL -.->|"评测反馈"| PRETRAIN
AGENT_SYS -.->|"用户反馈"| FINETUNE
SERVE -.->|"线上数据"| DATA_PREP
%% 数据流动(特殊标注)
DATA_ENG ==>|"训练数据"| PRETRAIN
DATA_ENG ==>|"知识库"| RAG_SYS
OPENSOURCE ==>|"预训练权重"| LLM
%% 样式定义
style BASE fill:#e0f2fe,stroke:#0284c7,stroke-width:3px
style ALG fill:#d1fae5,stroke:#059669,stroke-width:3px
style MODEL fill:#fef3c7,stroke:#d97706,stroke-width:3px
style APP fill:#fce7f3,stroke:#db2777,stroke-width:3px
style ENG fill:#ede9fe,stroke:#7c3aed,stroke-width:3px
style ECO fill:#cffafe,stroke:#0891b2,stroke-width:3px
%% 关键节点高亮
style LLM fill:#fbbf24,stroke:#d97706,stroke-width:3px
style RAG_SYS fill:#f9a8d4,stroke:#db2777,stroke-width:2px
style AGENT_SYS fill:#f9a8d4,stroke:#db2777,stroke-width:2px
style TRAIN_SYS fill:#c4b5fd,stroke:#7c3aed,stroke-width:2px
🔄 核心循环
• 训练循环: 数据 → 训练 → 评测 → 优化
• 应用循环: 部署 → 监控 → 反馈 → 迭代
• 知识循环: RAG检索 → Agent记忆 → 经验积累
📊 数据流动
• 训练数据: 数据工程 → 预训练/微调
• 知识数据: 文档 → 向量化 → RAG
• 反馈数据: 线上服务 → 数据准备 → 重训练
🔗 跨层协作
• 垂直依赖: 下层为上层提供支撑
• 水平协作: 同层技术相互配合
• 反馈机制: 上层优化指导下层改进
🗓️ AI学习路线时间轴(推荐6个月计划)
🔍 放大查看
gantt
title AI学习路线 - 从零基础到应用开发(6个月)
dateFormat YYYY-MM-DD
section 第1-2月:基础入门
Python编程基础 :done, py, 2025-01-01, 30d
机器学习概念 :done, ml, 2025-01-15, 30d
深度学习基础 :active, dl, 2025-02-01, 30d
section 第3月:LLM理解
大模型原理与使用 :llm, 2025-03-01, 30d
Prompt工程实战 :prompt, 2025-03-15, 20d
section 第4月:RAG系统
向量数据库学习 :vector, 2025-04-01, 15d
LlamaIndex实战 :llama, 2025-04-10, 20d
RAG系统构建 :rag, 2025-04-20, 15d
section 第5月:Agent开发
Agent架构理解 :agent1, 2025-05-01, 15d
LangChain深入 :lc, 2025-05-10, 20d
多Agent协作 :multi, 2025-05-20, 15d
section 第6月:工程实践
模型微调LoRA :lora, 2025-06-01, 15d
生产部署实战 :deploy, 2025-06-10, 15d
项目完整实现 :crit, project, 2025-06-20, 15d
🎯 第1-2月:打基础
✓ Python到熟练水平
✓ 理解ML核心概念
✓ 完成深度学习入门
🚀 第3-4月:核心技能
✓ 掌握LLM使用方法
✓ Prompt工程熟练
✓ 构建第一个RAG系统
⭐ 第5-6月:进阶实战
✓ Agent自主开发
✓ 模型微调实践
✓ 完整项目落地
📚 RAG系统完整架构流程
🔍 放大查看
graph TB
subgraph OFFLINE["📦 离线阶段:知识库构建"]
DOC["📄 原始文档 PDF/Word/Markdown"]
PARSE["🔍 文档解析 Unstructured/PyPDF"]
CHUNK["✂️ 文本分块 RecursiveCharacterTextSplitter chunk_size=512, overlap=50"]
EMBED["🎯 向量化 OpenAI Embedding bge-large-zh"]
STORE["🗄️ 向量存储 Qdrant/Milvus/Chroma HNSW索引"]
DOC --> PARSE
PARSE --> CHUNK
CHUNK --> EMBED
EMBED --> STORE
end
subgraph ONLINE["⚡ 在线阶段:检索问答"]
QUERY["❓ 用户提问"]
REWRITE["📝 查询重写 Multi-Query"]
Q_EMBED["🎯 问题向量化 同一Embedding模型"]
RETRIEVE["🔍 混合检索 向量检索 + BM25"]
RERANK["🎖️ 重排序 Cross-Encoder BGE-Reranker"]
CONTEXT["📋 上下文构建 Top-K文档组装"]
LLM_GEN["🤖 LLM生成 GPT-4/Claude +提示词模板"]
ANSWER["✅ 最终答案 +引用来源"]
QUERY --> REWRITE
REWRITE --> Q_EMBED
Q_EMBED --> RETRIEVE
STORE -.->|"检索"| RETRIEVE
RETRIEVE --> RERANK
RERANK --> CONTEXT
CONTEXT --> LLM_GEN
LLM_GEN --> ANSWER
end
subgraph FEEDBACK["🔄 反馈优化循环"]
USER_FB["👍👎 用户反馈"]
METRICS["📊 质量评估 准确率/相关性"]
IMPROVE["🔧 系统优化 调参/重新分块"]
ANSWER --> USER_FB
USER_FB --> METRICS
METRICS --> IMPROVE
IMPROVE -.->|"优化"| CHUNK
IMPROVE -.->|"优化"| RERANK
end
style DOC fill:#e0f2fe,stroke:#0284c7
style STORE fill:#ddd6fe,stroke:#7c3aed
style QUERY fill:#fef3c7,stroke:#f59e0b
style LLM_GEN fill:#fbbf24,stroke:#d97706,stroke-width:3px
style ANSWER fill:#d1fae5,stroke:#059669,stroke-width:2px
style FEEDBACK fill:#fce7f3,stroke:#db2777
🔑 关键优化点
1. 分块策略
chunk_size=256-512,overlap=10-20%
2. 混合检索
向量(语义) + BM25(关键词)
3. 重排序
Cross-Encoder提升准确率30%+
🤖 Agent工作循环(ReAct模式)
🔍 放大查看
graph TB
START["🎯 接收任务 Task Input"]
subgraph LOOP["🔄 ReAct 循环(最多N轮)"]
THINK["🤔 Thought 思考 我应该做什么? 分析当前状态"]
ACTION["⚡ Action 行动 选择并执行工具 搜索/计算/API调用"]
OBS["👁️ Observation 观察 工具返回结果 分析执行效果"]
THINK --> ACTION
ACTION --> OBS
OBS --> DECIDE{"✅ 任务完成?"}
DECIDE -->|"否"| THINK
end
DECIDE -->|"是"| FINAL["📝 Final Answer 生成最终答案 +完整推理链"]
START --> THINK
subgraph TOOLS["🛠️ 可用工具集"]
T1["🔍 搜索工具 Google/Bing"]
T2["🧮 计算器 数学运算"]
T3["📚 知识库 RAG检索"]
T4["💾 数据库 SQL查询"]
T5["🌐 API调用 天气/股票等"]
end
ACTION -.->|"调用"| TOOLS
TOOLS -.->|"返回"| OBS
subgraph MEMORY["🧠 记忆系统"]
SHORT["短期记忆 对话历史"]
LONG["长期记忆 向量存储"]
WORK["工作记忆 当前任务状态"]
end
THINK -.->|"读取"| MEMORY
OBS -.->|"写入"| MEMORY
style START fill:#fef3c7,stroke:#f59e0b,stroke-width:2px
style THINK fill:#dbeafe,stroke:#3b82f6,stroke-width:2px
style ACTION fill:#fbbf24,stroke:#d97706,stroke-width:3px
style OBS fill:#bfdbfe,stroke:#2563eb,stroke-width:2px
style FINAL fill:#d1fae5,stroke:#059669,stroke-width:3px
style TOOLS fill:#fce7f3,stroke:#db2777
style MEMORY fill:#ede9fe,stroke:#7c3aed
👥 多Agent协作模式
🔍 放大查看
graph TB
USER["👤 用户任务"]
subgraph COORD["🎯 协调模式"]
MANAGER["👨💼 Manager Agent 任务分解与调度"]
MANAGER --> A1["📝 写作Agent 内容创作"]
MANAGER --> A2["🔍 研究Agent 信息收集"]
MANAGER --> A3["🧮 分析Agent 数据分析"]
MANAGER --> A4["✅ 审核Agent 质量检查"]
A1 --> RESULT1["输出:文章草稿"]
A2 --> RESULT2["输出:研究报告"]
A3 --> RESULT3["输出:分析结论"]
A4 --> RESULT4["输出:审核意见"]
RESULT1 --> MANAGER
RESULT2 --> MANAGER
RESULT3 --> MANAGER
RESULT4 --> MANAGER
end
subgraph COLLAB["🤝 协作模式"]
DEV["👨💻 开发Agent"]
TEST["🧪 测试Agent"]
PM["📋 产品Agent"]
PM -->|"需求文档"| DEV
DEV -->|"代码"| TEST
TEST -->|"Bug报告"| DEV
TEST -->|"测试通过"| PM
end
subgraph DEBATE["💬 辩论模式"]
PROP["🟢 正方Agent 提出方案A"]
OPP["🔴 反方Agent 提出方案B"]
JUDGE["⚖️ 评判Agent 综合决策"]
PROP <-->|"辩论"| OPP
PROP --> JUDGE
OPP --> JUDGE
JUDGE --> DECISION["📊 最优方案"]
end
USER --> MANAGER
USER --> PM
USER --> PROP
style MANAGER fill:#fbbf24,stroke:#d97706,stroke-width:3px
style A1 fill:#bfdbfe,stroke:#3b82f6
style A2 fill:#bfdbfe,stroke:#3b82f6
style A3 fill:#bfdbfe,stroke:#3b82f6
style A4 fill:#bfdbfe,stroke:#3b82f6
style DEV fill:#d1fae5,stroke:#059669
style TEST fill:#fecdd3,stroke:#db2777
style PM fill:#e0e7ff,stroke:#6366f1
style JUDGE fill:#fef3c7,stroke:#f59e0b,stroke-width:2px
🎯 协调模式(AutoGen/CrewAI)
Manager分配任务,各Agent独立执行后汇总
🤝 协作模式(软件开发团队)
Agent间通过消息传递,模拟真实团队协作
💬 辩论模式(Society of Mind)
多个Agent持不同观点,通过辩论得出最优解
🌳 AI应用开发技术选型决策树
🔍 放大查看
graph TB
START["🎯 开始:我要做什么?"]
START --> Q1{"需要编程吗?"}
Q1 -->|"否,零代码"| NOCODE["🎨 可视化平台"]
Q1 -->|"是,要编程"| Q2{"主要做什么?"}
NOCODE --> NC1["简单Bot → Coze"]
NOCODE --> NC2["工作流 → Dify"]
NOCODE --> NC3["自动化 → n8n"]
Q2 -->|"知识问答"| RAG_CHOICE["📚 RAG方案"]
Q2 -->|"自主任务"| AGENT_CHOICE["🤖 Agent方案"]
Q2 -->|"专业领域"| FINETUNE["🎓 微调方案"]
RAG_CHOICE --> RAG1["入门 → LlamaIndex"]
RAG_CHOICE --> RAG2["灵活 → LangChain"]
RAG_CHOICE --> RAG3["搜索 → Haystack"]
AGENT_CHOICE --> AG1["单Agent → LangChain"]
AGENT_CHOICE --> AG2["多Agent → AutoGen"]
AGENT_CHOICE --> AG3["角色协作 → CrewAI"]
FINETUNE --> FT1["快速 → Unsloth"]
FINETUNE --> FT2["全面 → LLaMA Factory"]
FINETUNE --> FT3["企业 → Axolotl"]
RAG1 --> VECTOR{"向量数据库?"}
RAG2 --> VECTOR
RAG3 --> VECTOR
VECTOR -->|"入门"| V1["Chroma"]
VECTOR -->|"生产"| V2["Qdrant"]
VECTOR -->|"海量"| V3["Milvus"]
VECTOR -->|"托管"| V4["Pinecone"]
AG1 --> DEPLOY{"如何部署?"}
AG2 --> DEPLOY
FT1 --> DEPLOY
DEPLOY -->|"本地"| D1["Ollama"]
DEPLOY -->|"云端"| D2["OpenAI API"]
DEPLOY -->|"私有化"| D3["vLLM"]
style START fill:#fbbf24,stroke:#d97706,stroke-width:3px
style RAG_CHOICE fill:#bfdbfe,stroke:#3b82f6,stroke-width:2px
style AGENT_CHOICE fill:#fecdd3,stroke:#db2777,stroke-width:2px
style FINETUNE fill:#ddd6fe,stroke:#7c3aed,stroke-width:2px
style NOCODE fill:#d1fae5,stroke:#059669,stroke-width:2px
💡 根据需求和技术背景,系统化选择最合适的技术栈
📅 大模型能力演进时间线
🔍 放大查看
timeline
title 大模型发展里程碑(2018-2025)
2018 : BERT诞生 : 双向编码器 : NLP新范式
2019 : GPT-2发布 : 15亿参数 : 生成能力突破
2020 : GPT-3震撼 : 1750亿参数 : Few-Shot学习
: T5问世 : Text-to-Text : 统一框架
2021 : DALL-E : 文生图 : 多模态突破
: Codex : 代码生成 : GitHub Copilot
2022 : ChatGPT爆发 : RLHF对齐 : 现象级应用
: Stable Diffusion : 开源扩散模型 : AI绘画普及
2023 : GPT-4 : 多模态 : 推理能力飞跃
: Claude-2 : 100K上下文 : 长文本处理
: Llama 2开源 : 商用许可 : 开源生态繁荣
2024 : GPT-4o : 原生多模态 : 实时交互
: Claude-3.5 : Sonnet最强 : 代码生成之王
: Llama 3 : 4000亿参数 : 开源巅峰
: DeepSeek-V2 : MoE架构 : 中国力量
2025 : DeepSeek-R1 : 开源推理 : 挑战o1
: Qwen2.5 : 全尺寸开源 : 中文最强
: 多模态爆发 : 图文音视频 : 全模态融合
🗄️ 向量数据库选型对比图
🔍 放大查看
graph LR
NEED["🎯 需求场景"]
NEED --> S1{"数据规模?"}
NEED --> S2{"部署方式?"}
NEED --> S3{"预算?"}
S1 -->|"< 100万"| SMALL["小规模方案"]
S1 -->|"100万-1亿"| MEDIUM["中规模方案"]
S1 -->|"> 1亿"| LARGE["大规模方案"]
S2 -->|"云端托管"| CLOUD["托管服务"]
S2 -->|"自己部署"| SELF["自托管方案"]
S3 -->|"免费/低成本"| FREE["开源方案"]
S3 -->|"商业预算"| PAID["商业方案"]
SMALL --> DB1["Chroma 轻量嵌入式 快速上手"]
SMALL --> DB2["SQLite + pgvector 单机部署 SQL友好"]
MEDIUM --> DB3["Qdrant Rust高性能 易部署易用"]
MEDIUM --> DB4["Weaviate 多模态支持 GraphQL查询"]
LARGE --> DB5["Milvus 分布式架构 万亿级规模"]
LARGE --> DB6["Elasticsearch 混合检索强 成熟生态"]
CLOUD --> DB7["Pinecone 完全托管 零运维"]
CLOUD --> DB8["Zilliz Cloud Milvus托管版 弹性伸缩"]
SELF --> DB1
SELF --> DB3
SELF --> DB5
FREE --> DB1
FREE --> DB3
FREE --> DB5
PAID --> DB7
PAID --> DB8
style NEED fill:#fbbf24,stroke:#d97706,stroke-width:3px
style DB1 fill:#d1fae5,stroke:#059669,stroke-width:2px
style DB3 fill:#bfdbfe,stroke:#3b82f6,stroke-width:2px
style DB5 fill:#fecdd3,stroke:#db2777,stroke-width:2px
style DB7 fill:#ddd6fe,stroke:#7c3aed,stroke-width:2px
📈 技术成熟度与学习难度矩阵
技术领域
成熟度
学习难度
工业应用
发展趋势
数学基础
⭐⭐⭐⭐⭐
🔴🔴🔴⚪⚪
基础必备
稳定
机器学习
⭐⭐⭐⭐⭐
🔴🔴⚪⚪⚪
广泛应用
稳定
深度学习
⭐⭐⭐⭐⭐
🔴🔴🔴🔴⚪
核心技术
持续创新
Transformer
⭐⭐⭐⭐⭐
🔴🔴🔴🔴⚪
主流架构
优化改进
LLM预训练
⭐⭐⭐⭐⚪
🔴🔴🔴🔴🔴
大厂主导
快速发展
模型微调
⭐⭐⭐⭐⭐
🔴🔴🔴⚪⚪
企业必备
方法成熟
RAG系统
⭐⭐⭐⭐⚪
🔴🔴🔴⚪⚪
快速普及
🔥热门
Agent智能体
⭐⭐⭐⚪⚪
🔴🔴🔴🔴⚪
探索阶段
🔥热门
强化学习
⭐⭐⭐⭐⚪
🔴🔴🔴🔴🔴
特定场景
持续研究
模型推理优化
⭐⭐⭐⭐⚪
🔴🔴🔴🔴⚪
生产必备
快速发展
MLOps
⭐⭐⭐⭐⚪
🔴🔴🔴⚪⚪
企业刚需
工具完善
多模态
⭐⭐⭐⚪⚪
🔴🔴🔴🔴⚪
新兴领域
🔥热门
成熟度说明
⭐⭐⭐⭐⭐ 非常成熟
⭐⭐⭐⭐ 相对成熟
⭐⭐⭐ 快速发展
学习难度
🔴🔴 入门级
🔴🔴🔴 中级
🔴🔴🔴🔴 高级
🔴🔴🔴🔴🔴 专家级
工业应用
基础必备:理论基础
广泛应用:成熟落地
企业必备:竞争力
探索阶段:创新前沿
发展趋势
稳定:成熟稳定
持续创新:不断优化
🔥热门:当前热点
快速发展:迅速迭代
🔍 核心模块详细展开
📐 数学基础 → 支撑整个AI理论
•
线性代数: 矩阵运算 → 神经网络计算 → Transformer注意力机制
•
概率统计: 贝叶斯推理 → 生成模型 → 不确定性量化
•
优化理论: 梯度下降 → Adam优化器 → 模型训练
🧠 深度学习 → 现代AI的核心
•
CNN: 图像特征提取 → 计算机视觉 → 多模态模型
•
Transformer: 注意力机制 → BERT/GPT → LLM基座
•
生成模型: VAE/GAN → Diffusion → AIGC内容创作
🤖 LLM大模型 → 应用的基石
•
预训练: 大规模语料 → 通用能力 → 基座模型
•
微调: 领域数据 → SFT/LoRA → 专业能力
•
推理: 优化加速 → 量化/KV Cache → 生产服务
📚 RAG检索增强 → 知识注入
•
向量化: 文档分块 → Embedding模型 → 向量存储
•
检索: 相似度计算 → BM25+向量混合 → 重排序
•
生成: 上下文构建 → Prompt工程 → LLM生成答案
🎯 Agent智能体 → 自主系统
•
行动: 调用工具/API → 获取结果 → 反思改进
•
记忆: 短期上下文 → 长期知识库(RAG) → 经验积累
📚
第一层:基础层
AI 技术栈的地基,提供数学、编程、数据工程等基础能力
🔢 1.1 数学基础
基础层
AI 算法的数学理论基础,理解模型原理的必备知识
生态定位: 为机器学习、深度学习、优化算法提供理论支撑
▼
线性代数
• 向量与矩阵运算: 神经网络权重计算的数学表达
• 特征值分解 SVD: 降维、压缩、推荐系统核心
• 正交分解: PCA、数据去相关性
• 范数与距离: 相似度计算、正则化基础
🔗 应用:Transformer 注意力机制、矩阵分解推荐
概率统计
• 条件概率与贝叶斯: 朴素贝叶斯分类、贝叶斯优化
• 最大似然估计: 参数估计、损失函数设计
• 信息论: 交叉熵损失、KL散度、信息增益
• 分布理论: 高斯分布、伯努利、采样方法
🔗 应用:变分自编码器VAE、生成模型、不确定性量化
微积分与优化
• 梯度与导数: 反向传播算法的数学基础
• 梯度下降: SGD、Mini-batch、批量优化
• 动量方法: Momentum、Nesterov 加速收敛
• 自适应学习率: Adam、AdaGrad、RMSprop
🔗 应用:神经网络训练、超参数调优、损失函数优化
数值计算
• 数值稳定性: 防止梯度消失/爆炸
• 浮点运算: 混合精度训练 FP16/BF16
• 矩阵分解: LU、QR、Cholesky 加速计算
• 数值优化: 牛顿法、拟牛顿法 L-BFGS
🔗 应用:大规模训练稳定性、推理加速
💻 1.2 计算机基础
基础层
系统级知识,支撑高性能 AI 系统开发
生态定位: 为分布式训练、推理优化、系统架构提供技术基础
▼
数据结构与算法
• 树结构: 决策树、GBDT、索引结构
• 图算法: 知识图谱、GNN、社交网络
• 哈希表: 快速检索、去重、缓存
• 动态规划: 序列比对、强化学习
操作系统与网络
• 进程/线程: 多进程训练、数据并行
• 内存管理: 显存优化、零拷贝技术
• IO 系统: 数据加载瓶颈优化
• 网络协议: 分布式通信、模型服务化
数据库系统
• 关系型: PostgreSQL、MySQL 数据存储
• 向量数据库: Milvus、Qdrant RAG 检索
• NoSQL: MongoDB、Redis 缓存层
• 图数据库: Neo4j 知识图谱存储
🐍 1.3 编程语言
基础层
AI 工程实现的编程工具链
生态定位: 算法实现、工程开发、系统集成的编程基础
▼
Python
• 核心库: NumPy、Pandas 数据处理
• 深度学习: PyTorch、TensorFlow、JAX
• 科学计算: SciPy、Scikit-learn
• 并发编程: asyncio、多进程、GIL优化
🔗 主导:模型训练、数据分析、原型开发
Go
• 高性能: 推理服务、API网关
• 并发模型: Goroutine、Channel
• 微服务: gRPC、分布式系统
• 工具链: 命令行工具、数据管道
🔗 主导:生产部署、高并发服务
JavaScript/TypeScript
• 前端框架: React、Vue AI 应用界面
• Node.js: 后端服务、BFF 层
• 可视化: D3.js、ECharts 数据展示
• 边缘计算: TensorFlow.js 浏览器推理
🔗 主导:用户界面、全栈应用
🗄️ 1.4 数据工程
基础层
AI 的燃料供应链,数据的采集、处理、存储
生态定位: 为模型训练提供高质量数据,支撑整个 AI 生命周期
▼
数据采集与清洗
• 爬虫技术: Scrapy、Selenium 数据获取
• ETL 流程: Extract、Transform、Load
• 数据清洗: 去重、缺失值处理、异常检测
• 数据标注: Label Studio、众包标注
数据存储与湖仓
• 列式存储: Parquet、ORC 高效压缩
• 数据湖: S3、MinIO 海量存储
• 湖仓一体: Delta Lake、Iceberg 事务支持
• 版本管理: DVC、Git-LFS 数据版本化
特征工程
• 特征提取: 文本、图像、音频特征化
• 特征选择: 相关性分析、重要性排序
• 特征存储: Feast、Tecton Feature Store
• 数据增强: 图像变换、文本回译、合成数据
🧮
第二层:算法层
从传统机器学习到深度学习的算法体系
🎯 2.1 机器学习算法
算法层
经典统计学习方法,广泛应用于结构化数据分析
生态定位: 为深度学习提供理论基础,在特定场景下仍是最优选择
▼
监督学习
• 线性模型: 线性回归、逻辑回归、Ridge/Lasso
• SVM: 支持向量机、核技巧、软间隔
• 决策树: CART、ID3、C4.5、剪枝策略
• 集成学习: Random Forest、GBDT、XGBoost、LightGBM、CatBoost
🔗 应用:结构化数据分类、回归、排序
无监督学习
• 聚类: K-Means、层次聚类、DBSCAN、GMM
• 降维: PCA、t-SNE、UMAP、Autoencoder
• 关联规则: Apriori、FP-Growth 市场篮分析
• 异常检测: Isolation Forest、One-Class SVM
🔗 应用:用户分群、数据可视化、欺诈检测
特殊场景
• 推荐系统: 协同过滤、矩阵分解、Bandit 算法
• 时间序列: ARIMA、Prophet、时序特征工程
• 因果推断: A/B测试、双重差分、工具变量
• 半监督学习: 伪标签、一致性正则化
🔗 应用:电商推荐、金融预测、营销决策
评估与优化
• 评估指标: 准确率、精确率、召回率、AUC、F1
• 交叉验证: K-Fold、Stratified、时序划分
• 超参优化: 网格搜索、随机搜索、贝叶斯优化
• 模型选择: Bias-Variance 权衡、集成方法
🔗 应用:模型评估、性能调优、自动化ML
🧠 2.2 深度学习
算法层
神经网络及其变体,处理非结构化数据的核心技术
生态定位: 现代 AI 的核心,支撑图像、语音、文本等多模态任务
▼
基础网络架构
• 全连接网络: MLP、激活函数、BP 反向传播
• CNN: 卷积、池化、ResNet、EfficientNet
• RNN/LSTM: 循环神经网络、GRU、序列建模
• Attention: 注意力机制、Self-Attention、多头注意力
🔗 应用:图像分类、目标检测、序列预测
Transformer 生态
• 原始架构: Encoder-Decoder、位置编码
• BERT 系列: 双向编码、Masked LM、预训练
• GPT 系列: 自回归生成、In-Context Learning
• 视觉 Transformer: ViT、Swin、DeiT
🔗 应用:NLP、CV、多模态统一建模
生成模型
• VAE: 变分自编码器、隐变量建模
• GAN: 生成对抗网络、StyleGAN、CycleGAN
• Diffusion: DDPM、Stable Diffusion、文生图
• Flow: 标准化流、可逆变换
🔗 应用:图像生成、视频合成、AIGC 内容创作
训练技术
• 自监督学习: 对比学习、SimCLR、MoCo、MAE
• 迁移学习: 预训练-微调、Few-Shot、Zero-Shot
• 正则化: Dropout、BatchNorm、LayerNorm
• 混合精度: FP16、BF16、量化训练
🔗 应用:加速训练、提升泛化、节省资源
🎮 2.3 强化学习
算法层
智能决策与策略优化,Agent 自主学习的核心
生态定位: 支撑 RLHF(人类反馈强化学习)、游戏AI、自动驾驶等决策场景
▼
基础算法
• Q-Learning: 值迭代、Q 表、探索与利用
• DQN: 深度 Q 网络、经验回放、目标网络
• Policy Gradient: REINFORCE、策略梯度
• Actor-Critic: A2C、A3C、优势函数
高级方法
• PPO: 近端策略优化、稳定训练
• DDPG/TD3: 连续动作空间、确定性策略
• SAC: 软 Actor-Critic、最大熵 RL
• 模型驱动: World Models、Planning
LLM 应用
• RLHF: 人类偏好对齐、Reward Model
• DPO/ORPO: 直接偏好优化、无 RM 对齐
• 在线学习: 交互式微调、持续优化
• 多智能体: 协作、竞争、博弈论
🤖
第三层:模型层 (LLM)
大语言模型生态,AI 应用的核心引擎
🌟 3.1 预训练大模型
模型层
通用大模型与开源权重,AI 应用的基座
生态定位: 为下游应用提供强大的语言理解和生成能力
▼
闭源商业模型
• OpenAI GPT: GPT-4o、GPT-4、GPT-3.5 API服务
• Claude: Claude 3 Opus/Sonnet/Haiku 系列
• Google Gemini: Ultra、Pro、Flash 多模态
• 国内大模型: DeepSeek、Qwen、文心、通义
🔗 优势:性能最强、开箱即用、持续更新
开源权重模型
• Llama 系列: Llama 3/3.1/3.2,Meta 开源旗舰
• Qwen 系列: 通义千问开源版,中文优秀
• Mistral/Mixtral: 欧洲开源,MoE 架构
• Phi 系列: 微软小参数高性能模型
🔗 优势:本地部署、数据安全、可定制化
领域专用模型
• 代码模型: Codex、CodeLlama、StarCoder、DeepSeek-Coder
• 数学模型: Minerva、WizardMath、ToRA
• 多模态: GPT-4V、LLaVA、Qwen-VL 视觉理解
• 语音模型: Whisper、MusicLM、AudioLM
🔗 优势:垂直领域性能卓越
🔧 3.2 模型微调与适配
模型层
针对特定任务和领域优化模型能力
生态定位: 连接通用模型与具体业务场景的桥梁
▼
全量微调
• SFT(监督微调): 指令数据集微调
• RLHF: 人类反馈强化学习
• DPO: 直接偏好优化,无需 RM
• 领域预训练: 继续预训练领域语料
参数高效微调 (PEFT)
• LoRA: 低秩适配,仅训练小部分参数
• QLoRA: 量化 + LoRA,内存效率更高
• Adapters: 插入适配器层
• Prompt/Prefix Tuning: 调整输入 prompt
评测基准
• 通用评测: MMLU、C-Eval、Big-Bench
• 对话评测: MT-Bench、AlpacaEval、Chatbot Arena
• 代码评测: HumanEval、MBPP、CodeXGLUE
• 中文评测: CMMLU、CLUE、SuperCLUE
⚡ 3.3 推理与部署
模型层
高效推理引擎与生产服务化
生态定位: 将训练好的模型转化为可服务的应用
▼
推理引擎
• vLLM: PagedAttention、高吞吐推理
• TensorRT-LLM: NVIDIA 优化引擎
• TGI: HuggingFace 推理服务
• llama.cpp/Ollama: 本地 CPU 推理
模型优化
• 量化: INT8/4、AWQ、GPTQ、低比特量化
• KV Cache: 缓存优化、Flash Attention
• 投机采样: Speculative Decoding 加速
• 批处理: 动态批处理、连续批处理
服务化
• API 网关: 限流、鉴权、负载均衡
• 多租户: 资源隔离、成本分摊
• 可观测性: 延迟、吞吐、成本监控
• SLA/SLO: 服务等级协议与保障
🔍
第四层:应用层
RAG 检索增强与 Agent 智能体系统
📚 4.1 RAG 检索增强生成
应用层
通过外部知识增强 LLM 的准确性和时效性
生态定位: 解决 LLM 知识局限、幻觉问题,支撑企业知识库应用
▼
嵌入与索引
• 嵌入模型: bge-系列、text-embedding-3、E5、NV-Embed
• 向量数据库: Milvus、Qdrant、Weaviate、PgVector、Chroma
• 混合检索: BM25 + 向量、多路召回融合
• 分块策略: 固定长度、语义分块、递归分割
检索优化
• 重排序: Cohere Rerank、bge-reranker、Cross-Encoder
• 上下文压缩: LLMLingua、关键句提取
• 多跳检索: HyDE、Query Expansion、多轮检索
• 引用追踪: 来源标注、可验证性增强
框架与评测
• 开发框架: LlamaIndex、LangChain、Haystack、Dify
• 企业方案: RagFlow、FastGPT、MaxKB
• 评测工具: RAGAS、TruLens、自建 Golden Set
• 高级场景: 多模态 RAG、结构化数据问答、长文档
🤖 4.2 Agent 智能体系统
应用层
具备规划、记忆、工具调用能力的自主智能体
生态定位: 从被动问答到主动任务执行,AI 应用的高级形态
▼
核心能力
• 规划: 任务分解、Chain-of-Thought、ReAct
• 记忆: 短期/长期记忆、向量记忆库
• 工具调用: Function Calling、外部 API 集成
• 反思: Reflexion、Self-Consistency 自我修正
框架生态
• 多 Agent: AutoGen、CrewAI、MetaGPT
• 工作流: LangGraph、Semantic Kernel、AgentScope
• 官方方案: OpenAI Assistants、Claude Projects
• 编排工具: n8n、Flowise、Dify Workflow
落地场景
• 知识助手: 企业文档问答、客服机器人
• 代码 Agent: 代码生成、调试、重构助手
• 数据分析: SQL 生成、可视化、报告撰写
• 运维 Agent: 日志分析、故障诊断、自动修复
⚙️
第五层:工程层 (MLOps)
AI 生产化流程与运维体系
🏋️ 5.1 训练与实验管理
工程层
模型训练、实验跟踪、版本管理
生态定位: 规范化训练流程,支撑模型快速迭代
▼
分布式训练
• 数据并行: DDP、FSDP、ZeRO
• 模型并行: 张量并行、流水线并行
• 框架: DeepSpeed、Megatron-LM、Accelerate
• 通信优化: 梯度累积、混合精度、NCCL
实验管理
• 实验跟踪: MLflow、Weights & Biases、TensorBoard
• 超参优化: Optuna、Ray Tune、Hyperopt
• 模型注册: Model Registry、版本管理
• 可复现性: 种子固定、环境快照、代码版本
资源调度
• 容器编排: Kubernetes、GPU Operator
• 分布式计算: Ray、Spark、Dask
• 任务调度: Airflow、Kubeflow、Argo Workflows
• 成本优化: Spot 实例、资源池化、弹性伸缩
📊 5.2 部署与监控治理
工程层
生产部署、性能监控、安全合规
生态定位: 确保模型稳定运行,持续优化迭代
▼
部署策略
• 灰度发布: Canary、蓝绿部署、A/B 测试
• 影子模式: Shadow Deployment 风险验证
• 回滚机制: 快速回退、版本切换
• 多区域: 就近部署、跨地域容灾
监控与可观测
• 指标监控: Prometheus、Grafana、延迟/吞吐/错误率
• 日志分析: ELK/EFK Stack、分布式追踪
• 模型监控: 预测漂移、特征漂移、数据质量
• 告警系统: 异常检测、SLA 违约、自动化响应
安全与合规
• 数据合规: GDPR、隐私计算、数据脱敏
• 模型安全: 对抗攻击防护、提示注入防御
• 审计追踪: 操作日志、版本追溯、责任归属
• 内容安全: 有害内容过滤、偏见检测、公平性
🛠️ 开发工具与平台
生态层
• 训练框架: PyTorch、TensorFlow、JAX、PaddlePaddle
• 推理框架: ONNX Runtime、TensorRT、OpenVINO
• 应用框架: LangChain、LlamaIndex、Semantic Kernel
• 可视化平台: Dify、Flowise、StackAI、Coze
• Prompt 工程: PromptPerfect、LangSmith、Helicone
📦 数据与模型资源
生态层
• 模型仓库: HuggingFace Hub、ModelScope、OpenXLab
• 数据集平台: Kaggle、HF Datasets、Common Crawl
• 标注平台: Label Studio、Prodigy、Doccano
• 向量资源: 预训练 Embedding、开源向量库
• 评测榜单: Open LLM Leaderboard、C-Eval、AlpacaEval
👥 社区与学习
生态层
• 学术会议: NeurIPS、ICML、ACL、CVPR
• 开源社区: GitHub、HF Community、Replicate
• 在线课程: Coursera、fast.ai、DeepLearning.AI
• 中文社区: AI 研习社、PaperWithCode、知乎
• 技术博客: Distill、Lil'Log、Jay Alammar
🚀 云平台与服务
生态层
• 模型 API: OpenAI、Claude、Gemini、Azure OpenAI
• GPU 云: AWS、GCP、Azure、阿里云、腾讯云
• 专用平台: Lambda Labs、RunPod、Vast.ai
• MLOps 平台: Vertex AI、SageMaker、Databricks
• 向量数据库: Pinecone、Zilliz Cloud、Weaviate Cloud
🎯 学习路径建议
🔰 入门路径(0-6个月)
1. 数学基础: 线性代数、概率统计、微积分基础
2. 编程能力: Python 熟练、NumPy/Pandas 使用
3. 机器学习: Scikit-learn、经典算法实践
4. 深度学习: PyTorch 入门、简单 CNN/RNN
5. LLM 应用: API 调用、Prompt 工程基础
🚀 进阶路径(6-18个月)
1. Transformer: 深入理解注意力机制与架构
2. LLM 微调: SFT、LoRA、PEFT 实战
3. RAG 系统: 向量检索、框架应用、性能优化
4. Agent 开发: 工具调用、多 Agent 协作
5. 工程化: 模型部署、监控、MLOps 流程
⚡ 专家路径(18个月+)
1. 模型训练: 预训练、对齐、分布式训练
2. 推理优化: 量化、KV Cache、推理引擎定制
3. 系统架构: 大规模 AI 系统设计
4. 前沿研究: 论文复现、算法创新
5. 行业落地: 业务场景深度结合、ROI 优化
💡 学习建议
📖 理论与实践结合: 不要只看教程,动手实现每个算法
🔄 项目驱动学习: 以实际问题为导向,边学边做
👥 社区参与: GitHub 贡献、技术博客、开源协作
💡 提示: 本页为 AI 知识图谱全景导航,点击各卡片可展开详细内容
🔍 后续计划:接入交互式关系图(D3.js/vis-network)、知识点依赖可视化、学习路径推荐系统