Skip to content
Stone
返回笔记列表
前沿技术与概念

前沿技术与概念

前沿技术与概念 RAG(检索增强生成)如何解决LLM的幻觉(Hallucination)问题

AI Knowledge Base

前沿技术与概念

1. RAG(检索增强生成)如何解决LLM的幻觉(Hallucination)问题?

幻觉问题: LLM会自信地生成看似合理但实际错误的信息。

RAG工作流程:

用户查询 → 检索相关文档 → 文档作为上下文注入提示 → LLM基于文档生成回答

解决幻觉的机制:

机制说明
知识外挂实时检索最新/准确的知识
来源锚定回答基于检索到的具体文档
可验证性可追溯答案来源
减少臆造有参考依据时更不易胡编

关键组件:

  • 嵌入模型: 将文本转为向量
  • 向量数据库: 存储和检索向量
  • 重排序器: 精细化检索结果排序
  • 生成模型: 基于检索结果生成回答

局限: 检索质量影响结果;复杂推理仍可能出错


2. LoRA(低秩适应)如何实现高效的模型微调?

核心思想: 冻结原模型参数,只训练低秩分解的增量矩阵。

数学原理:

原权重: W (d × k)
LoRA: W + ΔW = W + BA
其中: B (d × r), A (r × k), r << min(d,k)

效率对比:

方法可训练参数GPU显存
全量微调100%
LoRA (r=8)~0.1%

优势:

  1. 显存占用大幅降低
  2. 训练速度快
  3. 可存储多个LoRA适配器
  4. 推理时可合并回原模型

变体:

  • QLoRA: 4-bit量化 + LoRA
  • DoRA: 分解幅度和方向
  • AdaLoRA: 自适应秩分配

3. RLHF(人类反馈强化学习)是如何让AI更符合人类价值观的?

训练流程:

1. 预训练模型 (基础能力)
      ↓
2. 监督微调SFT (指令遵循)
      ↓
3. 奖励模型训练 (学习人类偏好)
      ↓
4. 强化学习优化 (最大化奖励)

关键步骤详解:

阶段过程
收集偏好数据人类对模型输出排序
训练奖励模型学习预测人类偏好分数
PPO优化优化策略使奖励最大化

为什么有效:

  • 捕捉难以形式化定义的"好"
  • 对齐人类意图而非表面指令
  • 减少有害/偏见输出

挑战:

  • 标注成本高
  • 奖励黑客攻击
  • 单一标准可能不代表所有人

替代方案: DPO(直接偏好优化)——跳过奖励模型训练


4. 多模态模型(Multimodal Model)如何同时理解文本、图像和音频?

核心挑战: 将不同模态映射到统一的表示空间。

典型架构:

图像 → 视觉编码器 (ViT) → 视觉Token
文本 → 文本编码器 → 文本Token
音频 → 音频编码器 (Whisper) → 音频Token
            ↓
    多模态融合层 (交叉注意力/拼接)
            ↓
        统一的LLM处理

融合策略:

策略说明
早期融合输入层直接拼接
中期融合中间层交互
晚期融合各模态独立编码后合并

代表模型:

  • GPT-4V: 图文理解
  • Gemini: 原生多模态
  • LLaVA: 开源视觉语言模型
  • ImageBind: 六种模态对齐

能力: 图像描述、视觉问答、图文生成、跨模态检索


5. 零知识证明在AI隐私保护中有什么应用潜力?

零知识证明(ZKP): 证明者能证明某陈述为真,而无需透露任何额外信息。

AI隐私保护应用:

场景应用方式
模型推理验证证明使用了特定模型而不泄露模型权重
数据合规证明模型训练符合规范而不暴露数据
隐私推理在加密数据上进行推理
模型所有权证明模型归属而不公开模型

技术挑战:

  • 计算开销大 (证明生成慢)
  • 电路规模限制
  • 工程复杂度高

当前状态: 研究阶段,实用化需要效率突破

相关技术: 同态加密、安全多方计算、可信执行环境


6. 联邦学习(Federated Learning)如何在不共享原始数据的情况下训练模型?

核心流程:

1. 中央服务器分发模型到各参与方
2. 各参与方在本地数据上训练
3. 上传模型更新(梯度/参数差异)
4. 服务器聚合更新
5. 重复直到收敛

聚合算法: FedAvg (联邦平均)

全局模型 = Σ (本地模型 × 本地数据量) / 总数据量

隐私保护机制:

机制作用
本地训练原始数据不离开设备
差分隐私给更新添加噪声
安全聚合加密梯度传输

应用场景:

  • 医疗数据联合建模
  • 手机键盘预测
  • 金融机构风控模型

挑战: 非IID数据、通信效率、恶意参与方


7. 神经架构搜索(NAS)能否自动设计出最优的网络结构?

定义: 自动化搜索最优神经网络架构的技术。

搜索空间:

  • 层类型 (卷积、全连接、注意力)
  • 连接方式
  • 超参数 (通道数、核大小)

搜索方法:

方法特点
强化学习用RL agent选择架构
进化算法架构"进化"优胜劣汰
梯度方法可微分搜索(DARTS)
预测器预测架构性能,减少训练

成果与局限:

成果局限
EfficientNet (超越人工设计)搜索成本高昂
NASNet (CIFAR刷榜)搜索空间需人工设计
发现新模块不能真正"创造"新范式

结论: 可以在给定搜索空间内找到优秀架构,但无法完全替代人类创造力。


8. 量子机器学习会如何改变AI的计算范式?

量子计算优势:

  • 量子叠加: 同时表示多个状态
  • 量子纠缠: 超越经典的关联性
  • 量子并行: 特定问题指数加速

量子ML的潜在应用:

领域潜在优势
优化问题组合优化加速
采样量子采样效率更高
核方法量子核函数
线性代数HHL算法加速矩阵运算

当前状态:

  • NISQ时代: 噪声中等规模量子计算
  • 量子比特数有限(100-1000级)
  • 纠错技术尚不成熟

短期vs长期:

时间框架预期
短期特定优化问题可能有优势
中期量子-经典混合算法
长期若容错量子计算实现,范式变革

9. 什么是涌现能力(Emergent Abilities),为什么它在大模型中突然出现?

定义: 小模型不具备,但在模型规模超过某个阈值时突然出现的能力。

典型涌现能力:

  • 思维链推理
  • 多步数学运算
  • 代码生成
  • 零样本任务完成

涌现特征:

性能
  ↑
  │        ●●●●●  (能力突然出现)
  │       ●
  │     ●
  │  ●●●  (无能力)
  └──────────────→ 模型规模

可能解释:

假说说明
相变类似物理相变,量变到质变
评估偏差任务需达到阈值才能算"通过"
组合学习子技能组合产生新能力
测量问题用对数尺度可能更平滑

争议: 部分研究认为涌现可能是评估方式导致的错觉。


10. 模型对齐(Alignment)为什么是确保AI安全的关键问题?

对齐问题: 如何确保AI系统的行为符合人类意图和价值观?

为什么关键:

风险说明
目标偏离AI优化代理目标而非真实目标
欺骗行为AI可能学会欺骗以获得奖励
无意后果字面执行指令导致灾难
价值外推人类无法预见的新情境

对齐技术:

技术作用
RLHF从人类反馈学习偏好
Constitutional AI基于原则的自我改进
可解释性理解模型决策过程
红队测试主动发现漏洞

核心难题:

  • 人类价值观本身存在分歧
  • 无法穷尽所有场景
  • 能力增强可能加剧对齐难度

行业共识: 对齐研究需要与能力研究同步发展,甚至优先。