博士课程大纲:高级人工智能(16 学时)

博士课程大纲:高级人工智能(16 学时)

课程目标

本课程面向人工智能及相关领域博士研究博士课程大纲:高级人工智能(16 学时)生,聚焦近 3-5 年 AI 领域的核心理论突破、技术瓶颈与科研创新方法论。课程旨在帮助学生建立 “理论根源 – 技术演进 – 场景落地” 的完整认知体系:既能拆解 NeurIPS/ICML/ICLR 等顶会的前沿成果、识别技术痛点,又能将大模型、多模态、强化学习等前沿方法与自身科研课题(如 AI + 科学发现、智能机器人、医疗 AI 等)深度结合,最终具备独立设计创新性研究方案、撰写顶会级论文的能力。

课程结构(总计 16 学时,分 4 周,每周 4 学时)

第一模块:AI 基础理论与范式演进(4 学时)

1. AI 范式的迭代与核心理论问题(2 学时)

范式跃迁

从 “传统机器学习” 到 “深度学习”:以 AlexNet(2012)、ResNet(2016)为例,解析 “特征工程自动化” 的本质;从 “单任务模型” 到 “基础模型(Foundation Model)”:GPT/LLaMA/PaLM 的 “预训练 – 微调” 范式,解决 “数据稀缺” 与 “场景泛化” 的核心矛盾;从 “统计关联” 到 “因果推断”:传统 AI 的 “相关性偏见”(如医疗 AI 误将 “设备型号” 当作疾病特征),因果图(Do-Calculus)与不变风险最小化(IRM)的理论突破。
核心理论挑战
泛化性问题:分布偏移(Domain Shift)下的模型失效(如训练数据是晴天,测试是雨天的自动驾驶感知),解决方案如域适应(Domain Adaptation)、测试时自适应(Test-Time Adaptation);鲁棒性与安全性:对抗攻击(如微小扰动导致图像分类错误)、模型幻觉(大模型生成虚假事实)的理论根源与防御机制(如对抗训练、事实一致性约束)。
顶会案例拆解:解析 ICML 2023《Invariant Risk Minimization for Out-of-Distribution Generalization》的理论框架与实验设计,理解 “因果推断如何提升泛化性”。

2. 机器学习理论的前沿进展(2 学时)

核心方向

大模型泛化理论:模型规模(参数量)与泛化误差的关系(如 “双下降” 现象),过参数化模型的泛化边界分析;小样本 / 零样本学习理论:元学习(MAML)的 “先验知识迁移” 数学基础,提示学习(Prompt)的 “分布校准” 机制;优化理论:深度学习优化器的收敛性(如 AdamW vs SGD 的适用场景),大模型训练中的 “鞍点规避” 与 “梯度消失” 解决方案。
小组研讨:围绕 “‘大模型越大泛化性越好’是否成立?” 展开辩论,要求结合顶会文献(如 NeurIPS 2024《Scaling Laws Revisited: 泛化误差的饱和点》)提出论据,15 分钟分组后派代表分享;作业布置:撰写 1500 字 “某类 AI 理论问题(如分布偏移 / 小样本泛化)与自身课题的关联分析”,需引用 5 篇以上近 3 年顶会论文(1 周内提交)。

第二模块:AI 核心技术前沿突破(6 学时)

3. 大模型技术:训练、微调与效率优化(2 学时)

核心进展

基础模型训练:大规模预训练数据的筛选(如 C4 数据集的去噪策略)、混合专家模型(MoE)的并行训练(如 GPT-4 的 MoE 架构);高效微调技术:参数高效微调(PEFT)如 LoRA(低秩适应)、QLoRA(量化 LoRA)的原理与适用场景(如资源有限下的大模型适配);大模型压缩与部署:模型量化(INT8/INT4)、稀疏化(结构化稀疏)、蒸馏(知识蒸馏)的技术细节,边缘设备(如 FPGA / 嵌入式)的部署挑战(如实时性约束)。
顶会案例:拆解 NeurIPS 2023《QLoRA: Efficient Finetuning of Quantized LLMs》的量化策略(4-bit 量化)与实验结果(在 7B 模型上精度损失 < 1%);实战演示:基于 PyTorch 实现 LoRA 微调 LLaMA-7B 模型(针对特定任务如 “AI + 材料设计”),讲解超参数调优(秩大小、学习率)与效果评估。

4. 多模态 AI 与跨模态融合(2 学时)

技术痛点

跨模态异构性:文本(语义)、图像(像素)、语音(波形)的数据结构差异,模态间 “语义鸿沟”(如 “红色苹果” 的文本与图像特征对齐);模态噪声与缺失:医疗场景中 “CT 影像 + 病理文本” 的模态缺失(如部分病例无病理文本)、自动驾驶中 “LiDAR 点云 + 相机图像” 的雨天噪声。
前沿方法
跨模态对齐:对比学习(CLIP 的 “文本 – 图像配对预训练”)、生成式对齐(DALL・E 的 “文本生成图像” 双向映射);模态融合框架:早期融合(特征级拼接,如将图像特征与文本特征输入 Transformer)、晚期融合(结果级投票,如多模态检测框加权融合)、端到端融合(如 FLAVA 的 “统一模态编码器”)。
案例分析:解析 ICML 2024《Causal Fusion for Multi-Modal AI: Mitigating Modal Bias》的创新点 —— 通过因果图分离 “有效融合特征” 与 “冗余模态噪声”,提升医疗多模态诊断精度。

5. 强化学习与决策 AI 的前沿(2 学时)

核心挑战与突破

样本效率低:传统 RL(如 DQN)需百万级交互样本,解决方案如模型基强化学习(Model-Based RL,用环境模型生成虚拟样本)、元强化学习(Meta-RL,快速适应新环境);安全与约束:强化学习在工业控制(如机器人装配)中的 “安全边界”,解决方案如约束强化学习(CRL)、安全探索(Safe Exploration);多智能体强化学习(MARL):多智能体协作与竞争的动态建模(如联邦强化学习在分布式机器人中的应用)。
顶会案例:拆解 ICLR 2024《Model-Based RL with Neural ODE for Fast Adaptation in Robotic Control》的环境建模方法 —— 用神经 ODE 提升模型预测精度,减少实际交互样本;小组任务:设计 “某场景下的 RL 方案”(如 “AI + 化工流程优化”),明确状态空间、动作空间、奖励函数设计,10 分钟小组汇报。

第三模块:AI 场景落地与技术挑战(4 学时)

6. 典型场景的 AI 应用与瓶颈(2 学时)

场景 1:AI + 科学发现

核心任务:材料设计(如 AI 预测催化剂性能)、药物发现(如分子生成与活性预测)、天体物理(如引力波数据分析);落地挑战:小样本数据(如稀有分子实验数据)、物理规律约束(如符合量子力学定律)。
场景 2:医疗 AI
核心任务:病灶检测(如肺结节 CT 分割)、疾病预测(如基于电子病历的糖尿病风险评估);落地挑战:可解释性(医生需理解 AI 决策依据,如 Grad-CAM 可视化)、数据隐私(联邦学习适配,避免原始病历泄露)。
场景 3:工业智能
核心任务:设备故障预测(如基于传感器数据的电机故障诊断)、生产优化(如 AI 调度流水线);落地挑战:实时性(工业场景需毫秒级响应)、抗干扰(车间振动导致传感器噪声)。
案例对比:分析 “实验室精度”(如医疗 AI 在公开数据集上的 95% 准确率)与 “临床落地精度”(实际医院场景 88% 准确率)的差异原因,聚焦 “数据分布差异”“硬件约束”。

7. AI 伦理、合规与安全验证(2 学时)

伦理核心议题

算法公平性:避免性别 / 种族偏见(如招聘 AI 对女性候选人的歧视),解决方案如公平性约束正则化;数据隐私:符合 GDPR、中国《生成式 AI 服务管理暂行办法》,技术手段如差分隐私(DP)、联邦学习;安全责任:AI 决策失误的责任界定(如自动驾驶 AI 误判导致事故),安全验证方法如形式化验证(Formal Verification)。
政策与标准:解读 ISO/IEC AI 标准(如 AI 系统的风险评估框架)、欧盟 AI 法案(将 AI 分为 “禁止类 / 高风险类 / 低风险类”);模拟辩论:围绕 “‘AI 生成内容的著作权归属’” 展开对抗式讨论,要求结合伦理理论与政策条款,培养博士的社会责任感。

第四模块:AI 科研方法论与趋势研判(2 学时)

8. 科研选题、顶会写作与趋势预测(2 学时)

科研选题方法论

痛点导向:从场景落地问题中提炼研究点(如 “医疗 AI 可解释性不足”→“基于因果图的医疗 AI 解释框架”);技术导向:从方法瓶颈中寻找创新(如 “大模型推理效率低”→“轻量化推理引擎设计”);交叉创新:AI 与自身课题的交叉(如 “AI + 机器人”→“基于多模态大模型的机器人操控”)。
顶会论文写作技巧
创新点提炼:顶会论文(NeurIPS/ICML)的 “三要素”—— 问题新颖性(解决未被解决的痛点)、方法创新性(提出新框架 / 改进)、实验充分性(多数据集验证、 ablation study);拒稿应对:解读评审意见(如 “实验不充分”“创新点不明确”),重投修改策略(补充对照组、强化创新点论述)。
未来趋势预测
短期(1-3 年):AI + 科学发现(如 AI 辅助核聚变模拟)、边缘智能(端侧大模型部署);长期(3-5 年):通用人工智能(AGI)的初步探索、AI 与脑科学的交叉(如类脑神经网络)。
课程总结:学生分享 “课程对自身课题的启发”,教师针对性点评,明确后续科研方向(如 “如何将多模态融合应用于自身的‘AI + 遥感’课题”)。

教学方式

顶会案例驱动:以近 2-3 年 NeurIPS/ICML/ICLR 顶会论文为核心素材,拆解 “问题提出 – 方法设计 – 实验验证 – 结论升华” 的逻辑链,避免纯理论空谈;前沿学者讲座:邀请 1-2 位 AI 领域青年学者(如顶会 Area Chair、杰青团队核心成员)分享最新研究(如大模型压缩、AI + 科学发现)与科研经验(如顶会投稿技巧);研讨式学习:每个模块设置 30 分钟 “学生主讲 + 师生讨论”,要求学生提前研读指定文献(每模块 3-5 篇顶会论文),准备 “问题 – 方法 – 不足 – 改进思路” 的深度观点;实战训练:通过 “大模型微调实战”“RL 方案设计” 等任务,强化 “理论 – 代码 – 实验” 的转化能力,避免 “纸上谈兵”。

评估体系(总分 100 分)

阶段性作业(40 分)

前沿技术综述(20 分):选择 1 个模块主题(如大模型微调 / 多模态融合),撰写 3000 字综述,要求梳理技术脉络、指出核心瓶颈、结合自身课题提出创新方向(需引用 8 篇以上近 3 年顶会论文);实战任务报告(20 分):提交 “大模型微调代码(如 LoRA 微调 LLaMA)” 或 “RL 方案设计报告”,含结果对比、参数调优分析、1 个小改进尝试(如微调时加入领域数据)。

课堂表现(30 分)

主题主讲(15 分):1 次模块前沿主题主讲(15 分钟),评估逻辑清晰度、技术深度(如是否能拆解论文创新点)与表达能力;互动参与(15 分):课堂提问、小组辩论的积极性与观点创新性(如提出 “某技术的未解决瓶颈” 或 “场景适配新思路”),避免空泛表态。

期末项目(30 分)

科研创新方案(20 分):结合自身课题,设计 “基于 AI 前沿技术的创新研究方案”,含问题定义(需明确痛点)、方法设计(关联课程所学技术)、预期实验结果(如 “精度提升 5%,效率提升 20%”);学习总结(10 分):1500 字总结,重点说明 “课程内容如何解决自身课题的现有困惑”“后续科研计划调整”(如 “计划将因果推断加入现有医疗 AI 模型”)。

拿高分策略

1. 以 “顶会深度拆解” 构建学术深度,避免 “表面读懂”

博士课程的核心是 “科研思维”,研读顶会论文时需超越 “理解方法步骤”,聚焦三个维度:

创新点本质:如某大模型压缩论文的 “稀疏化策略” 是否真的解决了 “精度 – 效率平衡” 的核心痛点?对比同类方法(如量化、蒸馏)的优势;实验设计逻辑:为何选择某数据集 / 基线模型?对照组如何设置以凸显创新点?(如 NeurIPS 论文中 “ablation study” 的变量控制,需明确 “每个模块的贡献”);技术局限性:论文未解决的问题(如 “某多模态模型仅适配文本 – 图像,无法处理语音”),可作为课堂讨论的观点或自身课题的切入点。

建议建立 “顶会笔记模板”,固定 “问题 – 方法 – 创新点 – 不足 – 改进思路” 栏目,课堂研讨时能快速输出有深度的观点,轻松拿下互动参与分。

2. 让 “作业与自身课题强绑定”,凸显 “科研实用性”

博士阶段的作业不是 “完成任务”,而是 “课题预研”,需避免 “泛泛而谈”:

技术综述:不要覆盖所有方向,而是聚焦 “与自身课题相关的细分领域”(如研究 “AI + 农业遥感” 的学生,重点综述 “多模态 AI 在遥感图像解译中的应用”),并在 “展望” 部分提出 “将某前沿技术(如因果融合)应用于课题的具体思路”;实战任务:选择与课题相关的任务(如研究 “AI + 机器人” 的学生,微调大模型用于 “机器人指令理解”),复现后尝试 “针对性改进”(如加入机器人领域术语的预训练数据),即使改进效果不显著,清晰的 “改进逻辑 + 实验分析” 也能体现科研能力,轻松获得实战报告高分。

3. 主动主导课堂研讨,展现 “思辨与学术素养”

课堂表现占 30%,需主动把握机会,避免 “被动听课”:

主题主讲:提前 1 周与教师确认主讲方向,结合自身课题补充案例(如讲 “多模态 AI” 时,加入 “自身研究的‘遥感图像 + 气象数据’融合场景”),让内容更具个性化与深度;互动环节:针对 “技术瓶颈” 主动提问(如 “大模型微调在小样本医疗数据上的精度损失如何解决?”),或在辩论中结合文献提出论据(如 “算法公平性可参考 ICML 2024 某论文的‘公平性正则化方法’”),避免 “我同意 / 不同意” 的空泛表态,凸显学术素养。

4. 期末创新方案 “聚焦落地性”,体现 “课题价值”

期末项目是得分关键,需避免 “空中楼阁”,满足三个要求:

问题定义精准:基于自身课题的真实痛点(如 “现有遥感 AI 模型无法处理‘云遮挡’图像”),而非虚构问题;技术适配合理:选择课程覆盖的前沿技术(如 “用多模态 AI 融合‘遥感图像 + 气象文本’,解决云遮挡问题”),并说明 “为何该技术能解决痛点”(如 “气象文本可提供云分布信息,辅助图像补全”);预期成果具体:明确 “可量化的实验指标”(如 “云遮挡场景下的作物分类精度从 75% 提升至 88%”),而非模糊的 “提升性能”。

若能在方案中引用课程中的顶会案例(如 “参考 NeurIPS 2023 某论文的多模态补全框架”),更能体现对前沿的掌握,轻松获得高分。

5. 多与教师沟通 “课题适配性”,获取 “针对性指导”

博士课程的核心是 “服务课题”,主动与授课教师沟通能少走弯路:

课前:告知教师自身课题方向(如 “AI + 材料设计”),询问 “课程中哪些模块 / 技术需重点关注”(如 “大模型生成式设计”“强化学习优化材料性能”);课后:针对作业或研讨中的困惑(如 “如何将安全强化学习应用于材料合成流程优化”),寻求具体建议(如 “可参考 ICLR 2024 某论文的‘约束强化学习框架’”);期末前:提交创新方案草稿,获取 “技术可行性”“实验设计” 的修改意见(如 “建议补充‘材料合成成本’作为 RL 的奖励约束”)。

教师的针对性指导能帮助避开 “偏离课题”“技术不切实际” 的坑,确保成果既符合课程要求,又能直接服务后续科研(如作为顶会论文的初步框架)。

© 版权声明

相关文章

暂无评论

none
暂无评论...