
新WOW – 美团旗下AI平台
Wow APP是一款基于通用大模型的 AI 聊天陪伴类应用产品,致力于为用户打造沉浸且私密的 AI 内容社区。用技术为用户提供逼真的对话体验和沉浸式的互动效果,随时随地可以解锁丰富多彩的开放剧情。用户可以自由定制角色形象、性格和音色,享受真实而有趣的聊天互动。欢迎访问 Wow APP 官方网站下载,开始体验吧
《动手学深度学习》网站提供全面的深度学习教程与实践资源,涵盖从基础知识到高级模型的实现与优化,支持多种深度学习框架和实验环境。
主要功能或内容标签:
注意力机制与Transformer模型
深度学习入门与基础知识
线性与多层感知机模型实践
优化算法与计算性能提升
卷积神经网络与现代CNN架构
循环神经网络与序列模型
章节 | 子章节 | 主要内容 |
---|---|---|
12.4 硬件 | 硬件加速策略 | |
12.7 参数服务器 | 参数分发与管理 | |
13.6 目标检测数据集 | 数据集使用 | |
4.10 实战Kaggle比赛:预测房价 | 项目实践示例 | |
12.5 多GPU训练 | 分布式训练 | |
11.5 小批量随机梯度下降 | Mini-batch方法 | |
7.4 含并行连结的网络(GoogLeNet) | Inception模块 | |
2. 预备知识 | 2.1 数据操作 | 数据操作方法与工具 |
符号 | – | 数学符号与约定 |
3.5 图像分类数据集 | 数据集介绍与处理 | |
13.8 区域卷积神经网络(R-CNN)系列 | 高精度检测 | |
11. 优化算法 | 11.1 优化和深度学习 | 优化理论基础 |
8.7 通过时间反向传播 | BPTT算法 | |
4.6 暂退法(Dropout) | 正则化方法 | |
13.7 单发多框检测(SSD) | 高效检测方法 | |
3.2 从零实现线性回归 | 手写实现训练模型 | |
10.2 注意力汇聚:Nadaraya-Watson 核回归 | 基础注意力方法 | |
6.2 图像卷积 | 卷积操作原理 | |
1. 引言 | – | 深度学习概述与背景 |
11.6 动量法 | 加速收敛策略 | |
9. 现代循环神经网络 | 9.1 门控循环单元(GRU) | 改善RNN结构 |
7.6 残差网络(ResNet) | 残差学习机制 | |
9.2 长短期记忆网络(LSTM) | LSTM原理 | |
5.4 自定义层 | 自定义模型组件 | |
3.4 softmax回归 | 分类问题建模 | |
10. 注意力机制 | 10.1 注意力提示 | 注意力概念 |
9.7 序列到序列学习(seq2seq) | 模型训练方法 | |
10.5 多头注意力 | Transformer关键组件 | |
4.7 前向传播、反向传播和计算图 | 模型训练机制 | |
12. 计算性能 | 12.1 编译器和解释器 | 性能优化工具 |
6.6 卷积神经网络(LeNet) | 基本CNN实现 | |
5.2 参数管理 | 参数存储与更新 | |
11.8 RMSProp算法 | 自适应优化方法 | |
8.5 从零实现RNN | 手写实现 | |
11.10 Adam算法 | 综合优化算法 | |
13.4 锚框 | Anchor机制 | |
7.7 稠密连接网络(DenseNet) | 密集连接结构 | |
13. 计算机视觉 | 13.1 图像增广 | 数据增强方法 |
10.3 注意力评分函数 | 评分机制 | |
6. 卷积神经网络 | 6.1 从全连接层到卷积 | 卷积概念介绍 |
5.5 读写文件 | 数据与模型保存 | |
3.7 简洁实现softmax回归 | 框架实现示例 | |
3.3 简洁实现线性回归 | 框架实现示例 | |
13.3 目标检测和边界框 | 检测算法基础 | |
2.3 线性代数 | 矩阵、向量及运算基础 | |
2.2 数据预处理 | 数据清洗与标准化 | |
10.6 自注意力和位置编码 | 序列特征表明 | |
6.5 汇聚层 | 池化层与下采样 | |
6.3 填充和步幅 | 卷积参数技巧 | |
13.9 语义分割和数据集 | 图像分割应用 | |
11.4 随机梯度下降 | SGD优化 | |
2.4 微积分 | 导数、积分及链式法则 | |
11.2 凸性 | 凸优化概念 | |
2.6 概率 | 概率基础及统计分布 | |
9.8 束搜索 | 解码优化策略 | |
7.3 网络中的网络(NiN) | 深度特征抽取 | |
9.6 编码器-解码器架构 | seq2seq基础 | |
5.6 GPU | GPU加速训练 | |
4.9 环境和分布偏移 | 数据分布与迁移问题 | |
13.5 多尺度目标检测 | 多尺度处理 | |
7. 现代卷积神经网络 | 7.1 深度卷积神经网络(AlexNet) | 高级CNN架构 |
8.6 简洁实现RNN | 框架实现示例 | |
2.7 查阅文档 | 学习资源与文档使用 | |
11.3 梯度下降 | 基本优化方法 | |
5.3 延后初始化 | 模型初始化优化 | |
2.5 自动微分 | 自动求导与计算图 | |
12.2 异步计算 | 异步训练方法 | |
13.2 微调 | 迁移学习 | |
4.4 模型选择、欠拟合和过拟合 | 模型调优与评估 | |
4.8 数值稳定性和模型初始化 | 提升训练稳定性 | |
4.2 从零实现多层感知机 | 手写实现训练模型 | |
安装 | – | 环境配置与依赖安装 |
11.9 Adadelta | 自适应优化方法 | |
12.6 多GPU的简洁实现 | 框架支持示例 | |
7.5 批量规范化 | 训练加速与稳定 | |
8. 循环神经网络 | 8.1 序列模型 | 序列数据处理 |
4. 多层感知机 | 4.1 多层感知机 | 模型结构与原理 |
6.4 多输入多输出通道 | 多通道处理方法 | |
8.4 循环神经网络 | RNN原理与结构 | |
11.7 AdaGrad算法 | 自适应学习率 | |
8.2 文本预处理 | 文本数据向量化 | |
10.7 Transformer | 高级模型结构 | |
8.3 语言模型和数据集 | 语言建模基础 | |
10.4 Bahdanau 注意力 | 经典注意力模型 | |
9.3 深度循环神经网络 | 多层RNN设计 | |
11.11 学习率调度器 | 动态学习率策略 | |
12.3 自动并行 | 自动分布式训练 | |
5. 深度学习计算 | 5.1 层和块 | 模型模块化设计 |
4.5 权重衰减 | 防止过拟合技巧 | |
4.3 简洁实现多层感知机 | 框架实现示例 | |
前言 | – | 网站介绍与使用指南 |
3.6 从零实现softmax回归 | 手写实现分类器 | |
3. 线性神经网络 | 3.1 线性回归 | 线性模型概念 |
7.2 使用块的网络(VGG) | 模块化设计 | |
9.5 机器翻译与数据集 | 实际应用案例 | |
9.4 双向循环神经网络 | 双向序列建模 |
盾灵安全导航
本站盾灵导航提供的动手学深度学习数据都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由盾灵导航实际控制,在2025年9月11日 上午3:50收录时,该网页上的内容,都属于合法合规,后期网页的内容如出现违规,请联系本站网站管理员进行举报,我们将进行删除,盾灵导航不承担任何责任。