动手学深度学习

2小时前发布 0 0 0

《动手学深度学习》 — 动手学深度学习 2.0.0 documentation

所在地:
新加坡
语言:
zh
收录时间:
2025-09-11
动手学深度学习动手学深度学习

AI开放平台

《动手学深度学习》网站提供全面的深度学习教程与实践资源,涵盖从基础知识到高级模型的实现与优化,支持多种深度学习框架和实验环境。

主要功能或内容标签:

  1. 注意力机制与Transformer模型

  2. 深度学习入门与基础知识

  3. 线性与多层感知机模型实践

  4. 优化算法与计算性能提升

  5. 卷积神经网络与现代CNN架构

  6. 循环神经网络与序列模型

章节 子章节 主要内容
12.4 硬件 硬件加速策略
12.7 参数服务器 参数分发与管理
13.6 目标检测数据集 数据集使用
4.10 实战Kaggle比赛:预测房价 项目实践示例
12.5 多GPU训练 分布式训练
11.5 小批量随机梯度下降 Mini-batch方法
7.4 含并行连结的网络(GoogLeNet) Inception模块
2. 预备知识 2.1 数据操作 数据操作方法与工具
符号 数学符号与约定
3.5 图像分类数据集 数据集介绍与处理
13.8 区域卷积神经网络(R-CNN)系列 高精度检测
11. 优化算法 11.1 优化和深度学习 优化理论基础
8.7 通过时间反向传播 BPTT算法
4.6 暂退法(Dropout) 正则化方法
13.7 单发多框检测(SSD) 高效检测方法
3.2 从零实现线性回归 手写实现训练模型
10.2 注意力汇聚:Nadaraya-Watson 核回归 基础注意力方法
6.2 图像卷积 卷积操作原理
1. 引言 深度学习概述与背景
11.6 动量法 加速收敛策略
9. 现代循环神经网络 9.1 门控循环单元(GRU) 改善RNN结构
7.6 残差网络(ResNet) 残差学习机制
9.2 长短期记忆网络(LSTM) LSTM原理
5.4 自定义层 自定义模型组件
3.4 softmax回归 分类问题建模
10. 注意力机制 10.1 注意力提示 注意力概念
9.7 序列到序列学习(seq2seq) 模型训练方法
10.5 多头注意力 Transformer关键组件
4.7 前向传播、反向传播和计算图 模型训练机制
12. 计算性能 12.1 编译器和解释器 性能优化工具
6.6 卷积神经网络(LeNet) 基本CNN实现
5.2 参数管理 参数存储与更新
11.8 RMSProp算法 自适应优化方法
8.5 从零实现RNN 手写实现
11.10 Adam算法 综合优化算法
13.4 锚框 Anchor机制
7.7 稠密连接网络(DenseNet) 密集连接结构
13. 计算机视觉 13.1 图像增广 数据增强方法
10.3 注意力评分函数 评分机制
6. 卷积神经网络 6.1 从全连接层到卷积 卷积概念介绍
5.5 读写文件 数据与模型保存
3.7 简洁实现softmax回归 框架实现示例
3.3 简洁实现线性回归 框架实现示例
13.3 目标检测和边界框 检测算法基础
2.3 线性代数 矩阵、向量及运算基础
2.2 数据预处理 数据清洗与标准化
10.6 自注意力和位置编码 序列特征表明
6.5 汇聚层 池化层与下采样
6.3 填充和步幅 卷积参数技巧
13.9 语义分割和数据集 图像分割应用
11.4 随机梯度下降 SGD优化
2.4 微积分 导数、积分及链式法则
11.2 凸性 凸优化概念
2.6 概率 概率基础及统计分布
9.8 束搜索 解码优化策略
7.3 网络中的网络(NiN) 深度特征抽取
9.6 编码器-解码器架构 seq2seq基础
5.6 GPU GPU加速训练
4.9 环境和分布偏移 数据分布与迁移问题
13.5 多尺度目标检测 多尺度处理
7. 现代卷积神经网络 7.1 深度卷积神经网络(AlexNet) 高级CNN架构
8.6 简洁实现RNN 框架实现示例
2.7 查阅文档 学习资源与文档使用
11.3 梯度下降 基本优化方法
5.3 延后初始化 模型初始化优化
2.5 自动微分 自动求导与计算图
12.2 异步计算 异步训练方法
13.2 微调 迁移学习
4.4 模型选择、欠拟合和过拟合 模型调优与评估
4.8 数值稳定性和模型初始化 提升训练稳定性
4.2 从零实现多层感知机 手写实现训练模型
安装 环境配置与依赖安装
11.9 Adadelta 自适应优化方法
12.6 多GPU的简洁实现 框架支持示例
7.5 批量规范化 训练加速与稳定
8. 循环神经网络 8.1 序列模型 序列数据处理
4. 多层感知机 4.1 多层感知机 模型结构与原理
6.4 多输入多输出通道 多通道处理方法
8.4 循环神经网络 RNN原理与结构
11.7 AdaGrad算法 自适应学习率
8.2 文本预处理 文本数据向量化
10.7 Transformer 高级模型结构
8.3 语言模型和数据集 语言建模基础
10.4 Bahdanau 注意力 经典注意力模型
9.3 深度循环神经网络 多层RNN设计
11.11 学习率调度器 动态学习率策略
12.3 自动并行 自动分布式训练
5. 深度学习计算 5.1 层和块 模型模块化设计
4.5 权重衰减 防止过拟合技巧
4.3 简洁实现多层感知机 框架实现示例
前言 网站介绍与使用指南
3.6 从零实现softmax回归 手写实现分类器
3. 线性神经网络 3.1 线性回归 线性模型概念
7.2 使用块的网络(VGG) 模块化设计
9.5 机器翻译与数据集 实际应用案例
9.4 双向循环神经网络 双向序列建模

盾灵安全导航《动手学深度学习》 — 动手学深度学习 2.0.0 documentation

数据统计

数据评估

动手学深度学习浏览人数已经达到0,以上数据仅供参考,建议大家以官方数据为准! 更多动手学深度学习数据如:访问速度、搜索引擎收录以及索引量、用户体验、品牌价值观等;请联系动手学深度学习的官方提供。本站数据仅供参考!

关于动手学深度学习特别声明

本站盾灵导航提供的动手学深度学习数据都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由盾灵导航实际控制,在2025年9月11日 上午3:50收录时,该网页上的内容,都属于合法合规,后期网页的内容如出现违规,请联系本站网站管理员进行举报,我们将进行删除,盾灵导航不承担任何责任。

相关导航

暂无评论

none
暂无评论...