机器学习与深度学习
https://github.com/gaowanlu/machineLearning-deepLearning
推荐书籍
目录
- 基础知识
- 什么是机器学习
- 为什么使用机器学习
- 机器学习系统的类型
- 机器学习的主要挑战
- 测试和验证
- 端到端机器学习项目
- 使用真实数据
- 放眼大局
- 获取数据
- 探索和可视化数据以获得见解
- 为机器学习算法准备数据
- 选择和训练模型
- 微调模型
- 启动、监控和维护系统
- 分类
- MNIST
- 训练二元分类器
- 性能测量
- 多类分类
- 错误分析
- 多标签分类
- 多输出分类
- 训练模型
- 线性回归
- 梯度下降
- 多项式回归
- 学习曲线
- 正则化线性模型
- 逻辑回归
- 支持向量机
- 线性SVM分类
- 非线性SVM分类
- SVM回归
- 线性SVM分类器的工作原理
- 对偶问题
- 决策树
- 训练和可视化决策树
- 做出预测
- 估计类概率
- CART训练算法
- 计算复杂度
- 基尼杂质或熵
- 正则化超参数
- 回归
- 对轴方向的敏感性
- 决策树具有高方差
- 集成学习和随机森林
- 投票分类器
- bagging和pasting
- 随机森林
- 提升法
- 堆叠法
- 降维
- 降维的诅咒
- 降维的主要方法
- PCA
- 随机投影
- LLE
- 其他降维技术
- 无监督学习
- PyTorch神经网络简介
- 从动物神经元到人工神经元
- 使用PyTorch实现MLP
- 微调神经网络超参数
- 训练深度神经网络
- 梯度消失和梯度爆炸问题
- 重用预训练层
- 更快的优化器
- 学习率调度
- 通过正则化避免过拟合
- 使用PyTorch自定义模型和训练
- PyTorch快速浏览
- 像使用NumPy一样使用PyTorch张量
- 自定义模型和训练算法
- PyTorch的计算图与函数式编程
- 使用PyTorch加载和预处理数据
- Dataset与DataLoader
- 自定义数据集与变换
- 文本和图像的预处理
- Hugging Face数据集项目简介
- 使用PyTorch实现卷积神经网络
- 视觉皮层的结构
- 卷积层
- 池化层
- 使用PyTorch实现池化层
- CNN架构
- 使用PyTorch实现ResNet-34 CNN
- 使用预训练模型
- 迁移学习
- 分类和定位
- 物体检测
- 物体跟踪
- 语义分割
- 使用RNN和CNN处理序列
- 循环神经元和层
- 训练RNN
- 预测时间序列
- 处理长序列
- 基于RNN和注意力机制的NLP
- 使用字符RNN生成莎士比亚文本
- 情感分析
- 用于神经机器翻译的编码器解码器网络
- 注意力机制
- Transformer模型的雪崩
- 视觉Transformer
- Hugging Face的Transformer库
- 自动编码器 GAN和扩散模型
- 有效的数据表示
- 使用不完备的线性自动编码器执行PCA
- 堆叠自动编码器
- 卷积自动编码器
- 去噪自动编码器
- 稀疏自动编码器
- 变分自动编码器
- 生成Fashion MNIST图像
- 生成对抗网络
- 扩散模型
- 强化学习
- 学习优化奖励
- 策略搜索
- OpenAI Gym介绍
- 神经网络策略
- 评估动作:信用分配问题
- 策略梯度
- 马尔可夫决策过程
- 时序差分学习
- Q学习
- 实现深度Q学习
- 深度Q学习的变体
- 一些流行的RL算法概述
- 大规模训练和部署PyTorch模型
- 为PyTorch模型提供服务
- 将模型部署到移动设备或嵌入式设备
- 在Web页面中运行模型
- 使用GPU加速计算
- 跨多个设备训练模型