内容主要参考吴恩达(Andrew Ng)的Machine Learning以及周志华的西瓜书、网络资源(如Wikipedia、GitHub)等。
如发现错误或有需要补充的内容,请在GitHub直接提交Issue或Pull Request,谢谢。
- GitHub:https://github.com/loveunk/machine-learning-deep-learning-notes/
- 配套的练习(Jupyter Notebook/Python)地址:https://github.com/loveunk/ml-ipynb
内容目录结构:
- 绪论
- 机器学习技术的分类
- 学习类问题的分类
- 定义
- 专有名词
- 机器学习案例
- 数据挖掘
- 计算机视觉
- 自然语言处理
- 语音识别
- 机器决策
- 几点建议
- 学习路径
- 学习原则
- 单变量线性回归 (Linear Regression with One Variable)
- 模型表示
- 代价函数
- 梯度下降
- 梯度下降的直观理解
- 梯度下降的线性回归
- 多变量线性回归 (Linear Regression with Multiple Variables)
- 多维特征
- 多变量梯度下降
- 梯度下降法实践1 - 特征缩放
- 数据的标准化 (Normalization)
- 梯度下降法实践2 - 学习率 (Learning Rate)
- 梯度下降法实践1 - 特征缩放
- 特征和多项式回归
- 正规方程 Normal Equations
- 对比梯度下降和正规方程
- 正规方程及不可逆性
- Hypothesis 表示
- 边界判定
- 代价函数
- 梯度下降算法
- 多类别分类:一对多
- 正则化 Regularization
- 过拟合的问题
- 代价函数
- 正则化线性回归
- 正则化与逆矩阵
- 正则化的逻辑回归模型
- 背景介绍
- 为什么需要神经网络
- 神经元和大脑
- 模型表示
- 神经元模型:逻辑单元
- 前向传播
- 神经网络架构
- 神经网络应用
- 神经网络解决多分类问题
- 反向传播 Backpropagation
- 代价函数 Cost Function
- 反向传播算法
- 反向传播算法的直观理解
- 梯度检验 Gradient Checking
- 随机初始化
- 总结
- 网络结构
- 训练神经网络
- 自动驾驶的例子
- 应用机器学习算法的建议
- 评估一个假设函数 Evaluating a Hypothesis
- 模型选择和交叉验证集 Model Selection
- 偏差(Bias)和方差(Variance)
- 正则化和偏差/方差
- 学习曲线
- 总结:决定下一步做什么
- 机器学习系统设计
- 误差分析 Error Analysis
- 类偏斜的误差度量
- 查准率和查全率之间的权衡
- 机器学习的数据
- 优化目标
- 大边界
- 大边界分类背后的数学
- 核函数
- 使用SVM
- 什么时候使用SVM
- K-Means聚类
- 优化目标
- 随机初始化
- 选择聚类数
- DBScan聚类
- 复杂度
- 优点
- 距离计算
- 数据降维的动机
- 数据降维
- 数据可视化
- PCA 主成分分析问题
- 从压缩数据中恢复
- 选择主成分的数量
- PCA应用建议
- 高斯分布
- 基于高斯分布的异常检测算法
- 开发和评价异常检测系统
- 异常检测与监督学习对比
- 选择特征
- 误差分析
- 异常检测误差分析
- 多元高斯分布
- 使用多元高斯分布进行异常检测
- 问题描述
- 基于内容的推荐系统
- 代价函数
- 协同过滤
- 协同过滤算法
- 向量化:低秩矩阵分解
- 均值归一化
- 大型数据集的学习
- 确认大规模的训练集是否必要
- 随机梯度下降法 Stochastic Gradient Descent (SGD)
- 小批量梯度下降 Mini-Batch Gradient Descent
- 随机梯度下降收敛
- 在线学习 Online Learning
- MapReduce和数据并行
- 图片文字识别
- 滑动窗口
- 获取更多数据
- 天花板分析:你最该关注哪部分子任务