python3入门机器学习 经典算法与应用轻松入行人工智能

bobo老师特为机器学习初学者量身打造

bobo教师特为机器学习初学者量身打造,使用新版python3语言和流行的scikit-learn结构,算法与编程两翼齐飞,由浅入深,一步步的进入机器学习的世界。学到的不只是一门课程,更是不断考虑的才能。

 

合适人群及技术储备要求

假如你对机器学习感兴趣,想从业于机器学习,或是预备参与机器学习相关比赛,本课程非常合适你

学前必备技术

Python3基础语法
具有高等数学,线性代数,概率论基本常识
课程对机器学习基础常识要求是0基础

 

[wm_notice]试看链接:https://pan.baidu.com/s/1rgiA8UnCKCz7K4Z4oQNjmw
提取码:0l5j
–来自百度网盘超级会员V1的分享[/wm_notice]

 

章节目录:

  • 第1章 欢迎来到 Python3 玩转机器学习 试看3 节 | 48分钟

    欢迎我们来到《Python3玩转机器学习》的讲堂。在这个课程中,我们将从0开端,一点一点进入机器学习的国际。本门课程对机器学习领域的学习,绝不不只仅只是对算法的学习,还包括比方算法的点评,方法的挑选,模型的优化,参数的调整,数据的收拾,等等一系列作业。预备好了吗?现在开端我们的机器学习之旅!…

    收起列表

    • 视频:1-1 什么是机器学习 (20:14)试看
    • 视频:1-2 课程包括的内容和理念 (13:25)试看
    • 视频:1-3 课程所运用的首要技能栈 (14:10)试看
  • 第2章 机器学习基础7 节 | 90分钟

    机器学习毕竟是什么鬼?这一章将带领我们深化了解机器学习的国际,让我们去了解那些看似陌生的专业术语。监督学习,非监督学习,半监督学习,增强学习,批量学习,在线学习,参数学习,非参数学习。看完这一章,这些概念你就通通了解啦。不只如此,本章还包括恰当深刻地和机器学习相关的哲学谈论,让你深化思索有关机器学习…

    收起列表

    • 视频:2-1 机器学习国际的数据 (18:27)
    • 视频:2-2 机器学习的首要任务 (16:00)
    • 视频:2-3 监督学习,非监督学习,半监督学习和增强学习 (17:38)
    • 视频:2-4 批量学习,在线学习,参数学习和非参数学习 (11:53)
    • 视频:2-5 和机器学习相关的“哲学”考虑 (12:00)
    • 作业:2-6 关于回归和分类
    • 视频:2-7 课程运用环境搭建 (13:08)
  • 第3章 Jupyter Notebook, numpy和matplotlib12 节 | 208分钟

    工欲善其事,必先利其器。在本章,我们将学习和机器学习相关的基础东西的运用:Jupyter Notebook, numpy和matplotlib。大多数教程在说明机器学习的时分,许多运用这些东西,却不对这些东西进行系统说明。我特意添加了这个章节,让同学们在后续编写机器学习算法的过程中,愈加左右逢源!…

    收起列表

    • 视频:3-1 Jupyter Notebook基础 (18:42)
    • 视频:3-2 Jupyter Notebook中的魔法指令 (20:51)
    • 视频:3-3 Numpy数据基础 (11:06)
    • 视频:3-4 创立Numpy数组(和矩阵) (19:16)
    • 视频:3-5 Numpy数组(和矩阵)的基本操作 (18:15)
    • 视频:3-6 Numpy数组(和矩阵)的合并与切开 (18:00)
    • 视频:3-7 Numpy中的矩阵运算 (23:11)
    • 视频:3-8 Numpy中的聚合运算 (13:19)
    • 视频:3-9 Numpy中的arg运算 (11:12)
    • 视频:3-10 Numpy中的比较和Fancy Indexing (22:36)
    • 视频:3-11 Matplotlib数据可视化基础 (18:05)
    • 视频:3-12 数据加载和简略的数据根究 (12:49)
  • 第4章 最基础的分类算法-k近邻算法 kNN9 节 | 172分钟

    k近邻算法自身是一个思想十分简略的算法,可是这个简略算法不好,也蕴含着丰富的内容。在这一章,我们将具体介绍k近邻算法的原理,然后对练习数据集,测试数据集,分类准确度,超参数,数据归一化,样本距离等基础概念进行具体的谈论。我们将具体了解scikit-learn结构中对算法的封装,并结束我们自己的算法结构。我们还将学…

    收起列表

    • 视频:4-1 k近邻算法基础 (22:42)
    • 视频:4-2 scikit-learn中的机器学习算法封装 (22:22)
    • 视频:4-3 练习数据集,测试数据集 (22:46)
    • 视频:4-4 分类准确度 (19:20)
    • 视频:4-5 超参数 (21:36)
    • 视频:4-6 网格查找与k近邻算法中更多超参数 (17:24)
    • 视频:4-7 数据归一化 (15:27)
    • 视频:4-8 scikit-learn中的Scaler (19:24)
    • 视频:4-9 更多有关k近邻算法的考虑 (10:22)
  • 第5章 线性回归法10 节 | 149分钟

    线性回归法是机器学习领域的经典算法,许多更杂乱的算法都是以线性回归为基础的。在这一章,我们将深化学习线性回归法不好的原理,一同仔细谈论怎样点评回归算法。我们将对MSE,RMSE,MAE和R Squared等回归问题的点评方针有充分的了解。在结束层面上,我们还将学习机器学习领域的一个重要的结束技巧:向量化。…

    收起列表

    • 视频:5-1 简略线性回归 (18:06)
    • 视频:5-2 最小二乘法 (11:27)
    • 视频:5-3 简略线性回归的结束 (14:09)
    • 视频:5-4 向量化 (12:02)
    • 视频:5-5 衡量线性回归法的方针:MSE,RMSE和MAE (22:45)
    • 视频:5-6 最好的衡量线性回归法的方针:R Squared (16:28)
    • 视频:5-7 多元线性回归和正规方程解 (15:58)
    • 视频:5-8 结束多元线性回归 (13:08)
    • 视频:5-9 运用scikit-learn处理回归问题 (12:42)
    • 视频:5-10 线性回归的可解释性和更多考虑 (11:53)
  • 第6章 梯度下降法9 节 | 143分钟

    梯度下降法是在机器学习领域的一个重要的查找战略。在这一章,我们将具体说明梯度下降法的基本原理,一步一步改进梯度下降算法,让我们了解梯度下降法中各种参数,尤其是学习率的意义。一同,我们还将引申出随机梯度下降法和小批量梯度下降法两个方法,让我们对梯度下降法家族有一个全方位的知道。…

    收起列表

    • 视频:6-1 什么是梯度下降法 (16:20)
    • 视频:6-2 仿照结束梯度下降法 (20:11)
    • 视频:6-3 线性回归中的梯度下降法 (10:56)
    • 视频:6-4 结束线性回归中的梯度下降法 (14:06)
    • 视频:6-5 梯度下降法的向量化和数据标准化 (22:14)
    • 视频:6-6 随机梯度下降法 (17:34)
    • 视频:6-7 scikit-learn中的随机梯度下降法 (15:40)
    • 视频:6-8 怎样承认梯度核算的准确性?调试梯度下降法 (16:29)
    • 视频:6-9 有关梯度下降法的更多深化谈论 (08:37)
  • 第7章 PCA与梯度上升法11 节 | 140分钟

    一般教材会运用十分多的数学概念来说明PCA,在这个课程中,我们将另辟蹊径,绕开深重的数学概念,运用梯度下降法的姊妹方法:梯度上升法来求解PCA问题,然后深刻了解PCA的基本原理,怎样运用PCA进行数据的降维。我们还将给出多个PCA的运用场景,不只让我们亲手实践出PCA降维的巨大威力,也让我们看到PCA在降噪,人脸辨认等…

    收起列表

    • 视频:7-1 什么是PCA (17:45)
    • 视频:7-2 运用梯度上升法求解PCA问题 (09:10)
    • 视频:7-3 求数据的主成分PCA (20:09)
    • 视频:7-4 求数据的前n个主成分 (17:36)
    • 视频:7-5 高维数据映射为低维数据 (19:29)
    • 视频:7-6 scikit-learn中的PCA (18:57)
    • 视频:7-7 试手MNIST数据集 (12:06)
    • 作业:7-8 在三维数据上的 PCA
    • 图文:7-9 关于 MNIST 数据集的最新取得方法
    • 视频:7-10 运用PCA对数据进行降噪 (10:00)
    • 视频:7-11 人脸辨认与特征脸 (13:57)
  • 第8章 多项式回归与模型泛化10 节 | 166分钟

    在这一章,我们将触摸非线性问题。我们将学习多项式回归的思想,运用线性回归的思路来处理非线性问题。进一步,我们将引申出或许是机器学习领域最重要的一个问题:模型泛化问题。我们将深化谈论什么是欠拟合,什么是过拟合,怎样检测欠拟合和过拟合。什么是穿插验证,什么是模型正则化。听起来拗口的Ridge和Lasso都是什么鬼…

    收起列表

    • 视频:8-1 什么是多项式回归 (11:38)
    • 视频:8-2 scikit-learn中的多项式回归与Pipeline (16:26)
    • 视频:8-3 过拟合与欠拟合 (14:22)
    • 视频:8-4 为什么要有练习数据集与测试数据集 (16:09)
    • 视频:8-5 学习曲线 (15:28)
    • 视频:8-6 验证数据集与穿插验证 (25:20)
    • 视频:8-7 过失方差平衡 (15:16)
    • 视频:8-8 模型泛化与岭回归 (19:15)
    • 视频:8-9 LASSO (16:59)
    • 视频:8-10 L1, L2和弹性网络 (14:25)
  • 第9章 逻辑回归9 节 | 137分钟

    据统计,逻辑回归是机器学习领域最常用的分类算法,没有之一!在这一章,我们将逐步揭开逻辑回归的神秘面纱,了解怎样运用线性回归的思路,来处理分类问题。我们将概括之前所学习的许多内容,一点一点来完善我们的逻辑回归模型。我们还将继续深化分类问题,学习对分类效果概率的估计,以及挑选方案距离等重要概念。 …

    收起列表

    • 视频:9-1 什么是逻辑回归 (16:07)
    • 视频:9-2 逻辑回归的丢掉函数 (15:00)
    • 视频:9-3 逻辑回归丢掉函数的梯度 (17:50)
    • 视频:9-4 结束逻辑回归算法 (14:29)
    • 视频:9-5 挑选方案距离 (21:09)
    • 视频:9-6 在逻辑回归中运用多项式特征 (15:09)
    • 视频:9-7 scikit-learn中的逻辑回归 (17:22)
    • 视频:9-8 OvR与OvO (19:09)
    • 作业:9-9 其他算法的挑选方案距离
  • 第10章 点评分类效果9 节 | 126分钟

    对机器学习分类算法效果的点评,是一个公认的杂乱问题。在这一章,我们将来论说这个问题为什么杂乱。我们怎样更好地看待我们的机器学习算法给出的效果。学习比方稠浊矩阵,准确率,准确率,召回率,F1,以及ROC等许多点评分类效果的方针。通过这一章的学习,我们将更好地了解自己的机器学习算法给出的效果,然后在实践运用…

    收起列表

    • 视频:10-1 准确度的圈套和稠浊矩阵 (15:06)
    • 视频:10-2 精准率和召回率 (11:51)
    • 视频:10-3 结束稠浊矩阵,精准率和召回率 (15:42)
    • 视频:10-4 F1 Score (17:42)
    • 视频:10-5 精准率和召回率的平衡 (20:18)
    • 视频:10-6 精准率-召回率曲线 (14:21)
    • 视频:10-7 ROC曲线 (16:52)
    • 作业:10-8 关于机器学习不同的方针
    • 视频:10-9 多分类问题中的稠浊矩阵 (13:30)
  • 第11章 支撑向量机 SVM9 节 | 145分钟

    在这一章,我们将深化学习大名鼎鼎的支撑向量机SVM。我们将从线性SVM开端,了解SVM的思路,然后深化了解SVM处理非线性问题的方法——核函数。我们将要害学习两个最重要的核函数:多项式核和径向基函数核。我们更会运用实在的数据集实验,看到SVM的优缺点。毕竟,我们还将谈论运用SVM处理回归问题的思路。 …

    收起列表

    • 视频:11-1 什么是SVM (13:54)
    • 视频:11-2 SVM不好的最优化问题 (19:21)
    • 视频:11-3 Soft Margin SVM (16:12)
    • 视频:11-4 scikit-learn中的SVM (21:23)
    • 视频:11-5 SVM中运用多项式特征和核函数 (12:43)
    • 视频:11-6 毕竟什么是核函数 (15:31)
    • 视频:11-7 RBF核函数 (20:46)
    • 视频:11-8 RBF核函数中的gamma (13:39)
    • 视频:11-9 SVM思想处理回归问题 (10:46)
  • 第12章 挑选方案树7 节 | 99分钟

    在这一章,我们将学习别的一个大名鼎鼎的机器学习算法:挑选方案树。挑选方案树自身十分简略,不好并没有杂乱的数学模型,但运用好挑选方案树也有许多技巧。我们将深化了解什么是熵模型,什么是基尼系数,怎样运用挑选方案树处理分类问题,怎样取得分类的概率,怎样用挑选方案树处理回归问题,以及运用挑选方案树的注意事项。 …

    收起列表

    • 视频:12-1 什么是挑选方案树 (12:01)
    • 视频:12-2 信息熵 (16:30)
    • 视频:12-3 运用信息熵寻觅最优区分 (20:20)
    • 视频:12-4 基尼系数 (17:41)
    • 视频:12-5 CART与挑选方案树中的超参数 (15:04)
    • 视频:12-6 挑选方案树处理回归问题 (08:15)
    • 视频:12-7 挑选方案树的局限性 (08:16)
  • 第13章 集成学习和随机森林8 节 | 101分钟

    集成学习的思想是机器学习领域处理问题的一种重要思想。我们将从集成之前现已学习过的算法动身,然后引入集成学习的经典算法:随机森林。我们将看到集成学习的威力。在这一章,我们还会对其他集成学习的思想,如AdaBoost, Gradient Boosting, Stacking等算法进行介绍。 …

    收起列表

    • 视频:13-1 什么是集成学习 (16:35)
    • 视频:13-2 Soft Voting Classifier (14:30)
    • 视频:13-3 Bagging 和 Pasting (16:52)
    • 视频:13-4 oob (Out-of-Bag) 和关于Bagging的更多谈论 (14:40)
    • 视频:13-5 随机森林和 Extra-Trees (13:14)
    • 视频:13-6 Ada Boosting 和 Gradient Boosting (15:30)
    • 视频:13-7 Stacking (08:46)
    • 作业:13-8 关于 XGBoost
  • 第14章 更多机器学习算法2 节 | 9分钟

    信赖通过这个课程的学习。同学们学到的不只仅是一个一个零星的机器学习算法,更对机器学领域处理问题的方法有了一个系统性的知道。学会了这种思想方法,信赖我们都可以更好地继续深化学习机器学习。在毕竟,我将给我们介绍scikit-learn的文档,期望我们可以仰仗scikit-learn这个健壮的机器学习库,继续根究机器学习这个当下…

    收起列表

    • 视频:14-1 学习scikit-learn文档, 我们加油! (08:32)
    • 图文:14-2 学习完这个课程以后怎样继续深化机器学习的学习?
本课程已结束