沒錯!威斯康辛大學(xué)《機(jī)器學(xué)習(xí)導(dǎo)論》課件、視頻資源已開放!
對于機(jī)器學(xué)習(xí)領(lǐng)域的初學(xué)者來說,這會是很好的入門課程。目前,課程的筆記、PPT 和視頻正在陸續(xù)發(fā)布中。


1.1 課程概述:「Stat 451:機(jī)器學(xué)習(xí)導(dǎo)論(FS 2020)」的簡介
1.2 什么是機(jī)器學(xué)習(xí):機(jī)器學(xué)習(xí)的定義,以及機(jī)器學(xué)習(xí)與編程的關(guān)系
1.3 機(jī)器學(xué)習(xí)的類別:討論了機(jī)器學(xué)習(xí)的三大類,監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)
1.4 符號:介紹了將在本課程中使用的機(jī)器學(xué)習(xí)形式和符號
1.5 ML 應(yīng)用:走向機(jī)器學(xué)習(xí)程序的主要步驟,以及機(jī)器學(xué)習(xí)組件的分類
1.6 ML 動力:關(guān)于學(xué)習(xí)機(jī)器學(xué)習(xí)的不同觀點(diǎn)和動力
2.1 最近鄰算法:介紹最近鄰算法,概覽最近鄰算法的應(yīng)用和最新進(jìn)展
2.2 最近鄰決策邊界:包括 1 - 最近鄰決策邊界背后的概念,此外還列出了一些常見的距離度量
2.3 K - 最近鄰算法:將 1 - 最近鄰概念擴(kuò)展到 k - 最近鄰算法,進(jìn)行分類和回歸
2.4 K - 最近鄰的 Big O:K - 最近鄰簡單實(shí)現(xiàn)的 Big O 運(yùn)行時間復(fù)雜度
2.5 K - 最近鄰的提升:總結(jié)一些提升 K - 最近鄰計(jì)算性能和預(yù)測效率的常見技巧
2.6 Python 中的 K - 最近鄰:利用 scikit-learn,在 Python 中使用 K - 最近鄰。這節(jié)課中使用的 Jupyter 筆記本從這里獲取:https://github.com/rasbt/stat451-machine-learning-fs20/blob/master/L02/code/02_knn_demo.ipynb
3.1 Python 概述:這節(jié)課將討論 Python 的用法,進(jìn)行 C 和 Python 的快速演示(也許并不是很有吸引力)
3.2 Python 設(shè)置:演示如何在 MacOS 上使用 Miniconda 安裝 Python,另外提供了有關(guān) conda 軟件包管理器的簡短演示
3.3 運(yùn)行 Python 代碼:演示運(yùn)行 Python 代碼的不同方式,包括 REPL、IPython、.py 腳本和 Visual Studio Code
4.1 NumPy 基礎(chǔ)知識介紹
4.2 NumPy 數(shù)組的創(chuàng)建及索引
4.3 NumPy 數(shù)組的數(shù)學(xué)運(yùn)算和通用函數(shù)
4.4 NumPy 的廣播機(jī)制
4.5 NumPy 高級索引–內(nèi)存視圖和副本
4.6 NumPy 隨機(jī)數(shù)生成器
4.7 重塑 NumPy 數(shù)組
4.8 NumPy 比較運(yùn)算符和掩碼
4.9 NumPy 線性代數(shù)基礎(chǔ)
4.10 Matplotlib
5.1 從表格文本文件讀取數(shù)據(jù)集
5.2 基本數(shù)據(jù)處理
5.3 面向?qū)ο蟮木幊毯?Python 類
5.4 Scikit-Learn 簡介
5.5 Scikit-Learn Transformer API
5.6 Scikit-Learn 管道
6.1 決策樹簡介
6.2 遞歸算法和 Big-O
6.3 決策樹的類型
6.4 分割標(biāo)準(zhǔn)
6.5 基尼系數(shù) & 熵與誤分類誤差:闡釋在 CART 決策樹的信息增益方程式中,為什么要使用熵(或基尼)代替誤分類誤差作為雜質(zhì)度量
6.6 改進(jìn)和處理過擬合:將決策樹的一些問題(例如過擬合)融合在一起并討論改進(jìn)方法,例如增益比、預(yù)剪枝和后剪枝
6.7 代碼示例:如何使用 scikit-learn 訓(xùn)練和可視化決策樹的快速演示
7.1 集成方法簡介:討論了包括絕對多數(shù)投票法(majority voting)、套袋法(bagging)、隨機(jī)森林(random forests)、堆棧(stacking)、梯度提升(gradient boosting)等最受歡迎、使用最廣泛的機(jī)器學(xué)習(xí)方法。
7.2 絕對多數(shù)投票法:討論最基本的模型集成之一「絕對多數(shù)投票」,通過示例解釋為什么它比使用單個分類器更好
7.3 套袋法:介紹了偏差 - 方差權(quán)衡和分解,以了解套袋法的用途
7.4Boosting 和 AdaBoost:討論 boosting 的概念,然后介紹了 AdaBoost,該方法將弱分類器(比如決策樹樁)提升為強(qiáng)分類器
7.5 梯度提升:在 AdaBoost 使用權(quán)重作為訓(xùn)練示例來提升下一輪樹的情況下,梯度提升使用損失的梯度來計(jì)算殘差以適應(yīng)序列中的下一棵樹,視頻中提到的論文地址:https://dl.acm.org/doi/pdf/10.1145/2939672.2939785
7.6 隨機(jī)森林:講解隨機(jī)森林及其與套袋法之間的關(guān)系,以及為什么隨機(jī)森林在實(shí)踐中的效果優(yōu)于套袋法
7.7 堆棧:介紹 Wolpert 堆棧算法,并展示如何在 mlxtend 和 scikit-learn 中使用堆棧分類器
L08:基礎(chǔ)部分,欠擬合和過擬合
L09:重采樣方法
L10:交叉驗(yàn)證
L11:統(tǒng)計(jì)測試和算法選擇
L12:評估指標(biāo)
L13 - 功能選擇
L14 - 特征提取
L15 - 聚類
L16 - 貝葉斯方法簡介
L17 - 貝葉斯最佳分類器
L18 - 樸素貝葉斯分類器
L19 - 貝葉斯網(wǎng)絡(luò)
課件資料
領(lǐng)取方式:
長按掃碼,發(fā)消息?[課件]
