<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          沒錯!威斯康辛大學(xué)《機(jī)器學(xué)習(xí)導(dǎo)論》課件、視頻資源已開放!

          共 2893字,需瀏覽 6分鐘

           ·

          2020-12-25 01:29

          對于機(jī)器學(xué)習(xí)領(lǐng)域的初學(xué)者來說,這會是很好的入門課程。目前,課程的筆記、PPT 和視頻正在陸續(xù)發(fā)布中。
          2020 年就這么悄無聲息地走完了,想必大多數(shù)人,尤其是在校學(xué)生唯一的感覺就是:「又是毫無學(xué)術(shù)進(jìn)展的一年?!?/span>

          別慌,只要馬上開始學(xué)習(xí),什么時候都不算晚。


          近日,威斯康辛大學(xué)麥迪遜分校助理教授 Sebastian Raschka 在推特上宣布了威斯康辛大學(xué)《機(jī)器學(xué)習(xí)導(dǎo)論》2020 秋季課程的完結(jié):「教授兩個班級和 230 個學(xué)生是相當(dāng)不錯的體驗(yàn),對于那些感興趣的人,我整理了一頁記錄以供參考?!?/span>


          Sebastian Raschka 是威斯康星大學(xué)麥迪遜分校的統(tǒng)計(jì)學(xué)助理教授,致力于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)研究。他最近的一些研究方法已應(yīng)用于生物識別領(lǐng)域,解決面部圖像隱私問題,其他的研究重點(diǎn)包括開發(fā)與機(jī)器學(xué)習(xí)中的模型評估、對抗攻擊和 AutoML 有關(guān)方法和應(yīng)用程序。他也是《Python 機(jī)器學(xué)習(xí)》一書的作者,曾被科技博客 Analytics Vidhya 評為 GitHub 上具影響力的數(shù)據(jù)科學(xué)家之一。

          對想要學(xué)習(xí)這門課程的學(xué)生,Sebastian Raschka 教授的建議是:你至少要熟悉基本編程知識并完成了編程入門課程。

          課程總共由七個部分組成:

          第一部分:簡介

          L01:什么是機(jī)器學(xué)習(xí)

          • 1.1 課程概述:「Stat 451:機(jī)器學(xué)習(xí)導(dǎo)論(FS 2020)」的簡介

          • 1.2 什么是機(jī)器學(xué)習(xí):機(jī)器學(xué)習(xí)的定義,以及機(jī)器學(xué)習(xí)與編程的關(guān)系

          • 1.3 機(jī)器學(xué)習(xí)的類別:討論了機(jī)器學(xué)習(xí)的三大類,監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)

          • 1.4 符號:介紹了將在本課程中使用的機(jī)器學(xué)習(xí)形式和符號

          • 1.5 ML 應(yīng)用:走向機(jī)器學(xué)習(xí)程序的主要步驟,以及機(jī)器學(xué)習(xí)組件的分類

          • 1.6 ML 動力:關(guān)于學(xué)習(xí)機(jī)器學(xué)習(xí)的不同觀點(diǎn)和動力


          L02:最近鄰算法

          • 2.1 最近鄰算法:介紹最近鄰算法,概覽最近鄰算法的應(yīng)用和最新進(jìn)展

          • 2.2 最近鄰決策邊界:包括 1 - 最近鄰決策邊界背后的概念,此外還列出了一些常見的距離度量

          • 2.3 K - 最近鄰算法:將 1 - 最近鄰概念擴(kuò)展到 k - 最近鄰算法,進(jìn)行分類和回歸

          • 2.4 K - 最近鄰的 Big O:K - 最近鄰簡單實(shí)現(xiàn)的 Big O 運(yùn)行時間復(fù)雜度

          • 2.5 K - 最近鄰的提升:總結(jié)一些提升 K - 最近鄰計(jì)算性能和預(yù)測效率的常見技巧

          • 2.6 Python 中的 K - 最近鄰:利用 scikit-learn,在 Python 中使用 K - 最近鄰。這節(jié)課中使用的 Jupyter 筆記本從這里獲取:https://github.com/rasbt/stat451-machine-learning-fs20/blob/master/L02/code/02_knn_demo.ipynb


          第二部分:計(jì)算基礎(chǔ)

          L03: (可選)Python 編程

          • 3.1 Python 概述:這節(jié)課將討論 Python 的用法,進(jìn)行 C 和 Python 的快速演示(也許并不是很有吸引力)

          • 3.2 Python 設(shè)置:演示如何在 MacOS 上使用 Miniconda 安裝 Python,另外提供了有關(guān) conda 軟件包管理器的簡短演示

          • 3.3 運(yùn)行 Python 代碼:演示運(yùn)行 Python 代碼的不同方式,包括 REPL、IPython、.py 腳本和 Visual Studio Code


          L04: Python 中的科學(xué)計(jì)算

          • 4.1 NumPy 基礎(chǔ)知識介紹

          • 4.2 NumPy 數(shù)組的創(chuàng)建及索引

          • 4.3 NumPy 數(shù)組的數(shù)學(xué)運(yùn)算和通用函數(shù)

          • 4.4 NumPy 的廣播機(jī)制

          • 4.5 NumPy 高級索引–內(nèi)存視圖和副本

          • 4.6 NumPy 隨機(jī)數(shù)生成器

          • 4.7 重塑 NumPy 數(shù)組

          • 4.8 NumPy 比較運(yùn)算符和掩碼

          • 4.9 NumPy 線性代數(shù)基礎(chǔ)

          • 4.10 Matplotlib


          L05: 使用 Scikit-Learn 進(jìn)行機(jī)器學(xué)習(xí)?

          • 5.1 從表格文本文件讀取數(shù)據(jù)集

          • 5.2 基本數(shù)據(jù)處理

          • 5.3 面向?qū)ο蟮木幊毯?Python 類

          • 5.4 Scikit-Learn 簡介

          • 5.5 Scikit-Learn Transformer API

          • 5.6 Scikit-Learn 管道


          第三部分:基于樹的方法

          L06:決策樹

          • 6.1 決策樹簡介

          • 6.2 遞歸算法和 Big-O

          • 6.3 決策樹的類型

          • 6.4 分割標(biāo)準(zhǔn)

          • 6.5 基尼系數(shù) & 熵與誤分類誤差:闡釋在 CART 決策樹的信息增益方程式中,為什么要使用熵(或基尼)代替誤分類誤差作為雜質(zhì)度量

          • 6.6 改進(jìn)和處理過擬合:將決策樹的一些問題(例如過擬合)融合在一起并討論改進(jìn)方法,例如增益比、預(yù)剪枝和后剪枝

          • 6.7 代碼示例:如何使用 scikit-learn 訓(xùn)練和可視化決策樹的快速演示


          L07: 集成方法?

          • 7.1 集成方法簡介:討論了包括絕對多數(shù)投票法(majority voting)、套袋法(bagging)、隨機(jī)森林(random forests)、堆棧(stacking)、梯度提升(gradient boosting)等最受歡迎、使用最廣泛的機(jī)器學(xué)習(xí)方法。

          • 7.2 絕對多數(shù)投票法:討論最基本的模型集成之一「絕對多數(shù)投票」,通過示例解釋為什么它比使用單個分類器更好

          • 7.3 套袋法:介紹了偏差 - 方差權(quán)衡和分解,以了解套袋法的用途

          • 7.4Boosting 和 AdaBoost:討論 boosting 的概念,然后介紹了 AdaBoost,該方法將弱分類器(比如決策樹樁)提升為強(qiáng)分類器

          • 7.5 梯度提升:在 AdaBoost 使用權(quán)重作為訓(xùn)練示例來提升下一輪樹的情況下,梯度提升使用損失的梯度來計(jì)算殘差以適應(yīng)序列中的下一棵樹,視頻中提到的論文地址:https://dl.acm.org/doi/pdf/10.1145/2939672.2939785

          • 7.6 隨機(jī)森林:講解隨機(jī)森林及其與套袋法之間的關(guān)系,以及為什么隨機(jī)森林在實(shí)踐中的效果優(yōu)于套袋法

          • 7.7 堆棧:介紹 Wolpert 堆棧算法,并展示如何在 mlxtend 和 scikit-learn 中使用堆棧分類器


          第四部分:模型評估

          模型評估分為五個小節(jié):

          • L08:基礎(chǔ)部分,欠擬合和過擬合

          • L09:重采樣方法

          • L10:交叉驗(yàn)證

          • L11:統(tǒng)計(jì)測試和算法選擇

          • L12:評估指標(biāo)


          在后續(xù)即將更新的課程中,Sebastian Raschka 將對「降維和無監(jiān)督學(xué)習(xí)」、「貝葉斯學(xué)習(xí)」內(nèi)容進(jìn)一步介紹,課程資料也會更新,包括講座視頻、PPT 鏈接等。

          待更新的內(nèi)容包括:

          第五章:降維和無監(jiān)督學(xué)習(xí)

          • L13 - 功能選擇

          • L14 - 特征提取

          • L15 - 聚類


          第六章:貝葉斯學(xué)習(xí)

          • L16 - 貝葉斯方法簡介

          • L17 - 貝葉斯最佳分類器

          • L18 - 樸素貝葉斯分類器

          • L19 - 貝葉斯網(wǎng)絡(luò)


          課件資料

          領(lǐng)取方式:

          長按掃碼,發(fā)消息?[課件]


          瀏覽 48
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  强奸乱伦大杂烩 | 欧美永久免费性爱视频 | 亚洲日韩欧美第一页 | 国产一级看毛片 | 大鸡巴日逼视频 |