<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          收藏 | 機器學習中需要了解的 5 種采樣方法

          共 892字,需瀏覽 2分鐘

           ·

          2022-05-20 14:02

          點擊上方小白學視覺”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達

          ?簡單隨機抽樣
          假設您要選擇一個群體的子集,其中該子集的每個成員被選擇的概率都相等。
          下面我們從一個數據集中選擇 100 個采樣點。
          sample_df = df.sample(100)?


          ?分層采樣




          假設我們需要估計選舉中每個候選人的平均票數。現假設該國有 3 個城鎮(zhèn):
          A 鎮(zhèn)有 100 萬工人,
          B 鎮(zhèn)有 200 萬工人,以及
          C 鎮(zhèn)有 300 萬退休人員。

          我們可以選擇在整個人口中隨機抽取一個 60 大小的樣本,但在這些城鎮(zhèn)中,隨機樣本可能不太平衡,因此會產生偏差,導致估計誤差很大。
          相反,如果我們選擇從 A、B 和 C 鎮(zhèn)分別抽取 10、20 和 30 個隨機樣本,那么我們可以在總樣本大小相同的情況下,產生較小的估計誤差。
          使用 python 可以很容易地做到這一點:

          from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, test_size=0.25)

          ??水塘采樣



          我喜歡這個問題陳述:

          假設您有一個項目流,它長度較大且未知以至于我們只能迭代一次。
          創(chuàng)建一個算法,從這個流中隨機選擇一個項目,這樣每個項目都有相同的可能被選中。

          我們怎么能做到這一點?
          假設我們必須從無限大的流中抽取 5 個對象,且每個元素被選中的概率都相等。
          import randomdef generator(max): number = 1 while number < max: number += 1 yield number# Create as stream generatorstream = generator(10000)# Doing Reservoir Sampling from the streamk=5reservoir = []for i, element in enumerate(stream): if i+1<= k: reservoir.append(element) else: probability = k/(i+1) if random.random() < probability: # Select item in stream and remove one of the k items already selected reservoir[random.choice(range(0,k))] = elementprint(reservoir)------------------------------------[1369, 4108, 9986, 828, 5589]
          從數學上可以證明,在樣本中,流中每個元素被選中的概率相同。這是為什么呢?
          當涉及到數學問題時,從一個小問題開始思考總是有幫助的。
          所以,讓我們考慮一個只有 3 個項目的流,我們必須保留其中 2 個。
          當我們看到第一個項目,我們把它放在清單上,因為我們的水塘有空間。在我們看到第二個項目時,我們把它放在列表中,因為我們的水塘還是有空間。
          現在我們看到第三個項目。這里是事情開始變得有趣的地方。我們有 2/3 的概率將第三個項目放在清單中。
          現在讓我們看看第一個項目被選中的概率:

          移除第一個項目的概率是項目 3 被選中的概率乘以項目 1 被隨機選為水塘中 2 個要素的替代候選的概率。這個概率是:
          2/3*1/2 = 1/3
          因此,選擇項目 1 的概率為:
          1–1/3=2/3

          我們可以對第二個項目使用完全相同的參數,并且可以將其擴展到多個項目。
          因此,每個項目被選中的概率相同:2/3 或者用一般的公式表示為 K/N

          ?隨機欠采樣和過采樣

          ?

          我們經常會遇到不平衡的數據集。
          一種廣泛采用的處理高度不平衡數據集的技術稱為重采樣。它包括從多數類(欠采樣)中刪除樣本或向少數類(過采樣)中添加更多示例。
          讓我們先創(chuàng)建一些不平衡數據示例。
          from sklearn.datasets import make_classificationX, y = make_classification( n_classes=2, class_sep=1.5, weights=[0.9, 0.1], n_informative=3, n_redundant=1, flip_y=0, n_features=20, n_clusters_per_class=1, n_samples=100, random_state=10)X = pd.DataFrame(X)X[ target ] = y
          我們現在可以使用以下方法進行隨機過采樣和欠采樣:
          num_0 = len(X[X[ target ]==0])num_1 = len(X[X[ target ]==1])print(num_0,num_1)# random undersampleundersampled_data = pd.concat([ X[X[ target ]==0].sample(num_1) , X[X[ target ]==1] ])print(len(undersampled_data))# random oversampleoversampled_data = pd.concat([ X[X[ target ]==0] , X[X[ target ]==1].sample(num_0, replace=True) ])print(len(oversampled_data))------------------------------------------------------------OUTPUT:90 1020180

          ?使用 imbalanced-learn 進行欠采樣和過采樣

          ?

          imbalanced-learn(imblearn)是一個用于解決不平衡數據集問題的 python 包,它提供了多種方法來進行欠采樣和過采樣。
          a. 使用 Tomek Links 進行欠采樣:
          imbalanced-learn 提供的一種方法叫做 Tomek Links。Tomek Links 是鄰近的兩個相反類的例子。
          在這個算法中,我們最終從 Tomek Links 中刪除了大多數元素,這為分類器提供了一個更好的決策邊界。
          from imblearn.under_sampling import TomekLinks
          tl = TomekLinks(return_indices=True, ratio= majority )X_tl, y_tl, id_tl = tl.fit_sample(X, y)

          b. 使用 SMOTE 進行過采樣:
          在 SMOE(Synthetic Minority Oversampling Technique)中,我們在現有元素附近合并少數類的元素。
          from imblearn.over_sampling import SMOTE
          smote = SMOTE(ratio= minority )X_sm, y_sm = smote.fit_sample(X, y)
          imbLearn 包中還有許多其他方法,可以用于欠采樣(Cluster Centroids, NearMiss 等)和過采樣(ADASYN 和 bSMOTE)。
          ?
          ?結論

          ?

          算法是數據科學的生命線。
          抽樣是數據科學中的一個重要課題,但我們實際上并沒有討論得足夠多。
          有時,一個好的抽樣策略會大大推進項目的進展。錯誤的抽樣策略可能會給我們帶來錯誤的結果。因此,在選擇抽樣策略時應該小心。
          via:https://towardsdatascience.com/the-5-sampling-algorithms-every-data-scientist-need-to-know-43c7bc11d17c
          下載1:OpenCV-Contrib擴展模塊中文版教程
          在「小白學視覺」公眾號后臺回復:擴展模塊中文教程,即可下載全網第一份OpenCV擴展模塊教程中文版,涵蓋擴展模塊安裝、SFM算法、立體視覺、目標跟蹤、生物視覺、超分辨率處理等二十多章內容。

          下載2:Python視覺實戰(zhàn)項目52講
          小白學視覺公眾號后臺回復:Python視覺實戰(zhàn)項目,即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數、添加眼線、車牌識別、字符識別、情緒檢測、文本內容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學校計算機視覺。

          下載3:OpenCV實戰(zhàn)項目20講
          小白學視覺公眾號后臺回復:OpenCV實戰(zhàn)項目20講,即可下載含有20個基于OpenCV實現20個實戰(zhàn)項目,實現OpenCV學習進階。

          交流群


          歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據研究方向邀請進入相關微信群。請勿在群內發(fā)送廣告,否則會請出群,謝謝理解~


          瀏覽 30
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日韩中文字幕视频 | 欧美福利在线视频 | 欧洲一级黄色A片 | av天天av天天爽 | 欧美成人A片Ⅴ一区二区三区动漫 |