測試集不做平衡化處理,代碼分析都是正確的,如何提高?有老師能解決一下我這個問題嗎,如果老師覺得描述不準(zhǔn)確,我可以和老師直接溝通嗎?
同學(xué)我們的課程輔導(dǎo)是包含答疑的,如果同學(xué)感覺需要很長的時間來找老師輔導(dǎo),可以直接選擇購買課時后,與授課老師進(jìn)行約課上課指導(dǎo),小的問題可以和老師在vip學(xué)習(xí)群里交流。
1. 嘗試不同的數(shù)據(jù)劃分方式
(1)train_test_split()里的random_state修改
(2)KFOLD
(3)80%訓(xùn)練,20%測試,10%測試
2. 用更強(qiáng)大的模型來做預(yù)測
RandomForestClassifier
MLP
1. over sampling能增加訓(xùn)練集,讓模型“見多識廣”,可以提高F1
2. under sampling減少訓(xùn)練集,F(xiàn)1會降低
3. 測試集中,數(shù)據(jù)不平衡,可能會導(dǎo)致模型有偏差
4. 使用更復(fù)雜的模型Randomforest,可以提高F1
5. 80%這種數(shù)據(jù)劃分方式,也可能導(dǎo)致模型有偏差
(KFold)
以上是部分解答,同學(xué)如果需要與我們老師進(jìn)行更多的輔導(dǎo)交流,可以選擇聯(lián)系我們咨詢。我們是一家專注于留學(xué)生課業(yè)輔導(dǎo)的機(jī)構(gòu)。