2014年1月3日 星期五

[Kaggle] Data Science London + Scikit-learn


106newMeng-Gen Tsai0.912823Sat, 04 Jan 2014 04:03:02 (-1.1h)
svm。

當我嘗試把參數最佳化的時候,參考了以下說明:

http://scikit-learn.org/stable/auto_examples/svm/plot_rbf_parameters.html

結果分數變低,個人以為是 overfitting。



傳說中的 random forests 以及其他類的 sklearn ensemble learning 效果不好,cross validation 分數比 svm 低,實際傳上去分數也是低的,喵的,害我浪費一個 submission。

Kaggle 一天只給我們 5 submissions



PCA,開始洗 PCA 相關 papers。

43newMeng-Gen Tsai0.9452313Wed, 08 Jan 2014 06:54:36 (-12.2h)

沒有留言:

張貼留言