2014年1月3日 星期五

[Kaggle] titanic-gettingStarted


https://www.kaggle.com/c/titanic-gettingStarted/leaderboard


1111newMeng-Gen Tsai0.727272Fri, 03 Jan 2014 09:51:42
嗚嗚,Random Forest 的極限大概就是這樣。



605newMeng-Gen Tsai0.779906Sat, 04 Jan 2014 01:42:40 (-7.3h)
不過林杯也不是省油的燈,random forest 不行就改試其他的演算法。

參考 Scikit-learn:http://scikit-learn.org/stable/modules/ensemble.html,這是很不錯的 python machine learning library。

當然我也不排除使用 R,只要讓排名變前面就可以了。喵的。



其實 overfitting 對 machine learning 是蠻重要的課題。

339newMeng-Gen Tsai0.7894714Mon, 06 Jan 2014 07:41:36
cross_val_score 分數高僅僅表示分數高而已,不代表可以在 test data 得高分。

249newMeng-Gen Tsai0.7942615Mon, 06 Jan 2014 07:54:36
繼續浪費 submission count :p




162newMeng-Gen Tsai0.7990424Wed, 08 Jan 2014 09:23:11

Your Best Entry

You improved on your best score by 0.00478.
You just moved up 89 positions on the leaderboard.
調參數。

沒有留言:

張貼留言