前言
隨著前次 [Kaggle] Instant Gratification - A synchronous Kernels-only competition 比賽的落幕,我在短暫的休息了一天後又馬不停蹄地繼續開啟下一個比賽。之所以這麼樣的汲汲營營,並不只是為了想在短時間內學到許多新東西,更重要的原因在於這比賽只剩不到一周的時間就要結束了…身為一名標準的工程師,死線往往能成為推進他前進的原動力,所以我就參賽啦~
比賽說明
EDA
Models
BERT、GPT2、LSTM、GRU、XLNET
小結
因為時間甚趕的關係,儘管Kaggle官方Kernel提供每位使用者4X NVIDIA P100的使用額度,但為了提早訓練完模型,我還是上了GCP租了一台新的NVIDIA V100…訓練速度大概就比P100快一半,但是真的是……非常的燒錢。我在比賽結束之後去查看了一下V100租了快兩天半的總花費…一百鎂!
好吧,深度學習真的是有錢人在玩的遊戲、深度學習真的是有錢人在玩的遊戲、深度學習真的是有錢人在玩的遊戲…會這樣講不過是自怨自艾而已,如果能從頭參與比賽的話,模型訓練的時間其實不會成為劣勢,重要的事情還是在於了解模型並能調整參數。從比賽後各位隊伍分享出來的方法就能知道,有些部分是我還沒有想到的,而有些部分則是我想到了但基於時間再加上不熟的關係而沒有做出來,這幾點在往後的比賽都能成為借鏡。
我想Master大概只離我有半年的時間而已XDD。
To be continued..